Hallo, ich hoffe das Thema passt hier in die Sparte:
die Funktion GetTickCount gibt doch die Anzahl der Millisekunden seit das Programm läuft zurück. Der Rückgabe-Wert ist ein DWORD, also ein Doppel-Wort = 32 Bit.
Nur theoretisch: Was ist wenn man ein Programm (2^32)/1000/60/60/24 = 49,71 Tage laufen lässt?
Stürzt dann das Programm ab, gibt es einfach einen Überlauf, oder fängt die Funktion wieder von vorne an zu zählen?
Das hat wahrscheinlich noch keiner ausprobiert, aber vllt hats ja schon mal jemand gelesen oder so...