Timestamp-Konvertierungswerkzeug
Unix-Timestamp und Datumsformat gegenseitig konvertieren
Timestamp -> Datum
Datum -> Timestamp
Globale Zeitzone-Vergleich
Häufig verwendete Format-Beispiele
Was ist Timestamp?
Timestamp (Timestamp) ist eine Zahl, die einen bestimmten Zeitpunkt repräsentiert. Unix-Timestamp ist die Anzahl Sekunden seit dem 1. Januar 1970 00:00:00 UTC (Unix Epoch) bis zum angegebenen Zeitpunkt. Es ist die Standardmethode zur Zeit-Repräsentation in Computersystemen mit plattform- und timezone-unabhängiger Eindeutigkeit.
Timestamp gibt es in Sekunden (10-stellig) und Millisekunden (13-stellig). Sekunden-Timestamp wird häufig in Unix/Linux-Systemen verwendet, Millisekunden-Timestamp häufig in JavaScript und anderen Sprachen.
Verwendung
Timestamp -> Datum
- Unix-Timestamp in das linke Karten-Feld eingeben
- Target-Zeitzone auswählen (z.B. Berlin Zeit UTC+1)
- Konvertieren-Button klicken, konvertiertes Datum prüfen
- Ergebnis: Standard-Format, ISO 8601, deutsches Format und andere Darstellungsformen
Datum -> Timestamp
- Datum und Zeit im rechten Karten-Feld auswählen
- Quell-Zeitzone auswählen
- Konvertieren-Button klicken, entsprechenden Unix-Timestamp erhalten
- Ergebnis: Sekunden-Timestamp und Millisekunden-Timestamp
Anwendungsbeispiele
API-Aufruf
Datenbank-Zeit-Erfassung
Timestamp-Validierung
Häufig gestellte Fragen (FAQ)
F: Was ist der Unterschied zwischen Sekunden- und Millisekunden-Timestamp?
A: Sekunden-Timestamp ist 10-stellig, genau bis Sekunden; Millisekunden-Timestamp ist 13-stellig, genau bis Millisekunden. JavaScripts Date.now() gibt Millisekunden zurück, durch 1000 dividieren für Sekunden.
F: Warum beginnt Unix-Timestamp bei 1970?
A: Unix-System wurde Anfang der 1970er geboren, Entwickler wählten den 1. Januar 1970 als Epoch-Startpunkt. Dieser Zeitpunkt wird Unix Epoch genannt und ist der Referenzpunkt für Zeit-Berechnungen.
F: Beeinflusst Zeitzone den Timestamp?
A: Der Timestamp selbst ist timezone-unabhängig und repräsentiert UTC-Zeit. Bei Konvertierung zu Datum muss die Target-Zeitzone berücksichtigt werden. Der gleiche Timestamp zeigt unterschiedliche Zeit in unterschiedlichen Zeitzonen.
F: Gibt es ein oberes Limit für Timestamp?
A: 32-Bit-Timestamp-Limit ist 19. Januar 2038 (ca. 2.1 Milliarden Sekunden), genannt 2038-Problem. Moderne Systeme verwenden 64-Bit-Timestamp für größere Zeitbereiche.