Hallo Zusammen,
ich möchte eine hohe Anzahl an Datensätzen (über 1 Mio. Datensätze mit ca. 100 Spalten) aus einer CSV-Datei in den SQL Server bringen. Den Weg, den ich bisher gegangen bin ist folg.:
CSV-Datei in Entitäten im Arbeitsspeicher laden -> alle Daten mit einer Abfrage zum SQL-Server exportieren
Bei der Arbeit haben wir teilweise noch sehr alte Rechner im Einsatz. Von daher kam es mit zunehmender Datensatzanzahl in den Abfragen zuletzt häufiger zu Speicherüberlastungen. Grund ist, dass alle Datensätze erst in den Arbeitsspeicher geladen werden.
Ich würde jetzt gerne jeden Datensatz einzeln behandeln. Das heißt, erster Datensatz einlesen->Datensatz zum SQL-Server schreiben, Datensatz aus dem Speicher entfernen und den nächsten Datensatz einlesen.
Das gleiche übrigens auch umgekehrt, also Daten aus dem SQL-Server in z.B. eine CSV-Datei.
Ich wollte jetzt nicht anfangen, einfach jeden Datensatz mit "INSERT INTO..." einzeln zu schreiben. 1 Mio. Abfragen abzuschicken ist event. auch nicht der beste Weg.
Weiß jemand, wie man dieses Problem am Besten behandeln kann?