Autor Beitrag
hansa Threadstarter
ontopic starontopic starontopic starontopic starontopic starontopic starhalf ontopic starofftopic star
Beiträge: 3079
Erhaltene Danke: 9



BeitragVerfasst: Mo 28.10.02 11:11 
Hi Leute,

nichts für ungut. 8) Aber der Umgang mit dem Kram hier erfordert eine gewisse Erfahrung, ist die noch zu gering, passieren kleine Fehler, die große Auswirkungen haben. Hier waren es gleich zwei. Den ersten weiß ich nicht mehr, aber der hier war anscheinend tödlich : Hatte die BI-Trigger vergessen. :idea:

Gruß
Hansa
hansa Threadstarter
ontopic starontopic starontopic starontopic starontopic starontopic starhalf ontopic starofftopic star
Beiträge: 3079
Erhaltene Danke: 9



BeitragVerfasst: Do 14.11.02 01:25 
Hi,

so wie Lothar das beschrieben hat, ist es am besten, meiner Meinung nach zumindest mittlerweile auch. 8) Ich habe jetzt mal 10 Tables so behandelt. Hierfür brauche ich pro Table ca. einen Tag, weil da einiges an überflüssigem, unlogischem drin ist (auf der Datenseite) und die Konvertierung inklusive Fehlerbereinigung (Delphi-mäßig) halt dauert.

Um das etwas zu beschleunigen schreib ich das hier rein, vielleicht hat ja noch einer eine Idee. Da gibts nämlich noch 20 Tables. :| Was mich aufhält, ist vor allem das zerstückeln der Zeile mit den alten Daten, bzw. das Einfügen in die DB. Das muß alles von Hand abgezählt werden. Dann kommt eine Fehlermeldung und wieder die nächste. Um das zu vereinfachen habe ich die Felder der Ursprungsdaten möglichst gleich behandelt : Prozedur für jeden Typ mit festgelegter Feldlänge in der Textdatei, aber dann wird es alles zu lang.

Wie sollte man da vielleicht besser vorgehen ? Also mir fällt nicht mehr viel dazu ein. Glaube fast, in der Richtung geht nix mehr, aber wer weiß ? :shock:

Gruß
Hansa