Datastore Import mit großer Datensatzanzahl

Hallo,


ich habe versucht eine Datei mit 600K Datensätzen in einen Datastore zu laden. Der direkt Import bricht nach ca. 15 Minuten mit einem Error ab.


Ein Flow kann dafür nicht verwendet werden, da die Datei 40mb groß ist und der SpreadsheetReader nur bis 10mb laden kann.


Wie bekomme ich nun die Datensätze zeitnah in den Datastore?


Vielen Dank

Hallo Christian,


wenn die Datei zu groß ist könntest du sie mit einem "CSV Splitter" in mehrere kleine teilen und so in den Datastore oder Flow laden. Mit welcher Fehlermeldung bricht denn der Direktimport ab?



Viele Grüße,


Rocco




Größere Dateien können auch von einem FTP abgerufen werden. So kannst Du das Limit von 10MB beim manuellen Upload umgehen und die Datensätze per Flow einspielen.


Grüße,


Rocco

Super, dass wäre eine Lösung. War mir nicht klar, dass nur der Upload eine Begrenzung hat. Danke für die Antworten.