Hallo Team, wir haben hier ein Problem: In einem Flow werden Zeilen in einem DS in zwei Schritten überschrieben, was ihren Status betrifft: In einem ersten Schritt alle auf UNPROCESSED, dann wird eine csv eingelesen, dann werden alle, die da drinstehen UND im DS vorhanden sind, in Letzterem auf PROCESSED_SUCCESS gesetzt. In einem anderen Flow werden dann nur die Zeilen mit SUCCESS eingelesen und weiterverarbeitet. Das klappt so eigentlich auch, nur habe ich jetzt einen Fehler hinsichtlich Limits bekommen:
Mir war nicht bewußt, daß es ein Limit auf Schreibvorgänge in Datastores gibt. Es hat auch nichts mit der Anzahl der Datenzeilen zu tun, da haben wir noch genug frei. Ich habe zwar schon eine Idee, wie ich den ersten Flow umgestalten kann, damit weniger geschrieben wird, habe aber aktuell das Problem, daß unbedingt heute noch Datastores aktualisiert werden müssen. Wenn ich jetzt keine Schreibvorgänge mehr ausführen kann, läuft alles schief. Könnt ihr bitte ausnahmsweise dieses Limit für uns mal entfernen? Dann kann ich die DS aktualisieren. Vielen Dank!
Ach so, für welchen Zeitraum gilt denn dieses Limit, ist das für den ganzen Tag?
Gruß Micha
podcomm e-commerce management