Fehler bei Schreiben in Datastore

Hallo Team, wir haben hier ein Problem: In einem Flow werden Zeilen in einem DS in zwei Schritten überschrieben, was ihren Status betrifft: In einem ersten Schritt alle auf UNPROCESSED, dann wird eine csv eingelesen, dann werden alle, die da drinstehen UND im DS vorhanden sind, in Letzterem auf PROCESSED_SUCCESS gesetzt. In einem anderen Flow werden dann nur die Zeilen mit SUCCESS eingelesen und weiterverarbeitet. Das klappt so eigentlich auch, nur habe ich jetzt einen Fehler hinsichtlich Limits bekommen:


image


Mir war nicht bewußt, daß es ein Limit auf Schreibvorgänge in Datastores gibt. Es hat auch nichts mit der Anzahl der Datenzeilen zu tun, da haben wir noch genug frei. Ich habe zwar schon eine Idee, wie ich den ersten Flow umgestalten kann, damit weniger geschrieben wird, habe aber aktuell das Problem, daß unbedingt heute noch Datastores aktualisiert werden müssen. Wenn ich jetzt keine Schreibvorgänge mehr ausführen kann, läuft alles schief. Könnt ihr bitte ausnahmsweise dieses Limit für uns mal entfernen? Dann kann ich die DS aktualisieren. Vielen Dank!


Ach so, für welchen Zeitraum gilt denn dieses Limit, ist das für den ganzen Tag?


Gruß Micha

podcomm e-commerce management


Der Fehler kommt, weil der aktuelle Import das Limit von 100100 Datastore-Zeilen sprengen würde. D.h. bei deinem Import sind ca. 6000 neue Datensätze dabei.


Wir nehmen das mit auf und passen die Meldung mal an, dass sich das etwas besser liest.

Evtl. mal den identifier prüfen, falls du der Meinung bist, dass da keine 6000 neuen Datensätze dabei sind.


Ansonsten kannst du entweder Datenbankzeilen löschen, oder Nachbuchen oder Abrechnung nach Verbrauch aktivieren.