Es gab Änderungen an den Limits (Vereinheitlichung der Limits).
Wir prüfen den Fall umgehend.
Wir stellen einen Hotfix bereit, der das alte Verhalten beim SpreadsheetCSVReader wiederherstellt.
Wir versuchen den Hotfix innerhalb der nächsten Stunde zu verteilen und melden uns.
Der Hotfix wurde verteilt. Bitte probier noch mal.
Generell ist das gewollt. SearchDatastore schauen wir uns aber nochmal an. Das wird vermutlich auch ein Hotfix.
Hintergrund ist die Vereinheitlichung der Limits.
Hier sind die neuen vereinheitlichten Limit Regeln:
D.h. auch PlentyGetItemBase ist so gewollt und war eigentlich auch damals schon so. Ist vielleicht nicht aufgefallen.
Danke für dein Feedback. Ja hier wird es noch etwas Finetuning geben. Wichtig ist, dass im Preview und im Mapper keine riesigen Limits gesetzt werden können. D.h. es muss vermieden werden, dass dort jemand 10000 einträgt, damit die Speicherauslastung klein gehalten wird. Auf der anderen Seite verstehen wir, dass man manchmal mehr Zeilen braucht.
Wie hoch stellt ihr denn das Limit im Mapper in der Regel? Was wäre ein praktikabler Wert?
Danke Stefan für deine Rückmeldung. Die Filter sind ein uns bekanntes Problem. Leider müssen wir da einen praktikablen Kompromiss finden. Im Worstcase kommt ein positives Ergebnis erst in der letzten Zeile bzw. nach mehreren tausend Zeilen. Im UI müssen wir daher einen Kompromis finden, der die Datenmenge und Laufzeit klein hält.
Wir würden jetzt erstmal die Limits im Mapper auf 3000 begrenzen und beobachten.
Ok das 3000er Limit ist live.