Waaaahnsinnig langsaaam

Hallo Team,

die Synesty-Performance ist derzeit extrem low. Es dauert ewig, bis sich sowas hier mal öffnet:
So sieht das schon seit einer Minute aus.


Außerdem sehe ich plötzlich bei vielen Steps keine Vorschau:
image
Wenn ich bei dem aber das Debugger-Info-Fenster öffne, sehe ich sehr wohl, daß eine Konfiguration hinterlegt ist:

Außerdem häufige Timeouts bis zu einem Punkt, daß ich mich aus dem ganzen Account ausloggen und ggf. über einen anderen Browser wieder einloggen muß. Es ist zermürbend. Mittlerweile seit über anderthalb Stunden.

Hallo Micha,

wir haben uns die logs von gestern (zwischen 12-15 Uhr) sehr lange angeschaut und analysiert. Leider ist es nicht ganz einfach darin eine genaue Ursache für die Performance Probleme zu erkennen. Aus unserer Sicht könnten einige sehr lang laufende Vorschau Ausführungen die Ursache sein.
Zur Erklärung: Bei der Ausführung der Vorschau werden fast wie bei der normalen Ausführung alle vorherigen Steps ausgeführt. Das kann je nach Größe des Flows (Anzahl Steps) und Art der Steps zu einer sehr hohen Last führen. Das führt dann wiederum dazu, dass auch alle anderen Requests verlangsamt werden oder auch Timeouts auftreten (wie in deinen Screenshots). Deshalb ist es bei großen Flows sinnvoll vorherige Gruppen / Steps zu pausieren, die nicht benötigt werden, bevor die Vorschau ausgeführt wird.

Vielleicht kannst du uns bei der Suche nach Verbesserungen helfen und noch folgende Fragen beantworten:

  • Hattest du den Eindruck das die Performance nach der Ausführung einer Vorschau schlechter wurde ?
  • Falls nicht: Ist dir bei/nach einer bestimmten Aktion aufgefallen, dass alles etwas langsamer geworden ist ?
  • Hast du in einem Flow oder an verschiedenen Flows gearbeitet ? Kannst du uns ungefähr sagen was da für Steps vorhanden sind oder evtl. einen Export des Flows schicken ?

Viele Grüße
Torsten

Hallo Torsten,

erstmal danke für eure Bemühungen. Ich hatte alles Mögliche deaktiviert, dennoch kam es zum beschriebenen Verhalten. Aber nicht konstant - zwischendurch war es auch mal für 10 Minuten möglich, normal zu arbeiten. Ich habe einen Verdacht, aus welcher Ecke das Ganze kommen könnte - ich lasse im Flow eine sehr große XML-Datei verarbeiten, die ich bereits mit dem XMLSplitter in mehrere Dateien aufteilen muß, damit es überhaupt geht. Da muß man ja die Parameter numEntriesPerFile und limit setzen - die habe ich beide in Variablen ausgelagert, um das schneller anpassen zu können. Für meine Testzwecke hatte ich die Werte dann auf relativ kleine Zahlen gesetzt (2000 bzw. 1). Ich schätze, daß jede Vorschau nun jedes mal die Riesendatei geholt hat - allerdings müßte aus meinem Verständnis durch die kleinen Werte ja letztlich nur eine kleine Datei mit 2000 products geparst werden, und das dauert eigentlich nicht besonders lange. Aber trotzdem meine ich, daß es vor allem daran liegt. Gibt es denn keine Möglichkeit, daß man z.B. diese erste geparste kleine Datei dauerhaft im Cache halten kann und das initiale Laden der großen Ausgangsdatei nach dem ersten Mal abklemmen kann? Dann würde er die Daten ja rasend schnell liefern. Wenn man dann z.B. an den genannten Parametern schrauben muß, müßte man dann eben ggf. das Einlesen der großen Datei wieder für ein Mal aktivieren. Nur ein Gedanke.

Gruß Micha
podcomm e-commerce management