Millionen Datensätze. Millisekunden Antwortzeit.We love technology.
B2B-Kataloge sind anders als im Endkundengeschäft. Nicht 5.000 Produkte mit hübschen Bildern,
sondern 2 Millionen technische Artikel mit 200 Attributen, Variantenkombinationen und kundenspezifischen Preismatrizen.
Das typische Problem
Der Produktkatalog hat 1,5 Millionen Artikel. Die Suche braucht 5-8 Sekunden. Preise werden nachts importiert und sind tagsüber veraltet. Das PIM, der Shop und das ERP haben jeweils eigene Produktdaten - keine stimmt mit der anderen überein.
Was wir liefern
-
Suchindex für Millionen Produkte: Wir setzen Elasticsearch oder OpenSearch auf - mit maßgeschneiderten Mappings, Facettierung (Filter wie Farbe, Größe, technische Werte), Synonym-Handling und relevantem Ranking für technische Attribute.
-
Mehrstufiges Caching: CDN für statische Inhalte, Redis für häufige Abfragen, vorberechnete Datenbank-Ansichten für aufwendige Berechnungen -damit der Server nicht bei jeder Anfrage alles neu berechnen muss.
-
Echtzeit-Synchronisation: Statt nächtlicher Batch-Importe: Änderungen im ERP lösen sofort Ereignisse aus, die über einen zentralen Verteiler (Message Broker) an alle angeschlossenen Systeme weitergegeben werden.
-
PIM als zentrale Quelle: Pimcore oder Akeneo als das eine System, in dem alle Produktdaten gepflegt werden - mit automatischer Ausgabe an Shop, Marktplatz, Print und Händlerportale.
-
Performance-Monitoring: Überwachungstools mit maßgeschneiderten Dashboards - nicht nur Ladezeiten, sondern auch Suchqualität, Bestellabschlüsse und Schnittstellengeschwindigkeit.
Unter der Haube
Bei 2+ Millionen Produkten mit komplexen Attributen reicht ein Standard-Setup nicht. Wir arbeiten mit denormalisierten Indizes - das bedeutet, kundenspezifische Preise und Verfügbarkeiten sind bereits vorberechnet im Index enthalten, anstatt bei jeder Suchanfrage live aus verschiedenen Systemen zusammengesucht zu werden. Ergebnis: Facettierte Suche in unter 200 Millisekunden.
Klassische Batch-Importe (nachts alle Daten abgleichen) erzeugen veraltete Daten. Wir ersetzen das durch Change Data Capture (CDC) - ein Verfahren, das Änderungen in der Quelldatenbank automatisch erkennt und sofort als Ereignisse weitergibt. Diese Ereignisse werden über Apache Kafka (einen hochverfügbaren Nachrichtenverteiler) an alle angeschlossenen Systeme verteilt.
Produktsuche in unter 200ms, Preise in Echtzeit aktualisiert, Lagerbestände innerhalb von Sekunden synchronisiert - statt erst am nächsten Morgen.
Wie viele Produkte hat Ihr Katalog -
und wie schnell ist Ihre Suche?
Bei über 100.000 Produkten lohnt sich fast immer ein Blick auf die Sucharchitektur.
