13. März 2024 – Couchbase kündigt als erster Anbieter einer Datenbank-Plattform Vector Search für Edge Computing an, reduziert damit die Komplexität bei der Entwicklung adaptiver Applikationen und unterstützt Entwickler mit LangChain- und LlamaIndex-Support.
Couchbase, Anbieter einer Cloud-Datenbank-Plattform, stellt heute Vector Search als neues Feature in Couchbase Server und dem DBaaS (Database-as-a-Service) Couchbase Capella vor. Damit wird die Entwicklung KI-gestützter adaptiver Anwendungen für kontextbezogene und hyperpersonalisierte Services vereinfacht und beschleunigt. Als erste Datenbank-Plattform bietet Couchbase Vector Search für verschiedenste Szenarien an, von Rechenzentren über Cloud und Mobile Computing bis zu IoT-Devices am Edge. Adaptive Anwendungen können so überall eingesetzt werden.
Typische Use Cases für adaptive Anwendungen sind beispielsweise Chatbots oder Semantic Search. Dafür werden hybride Suchfunktionen (Hybrid Search) benötigt, die unter anderem Texte, Vektoren, Tabellen und Lagerbestände durchsuchen. Vector Search ist in Verbindung mit Large Language Models (LLM) und Retrieval Augmented Generation (RAG) wichtig, um die Treffergenauigkeit zu erhöhen und Halluzinationen zu verhindern. Dafür reine Vector-Datenbanken einzusetzen, erhöht die Komplexität und beeinträchtigt die Performance der Applikationen. Couchbase beseitigt diese Einschränkungen durch die Integration von Vector Search in seine Multipurpose-Plattform und verbessert so die Qualität von LLM-Ergebnissen. Entwickler profitieren zudem von der Möglichkeit, SQL++-Queries für Vector Search bei der Applikations-Entwicklung zu nutzen.
Zusammen mit dem Columnar Service bietet Vector Search einen einzigartigen Ansatz zur Komplexitäts- und Kostenreduktion durch die Konsolidierung von Workloads in einer einzigen Cloud-Datenbank-Plattform und punktet unter anderem mit diesen Features:
– Similarity und Hybrid Search kombinieren und integrieren verschiedenste Text-, Vector-, Range- und Geo-Suchfunktionen.
– Der Einsatz von Retrieval Augmented Generation macht KI-gestützte Anwendungen exakter, sicherer und schneller verfügbar.
– Da die Suchfunktionen über einen einzigen Index laufen, verringern sich die Latenzzeiten und die Performance wird gesteigert.
Couchbase erweitert zudem das KI-Partnersystem durch den Support für LangChain und LlamaIndex. LangChain ermöglicht den Zugang zu LLM-Bibliotheken per API und LlamaIndex erhöht die Auswahlmöglichkeiten für LLMs bei der Entwicklung von adaptiven Anwendungen.
„Die Integration von Vector Search ist der nächste Schritt zur Unterstützung unserer Kunden bei der Entwicklung adaptiver Applikationen“, erklärt Scott Anderson, SVP Product Management and Business Operations bei Couchbase. „Damit ermöglicht Couchbase Vector Search und Echtzeit-Datenanalyse auf einer schnellen, einheitlichen und sicheren Plattform, von der Cloud bis zum Edge.“
Die neuen Features sollen im zweiten Quartal 2024 für Capella und Couchbase Server sowie als Beta-Version für mobil und Edge verfügbar sein.
Diese Presseinformation kann auch unter www.pr-com.de/companies/couchbase abgerufen werden.
Sie muessen eingeloggt sein um einen Kommentar zu schreiben Einloggen