Für Videoverarbeitung optimiert: Akamai führt Cloudinfrastruktur und -services auf Basis von NVIDIA GPUs ein
Die neue Codierung mit kostengünstigen NVIDIA-GPUs optimiert die Verarbeitungskapazitäten von Medienunternehmen
Die neue Codierung mit kostengünstigen NVIDIA-GPUs optimiert die Verarbeitungskapazitäten von Medienunternehmen
Native Integration der Graphdatenbank in die Google Cloud Platform beschleunigt Entwicklung und Deployment von GenAI-Anwendungen
Reply stellt LoopMind vor: eine Lösung zum kontrollierten und sicheren Einsatz von generativer KI in Geschäftsprozessen
Native Integration der Graphdatenbank in die All-in-One-Analyselösung vereinheitlicht das Datenmanagement, verbessert GenAI-Ergebnisse und reduziert KI-Halluzinationen
07.03.2024 | Reply erhält AWS-Kompetenz für generative KI und stellt damit seine Expertise bei der Umsetzung branchenübergreifender Lösungen unter Beweis
Lufthansa setzt mit dem KI-gestützten Customer Insight Hub von TD Reply neue Maßstäbe in der Kundeninteraktion.
München, 11.12.2023 – Die Entwicklung in und rund um KI läuft momentan so schnell ab, dass es schwierig ist, überhaupt Prognosen abzugeben. Statt der Trends für 2024 stellt sich eher die Frage: Woher kommt dieses irre Tempo? Die Experten beim Graphdatenbanken-Anbieter Neo4j werfen dazu einen Blick auf aktuelle Treiber, die spürbaren Folgen auf das KI-Ecosystem und die noch zu lösenden KI-Hürden.
#1: Investitionsboom bleibt ungebrochen
Die KI-Branche boom
Die Vereinbarung umfasst die Integration der Graphdatenbank in Amazon Bedrock für genauere und erklärbare GenAI-Ergebnisse ohne KI-Halluzinationen
Höhere Softwarequalität und -effizienz für Unternehmen
München, 22. August – Neo4j, führender Anbieter von Graphdatenbanken und Graph Analytics, erweitert die Kernfunktionen der Graphdatenbank Neo4j um native Vektorsuche. Die Integration ermöglicht Anwendern im Rahmen semantischer Suchanwendungen einen kontextbasierten Blick auf ihre Daten. Die Ergebnisse lassen sich für GenAI-Anwendungen nutzen und als eine Art Langzeitgedächtnis für Large Language Models (LLMs) heranziehen.
Die neue Vektorsuchfunktion in der Graphda