MongoDB vereint Kerndatenbank mit Voyage AI-Lösungen

MongoDB
Um Entwickler bei der Einführung von KI-Anwendungen in den Live-Betrieb zu unterstützen, habe MongoDB eine Reihe neuer KI-Funktionen eingeführt, die die Entwicklung und den Betrieb intelligenter Anwendungen vereinfachen sollen. Hierfür stelle das Unternehmen fünf Embedding-Modelle aus Voyage AI bereit: Auto-Embedding für Community Vector Search, Embedding- und Reranking-Modell-APIs in Atlas sowie einen KI-gestützten Datenoperationsassistenten für Compass und Atlas Data Explorer. Die Voyage AI-Modelle seien in die Datenbankdienste von MongoDB integriert, könnten aber auch weiterhin unabhängig voneinander verwendet werden.
Laut Anbieter sei die größte Herausforderung für Kunden im Zusammenhang mit KI nicht das Experimentieren, sondern der zuverlässige Betrieb in großem Maßstab.
Entwickler wünschen sich weniger bewegliche Teile und klarere Wege vom Prototyp bis zum Live-Betrieb. Mit den neuen Funktionen hilft MongoDB Entwicklerteams dabei, die Komplexität zu reduzieren und sich auf die Entwicklung von KI-Anwendungen zu konzentrieren, die in realen, unternehmenskritischen Umgebungen funktionieren.“
Fred Roma, Senior VP Product and Engineering bei MongoDB
Das Potenzial von KI-Anwendungen ausschöpfen
Wenn Projekte live gehen, würden viele Unternehmen feststellen, dass ihre bestehenden Datenbestände nicht dafür ausgelegt seien, kontextbezogene, abrufintensive Workloads in großem Maßstab zu unterstützen. Entwickler müssten sich mit fragmentierten Kombinationen aus operativen Datenbanken, Vektorspeichern und Modell-APIs auseinandersetzen, was zu Komplexität, Latenz und Betriebsrisiken führe – und das genau dann, wenn Geschwindigkeit und Zuverlässigkeit besonders wichtig seien. Diese Fragmentierung sei zu einem Haupthindernis für KI-Innovationen geworden, was reale Auswirkungen auf die Kunden habe.
MongoDB (Website) will dieses Problem lösen, indem es die Kernfunktionen, die für die Entwicklung und den Betrieb von KI-Anwendungen in der Produktion erforderlich seien, in einer einzigen Datenplattform vereine. Anstatt eine operative Datenbank, einen Vektorspeicher und mehrere Pipelines miteinander zu verbinden, könnten operative Daten und Abruffunktionen jetzt zusammengehalten werden, wodurch Latenzzeiten und Synchronisationsaufwand reduziert würden. Das Ergebnis sei eine einfachere Architektur, schnellere Iterationen und KI-Anwendungen, die so konzipiert seien, dass sie nicht nur in Demos, sondern auch im realen Einsatz zuverlässig laufen würden.ft
Sie finden diesen Artikel im Internet auf der Website:
https://itfm.link/238946


Schreiben Sie einen Kommentar