von David Le Louarn | 17. September 2024 | F&E-Veröffentlichungen
Kontextbasierte Frage-Antwort-Verarbeitung (QA) ist in der Regel der letzte Schritt einer RAG-Pipeline: Ausgehend von einer Frage und einer Reihe von Dokumenten, die aus dem Korpus abgerufen wurden, muss ein LLM eine Antwort generieren. Wir erwarten, dass das LLM angibt, aus welchem Dokument die einzelnen Informationen stammen, ...
von David Le Louarn | 3. September 2024 | F&E-Veröffentlichungen
Verwendung von Vision-LLMs + Late Interaction zur Verbesserung der Dokumentenabfrage (RAG, Suchmaschinen usw.), ausschließlich unter Verwendung der Bilddarstellung von Dokumentenseiten (Papier)! Kontext Um die Fähigkeiten von LLMs zur Beantwortung von Fragen zu verbessern, ist es oft am besten, zunächst nach...
von David Le Louarn | 3. September 2024 | F&E-Veröffentlichungen
Einleitung Wir freuen uns sehr, CroissantLLM vorstellen zu dürfen, ein kleines, aber leistungsfähiges Sprachmodell mit 1,3 Milliarden Parametern, das auf 3T-Tokens trainiert wurde, vollständig offen und wirklich zweisprachig ist! Das Ziel ist es, der Forschungs- und Industriegemeinschaft ein leistungsstarkes, vollständig...