Gestern hat das Mistral AI-Team die Einführung von Mistral Large 2 bekannt gegeben, der neuesten Generation ihres Flaggschiffmodells. Dieses Modell zeichnet sich durch verbesserte Fähigkeiten in der Codegenerierung, Mathematik und logischem Denken aus und bietet zudem eine erheblich stärkere Unterstützung für mehrere Sprachen sowie erweiterte Funktionalitäten für das Ausführen von Funktionsaufrufen.
Erweiterte Funktionen und beeindruckende Leistung
Mistral Large 2 setzt neue Maßstäbe in Bezug auf Kosten-Effizienz, Geschwindigkeit und Leistung. Das Modell verfügt über ein 128k-Kontextfenster und unterstützt zahlreiche Sprachen, darunter Deutsch, Französisch, Spanisch, Italienisch, Portugiesisch, Arabisch, Hindi, Russisch, Chinesisch, Japanisch und Koreanisch. Zusätzlich unterstützt es über 80 Programmiersprachen, darunter Python, Java, C, C++, JavaScript und Bash.
Mit seinen 123 Milliarden Parametern ist Mistral Large 2 für Inferenzanwendungen auf Einzelknoten ausgelegt und ermöglicht eine hohe Durchsatzrate. Es wird unter der Mistral Research License veröffentlicht, die Nutzung und Modifikation für Forschungs- und nicht-kommerzielle Zwecke erlaubt. Für kommerzielle Anwendungen, die eine Eigenimplementierung erfordern, ist eine kommerzielle Lizenz erforderlich.
Benchmark-Leistungen und verbesserte Genauigkeit
Mistral Large 2 überzeugt durch herausragende Benchmark-Ergebnisse und eine hohe Genauigkeit. Auf dem MMLU-Benchmark erreicht das vortrainierte Modell eine Genauigkeit von 84,0 % und setzt damit neue Maßstäbe in der Kosten-Leistungs-Effizienz offener Modelle.
Fortschritte in der Codegenerierung und im logischen Denken
Basierend auf den Erfahrungen mit Codestral 22B und Codestral Mamba wurde Mistral Large 2 mit einem hohen Anteil an Code trainiert und übertrifft damit seinen Vorgänger erheblich. Das Modell kann mit führenden Modellen wie GPT-4o, Claude 3 Opus und Llama 3 405B mithalten. Besondere Aufmerksamkeit wurde darauf verwendet, die Neigung des Modells zur “Halluzination” zu minimieren, also zur Generierung plausibel klingender, aber faktisch falscher Informationen.
Mistral Large 2 wurde auch darauf trainiert, zu erkennen, wenn es keine ausreichenden Informationen hat, um eine fundierte Antwort zu geben. Diese verbesserte Genauigkeit zeigt sich in den verbesserten Leistungen auf mathematischen Benchmarks.
Optimierte Instruktionsbefolgung und Mehrsprachigkeit
Die Fähigkeit, präzisen Anweisungen zu folgen und lange, mehrstufige Gespräche zu führen, wurde drastisch verbessert. Mistral Large 2 erzielt hervorragende Ergebnisse in Benchmarks wie MT-Bench und Wild Bench. Besonders bemerkenswert ist die Leistung bei multilingualen Aufgaben. Das Modell wurde mit einem großen Anteil an mehrsprachigen Daten trainiert und überzeugt in Sprachen wie Deutsch, Englisch, Französisch, Spanisch, Italienisch, Portugiesisch, Niederländisch, Russisch, Chinesisch, Japanisch, Koreanisch, Arabisch und Hindi.
Erweiterte Funktionalitäten und Verfügbarkeit
Mistral Large 2 ist auf la Plateforme verfügbar und kann unter dem Namen mistral-large-2407 getestet werden. Die Modelle sind zudem über führende Cloud-Service-Anbieter wie Google Cloud Platform, Azure AI Studio, Amazon Bedrock und IBM watsonx.ai zugänglich.
Mit dieser Einführung festigt Mistral AI seine Position als führender Anbieter von KI-Modellen, die sowohl für allgemeine als auch für spezialisierte Anwendungen geeignet sind. Die Erweiterung der Fine-Tuning-Fähigkeiten und die Verfügbarkeit über verschiedene Cloud-Plattformen stellen sicher, dass Mistral Large 2 einer breiten Nutzerbasis zur Verfügung steht.
Mistral Large 2 setzt neue Maßstäbe in der KI-Forschung und Anwendung. Mit seinen erweiterten Fähigkeiten in der Codegenerierung, dem logischen Denken und der Mehrsprachigkeit bietet es eine vielseitige Lösung für komplexe Geschäftsanforderungen. Die Verfügbarkeit über führende Cloud-Plattformen stellt sicher, dass diese fortschrittliche Technologie weltweit genutzt werden kann.
Quelle: https://mistral.ai/news/mistral-large-2407/