Ein Sprachmodell im Dienste der Gesellschaft
Die ETH Zürich und die EPFL werden ein grosses Sprachmodell (LLM) ver?ffentlichen. Entwickelt und trainiert wurde es auf der ?ffentlichen Infrastruktur des Supercomputers ?Alps? am nationalen Supercomputer-Zentrum CSCS. Es stellt einen Meilenstein für offene KI und mehrsprachige LLMs dar.
- Vorlesen
- Anzahl der Kommentare

In Kürze
- Im Sp?tsommer 2025 wird ein ?ffentlich entwickeltes Large Language Model (LLM) erscheinen — gemeinsam entwickelt haben es Forschende der EPFL, der ETH Zürich und des Schweizer Supercomputer-Zentrums CSCS.
- Dieses LLM wird vollst?ndig offen sein. Die Offenheit soll eine breite Nutzung erm?glichen und Innovationen in Wissenschaft, Gesellschaft und Industrie f?rdern.
- Ein herausragendes Merkmal des Modells ist seine mehrsprachige Kompetenz in über 1000 Sprachen.
Diese Woche trafen sich in Genf rund 50 führende globale Initiativen und Organisationen, die sich für offene LLMs und vertrauenswürdige KI einsetzen, am International Open-Source LLM Builders Summit. Die von den KI-Zentren der EPFL und der ETH Zürich ausgerichtete Veranstaltung war ein wichtiger Schritt zum Aufbau eines dynamischen und kollaborativen internationalen ?kosystems für offene Basismodelle. Offene Sprachmodelle (LLMs) werden zunehmend als vertrauenswürdige Alternative zu kommerziellen Systemen erachtet, von denen die meisten in den USA oder China in nicht-nachvollziehbaren Prozessen entwickelt werden.
Die Teilnehmenden des Gipfels erhielten einen Ausblick auf die bevorstehende Ver?ffentlichung eines vollst?ndig offenen und in transparenten Prozessen entwickelten LLM. Entwickelt haben es Forschende der EPFL, der ETH Zürich und anderer Schweizer Universit?ten in enger Zusammenarbeit mit Ingenieurinnen und Ingenieuren des CSCS. Nach letzten Tests, die aktuell stattfinden, wird es m?glich sein, das Modell unter einer Open-Source Lizenz herunterzuladen. Das Modell richtet den Fokus auf Transparenz, mehrsprachige Performance und breite Zug?nglichkeit.
Das Modell wird vollst?ndig offen sein: Quellcode und Gewichte werden ?ffentlich verfügbar sein, und die Trainingsdaten werden transparent und reproduzierbar sein. Diese Offenheit unterstützt die Verbreitung und Anwendung in Wissenschaft und Bildung sowie im ?ffentlichen und privaten Bereich. Dieser Ansatz soll sowohl die Innovation als auch das Vertrauen in KI f?rdern.
?V?llig offene Modelle erm?glichen Anwendungen, die ein hohes Mass an Vertrauenswürdigkeit gew?hrleisten, und sie sind notwendig, um die Forschung zu den Risiken und Chancen der KI voranzutreiben. Transparente Prozesse erm?glichen auch die Einhaltung der Rechtsvorschriften?, sagt Imanol Schlag, Forscher am ETH AI Center, der das LLM-Projekt zusammen mit Antoine Bosselut und Martin Jaggi, Professoren der EPFL und Mitglieder des EPFL AI Center leitet.
Von Grund auf mehrsprachig
Ein charakteristisches Merkmal dieses LLM ist, dass es über 1000 Sprachen beherrscht. ?Wir haben von Anfang an Wert darauf gelegt, dass die Modelle konsequent mehrsprachig sind?, sagt Antoine Bosselut.
Das Basismodell wurde mit einem grossen Textdatensatz von über 1500 Sprachen trainiert – etwa 60 Prozent waren Englisch und 40 Prozent andere Sprachen – hinzukamen Code- und Mathematikdaten. Da Inhalte aus allen Sprachen und Kulturen vertreten sind, punktet das resultierende Modell mit einer hohen globalen Anwendbarkeit.
Konzipiert für Gr?sse und Inklusion
Das Modell wird in zwei Gr?ssen – mit 8 Milliarden und mit 70 Milliarden Parametern – ver?ffentlicht werden und damit die Bedürfnisse eines breiten Spektrums an Nutzer:innen erfüllen. Die gr?ssere Version wird zu den leistungsst?rksten, vollst?ndig offenen Modellen weltweit geh?ren. Die Anzahl der Parameter spiegelt dabei die F?higkeit eines Modells wider, zu lernen und komplexe Antworten zu erzeugen.
Das Modell erreicht eine hohe Zuverl?ssigkeit, da es mit mehr als 15 Billionen qualitativ hochwertiger Trainingstoken trainiert wird (das sind Einheiten, die jeweils ein Wort oder einen Wortteil repr?sentieren): Dieses Vorgehen erm?glicht ein robustes Sprachverst?ndnis und vielseitige Anwendungsf?lle.
Verantwortungsvoller Umgang mit Daten
Bei der Entwicklung des LLM werden die schweizerischen Datenschutzgesetze, das schweizerische Urheberrecht und die Transparenzverpflichtungen im Rahmen der KI-Verordnung der EU (EU AI Act) berücksichtigt. In einer externe Seite aktuellen Studie haben die Projektleitenden nachgewiesen, dass es für die meisten allt?glichen Aufgaben und den allgemeinen Wissenserwerb praktisch keine Leistungseinbussen mit sich bringt, wenn bei der Datengewinnung die sogenannten Opt-outs für Web-Crawling respektiert werden — und damit gewisse Web-Inhalte nicht eingelesen werden.
Supercomputer als Wegbereiter für unabh?ngige KI
Das Modell wird auf dem Supercomputer ?Alps? des Swiss National Supercomputing Centre CSCS in Lugano trainiert, einer der weltweit fortschrittlichsten KI-Plattformen, die mit über 10 000 NVIDIA Grace Hopper Superchips ausgestattet ist. Dank der Gr?sse und der Architektur des Systems war es m?glich, das Modell effizient zu 100 Prozent mit klimaneutralem Strom zu trainieren.
Die erfolgreiche Realisierung von ?Alps? wurde wesentlich durch die seit über 15 Jahren bestehende Zusammenarbeit mit den Technologieunternehmen NVIDIA und HPE/Cray erleichtert. Diese Partnerschaft hat entscheidend dazu beigetragen, die technischen M?glichkeiten von ?Alps? zu entwickeln und sicherzustellen, dass er die hohen Anforderungen grosser KI-Workloads erfüllt, einschliesslich des Pre-Trainings komplexer LLMs.
?Das Trainieren dieses Modells ist nur dank unserer strategischen Investition in ?Alps? m?glich, einen speziell für KI konzipierten Supercomputer?, sagt Thomas Schulthess, Direktor des CSCS und Professor an der ETH Zürich. ?Unsere langfristige Zusammenarbeit mit NVIDIA und HPE ist ein Beispiel dafür, wie gemeinsame Anstrengungen von ?ffentlichen Forschungseinrichtungen und branchenführenden Unternehmen eine unabh?ngige Infrastruktur vorantreiben und offene Innovation f?rdern k?nnen – nicht nur für die Schweiz, sondern für Wissenschaft und Gesellschaft weltweit.?
?ffentlicher Zugang und globale Wiederverwendung
Das LLM wird in diesem Sp?tsommer unter der Apache-2.0-Lizenz ver?ffentlicht. Die Modellarchitektur, die Trainingsmethoden und die Nutzungsrichtlinien werden in einer begleitenden Dokumentation ausführlich beschrieben, um eine transparente Wiederverwendung und Weiterentwicklung zu erm?glichen. ?Als Wissenschaftler:innen von ?ffentlichen Institutionen wollen wir offene Modelle voranbringen und damit Organisationen bef?higen, auf diesen Modellen ihre eigenen Anwendungen aufzubauen?, sagt Antoine Bosselut.
?Dadurch, dass wir auf volle Offenheit setzen, w?hrend kommerzielle Modelle hinter verschlossenen Türen entwickelt werden, wird unser Ansatz über multinationale Kooperationen, wie wir hoffen, die Innovation in der Schweiz und in ganz Europa vorantreiben. Ausserdem ist dies ein wichtiger Faktor, um Spitzentalente zu gewinnen und zu f?rdern?, sagt EPFL-Professor Martin Jaggi.
?ber die Schweizer KI-Initiative
Die externe Seite Swiss AI Initiative wurde im Dezember 2023 von der EPFL und der ETH Zürich lanciert und wird von mehr als zehn wissenschaftlichen Institutionen in der ganzen Schweiz getragen. Mit über 800 beteiligten Forschenden und dem Zugang zu über 20 Millionen GPU-Stunden pro Jahr auf dem Supercomputer ?Alps? am CSCS ist es das weltweit gr?sste Open-Science- und Open-Source-Projekt zu KI-Basismodellen.
Die Schweizer KI-Initiative erh?lt für den Zeitraum 2025 bis 2028 finanzielle Unterstützung vom ETH-Rat, dem strategischen Führungs- und Aufsichtsorgan des ETH-Bereichs (ETH, EPFL, PSI, WSL, Empa, Eawag).
?ber ELLIS
Die Schweizer KI-Initiative wird von Forschenden am EPFL AI Center und am ETH AI Center geleitet, die beide als regionalen Einheiten des ELLIS (European Laboratory for Learning and Intelligent Systems) agieren, eines gesamteurop?ischen KI-Netzwerks, das sich mit Grundlagenforschung im Bereich der vertrauenswürdigen KI, technischer Innovation und den gesellschaftlichen Auswirkungen von KI innerhalb der offenen Gesellschaften Europas besch?ftigt.
?ber das CSCS
Das Swiss National Supercomputing Centre (CSCS) ist Mitglied und Partner des LUMI-Konsortiums, das Forschenden aus der Schweiz den Zugang zu einer führenden Infrastruktur in Kajaani, Finnland, erm?glicht. Dies steht im Einklang mit der Strategie des CSCS, die darauf abzielt, durch multinationale Kooperationen künftige, deutlich gr?ssere Recheninfrastrukturen im Extremmassstab in Regionen mit reichlich vorhandener Wasserkraft und natürlichen Kühlressourcen zu errichten. Damit wird die Forschung und Innovation im KI-Bereich so positioniert, dass sich regionale Wirkung mit globaler Relevanz verbinden.