# PLLuM – Polski Model Językowy
PLLuM, czyli Polish Large Language Model, to innowacyjna inicjatywa mająca na celu stworzenie i udostępnienie rodziny otwartych dużych modeli językowych (LLM), dedykowanych językowi polskiemu. Projekt jest realizowany przez konsorcjum polskich ekspertów z dziedziny informatyki, lingwistyki oraz administracji publicznej, w ramach współpracy między Politechniką Wrocławską (lider konsorcjum), Instytutem Podstaw Informatyki PAN, Instytutem Slawistyki PAN, NASK, Ośrodkiem Przetwarzania Informacji oraz Uniwersytetem Łódzkim.
## Geneza i Cel Projektu
Projekt PLLuM narodził się z potrzeby posiadania zaawansowanych narzędzi do przetwarzania języka naturalnego, które są specjalnie dostosowane do specyfiki języka polskiego. Modele językowe oparte na sztucznej inteligencji zyskują coraz większe znaczenie w różnych obszarach, takich jak automatyczne tłumaczenia, generowanie treści, analiza sentymentu, chatboty i wiele innych. PLLuM ma na celu:
* Wsparcie cyfryzacji usług publicznych.
* Stymulowanie innowacji w biznesie.
* Rozwój kompetencji cyfrowych społeczeństwa.
Model został zaprezentowany przez Ministerstwo Cyfryzacji i udostępniony publicznie 24 lutego 2025 roku.
## Architektura i Działanie
PLLuM bazuje na modelach fundamentalnych, takich jak Llama i Mistral, które zostały następnie dostosowane i wytrenowane na ogromnym zbiorze danych w języku polskim. Model został wytrenowany na bazie około 150 miliardów tokenów wysokiej jakości tekstu w języku polskim. Dane wykorzystane do treningu zostały starannie wyselekcjonowane i oczyszczone, z uwzględnieniem poprawności językowej oraz różnorodności tematycznej. PLLuM oferuje modele o różnej skali, od 8 do 70 miliardów parametrów, co pozwala na dostosowanie modelu do konkretnych zadań i zasobów obliczeniowych. Wykorzystuje również mieszankę ekspertów (Mixture of Experts, MoE) oraz Retrieval-Augmented Generation (RAG).
## Możliwości i Zastosowania
Rodzina modeli PLLuM charakteryzuje się szerokim zakresem możliwości, obejmującym:
* Generowanie tekstów w języku polskim (artykuły, opowiadania, posty w mediach społecznościowych).
* Tłumaczenie maszynowe.
* Analiza sentymentu.
* Automatyczne odpowiadanie na pytania.
* Tworzenie chatbotów i asystentów wirtualnych.
* Streszczanie tekstów.
* Wyszukiwanie i ekstrakcja informacji.
## Finansowanie i Rozwój
Na początku 2025 roku na projekt PLLuM przeznaczono 14,5 miliona złotych. Środki te są przeznaczone na dalszy rozwój modelu, gromadzenie danych, prowadzenie badań i eksperymentów oraz udostępnianie modelu społeczności naukowej i biznesowej.
## Dostępność i Wykorzystanie
W 2025 roku udostępniono darmowy czat oparty na PLLuM 8x7b. Czat ten posiada wbudowany filtr moderacyjny, mający na celu ograniczenie toksyczności rozmów oraz zapobieganie generowaniu niebezpiecznych instrukcji. Jeden z modeli PLLuM został wykorzystany w czacie pomagającym mieszkańcom w załatwianiu spraw urzędowych. Asystent ten ma być dostępny w aplikacji mobilnej mObywatel pod koniec 2025 roku.
## Konsorcjum PLLuM
Za projektem stoją:
* Politechnika Wrocławska (lider konsorcjum)
* Instytut Podstaw Informatyki PAN
* Instytut Slawistyki PAN
* NASK
* Ośrodek Przetwarzania Informacji
* Uniwersytet Łódzki
## Podsumowanie
PLLuM to obiecujący projekt, który ma potencjał, by znacząco przyczynić się do rozwoju technologii językowych w Polsce. Otwarty dostęp do modelu oraz jego szerokie możliwości mogą przyspieszyć innowacje w różnych sektorach gospodarki i administracji publicznej. Projekt ten stanowi ważny krok w kierunku budowy silnej pozycji Polski w dziedzinie sztucznej inteligencji.
📊
Mapa Powiązań
Neural_Network // Co-Mentioned_Entities
📰
Najnowsze Wzmianki
Live_Feed // 3 artykułów
>_ PLLum
Marka // Entity_Profile
[DATA] PLLuM (Polish Large Language Model) to rodzina otwartych dużych modeli językowych, stworzonych do przetwarzania i generowania tekstów w języku polskim. Rozwijany przez konsorcjum polskich ekspertów, projekt ma na celu wsparcie cyfryzacji, innowacji i rozwoju kompetencji cyfrowych.
[METRICS] Encja posiada 3 wzmianek w bazie oraz 3 powiązanych artykułów. Trust Score: 50/100.
Wersja statyczna dla wyszukiwarek. Pełna wersja interaktywna z grafiką dostępna po włączeniu JavaScript.