Polacy nie gęsi i własną AI jak ChatGPT też już mają

ai qra

Qra tak się nazywa najlepszy do tej pory odpowiednik polskiego odpowiednik ChatGPT. Stworzyli go badacze z Politechnika Gdańskiej (PG) i AI Lab z Ośrodka Przetwarzania Informacji (OPI) – Państwowego Instytutu Badawczego.

Qra – zdaniem twórców – to pierwszy tej skali i najlepszy w modelowaniu języka polskiego odpowiednik otwartych narzędzi Mety czy Mistral AI. Qra lepiej rozumie treści w języku polskim, lepiej rozumie pytania zadawane w tym języku i lepiej sama tworzy spójne teksty.

Powstał na podstawie danych zawierających teksty wyłącznie w języku polskim. Do jego nauki wykorzystano prawie 2TB surowych danych tekstowych, które w wyniku procesu czyszczenia i deduplikacji uległy prawie dwukrotnemu zmniejszeniu, aby zachować najlepszej jakości unikalne treści. 

QRA to pierwszy model generatywny wstępnie wytrenowany na tak dużym zasobie polskich tekstów, do którego uczenia użyto wielkich mocy obliczeniowych. Dla porównania modele Llama, Mistral czy GPT są w większości trenowane na danych angielskojęzycznych, a jedynie ułamek procenta ich tzw. korpusu treningowego stanowią dane w języku polskim.

Qra – przydatne superkomputery

Środowisko obliczeniowe dedykowane pod budowę modeli sztucznej inteligencji powstało na Politechnice Gdańskiej w Centrum Kompetencji STOS, jednym z najnowocześniejszych centrów IT w tej części Europy, gdzie znajduje się superkomputer Kraken. W procesie wykorzystano klaster 21 kart graficznych NVidia A100 80GB.

Przygotowanie środowiska, utworzenie narzędzi i modeli oraz ich trenowanie (w oparciu m.in. o treści z takich obszarów jak prawo, technologia, nauki społeczne, biomedycyna, religia czy sport) i testowanie zajęło zespołom około pół roku. 

Dzięki rozbudowanej infrastrukturze CK STOS właściwy proces trenowania w przypadku najbardziej złożonego z modeli został skrócony z lat do około miesiąca.

Qra lepiej posługuje się językiem polskim

W wyniku współpracy PG i OPI powstały trzy modele, które różnią się złożonością, tj. Qra 1B, Qra 7B, Qra 13B. Modele Qra 7B oraz Qra 13B uzyskują istotnie lepszy wynik perplexity, czyli zdolności do modelowania języka polskiego w zakresie jego rozumienia, warstwy leksykalnej, czy samej gramatyki, niż oryginalne modele Llama-2-7b-hf (Meta) oraz Mistral-7B-v0.1 (Mistral-AI).

Testy pomiaru perplexity przeprowadzono m.in. na zbiorze pierwszych 10 tysięcy zdań ze zbioru testowego PolEval-2018 oraz dodatkowo przetestowano modele na zbiorze 5 tysięcy długich i bardziej wymagających dokumentów napisanych w 2024 roku.

Zdaniem twórców modele Qra będą stanowić podstawę rozwiązań informatycznych do obsługi spraw i procesów, które wymagają lepszego zrozumienia języka polskiego.

Qra – to dopiero początek

Na tym etapie Qra jest fundamentalnym modelem językowym, który potrafi generować poprawne gramatycznie i stylistycznie odpowiedzi w języku polskim. Tworzone treści są bardzo wysokiej jakości, co potwierdza m.in. miara perplexity.

Teraz zespół rozpocznie pracę nad strojeniem modeli, aby zweryfikować ich możliwości pod kątem takich zadań, jak klasyfikacja tekstów, dokonywanie ich streszczeń, odpowiadania na pytania.

Opracowane modele zostały upublicznione w dedykowanym repozytorium OPI-PG na platformie huggingface. Każdy może pobrać model i dostosować go do swojej dziedziny i problemów czy zadań jak np. udzielanie odpowiedzi.

Ale spokojnie, udostępnione pliki to zdecydowanie rozwiązanie dla profesjonalistów – laik się tym nie pobawi. Na bazie Qra może dopiero powstać AI, z która porozmawiać będzie mógł każdy Kowalski.

Foto: Frank Reppold z Pixabay.

Podziel się artykułem

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *