Skip to main content


Dziś w #OkoPress mój tekst o #ChatGPT i "sztucznej inteligencji":

https://oko.press/chatgpt-cala-prawda-o-wielkich-modelach-jezykowych

> Antropomorfizacja modeli uczenia maszynowego, takich jak ChatGPT, ma na celu przekonanie nas, że nawet jeśli te technologie nie są całkowicie bezpieczne i nieszkodliwe, to są przynajmniej neutralne. Po to, by trudniej było nam dostrzec, jaką mogą wyrządzać krzywdę

> Warto przyjrzeć się bliżej zakodowanym w nich uprzedzeniom i temu, komu służą — a kogo mogą krzywdzić.

1/🧵
This entry was edited (1 year ago)
This entry was edited (1 year ago)
@piotrek

> Modele są uczone na danych z internetu są więc odbiciem nas samych. Więc może to nie w modelach problem?

No pewnie, przecież o tym piszę. Problem w danych, w ich doborze, w ich opisie. Nie zmienia to faktu, że jest to problem, i że twórcy tych narzędzi muszą się bardziej postarać ten problem rozwiązać.
@piotrek

> OpenAI dwoi się i troi żeby je odfiltrować (o czym z resztą sam wspomniałeś)

Ale "odfiltrowywanie" tych uprzedzeń po wytrenowaniu uprzedzonego modelu to zamiatanie kwestii pod dywan. Zamiast tego, należałoby się skupić na trenowaniu modeli tak, żeby nie były uprzedzone. To jednak wymaga więcej pracy i generuje większe koszty. Więc po co się starać?

Lepiej zamieść pod dywan, przekonać ludzi, że kwestionowanie tych narzędzi to "rezygnowanie z postępu". Taniej. Kasa musi się zgadzać.
@piotrek piszę przecież na koniec, że można przecież trenować modele mniejsze, wyspecjalizowane, na lepiej opisanych, mniejszych zbiorach danych. Nie chodzi o to, by z tej technologii kompletnie zrezygnować, tylko o to, jak tę technologię *sensownie* rozwijać.

Identyfikowanie ogromnych modeli językowych z "postępem" dziś to jak identyfikowanie ogromnych samolotów śmigłowych z postępem w latach 1940.
https://www.youtube.com/watch?v=i-AZRtI366w

Wtedy okazało się, że nie tędy droga. I dziś może się tak okaże.
@aemstuz

> Wydaje mi się, że od technologi oczekujemy

To jest jednak sedno: kim jest "my" w tym zdaniu?

My, ludzie, społeczeństwo — pewnie. Ale te narzędzia nie są robione przez i dla społeczeństwa.

Te narzędzia są robione przez i dla wielkich firm, które mają na to środki, i chcą "wyautomatyzować" ludzi z pewnych stanowisk.

To strasznie upierdliwe płacić grafikowi, programistce, copywriterowi. Lepiej, żeby to robił niezrzeszony w związku zawodowym, nie chroniony prawem pracy kawałek kodu.
Właśnie, że pisząc to miałem na myśli biznes 😄

"Wyautomatyzowanie" ludzi to jedno, ale jedyne co w ten sposób osiągną firmy, to obniżenie kosztów. Nie dostarczą w ten sposób konsumentom lepszej jakości.
@Aemstuz :badge: @Michał "rysiek" Woźniak · 🇺🇦 A skąd założenie, że chcą dostarczyć lepszej jakości ? Celem działania firmy jest osiąganie zysku a nie dostarczanie jakiejś (w tym przypadku niemierzalnej) jakości.
Z pewnością będzie mnóstwo firm z sektora kreatywnego które się przejadą na zastąpieniu pracy ludzkiej automatem ale te najwieksze, które są/będa twórcami i właścicielami modeli LLM gro dochodów będa mieć nie od końcowego konsumenta tylko ze hurtowej sprzedaży dostępu do AI/LLM jako narzędzia. A na tym nie da się stracić.