Dziś w #OkoPress mój tekst o #ChatGPT i "sztucznej inteligencji":
https://oko.press/chatgpt-cala-prawda-o-wielkich-modelach-jezykowych
> Antropomorfizacja modeli uczenia maszynowego, takich jak ChatGPT, ma na celu przekonanie nas, że nawet jeśli te technologie nie są całkowicie bezpieczne i nieszkodliwe, to są przynajmniej neutralne. Po to, by trudniej było nam dostrzec, jaką mogą wyrządzać krzywdę
> Warto przyjrzeć się bliżej zakodowanym w nich uprzedzeniom i temu, komu służą — a kogo mogą krzywdzić.
1/🧵
https://oko.press/chatgpt-cala-prawda-o-wielkich-modelach-jezykowych
> Antropomorfizacja modeli uczenia maszynowego, takich jak ChatGPT, ma na celu przekonanie nas, że nawet jeśli te technologie nie są całkowicie bezpieczne i nieszkodliwe, to są przynajmniej neutralne. Po to, by trudniej było nam dostrzec, jaką mogą wyrządzać krzywdę
> Warto przyjrzeć się bliżej zakodowanym w nich uprzedzeniom i temu, komu służą — a kogo mogą krzywdzić.
1/🧵
This entry was edited (1 year ago)
piotrek
•Kwestia ekologii: no to co, mamy zrezygnować z postępu technologicznego? Nie jeździć samochodami, nie latać samolotami? Biedniejsze kraje też mniej korzystają z tych dobrodziejstw przypominam.
I wreszcie kwestia poprawności informacji. LLM mylą się, tak, ale porozmawiaj sobie czasem z przeciętnym człowiekiem na ulicy, wtedy się dopiero przerazisz ;)... show more
Kwestia ekologii: no to co, mamy zrezygnować z postępu technologicznego? Nie jeździć samochodami, nie latać samolotami? Biedniejsze kraje też mniej korzystają z tych dobrodziejstw przypominam.
I wreszcie kwestia poprawności informacji. LLM mylą się, tak, ale porozmawiaj sobie czasem z przeciętnym człowiekiem na ulicy, wtedy się dopiero przerazisz ;)
MiKlo:~/citizen4.eu$💙💛
•W kwestii " A jak ktoś celowo formułuje pytania, żeby obejść te zabezpieczenia, no to cóż" to "celowe formułowanie pytań" jest dokładnie tym samym co próba szukania słabych punktów w dowolnym oprogramowaniu, do którego w dodatku nie mamy źródeł (bo tak postanowił producent...). Przecież nie mamy pojęcia do jakich celów i z jakim skutkiem ludzie (firmy, rządy, służby!) będą używać takich modeli LLM. I w... show more
W kwestii " A jak ktoś celowo formułuje pytania, żeby obejść te zabezpieczenia, no to cóż" to "celowe formułowanie pytań" jest dokładnie tym samym co próba szukania słabych punktów w dowolnym oprogramowaniu, do którego w dodatku nie mamy źródeł (bo tak postanowił producent...). Przecież nie mamy pojęcia do jakich celów i z jakim skutkiem ludzie (firmy, rządy, służby!) będą używać takich modeli LLM. I w jaki sposób formułować pytania. Im więcej takich sprytnych "testów penetracyjnych" z opublikowanymi wynikami tym większa świadomość ryzyka. Bo niestety ale nadzieja, że to zostanie wyeliminowane jest ( przynajmiej u mnie) żadna. Taki bias (rasowy, genderowy, itd) pochodzi z wsadu miliardów różnych danych wejściowych i nie da się go skorygować jakimiś prostymi warunkami typu "jeżeli z odpowiedzi wynika bias "X lepszy od Y" to popraw na "X równe Y" .
Michał "rysiek" Woźniak · 🇺🇦
•> Modele są uczone na danych z internetu są więc odbiciem nas samych. Więc może to nie w modelach problem?
No pewnie, przecież o tym piszę. Problem w danych, w ich doborze, w ich opisie. Nie zmienia to faktu, że jest to problem, i że twórcy tych narzędzi muszą się bardziej postarać ten problem rozwiązać.
Michał "rysiek" Woźniak · 🇺🇦
•> OpenAI dwoi się i troi żeby je odfiltrować (o czym z resztą sam wspomniałeś)
Ale "odfiltrowywanie" tych uprzedzeń po wytrenowaniu uprzedzonego modelu to zamiatanie kwestii pod dywan. Zamiast tego, należałoby się skupić na trenowaniu modeli tak, żeby nie były uprzedzone. To jednak wymaga więcej pracy i generuje większe koszty. Więc po co się starać?
Lepiej zamieść pod dywan, przekonać ludzi, że kwestionowanie tych narzędzi to "rezygnowanie z postępu". Taniej. Kasa musi się zgadzać.
Michał "rysiek" Woźniak · 🇺🇦
•Identyfikowanie ogromnych modeli językowych z "postępem" dziś to jak identyfikowanie ogromnych samolotów śmigłowych z postępem w latach 1940.
https://www.youtube.com/watch?v=i-AZRtI366w
Wtedy okazało się, że nie tędy droga. I dziś może się tak okaże.
This Giant Airliner Even Had A Movie Theater: The Bristol Brabazon
YouTubepiotrek
•Dlaczego to działa tak dobrze? Bo taki model, z racji swojej wielkości,ma niesamowicie rozległą wiedzę. Nawet jeśli czasem źle skojarzy fakty, dla mnie to nie ma znaczenia, bo pytając o to samo człowieka na forum też nie mam gwarancji że odpowie mi dobrze. Ja i tak używam tego tylko do załapania ogólnej koncepcji i słów kluczowych o które warto odpytać Google.
Pisałeś o trenowaniu "mniejszych modeli" ale ciężko mi się do tego odnieść bo nie mogę znaleźć żadnego przyk... show more
Dlaczego to działa tak dobrze? Bo taki model, z racji swojej wielkości,ma niesamowicie rozległą wiedzę. Nawet jeśli czasem źle skojarzy fakty, dla mnie to nie ma znaczenia, bo pytając o to samo człowieka na forum też nie mam gwarancji że odpowie mi dobrze. Ja i tak używam tego tylko do załapania ogólnej koncepcji i słów kluczowych o które warto odpytać Google.
Pisałeś o trenowaniu "mniejszych modeli" ale ciężko mi się do tego odnieść bo nie mogę znaleźć żadnego przykładu. Ograniczenie zbiorów danych raczej nie wpłynie pozytywnie na poprawność odpowiedzi, a i ograniczy przydatność tego narzędzia w zastosowaniu streszczania. Co do ekologii jeszcze to pamiętaj że nie każdy model uczy się od zera. Raz wytrenowany model można użyć do trenowania innych, o węższych zastosowaniach (fine-tuning to się nazywa) co znacznie ogranicza zapotrzebowanie na moc obliczeniową.
MiKlo:~/citizen4.eu$💙💛
•Podaj jakiś konkretny przykład takiego "wstępnego researachu".
Jeżeli spotkasz się z nieznanym pojęciem to pytanie "czarnej skrzynki" , która nie podaje / odsyła do żadnych źródeł, daje bardzo dużą szansę, że jeśli odpowiedź będzie bzdurą lub będzie zawierać poważne błędy to w ogóle tego nie zauważysz. I dajmy na to popchasz ten wygenerowany 💩 dalej.
I trzeba niestety do znudzenia powtarzać: ten model nie ma żadnej "wiedzy". W takim sensie jak człowiek. Jego "wiedza" się sprowadza do prawdopodobieństwa, że do odpowiedzi na pytanie najbardziej pasuje jakiś ciąg tekstu , który wynika z przeżucia miliardó... show more
Podaj jakiś konkretny przykład takiego "wstępnego researachu".
Jeżeli spotkasz się z nieznanym pojęciem to pytanie "czarnej skrzynki" , która nie podaje / odsyła do żadnych źródeł, daje bardzo dużą szansę, że jeśli odpowiedź będzie bzdurą lub będzie zawierać poważne błędy to w ogóle tego nie zauważysz. I dajmy na to popchasz ten wygenerowany 💩 dalej.
I trzeba niestety do znudzenia powtarzać: ten model nie ma żadnej "wiedzy". W takim sensie jak człowiek. Jego "wiedza" się sprowadza do prawdopodobieństwa, że do odpowiedzi na pytanie najbardziej pasuje jakiś ciąg tekstu , który wynika z przeżucia miliardów innych tekstów. I często to prawdopodobieństwo generuje niestniejące ale sensownie brzmiące fakty.
A mniejsze modele to np specjalizowane modele do rozwiązywania konkretnych problemów (np np obrazowanie w medycynie) , które są trenowane po pierwsze na bardzo wąskich tematycznie zbiorach danych a po drugie klasyfikacja danych wejściowych jest robiona przez wysokiej klasy specjalistów w danej dziedzinie a nie jakiś niskoopłacanych anonimowych pracowników których np zatrudniał (oczywiście przez pośredników) OpenAI.
Aemstuz
•Sądzę, że nawet gdyby istniały systemy, nie tylko produkujące przekonywający tekst, ale rozumiejący pytania użytkowników, to i tak mogłoby to być nie to, czego chcemy od technologi.
Wydaje mi się, że od technologi oczekujemy, żeby przekraczała pewne ludzkie ograniczenia i wykonywała postawione jej zadania lepiej niż ludzie.
Tymczasem, jeśli będziemy starali się tylko naśladować ludzi, istnieje duże ryzyko, że powielimy też błędy, które oni popełniają.
Przecież ludzie rozumieją zadawana im pytanie, a np. nadal mają uprzedzenia, albo popełniają błędy poznawcze.
Od wyszukiwarki informacji oczekiwałbym, że zrobi mi lepszy fact-checking niż przeciętny człowiek, alb... show more
Sądzę, że nawet gdyby istniały systemy, nie tylko produkujące przekonywający tekst, ale rozumiejący pytania użytkowników, to i tak mogłoby to być nie to, czego chcemy od technologi.
Wydaje mi się, że od technologi oczekujemy, żeby przekraczała pewne ludzkie ograniczenia i wykonywała postawione jej zadania lepiej niż ludzie.
Tymczasem, jeśli będziemy starali się tylko naśladować ludzi, istnieje duże ryzyko, że powielimy też błędy, które oni popełniają.
Przecież ludzie rozumieją zadawana im pytanie, a np. nadal mają uprzedzenia, albo popełniają błędy poznawcze.
Od wyszukiwarki informacji oczekiwałbym, że zrobi mi lepszy fact-checking niż przeciętny człowiek, albo nawet ekspert w danej dziedzinie. To by dopiero była prawdziwa #sztucznaInteligencja
Michał "rysiek" Woźniak · 🇺🇦
•> Wydaje mi się, że od technologi oczekujemy
To jest jednak sedno: kim jest "my" w tym zdaniu?
My, ludzie, społeczeństwo — pewnie. Ale te narzędzia nie są robione przez i dla społeczeństwa.
Te narzędzia są robione przez i dla wielkich firm, które mają na to środki, i chcą "wyautomatyzować" ludzi z pewnych stanowisk.
To strasznie upierdliwe płacić grafikowi, programistce, copywriterowi. Lepiej, żeby to robił niezrzeszony w związku zawodowym, nie chroniony prawem pracy kawałek kodu.
Aemstuz
•"Wyautomatyzowanie" ludzi to jedno, ale jedyne co w ten sposób osiągną firmy, to obniżenie kosztów. Nie dostarczą w ten sposób konsumentom lepszej jakości.
MiKlo:~/citizen4.eu$💙💛
•Z pewnością będzie mnóstwo firm z sektora kreatywnego które się przejadą na zastąpieniu pracy ludzkiej automatem ale te najwieksze, które są/będa twórcami i właścicielami modeli LLM gro dochodów będa mieć nie od końcowego konsumenta tylko ze hurtowej sprzedaży dostępu do AI/LLM jako narzędzia. A na tym nie da się stracić.