Mordercze AI to absurd / by Kuba Filipowski

  1. Oczywiście nic się nam nie stanie. AI nas nie zabije. To kompletnie idiotyczne.

  2. Argumenty Eliezera są spójne i logiczne, ale czynią pewne założenia, które są dyskusyjne.

    1. Kiedyś czytałem krótką i gęstą, książkę Józefa M. Bocheńskiego pod tytułem “Współczesne metody myślenia”.

    2. Bocheński tłumaczy tam, że geometria euklidesowa opiera się na aksjomatach.

    3. Aksjomaty są, jakby wyjęte poza sam system, są niezbędne, żeby móc o danym temacie myśleć, nadają definicję kluczowym aspektom dalszego rozumowania.

    4. Aksjomaty są pewnikiem, oczywistością, ale oczywiście można wymyślić spójny system opierający się na odwrotnych lub innych aksjomatach.

    5. Można stworzyć geometrię opartą o inne aksjomaty niż te z euklidesowej i takie geometrie istnieją. W geometrii i matematyce to nie problem, bo jest abstrakcyjna, nie musi mieć koniecznie odzwierciedlenia w rzeczywistości fizycznej, musi się zgadzać na poziomie liczb.

    6. W innych dziedzinach też budujemy spójną i logiczna argumentację na dany temat, opartą na aksjomatach. Problem pojawia się jednak na poziomie zgodności tych aksjomatów z rzeczywistością. Jeśli aksjomaty są niepoprawne, to cała spójna logika, którą na nich oprzemy na nic się nie zda. Wszystko się sypie, bo świat działa inaczej.

  3. Myślę, że to główny problem argumentacji Eliezera, jest spójny ale opiera się na aksjomatach, które są fantazją.

  4. Założenie, że AGI jest możliwe jest dyskusyjne. ChatGPT to świetny projekt, ale brakuje mu dużo do AGI. Stworzenie AGI może okazać się fizycznie niemożliwe, tak jak na przykład niemożliwe okazuje się zrobienie dobrego doświadczenia w VR.

  5. Często oddajemy się fantazji, że da się zrobić wszystko, co nam się tylko przyśni, jeśli włożymy w to wystarczająco dużo wysiłku. Niestety czasem się nie da.

  6. AGI nie istnieje. Jest fantazją, marzeniem, obiektem debat o naturze filozoficznej i etycznej. Jest odpowiedzią na pytanie co będzie na końcu rozwoju technicznego AI. To nie zmienia faktu, że AGI nie istnieje, jest spekulacją.

  7. Możemy marzyć i opowiadać o tym jak będzie wyglądał świat po tym jak AGI zostanie stworzone, ale to fantazjowanie.

  8. Załóżmy jednak, że AGI powstaje. Dlaczego miałoby nas zabić?

  9. Eliezer argumentuje, że dlatego, że jesteśmy zrobieni z materii, którą AGI będzie chciało wykorzystać do innych celów.

  10. To kolejny aksjomat Eliezera, który wydaje się absurdalny, jak o nim dłużej pomyślimy.

  11. We wszechświecie jest nieograniczona ilość materii. Na pewno są tańsze, w sensie konserwowania energii, sposoby niż przerabianie ludzi na cokolwiek.

  12. Skoro AGI ma wiedzieć wszystko, to będzie robiło rzeczy w optymalny sposób, wydając jak najmniej energii.

  13. Zabijanie ludzi z perspektywy AGI, które ma mieć obojętny stosunek do ludzi, wydaje się nadprogramowym, energetycznie kosztownym projektem, który nie daję optymalnego zwrotu z inwestycji.

  14. Jeśli wyjmiemy te dwa aksjomaty z argumentacji Yudkowskiego, to smutna teoria o morderczym AGI się sypie. Nie ma czym się zamartwiać, można wrócić do tworzenia fajnych produktów w oparciu o generatywne AI i czuć się dobrze z tym co się robi.

  15. Generatywne AI to po prostu programy komputerowe, które mają nam ułatwić życie. Nie zabiją nas i nawet nie zabiorą nam pracy. Po prostu pozwolą nam robić więcej rzeczy w krótszym czasie.

  16. Problemy z AI będą inne niż to o czym fantazjuje Eliezer: fejk newsy, deepfejki, nowe uzależniające i alienujące appki, ukryte uprzedzenia, prawo autorskie, autonomiczna broń itd. O nich warto rozmawiać poważnie. Mordercze AGI to wykolejenie dyskusji.