Sam Altman ostrzega: AI w 2028 roku dokona przełomowych odkryć, których możemy nie rozumieć 🤖
Szef OpenAI, Sam Altman, opublikował obszerny esej zatytułowany „AI progress and recommendations”, w którym ostrzega, że postęp w sztucznej inteligencji może wkrótce przekroczyć nasze wyobrażenia. Według niego, współczesne modele AI są już w stanie „pokonać najinteligentniejszych ludzi w najtrudniejszych intelektualnych zawodach”.
„Systemy AI, które potrafią rozwiązywać złożone problemy, są dziś bliżej 80% drogi do naukowca niż 20%” – napisał Altman.
Najbardziej alarmująca prognoza dotyczy najbliższych lat – w 2026 roku możemy spodziewać się systemów zdolnych do dokonywania niewielkich odkryć, a już w 2028 roku – znaczących przełomów naukowych. Pomimo tak gwałtownego rozwoju, Altman uważa, że „społeczeństwo prawdopodobnie wciąż będzie żyło pozornie normalnie” ze względu na ludzką inercję w adaptacji do zmian.
AI stoi u progu rewolucyjnych możliwości 🚀
Altman podkreśla, że większość użytkowników wciąż postrzega AI jedynie jako chatboty i wyszukiwarki, podczas gdy przepaść między powszechnym wykorzystaniem a rzeczywistymi możliwościami technologii jest „ogromna”.
Szef OpenAI zwraca uwagę na bezprecedensowe tempo rozwoju: jeszcze niedawno AI wykonywała tylko zadania, które człowiek rozwiązywał w kilka sekund, dzisiaj radzi sobie z tymi, które zajmują godziny, a wkrótce pokona wyzwania wymagające dni lub tygodni pracy ludzkiej.
Superinteligencja wymaga nowego podejścia do bezpieczeństwa ⚠️
Choć Altman pozostaje optymistą co do potencjalnych korzyści AI, otwarcie mówi o ryzykach:
„Potencjalne korzyści są ogromne, ale traktujemy ryzyko systemów superinteligentnych jako potencjalnie katastrofalne„.
Apeluje o tworzenie wspólnych standardów bezpieczeństwa między czołowymi laboratoriami AI, wymianę wiedzy o zagrożeniach i ograniczanie „wyścigu zbrojeń AI”. Porównuje ten proces do historycznego rozwoju przepisów budowlanych czy ochrony przeciwpożarowej – norm, które powstały po tragediach i później uratowały tysiące istnień.
Zdaniem Altmana, rządy i instytucje międzynarodowe powinny opracować system publicznego nadzoru nad AI. Choć obecne technologie można regulować standardowymi metodami, przyszłe systemy zdolne do samodoskonalenia będą wymagać „zupełnie nowego podejścia”.
AI jako fundamentalne dobro publiczne 🌍
Altman porównuje przyszły dostęp do zaawansowanych systemów AI z podstawowymi dobrami cywilizacyjnymi, takimi jak woda czy elektryczność.
„Dorośli powinni móc korzystać z AI na własnych zasadach, w granicach wyznaczonych przez społeczeństwo. Dostęp do zaawansowanej AI stanie się fundamentalnym dobrem publicznym„.
Kluczową rolę w bezpiecznym rozwoju AI odegra „ekosystem odporności AI” – sieć firm, instytucji i systemów monitorowania bezpieczeństwa, która umożliwi społeczeństwu funkcjonowanie w świecie napędzanym inteligentnymi maszynami.
Zmiana tonu w debacie o przyszłości AI
Słowa Altmana wyznaczają nowe kierunki w dyskusji o przyszłości sztucznej inteligencji. Co ciekawe, szef OpenAI – który jeszcze niedawno ostrzegał przed „niekontrolowanym wyścigiem modeli” – teraz kładzie nacisk na współpracę i odpowiedzialność w procesie wdrażania nowych technologii.
„AI pomaga odkrywać nową wiedzę. Naszym obowiązkiem jest pokierować tą mocą w sposób, który przyniesie szerokie i trwałe korzyści” – podsumowuje Altman.
Wnioski: AI zmieni świat, ale potrzebujemy nowych zasad gry
Prognozy Altmana pokazują, że stoimy u progu epokowej zmiany. AI przestaje być tylko narzędziem wspomagającym człowieka, a staje się samodzielnym podmiotem zdolnym do odkryć naukowych. Jednocześnie, aby uniknąć potencjalnych katastrof, musimy wypracować nowe mechanizmy kontroli i nadzoru, które dostosowane będą do skali możliwości przyszłych systemów. Wygląda na to, że najbliższe lata będą decydujące dla przyszłości relacji człowieka z inteligentnymi maszynami. 🤔









