16 gondolkodó, 16 AI-nézőpont: döntési iránytű vezetőknek
Kinek higgy AI ügyben? Inkább értsd a nézőpontokat. 16 kulcsfigura, 16 keret – hogy a stratégiai döntéseid stabilabbak legyenek.
.jpg)
Rövid összefoglaló:
- Az AI-ról szóló vita ma már nem „pro vs kontra”, hanem különböző döntési logikák ütközése – technológia, hatalom, kockázat, gazdaság, kreativitás, geopolitika.
- A 16 portré célja nem az, hogy a következő modellfrissítést lekövesse, hanem hogy iránytűt adjon a következő évekre, amikor a változások még gyorsulnak.
- Vannak, akik az AGI definícióját vitatják és más irányt javasolnak (pl. világmodellek), mások a hatalmi és erőforrás-struktúrákat emelik ki (adat, munka, energia).
- A kockázati gondolkodók a kontroll, kiszámíthatatlanság és „runaway” problémát hozzák előtérbe, nem csak technikai, hanem civilizációs szinten.
- A gyakorlati tanulság döntéshozóknak: előbb tisztázd, milyen „AI-problémát” oldasz (hatékonyság, minőség, kockázat, verseny, kreatív output), és csak utána válassz narratívát, eszközt, stratégiát.
16 gondolkodó, 16 nézőpont: hogyan érdemes AI-ról beszélni, ha döntéseket kell hoznod?
A könyv célja, hogy utat mutasson neked ne csak a következő ChatGPT vagy Claude modell megjelenéséig, hanem iránytűként tudd használni a következő években amikor még tovább gyorsulnak a változások. Ha az elmúlt években olvastál cikkeket a mesterséges intelligenciáról, akkor minden bizonnyal találkoztál olyan nevekkel, mint Sam Altman, Eric Schmidt, Elon Musk vagy Dario Amodei – aki a Claude mögött álló Anthropic CEO-ja – rendszeresen szólalnak meg vállalatuk éléről a legújabb modellek kapcsán.
Ha róluk szeretnél többet megtudni, érdemes lehet elolvasni Karen Hao – Empire of AI: Dreams and Nightmares in Sam Altman’s OpenAI (2025) című könyvét, vagy Stephen Witt – The Thinking Machine: Jensen Huang, Nvidia, and the World’s Most Coveted Microchip (2025) kötetet.
A hazai szakértők, mint például Rab Árpád vagy Keleti Arthur, valamint időnként Andrej Karpathy gondolatai is olyanok, amikkel könnyen találkozhattál.
Azonban nem csak rájuk érdemes odafigyelni, ugyanis az AI-ról szóló vita sokkal fontosabb ennél. Úgy gondolom fontos meghallgatni olyanokat is, akik jobban a felszín alá látnak, több, olykor aggasztóbb gondolatot, kétséget osztanak meg, hiszen érdemes ezekkel is tisztában lenni, ezekre is odafigyelni. Vannak ugyanis akik nem annyira optimisták ezekkel a rendszerekkel kapcsolatban és eltérő módon gondolkodnak a mesterséges intelligenciáról és az AGI-ról. Van aki szerint az AI megoldhatja az emberiséget fenyegető válságokat, amilyen a klímaválság is. Mások komoly aggodalommal figyelik az AI fejlődését és a technológia mögött egymásnak feszülő nagyhatalmakat, Amerikát és Kínát.
Ezért kicsit formabontó módon összegyűjtöttem azokat a gondolkodókat, akikről azt gondolom, érdemes időt szánni a gondolataikra, a velük készült beszélgetésekre, az általuk írt könyvekre.
A következő rövid portrék olyan szakértőket mutatnak be, akiknek a gondolataival nem találkozhatsz a napi hírekben, mégis érdemes odafigyelni ezekre is. Mindegyik egy-egy új nézőpontot ad a számodra, és segít megérteni, hogy miért aggódnak sokan.
.webp)
Yann LeCun
Yann LeCun a Meta vezető AI-kutatója, és az „AGI” körüli közbeszéd egyik legkövetkezetesebb kritikusa. A nézőpontja nem tagadás, hanem definíciós vita: szerinte az „általános intelligencia” sokszor valójában emberi szintű intelligenciát jelent, ami viszont nem „általános”, hanem erősen specializált arra a környezetre, amiben az ember evolúciósan működni tanult. LeCunn kritikus a nagy nyelvű modellekkel teljesítményével szemben és inkább a világmodellek fejlesztésében látja a valódi AGI felé vezető utat. Míg most sok hazai szakértő a szövegalapú és azon belül is az LLM modellekről beszél, addig külföldön sokkal gyakrabban találkozni más megközelítésben felépített rendszerekkel és modellekkel. Yann LeCun az egyik közülük.
Karen Hao
Karen Hao újságíróként az AI-iparág működését nem technológiai csodaként, hanem erőforrás- és hatalmi struktúraként elemzi. Az általános megközelítéssel szemben, amivel a mindennapokban találkozunk, hogy melyik rendszer melyik modellje mire képes, sokkal inkább azt a kérdést helyezi a központba, hogy milyen áron,költségen működik az? Mennyi adattal, energiával, víz felhasználásával, azaz mekkora társadalmi költséggel milyen teljesítményre képes az adott rendszer.
Magyarul is megjelent könyve: Az AI birodalma fókuszában Sam Altman-ről és cégéről az OpenAI-ról van, amelyről igen negatív képet fest – nem véletlenül, de mindenképpen hiányzik belőle egy átfogóbb és válaszokkal is rendelkező szemlélet.
Ray Kurzweil
Ray Kurzweil könyvei ugyanarra a fő tézisre épülnek, csak egyre merészebb következményekig viszik el: a technológiai fejlődés nem lineáris, hanem gyorsuló, egymásra épülő S-görbék sorozata. Korábbi köteteiben még azt térképezi fel, hogyan válik a számítási kapacitás és a szoftveres módszerek fejlődése hétköznapi üzleti és társadalmi erővé – vagyis mikor és miért lesz „látható” a technológiai ugrás a valós működésben, nem csak a laborokban.
A The Singularity Is Near (2006) könyve ennek a nagy összefoglalása: Kurzweil szerint az exponenciális fejlődés miatt a világ nem fokozatosan, hanem hirtelen, szakaszosan vált át az új működési módokra. Témája, a szingularitás nem egy lehetséges opcióként, hanem elkerülhetetlen realitásként jelenik meg a könyvben, amelyben a vezetők jellemzően túl későn reagálnak, mert az S-alakú fejlődési görbék lapos fázisa alapján becsülik meg a közeljövőt, miközben a gyors fázisban – az S-alak meredekebb időszakai – már nem lehet elkerülni az elkerülhetetlent, így pedig felkészületlenül érhetünk bele egy olyan korszakba, ami felett nincs ráhatásunk, kontrollunk.
A How to Create a Mind és a The Singularity Is Nearer (2024) már közelebb lép az emberi oldalhoz: az előbbi az elme működését mintázatfelismerő hierarchiaként írja le, és ebből vezeti le az általános mesterséges intelligencia megépítésének logikáját. A közös üzenet mindkettőben az, hogy az AI nem egyszerűen egy új eszköz, hanem egy olyan infrastruktúra, ami a döntéseket hoz, újraírja a munkáról alkotott fogalmainkat. A fejlődés eltérő szakaszainak eltérős sebességeiből adódóan pedig a legnagyobb kockázat nem az, hogy tévedésből jön létre egy általános, az emberit meghaladó mesterséges intelligencia, hanem az, hogy egyszerűen, csak túl későn vesszük észre azt, és kicsúszik a kezünkből az irányítás, amikor már nem tudunk alkalmazkodni a megváltozott helyzethez.
Tim Urban
Tim Urban a Wait But Why blog szerzőjeként rengeteg érdekes és említésre méltó gondolatot fogalmaz meg, amit nem csak vállalkozóként vagy vezetőként érdemes elolvasni és meggondolni, hanem akár munkavállalóként, tanulóként is. A könyvben külön foglalkozom az AI szempontjából az egyik legérdekesebb, a DPU – Die Progress Unit – fogalma, ami a már említett fejlődési sebesség gyorsaságát helyezi át egy másik kontextusba, amit azóta beépítettem én is az egyik előadásom gondolatai közé.
A DPU-n keresztül Urban azt mutatja be, hogy mennyi időnek kell eltelnie ahhoz, hogy egy a múltból az időben előre utaztatott ember egy olyan valóságba kerüljön, aminek a változásai feldolgozhatatlanok a számára. A gondolatkísérlet mindenképpen érdekes, mit gondolunk most, mennyi időnek kell eltelnie 2026-tól, hogy egy olyan jövőbe kerüljünk, amit egyszerűen nem tudnánk feldolgozni. Jól becsüljük meg ezt az időintervallumot, vagy talán alul vagy éppen felül becsüljük ezt? Ebben az elképzelt jövőben szerepel már a szuperintelligencia, meg tudjuk becsülni milyen lenne egy ilyen jövő?
Frank Wilczek
Frank Wilczek Nobel-díjas elméleti fizikus, akit azért emeltem be, mert ő is arra törekszik, hogy írásaiban , gondolataival visszahozza az AI-ról való beszélgetést a mindennapjaink szintjére. A világ működését nem narratívák, ahogy például Yuval Noah Harari közelíti meg történeteket, hanem törvényszerűségek írják le. Amikor technológiai jóslatokat hallunk, érdemes megkérdezni: mi az, ami fizikai értelemben lehetséges, mi az, ami csak vágy, és mi az, ami csak játék az AGI-t értelmező definíciókkal.
Interjúiban segít kimozdítani abból a kényelmes, a hype-okat mantrázó beszélgetési panelekből, amikkel gyakran találkozom én is konferenciákon. Természettudományos alapokon nyugvó gondolkodása nekem is segít abban, hogy olyan keretrendszereket alakítsak ki akár az AI műkédésével, változásával kapcsolatban is, ami túlmutat ezeken a napi smalltalk-okon.
Wilczek munkái közül a Fundamentals – Ten Keys to Reality (2021) nem az AI-ról szól, hanem egy olyan munka, ami segít tisztábban látni, mit jelent valójában információ, hogyan működnek a természeti törvények, hogyan az ezeket leíró modellek. Ezeket jobban megértve pedig közelebb kerülhetünk az AI jobb, objektívebb megértéséhez is, annélkül hogy alá vagy éppen felülbecsülnénk bizonyos részeit, a mindennapjainkra gyakorolot hatását most, és a következő években.
Jerry Kaplan
Jerry Kaplan azért fontos szereplő az AI-ról szóló gondolkodásban, mert nem elsősorban technológiai csodaként nézi a mesterséges intelligenciát, hanem gazdasági szerkezetként. Stanford Egyetemen a mesterséges intelligencia társadalmi és gazdasági hatásait tanítja. Nyilatkozataiban az AI nem pusztán arról szól, hogy mire képes egy rendszer, hanem arról, hogy milyen intézményi, piaci és társadalmi következményei vannak annak, ha a gépek egyre több feladatot képesek átvenni tőlünk, emberektől.
A Humans Need Not Apply: A Guide to Wealth and Work in the Age of Artificial Intelligence (2015) már a címével is állít valamit, nem finomkodik, nem a szokásos „átalakul a munka világa” típusú nyelvet használja, hanem azonnal strukturális kérdést tesz fel: mi történik akkor, ha a gazdaságban a humán munka nem egyszerűen átrendeződik, hanem egyre több helyen elveszíti korábbi központi szerepét. A könyv kiadói összefoglalója szerint Kaplan fő kérdése az, hogy az AI és a robotika által hozott jólét miként oszlik majd el egy olyan korszakban, ahol a technológiai nyereség könnyen a már eleve tőkeerős szereplőknél csapódhat le. Nem a gépektől fél igazán, hanem attól, hogy a társadalmi és gazdasági rendszer nem lesz képes szélesen szétteríteni az automatizáció hasznát.
Előadások, beszélgetések során gyakran szoktam megkérdezni a hallgatóságot, hogy aznap hány olyan emberrel találkoztak, akiknek a munkája kiváltható egy humanoid robottal, vagy éppen olyan típusú munka, ahol nincs valódi hozzáadott értéke annak, hogy azt egy élő ember látja el. Taxis, felszolgáló, eladó a pékségben, ezek az emberek, munkakörök milyen hozzáadott értéket képviselnek a mindennapjainkban, ha éppen ezeket a feladatokat humanoidok végezték volna el, miben éreznénk máshogy, hiányozna valami a napunkból?
Kaplan Yale University Press-nek adott beszélgetésében is azt hangsúlyozza, hogy a jövő nagy kérdése nem az, hogy a gépek fellázadnak-e, hanem az, hogy a technológiai fejlődés haszna a társadalom egészét szolgálja-e, vagy csak egy szűk, már most is vagyonos rétegét. A veszély szerinte az, hogy miközben az intelligens rendszerek hatékonyabbá teszik a gazdaságot, a profit a tulajdonosoknál és befektetőknél koncentrálódik, a kiszoruló munkavállalók pedig egyre bizonytalanabb helyzetbe kerülnek.
Kaplan nem védi a korábbi munkaerőpiacot, hanem azon dolgozik, hogyan lehetne úgy átalakítani azt, hogy az emberek ne egyszerűen vesztesként sodródjanak a következő években. Így jut el olyan javaslatokig, amelyek elsőre furcsának tűnhetnek, de jól mutatják a gondolkodásának irányát: új típusú pénzügyi és társadalmi megoldásokat kell találni arra, hogyan lehetne a képzést, az átképzést és a jövőbeli munkaképességet jobban összekapcsolni a gazdasági ösztönzőkkel.
Geoffrey Hinton
Geoffrey Hinton brit-kanadai informatikus, kognitív tudós és kognitív pszichológus, akit az AI keresztapjának is hívnak. Interjúit hallgatva két dolgot érdemes kiemelni, egyrészt úgy gondolja, hogy 5-20 éven belül az AI okosabb lesz nálunk. Másrészt akár 10-20%-nyi esélyt lát arra is, hogy a mesterséges intelligencia végül átveszi az irányítást felettünk. Szerinte a szuperintelligencia elérése közelebb lehet, mint gondolnánk és a társadalmunk, illetve a szabályozás nincs felkészülve erre.
Hinton a modern neurális hálózatok egyik meghatározó kutatója. 1986-os, backpropagationről – backpropagation magyarul: visszaterjesztés, egy gradiens számítási módszer, amelyet általában a neurális hálózatok betanítására használnak a számítási paraméterek frissítésére – szóló munkája mérföldkő volt a mai neurális hálózatok fejlődésében, 2018-ban Turing-díjat kapott, majd 2024-ben fizikai Nobel-díjjal ismerték el a gépi tanulás fejlődésében elért munkájáért. Éppen ezért megszólalásait tekinthetjük önkritikus gondolatoknak is, figyelmeztetések egy olyan embertől, aki valóban tudja, érti mit beszél. Ma már egyre erősebben annak a szószólója, hogy ami történik, az könnyen oda vezethet, hogy a rendszer fejlődése gyorsabbá válik, semmint kontroll alatt tudjuk tartani azt
Ehhez kapcsolódik az a sokat idézet gondolata is: a nálunk intelligensebb rendszerek feletti kontrollra nincs sok pozitív történelmi példa. A Nobel-interjúban úgy fogalmazott: alig ismerünk olyan esetet, amikor egy kevésbé intelligens lény tartósan kontrollálna egy nála intelligensebbet, az egyetlen jó példája a csecsemő és az anya viszonya, de ott is az evolúció rengeteg munkát tett abba, hogy ez a kapcsolat kialakuljon – valószínűleg nekünk ennyi időnk nem lesz.
Ezért Hinton az utóbbi években egyre inkább kockázatkommunikáció felé fordult nyilatkozatai, megszólalásai külöböző podcast-ekben is erről szólnak. Már az egyik 2023-as interjújában arról beszélt, hogy az AI fenyegetése akár sürgetőbb is lehet, mint a klímaváltozás, és azért hagyta ott a Google-t, hogy szabadabban tudjon beszélni a veszélyekről, és bárcsak korábban kezdett volna el komolyabban aggódni az egzisztenciális kockázat miatt.
Az üzleti és médiapiaci ösztönzők kritikája is emiatt fontos nála. A CBS-interjúban arról beszélt, hogy a nagy cégek jelenleg inkább a kevesebb szabályozásért lobbiznak, miközben szerinte jóval több erőforrást kellene biztonsági kutatásra fordítanunk társadalmi szinten. Az AI ugyanis könnyen válhat választási manipuláció, dezinformáció és háborús felhasználás eszközévé – erről későbbi részekben írok majd –, és hogy az AI-chatbotokkal terjesztett félretájékoztatás a Facebook és más platformok korábbi működésének egy új változatát hozhatja el.
Prof. Stuart Russell
Prof. Stuart Russell sem a mesterséges intelligencia modellekre helyezi a hangsúlyt, hanem arra, hogy vajon mennyire és meddig marad a mi kezünkben az irányítás, ha egyszer nálunk kompetensebb rendszereket hozunk létre. A Berkeley Egyetem professzora, a Center for Human-Compatible AI vezetője, és a terület egyik alapművének, az Artificial Intelligence: A Modern Approach (1995) a társszerzője, vagyis a modern AI egyik legikonikusabb szereplője.
Russell beszélgetéseiben az egyik fő kérdés, hogy hogyan lehet olyan AI-rendszereket építeni, amelyek összeegyeztethetők az emberi érdekekkel, miközben a rendszerek képességei folyamatosan nőnek. A fent említett könyv szerint az a megszokott AI-logika – vagyis hogy egy gépnek mereven megadott célokat adunk, aztán egyre jobbá tesszük a célok elérésében – veszélyesen félrevihet minket, ha a rendszer sokszorosan hatékonnyá válik azonban – az ember által – meghatározott cél kimunkálatlan marad, akkor könnyen lyan válaszokat, megoldásokat találhat az AI, amire egyrészt nem gondolunk, másrészt nem biztos hogy segíti a túlélésünket. Russell szerint pont emiatt kellene erősebb korlátok közé szorítani az AI-t, valamint tovább és mélységében vizsgálni a működését. Szerinte az AI-t fejlesztését úgy kellene tovább tervezni, hogy a gép kevésbé rutinokból, mintákból válaszoljon, legyen nyitottabb az emberi preferenciákat illetően, és ezért együttműködően, visszakérdezve, korrekcióra nyitottabban működjön.
Egy 2023-as amerikai szenátusi meghallgatáson Russell így fogalmazott: az elmúlt évtizedes kutatásának központi kérdése az, hogyan őrizzük meg tartósan a hatalmat olyan entitások felett, amelyek végül erősebbek lehetnek nálunk. Hinton mellett tehát Russel is ugyan arra a következtetésre jutott. Azt mondja: ha létrehozol nálad kompetensebb döntéshozót, akkor a te preferenciáid csak addig fognak számítani, amíg a rendszer felépítése azt garantálja.
Ebben a keretben kap értelmet a híres gorilla-metafora is. Russell ezt több interjúban úgy magyarázta, hogy a gorillák nem azért veszítették el az irányítást a saját jövőjük felett, mert az ember „gonosz” volna, hanem mert az ember sokkal nagyobb világformáló képességgel rendelkezik náluk. Ahogy egy interjúban fogalmazott: a gorillák fajként lényegében csak annyira rendelkeznek a jövőjük felett, amennyit az emberek megengednek nekik.
Russell a szenátus előtt tett nyilatkozatában is hangsúlyozta, hogy ezek nem tisztán technológiai kérdések, hanem olyan problémák, amelyekben a szabályozásnak, az intézményi felelősségnek és a politikai, társadalmi beavatkozásnak is nagy szerepe vana kontrollot rendszerszinten kell beépíteni.
Prof. Yoshua Bengio
Yoshua Bengio, ugyanabból a tudományos magból érkezik, mint több az előbb említett szakértő, tudós, és csak úgy mint a többiek ő is egyre élesebb kritikákat fogalmaz meg az AI jelentette biztonsági kockázatokat illetően. A Montreali Egyetem professzora, a LawZero startup egyik alapítója, résztvesz az éves International AI Safety Report elkészítésében. A 2025-ös TED-előadásában említi, hogy amennyiben az AI okozota veszély civilizációs léptékű, akkor még az alacsony valószínűség sem lenne elfogadható.
Bengio szerint a fő kérdés az, hogy milyen irányba optimalizáljuk az AI-t. Ma sokkal gyorsabban növeljük a rendszerek képességeit, mint amilyen tempóban a biztonsági és kontroll kérdéseket kezeljük, értjük. Véleménye szerint azok a mai modellek már most is mutatnak olyan veszélyes viselkedéseket, mint a megtévesztés, csalás, hazugság, hackelés vagy az önfenntartás felé mutató működés, ezért az általa is alapított LawZero-val egy olyan irányt próbál kialakítani, amely kifejezetten a biztonságot helyezi előtérbe a mindennapok kereskedelmi nyomása és már-már a hidegháborúhoz hasonló versengés elé.
Dr. Roman Yampolskiy
Roman Yampolskiy igazi feketebárány még ebben a listában is szerintem. Kiberbiztonsági és AI-biztonsági kutató a Louisville-i Egyetemen. Szerinte az AGI nem kontrollálható bizonyítható módon, ezért nagy a kockázata annak, hogy súlyos kárt okozhat az emberiség számára. A beszélgetéseinek a kiindulópont ez, és nehéz vele vitatkozni.
Szerinte a probléma az, hogy nem vagyunk képesek megjósolni azt, hogy mi fog történni az AGI megjelenésekor. Nem lehetünk képesek szerinte megérteni a működését és a viselkedését egy olyan rendszernek, ami nálunk intelligensebb. Ebben az esetben pedig hatalmas kockázatnak vagyunk kitéve. Erről részletesen ír könyvében, az AI: Unexplainable, Unpredictable, Uncontrollable (2024).
Demis Hassabis
Sir Demis Hassabis brit mesterséges intelligencia-kutató és vállalkozó. A Google DeepMind és az Isomorphic Labs vezérigazgatója és társalapítója, valamint a brit kormány AI-tanácsadója, és talán őt hallgattam a legtöbbet az elmúlt hónapokban. Hassabis a többi értelmezés mellett rendszeresen nyilatkozik azzal kapcsolatban is, hogy az AI nem csak a munkában segít, hanem a tudományos életet is átalakítja, és így egy teljesen új, itthon is csak érintőlegesen tárgyalt témát emel be a közbeszédbe.
Nem véletlenül foglalkozik ezzel az aspektussal, 2024-ben Hassabis és John M. Jumper közösen elnyerték a kémiai Nobel-díjat a fehérje szerkezetének előrejelzésére irányuló AI-kutatásukért. Saját Nobel-interjújában nagyon világosan megfogalmazza, hogy egész életében azért dolgozott AI-n, mert azt gondolta: ha jól építjük fel, akkor ez lehet „the ultimate tool to help scientists”, vagyis a tudomány egyik végső, legerősebb eszköze amivel segíteni lehet a kutatókat. Ez szerintem sokat elárul arról hogyan is gondolkodik. Az AI nemcsak azt jelenti számára, hogy gyorsabban írunk, keresünk vagy automatizálunk, hanem azt, hogy a természet mélyebb mintázatait is jobban megérthetjük ezen keresztül.
Ő egy abszolút pozitív figura – nehéz ilyen találni, ha az ember a téma valódi szakértőit nézi, olvassa – eltér például Hinton, Russell vagy Bengio által közvetített szenárióktól, amit mond. Miközben ők egyre inkább a kontroll, a biztonság vagy a civilizációs kockázat felől beszélnek, Hassabis inkább azt mutatja meg, mire jó az AI, ha valódi tudományos eszközként használjuk. A Google DeepMind AI for Science weboldalon megjelenő anyagok is erre koncentrálnak. Ez az egyik legerősebb, legpozitívabb aspektusa az AI körüli narratíváknak, azaz az AI egy új tudományos korszakot nyithat számunkra.
Dr. Fei-Fei Li
Professzor a Stanford Egyetemen, és többek közt az ImageNet megalkotója, amely a 2010-es évek egyik úttörő képfelismerő rendszere és mint ilyen rendszer jelentősen hozzájárult a deep learning és a modern AI fejlődéséhez. Ő is egy olyan szereplője a listának, akik aktív részese annak, amit ma egyszerűen csak AI-nak hívunk. Emellett megszólalásaiban, interjúiban rendszeresen emlékeztet minket, az AI nem magától történik – vagy bár legalábbis nem csak – hanem mi alakítjuk, építjük, formáljuk.
Egyik sokat idézett mondata: „nincs semmi mesterséges az AI-ban – emberek inspirálták, emberek hozták létre, és emberekre van hatással”. Ez a gondolat pedig mindenképp fontos lehet, ha arról szeretnénk gondolkodni, mi is az AI és Ki alakít kit?
Intézete a Stanford Institute for Human-Centered AI fontos munkát végez, céljuk, hogy az AI fejlesztését tudományosan megalapozott, pragmatikus és emberközpontú elvekhez kell kötni. A 2025-ös párizsi AI Action Summit megnyitóján elmondott beszédében is hangsúlyozta: a kormányoknak először meg kell érteniük a technológiát, támogatniuk kell az egész ökoszisztémát – beleértve az energiát, a közszférát, az akadémiát és a magánszektort is –, majd erre kell építeniük a védőkorlátok és az innováció egyensúlyát. Ennek a megértése miatt is írom ezt a könyvet.
Edwin Chen
Edwin Chen azért került fel a listára, mert ő is egy fontos, akár a mi mindennapjainkban is szereplő elemre hívhatja fel a figyelmet, ez pedig az adat. Ő a Surge AI alapítója és vezérigazgatója; korábban a Google-nél, a Facebooknál és a Twitternél dolgozott, a startupját pedig kifejezetten azért indította el, mert azt tapasztalata, hogy a jó gépi rendszerek egyik legnagyobb szűk keresztmetszete nem a modellezés, hanem a megbízható, nagy minőségű emberi adat. Saját korai írásában ezt úgy fogalmazta meg, hogy a céget a nagy léptékű, magas minőségű, ember által címkézett adatok problémájának megoldására hozta létre, erős fókuszszal a minőségre és a sebességre, azaz a Surge AI alapfilozófiája a „high-quality human data”.
Tartalomkészítés és marketing szempontból is érdekes, Chen véleménye szerint a rossz adat nem egyszerűen csak „zaj”, hanem rendszerhiba, ami beleéghet a feltanításba, az értékelésbe és végül a felhasználói élménybe is. Egy podcastben a keresési és rangsorolási dilemmát így mutatja be: először „remove the worst of the worst”, vagyis el kell távolítani a legrosszabb minőséget, a spamet, a zajt, a selejtet, majd utána „discover the best of the best”, vagyis meg kell találni azt is, ami valóban kivételes és magas minőséget képvisel. Ez a mondatot azért emelném ki, mert az, ami el fogja sodorni az AI-slop-ot, az pontosan ez felismerés, és amelyik platform később reagál, lemarad, kimarad – a Facebook pedig pont ebben nem jeleskedik, így marketinges sapkából én javasolnám, hogy mindenki kezdjen el erősen gondolkodni a Facebook-on túli lehetőségeiben, illetve a platform felé lévő kitettségén , és azon is, hogy érdemes-e a márkáját összekoszolnia alacsony minőségű AI-os tartalommal. Hiszen a marketingben, a médiában és a keresőkkel telített digitális környezetben ez pontosan azt jelenti, hogy a középszerű, tömegelt tartalom könnyen érdektelenségbe, ellenszenvbe bukhat át.
Shane Legg
Shane Legg AI-kutató, Demis Hassabis kollégája, a Google DeepMind társalapítója és Chief AGI Scientistje. Szerinte 50% esélyt ad arra, hogy 2028-ra eljutunk az AGI egy emberközeli formájához. Leggnél az AGI ezért nem feltételes kérdés, hanem inkább mikor és milyen formában jelenik meg. Ez pedig az én értelmezésem, és a könyv szempontjából is fontos, egyértelmű, hogy a hangsúly pusztán a MIKOR-on van. Egy ilyen tisztánlátás mellett pedig a lehetőségünk van arra, hogy felkészüljünk rá. Tehát nem attól kell félni leginkább, hogy az AGI túl messze van, hanem attól, hogy túl érkezik el.
Carina Hong
Carina Hong a Stanford Egyetem munkatársa, emellett az Axiom startup alapítója – nem azonos a Kapu Tibort fellövő Axiom Space céggel –, melynek a célja a világ első „AI mathematician”, vagyis olyan rendszer, amely nemcsak matematikai feladatokat old meg, hanem formális bizonyításokra, sejtések ellenőrzésére és idővel akár új tételek felfedezésére is képes lehet. Hong így fogalmazza meg a célt: nem általános chatbotot építenek, hanem egy matematikai szuperintelligenciára fókuszáló rendszert.
Ez a cél pedig egy új típusú Ai kifejlesztéséhez is vezethet, hiszen míg a mai modellek sokszor jól generálnak, de rosszul tudják eldönteni, mikor tévednek, hallucinációkkal jár a használat. A matematikában más szabályok, működnek, ők is más megoldás felől közelítenek, hiszen ott nincs „majdnem igaz” válasz: vagy áll a bizonyítás, vagy nem. A rendszerük egyik alapelve éppen ez a verification-first logika, vagyis hogy a generálás önmagában kevés, az állításokat formálisan ellenőrizhető szerkezetekhez kell kötni. Ez különösen izgalmas, mert a matematikát nem pusztán nehéz feladatterületként kezelik, hanem a megbízhatóbb AI egyik tesztkörnyezeteként.
3.2 Miben más az AI a korábbi technológiai szintlépéseknél?
A mesterséges intelligenciáról szóló viták jelentős része – akár itthon, akár külföldön – még mindig úgy beszél erről a technológiáról, mintha csupán egy újabb digitális eszköz lenne a sok közül. Egy erősebb kereső, egy ügyesebb szoftver, egy látványosabb automatizmus. Szerintem azonban az AI-t nem ez különbözteti meg igazán a korábbi technológiai váltásoktól, ugrásoktól. Természetesen most egy teljesen új, egy már „hozzánk beszélő” újdonságról van szó, amivel teljesen más viszonyba tudunk kerülni, mint az eddigiekkel – amik szintén átalakították az életünket. Másrészt pedig a korábbiakkal ellentétben a mostani változás – bár évek óta tart – sokkal gyorsabbnak hat, mint az előzőek, és ez a véleményem szerint csak tovább fog gyorsulni, erre egyébként a 2025-ös és 2026-os év eddigi történései is alátámasztják.
Nem egyszerűen gyorsabbá vált a technológiai fejlődés, hanem annyira gyorsan történi, hogy konkrét mérföldköveket jelentő újdonságokról tudunk lemaradni, még akkor is, ha igyekszünk követni és tartani a lépést. Talán a COVID okozta időérzék torzulás valós vagy képzelt hatása is közrejátszhat, vagy a hazai és a globális politikai változások és a hatásukra kialakuló vakság, telítettség miatt érzékeljük máshogy az idő múlását.
Azonban ez is a célom a könyvvel, hogy erre felhívjam a figyelmet: „Állandó változásban – Milyen AI-készségek lesznek értékesek 2026-ban egy nagyvállalatnál?”, beszéltem erről egy előadáson, illetve most májusban Siófokon is egy kerekasztal beszélgetésben. Ez a delúzió nem írhatja felül azt a felelősséget amit magunk, közösségeink, vállalkozásaink felé tartozunk, az AI-korszak változásai, újdonságai egyre gyorsabban egyre növekvő mértékben vannak hatással az életünkre, ezért még inkább fontos, mennyire követjük a változásait, hogyan döntünk róluk. Egyre inkább azt látom: ma már nem önmagában a technológia a fő kérdés, hanem az, hogy képesek vagyunk-e tartani a ritmusát.
Ezt a gyorsulást Tim Urban egy emlékezetes, ugyanakkor ironikus fogalommal fogta meg jól, ez a DPU-nak, vagyis Die Progress Unitnak: ez mutatja annak az időbeli ugrásnak a mértékét, amely akkora változást jelentene egy korábbi kor emberére, hogy az szinte belehalna a sokkba, amit a két időpont közötti technológiai fejlettség mutat. Urban példája szerint egy vadászó-gyűjtögető korban egy ilyen ugráshoz több mint százezer évre votl szükség, a mezőgazdasági forradalom után már nagyjából elég volt tizenkétezer, az ipari korszakban pedig néhány száz év is elég volt hozzá. Vagyis nemcsak az történt, hogy fejlődött az emberiség, a technológia körülöttünk, hanem az is, hogy maga a fejlődés egyre gyorsult.
Ezt a gondolatot azért építettem be ide, az AI kapcsán, mert segít megérteni, miért érezzük egyszerre túlzónak és mégis valóságosnak a körülöttünk zajló változásokat. Az ember ösztönösen egyenes vonalban gondolkodik. A következő harminc évet hajlamos úgy elképzelni, mint az előző harminc folytatását. Urban pontosan erre mutat rá: a jövőt rendre azért becsüljük alá, mert a tegnap változásának az üteméből próbáljuk megjósolni, mi jön holnap. Azonban láthatjuk, hogy a technológiai fejlődés nem így működik. Nem ugyan azon a „track”-en van, hanem ráépül önmagára. A tudás, a számítási kapacitás, a hálózatok, a szoftverek, a modellek és a felhasználói visszacsatolások egymást gyorsítják. Ezért van az, hogy amikor valaki azt mondja: „eddig sem változott meg minden egyik napról a másikra”, valójában egy múltbeli tapasztalattal próbálja megnyugtatni magát egy olyan korszakban, amely már nem a múlt tempójában működik.
A prezentáció egyik üzenete éppen az volt, hogy a változás sebessége ma már egy nagyon is látható jelenség: a számítási teljesítmény drámai növekedése, és nem a Moore-törvény alapján, hanem olyan exponenciális görbék mentén, amelyek azt mutatják, hogy az AI-rendszerek által elvégezhető feladatok időhossza néhány év alatt másodpercekről órákra nyúlt. Míg pár évvel ezelőtt újdonságnak hatot, hogy már majdnem meg tudott írni az AI egy e-mailt nekünk, addig mára már komplett cikkeket, kutatási anyagokat fogalmaz meg. Talán mindenki találkozott az Will Smith-es videós animációkkal, ha egymás mellé tesszük a 2023-as, 2024-es és 2025-ös videókat, érzékletes a különbség, a többség mégis csak egy vállrándítással intézi el: „Na és? Jobb lett, nagy ügy!” Az. Valóban nagy ügy, amit sokan nem vesznek észre, hogy mára egyre több feladatban jobb, gyorsabb lett mint mi, és ez valóban nagy ügy. Csak éppen a fent említett vakság, vagy zaj miatt ezt nem vesszük észre, vagy éppen nem tulajdonítunk neki nagy – megfelelő – jelentőséget. Az AI és a gépek egyre több feladat elvégzésében, megoldásában egyszerűen mára jobbak lettek mint mi.
Az emberi időérzékelés tehát torz. Lineáris fejlődésben gondolkodunk, miközben az exponenciális. Miközben technológiailag egy meredek görbén haladunk, az érzékelésünk és megélésünk más, nem fogadja be – sőt akár küzdeni is elkezd – az exponencialitással. A hétköznapi ember, a munkavállaló, a vezető és gyakran még a döntéshozó intézmények is úgy működnek, mintha lenne idejük reagálni, ráérnének. Mintha a szabályozásnak, az oktatásnak, a szervezeti kultúrának és a készségfejlesztésnek kényelmesen volna ideje utolérni a technológiát. Pedig egy ilyen történelmi változás során ennek nagyon magas lehet a költsége. Egy ilyen alkalmazkodási zavar pedig abból születik, hogy a rendszerünk biológiai, társadalmi és intézményi értelemben lassabb változáshoz van szokva, mint az a fejlődés, amit a technológia – a szilícium alapú élet – fejlődése hoz. Nagyon kontrasztba állítva a két fejlődési görbét, az egyiknél évek telnek el, míg mondjuk egy egyén hasznos része lesz a közösségnek – felnő, és dolgozni, szaporodni, gyarapítani kezd –, míg a másik esetben, egy robot esetében vagy akár egy új algoritmus rögtön üzembe állítható – a szó szoros és átvitt értelmében is.
Ez nagyvállalati közegben még látványosabb. A prezentációmban szereplő 2025-ös kutatási adatok alapján a válaszadók szerint a cégek 68%-a támogatja vagy inkább támogatja az AI használatát, tehát a nyitottság már nagyrészt megérkezett. Ugyanakkor csak a kitöltők 26%-a mondta azt, hogy bármilyen AI-val kapcsolatos képzést kapott a munkahelyén. Vagyis a szándék gyorsabban terjed, mint a valós felkészítés. Közben a 2025-ös kitöltők több mint ötöde is arról számolt be, hogy hetente legalább hat órát spórol meg AI-eszközökkel. Ez több érdekes paradoxont mutat be: a cégek úgy gondolják, támogatják az AI-használatot, mégsem fordítanak az oktatásba, képzésbe, holott a munkavállalók már elkezdtek önmaguk is optimalizálni, használni ezeket a megoldásokat.
A 2026-os kutatás eredményei még érkeznek be, de már most látszik, hogy a válaszadók több mint 10%-a számolt be arról, hogy ismer olyan embert, aki már elvesztette a munkáját az AI vagy éppen a humanoid robotoknak köszönhetően. (A kutatás eredményeit a weboldalamon keresztül, a könyvön található QR-kódot követve letöltheted.)
Éppen ezért gondolom és mondom el a legtöbb ilyen előadás, beszélgetés, tanácsadás alkalmával, hogy nem lehet olyan egyszerű megoldásokat, kapaszkodókat keresni, hogy melyik modell az, aminek a legjobb a számítási kapacitása a benchmarkok szerint, vagy csak az alapján döntést hozni, hogy milyen irodai szoftvert használ egy cég. Olyan megoldásokat kell választanunk, amikről elhisszük, hogy nem csak most, hanem a következő 1-2 évben is támogatják, segítik akár az egyéni, akár a céges céljainkat, és mindenekelőtt olyan rugalmas, agilis megoldásokat nyújtanak, amivel együtt tudunk fejlődni mi is, és nem zárnak be minket.
A 2025-ös kutatással szemben a 2026-osba ezért is került bele az a kérdés, hogy „Az elmúlt évben mondtál le AI-eszköz előfizetést?”. Nem meglepő módon a válaszadók több mint 20%-a válaszolt igennel, a jelenlegi eredmények alapján pedig a ChatGPT volt az az eszköz, amiről lemondtak a hazai előfizetők.
Kapcsolódó referenciám:
Összefoglaló
Cégvezetőként, vállalkozóként ezért olyan megoldásokban érdemes gondolkodni szerintem, amikkel együtt tudunk fejlődni alakulni. Ehhez érdemes lehet akár külsős segítséget bevonni, akár meghallgatni a cégnél azokat a kollégákat, akik early adopterek, ismerik, használják ezeket a technológiákat, hiszen nálunk valószínűleg megvan az a tudás, amit keresünk.
Talán ez az AI legfontosabb különbsége a korábbi technológiai korszakokhoz képest. Nemcsak új eszközöket ad a kezünkbe, hanem felgyorsítja magát a történelmi időt. Olyan sűrűvé teszi a változást, hogy közben a régi önképünk, a régi szervezeti logikánk és a régi tanulási ritmusunk elkezd kevésnek bizonyulni. Elkezdenek repedezni a korábbi minták, dogmák. A kérdés ezért nem pusztán az, hogy mire képes az AI. Hanem az is, hogy mire képes az ember egy olyan világban, ahol a következő DPU talán már nem évszázadok, hanem évtizedek – vagy bizonyos területeken akár néhány év – távolságában van csupán. És lehet, hogy a jövő nem akkor érkezik meg, amikor mindenki észreveszi, hanem akkor, amikor a lemaradásunkat már a saját hétköznapjainkban kezdjük el megérezni.
Olvass bele a többi fejezetbe is!
Gyakran ismételt kérdések
Miért nem elég „követni a híreket” az AI-ról?
Mert a hírek jellemzően termékfrissítésekről és benchmarkokról szólnak, miközben a döntéseid (kockázat, folyamat, képzés, hozzáférés, adat) több évre előre hatnak. A cikked ezért iránytű: gondolkodási keretet ad, nem napi feedet.
Mit jelent az, hogy az AI-vita nem „pro vs kontra”?
Azt, hogy a szereplők nem ugyanarra a kérdésre válaszolnak. Van, aki definíciós vitát folytat (mit jelent az „általános intelligencia”), más erőforrás-elosztást elemez (adat, energia, munka), és van, aki kontrollproblémát lát (hogyan marad az ember döntési pozícióban).
KKV-vezetőként hogyan használjam ezt a 16 nézőpontot a gyakorlatban?
Úgy, hogy először kijelölöd a saját döntési helyzetedet: hatékonyságot akarsz, minőséget, új bevételt, vagy kockázatcsökkentést. Ezután kiválasztod azt a 2–3 nézőpontot, ami ehhez ad jó kérdéseket – és ezek alapján építesz belső szabályokat, képzést, eszközválasztást.

Török Balázs
Török Balázsnak hívnak, azt szoktam mondani, hogy digitális marketinggel foglalkozom. Azt gondolom ugyanis, hogy az ügyfeleimnek jellemzően valamilyen marketing-sales problémájuk van és emiatt keresnek meg. Erre kínálok nekik megoldást, fejlesztem a digitális ökoszisztémájukat, megoldásaikat. Olvasd el az esettanulmányaimat, vagy nézz bele a tartalmaimba a YouTube-on, TikTok-on vagy írj nekem a LinkedIn oldalalamon!
Gyakori kérdések
Miért nem elég „követni a híreket” az AI-ról?
Mit jelent az, hogy az AI-vita nem „pro vs kontra”?
KKV-vezetőként hogyan használjam ezt a 16 nézőpontot a gyakorlatban?
Ez is érdekelhet:
AI agents🤖 - Mi az? Hogyan tudom használni?
Az AI ügynökök (AI agents) egyre nagyobb szerepet kapnak a mindennapokban és az üzleti életben. Ezek az intelligens rendszerek képesek adatokat elemezni, automatizált döntéseket hozni és interakcióba lépni más rendszerekkel vagy felhasználókkal.

.webp)


