Az AI mánia margójára

Mostanra talán elhalt annyira az AI feletti izgalom, hogy értelmesen tudjunk beszélgetni róla. Szívesen olvasom a véleményedet a kommentek közt, mert könnyen lehet, hogy elsiklottam valami felett, hiszen ez a téma erősen technikai.

Az AI (vagy mesterséges intelligencia) legújabb népszerűségét az LLM modellek (és az azokat lehetővé tevő nagyteljesítményű videókártyák) hozták el. Ugyan véleményem szerint kicsit korai az AI megnevezés használata, ahogy az önvezetést használni harmadik és negyedik szintű önvezető autókra is, de a fél világ így vette át.

A bejegyzés hallgatható verzióját itt találod. (A bejegyzés készítéséhez illusztráción kívül nem használtam AI-t.)

Jövő

A piac teli van problémákkal, felsorolni is nehéz őket, de mindenek előtt jövőbe nézek egy kicsit. Attól tartok, hogy az AI marad, akár örülünk neki, akár nem. A formája változik, remélhetőleg olcsóbbá, kevésbé környezetszennyezővé és legalább valamire alkalmassá válik, azonban a megfelelő üzleti modell megtalálása kérdéses.

Mivel már megjelentek az összesítő oldalak (amik több modell közül választják a feladatra legmegfelelőbbet), ezért azt gondolom, hogy ezeknek lesz egy felfutása. Végül azonban véleményem szerint ezek el fognak halni, így aki lépést szeretne tartani, az több előfizetéssel fog rendelkezni. De abban is biztos vagyok, hogy a konszolidáció elkerülhetetlen a piacon. Az pedig egyáltalán nem leírható, hogy a jelenlegi piacvezető cégek lesznek a nyertesek.

Fontos tudni, hogy a befektetéseknél sokszor nem az első (vagy az elején legjobbnak tűnő) aratja le a piacot. De a magas várakozások miatt még a nyertes megvétele is járhat kiábrándító hozamokkal. (Ha többet szeretnél tudni a befektetésekről, fontold meg a befektetési oktatásomat.)

Viszont azt is gondolom, hogy az emberek nagy részének ez szinte semmit nem fog jelenteni. Alap funkciókkal lehet, hogy megnyeri a széles réteget (tehát ahogy most is sokan keresőmotorként használják), de pénzt inkább az üzleti felhasználókban látok.

Ugyan lesznek munkák, amiket átalakít, esetleg eltöröl, ahogy eddig minden fejlesztés tette. De az emberi erőforrás véleményem szerint továbbra is kikerülhetetlen marad. Nyilván nagy pozitívum, ha ugyanaz az ember hatékonyabb, és az így felszabadult időt értelmesen tudja felhasználni. De a minimum elvárás az emberekkel szemben is magasabbra kúszik.

Csak reménykedni tudok, hogy az átlag ember is immunissá válik a hamisított videókkal, képekkel szemben. A helyzet inkább aggasztó, mint pozitív, ráadásul még romolhat, mielőtt (meg)javul.

Hátrányok

Ehhez a pozitív jövőképhez azonban meg kell küzdenie a jelenlegi problémáival.

Ezek a problémák nagyvonalakban két kategóriába sorolhatók: a jogi/etikai kérdések, és gyakorlati eredmények.

Talán egy fokkal könnyebb azt megvizsgálni, mennyire alkalmas egy ilyen modell az elvégezni kívánt feladatra. Ebben nem vagyok szakértő, de a tapasztalatom alapján logikai és kritikai (pl. forráskritikai) téren nem kifejezetten erősek. Ezért azokra a sztenderdizálható, nagy adathalmazokat felhasználó feladatokra, amikre amúgy alkalmasak lehetnének, pont nem elég megbízhatóak, még ha vannak jobb és rosszabb modellek erre is.

Ugyan a gyerekek száma nem stimmel, de ma megtudtam, hogy a szüleim lánya vagyok (ez a modell ezt nem tudja megoldani)

Céges környezetben egyre gyakrabban hallani, hogy töltsd fel az elemezni kívánt adatokat, de a fejemben azonnal megszólalnak az adatvédelmi vészharangok. Úgy meg aztán végképp nem éri meg kockáztatni a szivárgást, hogy még az eredmények is valószínűleg hibásak.

Sokkal kényesebb téma, és egyben sokkal gyakoribb felhasználási mód viszont a szövegalkotás. Ez a cégen belüli emailektől a reklám- és marketinganyagokon át egészen az irodalminak szánt művekig terjedhet. Itt már az is kérdés lehet, mitől lesz valami „jó minőségű.” Az átlagos felhasználó persze nem fog ezen gondolkodni amikor a nyolcadik emailváltást kezdi meg ugyanarról. De vajon elegendő-e a céges Facebook-poszt, ha van benne elég emoji, jó-e az AI vers, ha rímel, neadjisten még a verslábak is a helyükön vannak? Az „AI slop” mára széles körben ismert és megvetett jelenség, de félő, hogy nincs is igény többre. De vajon jó-e egy regény, amiből az ember hiányzik, csak egy optimalizált algoritmus marad?

Etika és jog

Ráadásul ebben az esetben már sokkal komolyabb szerzői jogi problémák merülnek fel. A betanításra használt adathalmaz nagy részét egész egyszerűen ellopott szellemi termékek adják, de arra is volt már példa, hogy a kiadó „lehetőséget adott” a szerzőinek, hogy hozzájáruljanak a műveik felhasználásához – a másik lehetőség természetesen az volt, hogy a kiadó ejti őket. Akinek pedig még nem használták az arcát hamisított reklámvideókhoz, az nem is híres igazán.

Az automatizált és újrarágott tartalmakra a jogi környezet egyáltalán nincs felkészülve, úgyhogy az online háborgáson kívül nem sok lehetősége van az ilyen szellemi termékek előállítóinak. (A vicc persze nyilvánvalóan rajtam csattan, a nyilvánosan elérhető tiltakozásomon is be lesz tanítva néhány LLM.)

A kreatív tartalmak kiszervezésének legnagyobb problémáját viszont mégis etikai oldalról látom. A baj sosem az ilyen anyagok előállítási sebességével volt. Nem hiszem, hogy túl kevés a reklám, túl kevés könyv jelenik meg egy évben. A valódi nehézséget mindig is az adta, hogy a profitorientált vállalatok (részben teljesen érthető módon) mindig igyekeztek „optimalizálni” a minőséget és a költségeket. Vagyis a lehető legkevesebbet fizetni valamiért, ami még azért lemegy az emberek torkán. Ennek eddig azért részben gátat szabtak a szakmabeliek elvei: az okosabbak annyit kértek a munkájukért, ami fedezte a minőségi végeredményhez szükséges ráfordítást, az önsanyargatók a szabadidejüket, alvásukat, józan eszüket feláldozva igyekeztek fenntartani a sztenderdeket. Most azonban ezek a gátak megszűntek, minden eddiginél olcsóbban és gyorsabban lehet tartalmat előállítani. A szakember és a végfelhasználó pedig szenved.

Előnyök

Sajnos nagyon kevés előnyt találtam, ezért ha te tudsz valamit, akkor mindenképp írd meg a kommentek közt.

Az kétségtelen, hogy képes pár unalmas munkát kiváltani, különösen a szövegalkotásban. Nem mondom, hogy nem volt még olyan e-mailem, aminek az elküldése előtt ne lett volna érdemes egy átnézetés, hogy az ne határozza meg örökre a kapcsolatomat az e-mail címzettjével.

Nekem egyébként főleg nyelvtanulásban segít, a munkafüzetem feladatainak javítását így meg tudom tenni egyedül is. Még akkor sem történik baj, ha némelyik ragozást elrontja, közel sem a tökéletesre lövök.

Kódolást is próbáltam vele, a DAX függvények elég jók lettek (ha néha az indokoltnál kicsit bonyolultak is), viszont a Tampermonkey script projektemet fel kellett adnom. Megcsináltam makróval inkább, ami ugyan kicsit erőltetett módszer egy honlapon kattintgatásra, de működik, és AI sem kellett hozzá.

De azt is gondolom, hogy némi fejlesztéssel talán eljutunk oda, hogy a tudás még könnyebben elérhető lesz. Ugyan ebben a keresőmotorok nagyon sokat tettek már, de a tudás könnyebb elérhetősége mindenkinek hasznos. Nyilván fontos ismerni a korlátokat (ahogy a keresőből sem az első találat mindig a tökéletes infó), de a plusz információ nem árt.

Végeredményben azt hiszem, hogy szinte semmi értéket nem vesztenénk, ha a technológia eltűnne, de a szellem már elhagyta a palackot. Így meg kell tanulnunk együtt élni vele, használni arra, amire érdemes, de nem hagyatkozni rá túlságosan.

Te mire használod a technológiát?

8 comments on “Az AI mánia margójára

  1. A bejegyzésből galád módon kiszerkesztett, pedig egyértelműen legfontosabb végkövetkeztetés:

    De a gazdasági vonaltól egy pillanatra elszakadva feltenném a számomra legfontosabb kérdést – mi a célja a kreatív alkotásoknak? Ezzel visszakanyarodunk a minőség témájához, hiszen nem egyszer hallottam már, hogy miért ne lehetne AI-generált reklámokat, regényeket vagy fordításokat kiadni, ha egyszer „elég jó?” De vajon bizalmat ébreszt-e a vásárlóban, ha egy cég emberi interakciót színlelve a végletekig optimalizált algoritmusokkal próbál a bőre alá férkőzni? Elég jó-e egy regény, vagy akár egy fordítás, ha nem „torzítja” egy tökéletlen ember szubjektív belső világa? Jobb-e a marketing vagy az irodalom attól, ha az emberi esendőséget a hátborzongató völgyre cseréljük?
    Arról nem is beszélve, hogy ha kiszervezzük és optimalizáljuk az alkotást, a kifejezést, sőt egyes esetekben az alkotások befogadását is („Összefoglaltattam a ChatGPT-vel a könyvet, amit ajánlottál!”), mi a fenét kezdünk a felszabadult időnkkel? Még több tartalmat generálunk, amit majd aztán mások még jobban összetömörítve, még gyorsabban fogyasztanak? Esetleg visszatérünk a sztenderdizálható adatelemzéshez, amire az AI jelenleg alkalmatlan?

  2. Jó a bejegyzés, de nem értek egyet azzal, amit összességében sugall. Az itt írtak tükrözik azt az általános félreértést, hogy az AI = GenAI (ChatGPT, Gemini, Perplexity, stb.). Egyik oldalról ez egy univerzum, ami már lassan több, mint fél évszázada velünk van, másrészről egy ökoszisztéma, ami számos részrendszert magábafoglal (modeellek, eszközök, platformok). Aki ezt a big picturt látja és érti, az nagyon könnyen más következtetésre jut. Csak egy adalék, hogy a számos AI (univerzum) között a vállalati beruházások hogyan alakultak 2025-ben:
    Diszkriminatív AI – 200+ milliárd USD (43%)
    Generatív AI – 150+ milliárd USD (32,3%)
    Computer Vision – 50+ milliárd USD (10,8%)
    Idősoros AI – 40+ milliárd USD (8,6%)
    Reinforcement Learning – 25+ milliárd USD (5,4%)
    Vegyük észre, hogy amiről a cikk szól, és amiről a diszkurzus általában folyik, az a második a sorban. A vállalti értéket, azonban a többivel való együttműködés jelentheti. Hogy konkrét legyek, pl. a diszkriminatív AI, azaz olyan megoldások, amik például a vállalati marketing, sales operation-nel, vagy akár tőkeallokációs döntésekkel (befektetés) kapcsolatos professzionális adatelemzés (sőt data science) alapjai, immáron nem csak a profi (és méregdrága) IT guruk, vagy elemzőházak kiváltsága. Ezeket ma a GenAI-jal okosan összekapcsolva az átlagos vállalti, sőt magánfelhasználók is elérhetik, ami elhozta például a minőségi adateléré és elemzés demokratizálódását. Óriási hatékonyságnövelési potenciál ez, ha tudják hogy kell használni. Én magam váltottam ki így költséges CRM modulokat (és a külső IT cég haragját :)))) ) fillérekért, sőt a saját részvénybefektetéseimhez szükséges elemzési lpéseket is át tudom venni a szolgáltatómtól. Hatalmas potenciás és nem holnap, és nem „lehet”, hanem itt és most.

    1. Köszi a plusz infókat, az átlagfelhasználó nyilván a generatívval találkozik, talán emiatt is a nagy ellenérzés.
      A következtetésem ennek ellenére szerintem jogos, az emberek nagy részét ez egyáltalán nem érinti, valamint ahogy te is írod, használni kell tudni. A tipikus vállalatban (fehérgalléros munkakörökben) az Excel alafunkcióival küzdenek a népek. Már azzal hatalmas hatékonyságnövelés keletkezne, ha a felhasználó szándéka és a gép outputja közt egy ellenőrizhető és reprodukálható kapcsolatot hozna létre valaki.
      A technológiában levő képesség nem csak a potenciál, hanem a mindennapi használatot is jelenti, itt pedig még hatalmas lyukak tátonganak. De mindenképp köszi a meglátásokat, hosszabban is kíváncsi lennék a megoldásaidban, hogy indultál el, mik azok az eszközök, amiket használsz.

  3. @Kontroller: igen, menedzserként és befektetőként is ezt látom, amit írsz: „…az excel alapfunkcióival küzdenek a népek”. Nehéz válaszolni a kérdésedre röviden, de lényegében arról van szó, hogy kb. egy akkora tréninggel, mint amivel átlagemeberek felkészíthetők mondjuk a részvénybefektetésre (és itt most azért nem az egy hétvégés tréder megoldásokra gondolok) -egyébként a részvénybefektetés oktatás kiterjesztéseként IS-, megtaníthatók azokra a data science alapokra, melyekkel elérhető amiről írtam. Kicsit konkrétabban arról van szó, hogy amennyiben mestere vagy egy scope-nak (pl. sales operation, marketing, buy-and-hold részvényelemzés, stb.), de soha életedben nem kódoltál és az elemzés (merthogy alapvetően én a döntéstámogató adatvezérelt elemzésről beszélek) egyéb társterületei sem az erősséged (tipikusan statisztika), akkor a GenAI segíthet kipótolni ezt a hiányosságot (ha az említett alapvető ismereteket azért megszerzed a kódolás és statisztika területéről is). Ekkor meg tudod fogalmazni a problémát a GenAI részére, ami legenerálja neked a szükséges kódokat és/vagy statisztikai, adatvizualizációs eljárásokat. Ezeket aztán fel tudod használni. Még egy réteggel a konkrétumok felé: pl. (komoly) részvénybefektető vagy és minőségi adatokat szeretnél letölteni, de nem szeretnél éves 10-20K USD díjat fizetni valamelyik intézményi szolgáltatónak. Érted (scope), hogy pontosan milyen minőségi nyers adatokra van szükséged a részvényelemzéshez és azt is tudod, hogy ezt nyersen amúgy megkapod pl. a SEC EDGARtól (USA), vagy valamilyen fintech cégtől. Csak, ha ezt manuálisan akarod csinálni és excelben, akkor hát…ugye….Ha a problémát emberi nyelven (LLM) el tudod magyarázni a GenAI-nak, akkor az legenerálja neked a szükséges Python kódokat (itt jön be a diszkriminatív AI). Azaz a GenAI-t semmi másra nem használód, mint 3PO-t a Star Wars-ból használnád: ember-kiborg kommunikációra. Ha megvan az az alap tudás, hogy hogyan futtatsz egy ilyet, illetve hogyan látod át, hogy megbízható-e, amit a GenAI javasol neked (szűk keresztmetszet), akkor ott az adat és spróroltál évente 10-20K USD-t. És ugyanez a séma az elemzés további lépéseire vonatkozóan. Ugyanez a logika a vállalati életben is. Ha többet szeretnél erről tudni, akkor a blogomon olvashatsz, bár még csak most indult (és szeretném elmondani, hogy mások mellett a blogolásban Te is inspiráltál – köszönöm). Nem teszem ide ki az elérhetőségét, mert etikátlan lenne, de ha hozzájárulsz szívesen megosztom. A blog persze csak egy blog, figyelemfelkeltésre jó, de a komoly ismeretátadásért most dolgozom a tanfolyami és tanácsadói anyagokon :). Összefoglalva: a fentiek értelmében, ha van egy fizetős GenAI-od (én a Perplexity-t és a ChatGPT-t fizetős verzióit használom jelenleg) és alapvető ismereteid vannak legalább a Python-ról (de jómagam használom és ajánlom azért az SQL, Bash és R ismereteket (bár ez utóbbi már szinte teljesen kiváltható a Pythonnal ezen a szinten)), valamint némi statisztikai és adatvizualizációs eljárásokról, akkor csodákat tudsz művelni egy vállalatnál már „fillérekből”, vagy a saját befektetéseidnél. Kicsi magasabb vállalati szinteken már bejöhetnek mindeféle ún. low code, vagy no code eszközök és komolyabb platformok (Amazon SageMaker, Google Vertex AI), aholl a modelleket és eszközöket együtt kezelheted, nagyban futtathatod, de ez már egy fejlettebb kategória és nyilván itt már a költségek is szemmel láthatóak lehetnek (olyan mint egy házi könyvelő szoftvert összehasonlítani az SAP-val).

    1. Köszi a részletesebb infókat, nagyon érdekes volt. Nekem a legnagyobb problémám az lenne, hogy ha nekem nincs hozzáférésem az adatkészlethez, akkor honnan tudom ellenőrizni, hogy nem csak behaluzta, hanem valódi az információ.
      Egyébként a linkek alapvetően nem tiltottak, a https és a www ami moderálásra dobja, azokat érdemes kiszedni, de kíváncsi vagyok a blogodra, remélem sokaknak lesz belőle haszna.

  4. Az adatforrás adott. Pls a SEC EDGAR, ahonnan gyakorlatilag mindenki dolgozik (USA). Ez ingyenes és nyers és itt a módszerem arról szól. hogy strukturált legyen. Itt a minőségi kérdés, hogy veszik-e el közben adat, vagy minőség (de ez is kezelhető). Vegyünk azonban egy egyszerűbb esetet, amikor egy olyan fintech céghez fordulsz, aki előkészíti neked ezeket az adatokat (olcsón) és ott a kérdés mondjuk a Python API használat (és persze, hogy megbízol-e a szolgáltatóban, de ez mindig kérdés és a te felelősséged). Én sem ajánlom itt (hogy az ügyvédek jól aludjanak), hanem csak példának hozom. És ha már felajánlottad, akkor a jobb megértés kedvéért it van az egyik vonatkozó bejegyzésem: mibefektetunk.com/2026/01/13/genai-alapu-penzugyi-adatletoltes-lepesrol-lepesre-hogyan-ne-szeliditsd-meg-a-pythont/ fontos, hogy ez egy sorozat első részeinek egyike és csak a téma demojára jó. A GenAI és Diszkriminatív AI együttműködése látványosabb az elemzés későbbi olyan lépéseinél, mint pl. a prediktív előrejelzések, stb (ezekről később blogolok majd). Ha vállalati példát szeretnél, akkor pl. marketing esetén: hogyan tudsz web scarpinggel adatot leszedni (a bejegyzésben szereplőkhöz hasonlóan GenAI segítséggel), majd szintén AI alapú szentiment elemzést csinálni. Vagy sales operation, amikor az értékesítők napi reportjának ésszerűsítésével AI segítségével hogyan hozol létre egy térinformatikai monitoring réteget arra, hogy merre jártak, mennyire hatékonyan járják az országot?

  5. Sikerült belefutnom a moderálásba :). Megpróbálom újra, köszi!: mibefektetunk.com/2026/01/13/genai-alapu-penzugyi-adatletoltes-lepesrol-lepesre-hogyan-ne-szeliditsd-meg-a-pythont/

  6. Én nagyon hasonlóan gondolkodom erről, mint a blogbejegyzés szerzője, ezért csak néhány kapcsolódó gondolatot hoznék további „színezésnek”. Számomra a legnagyobb problémának az tűnik, hogy az AI által behozott teljesítménynövekmény értéke nem látszik arányban állni az általa okozott károkkal. (Értem AI alatt most elsősorban az LLM-eket, mert azok használata nem igényel komolyabb háttértudást.)

    Gondolok itt első sorban a számottevő környezetkárosításra, de a munkaerőpiacra gyakorolt kiszámíthatatlan hatásra is, vagy akár pszichológiai hatásokra (lásd az oktatásban már jelenleg is zajló LLM-alapú krízist), stb. Cserébe az LLM-ek hozzáadott értéke leginkább olyan pontokon jelenik meg, amiket egy értelmesebben felépített világban már kioptimalizáltak volna: a felesleges bürokráciában, az értelmetlen időpocsékoló levelezgetésben, az ostoba és felesleges excel-táblák előállításában, stb. Ezek terhét az LLM-ek most „örömmel átveszik a vállunkról” — ahelyett, hogy megpróbálnánk valahogy megszabadulni ezektől. Az általam is mindennap tapasztalható „eredmény” az, hogy az eddig másfél oldalas memo hirtelen öt oldal hosszú lett, jól érződik rajta valamelyik chatbot tenyérbemászó stílusa, nekem viszont már nincs időm ennyit elolvasni aztán részletesen megválaszolni, úgyhogy én is fogom és betolom az egészet valamelyik LLM-be, hogy írjon rá valami jó hangzó választ, amiből úgy tűnik majd, mintha elolvastam volna. Ez az egész kezd teljesen groteszk arculatot ölteni, mert már én is, meg a főnökeim is puszta postások kezdünk lenni két AI prompt között. És eközben a menedzsment teljesen elégedettnek tűnik. Ez biztos úgy hangzik most, mint egy karikatúra, de sajnos nem az.

    Másfelől annak is óriási veszélyei vannak, hogy valaki igazi hozzáértés nélkül generáltat dolgokat egy LLM-mel. Meg ha csak egy programrészletet is, amit nem ért tökéletesen, mert az jó esetben nem fog lefutni, rossz esetben viszont igen, és akkor az illetőnek elvi lehetősége sincs arra, hogy megértse, pontosan mire is épít a továbbiakban. Hiszen azt sem tudja eldönteni, hogy a rendszer által kiadott kód valóban azt számolja-e ki, amire szükség van, vagy valami egészen mást ad ki, amire aztán boldogan építi a saját további munkáját. A nagyon egyszerű programkódoknál ez a veszély nyilván nem igazán fenyeget, de egy kicsit is összetettebb elemzést LLM outputra építeni előbb-utóbb valószínűleg komoly problémákhoz vezet.

    Egyáltalán nem igaz az, hogy az LLM-ek pótolják a hiányzó szaktudást, ez már a kódolásban sem igaz, és minél feljebb megyünk, annál kevésbé az. Ezek a rendszerek belátható időn belül nem fogják átvenni az igazi data scientist munkáját, mert a mély értelmezésben erősen középszerűek. A tanítási módjukból következően valójában mindenben középszerűek, és ez nem bug, hanem feature. A baj ott kezdődik, ha azt gondoljuk, hogy ez a jövőben meg fog tudni változni, mert erre édeskevés garancia látszik lenni.

    Ezek a rendszerek pillanatnyilag azzal váltják ki a legtöbb felhasználójukban a csodálatot, hogy az adott területen kevés vagy nulla szaktudással rendelkező ember számára is elérhetővé teszik a középszerhez hasonló szintet. Ez aztán sokakban azt a képzetet kelti, hogy akkor már ő is ért a dologhoz. De nyilvánvalóan nem ez a helyzet, és éles esetben nem is tudná megvédeni azt az outputot, ami mögé az AI-ban vakon bízva lelkesen beáll.

    Engem ez az egész egy kicsit arra emlékeztet, mint amikor az ember a Google-on keres megoldást egy orvosi problémára. Összeolvas mindent az adott tünetekkel kapcsolatban, aztán egy ponton úgy érzi, hogy érti is, mit csinál, úgyhogy eljött az idő belefogni az öngyógyításba. Ez a megközelítés viszont komoly betegségek esetén akár végzetes is tud lenni. De egy egyszerű megfázás esetére persze működhet, csak tudni kell, hogy van egy határ, ahol már nem fog. De ez a tudás, szakértelem híján, legtöbbször hiányzik, az LLM meg magabiztosan hallucinál be dolgokat. Nem tehet róla, ő így működik.

    Ha a feladatokat egyfajta piramisként képzeljük el, akkor az LLM-ek az alsó, szabályokkal leírható emeleteken hoznak teljesítménynövekedést, de a magasabb, kreatív szinteket ez nem érinti. A kérdés az, hogy ez az óriási befektetés és relatíve soványka eredmény tényleg megéri-e az emberiségnek? Erre nyilván a OpenAI és hasonló cégek vezetői már adnak egyfajta választ a hihetetlen mértékű finanszírozással és hype-pal. Szerintem nincs igazuk, de ezt az egészet láthatóan ad absurdum kell vinni, hogy ez mindenki számára kiderüljön. (Nem tudok linkelni, de van a The Atlanticon egy régebbi cikk, „Just How Bad Would an AI Bubble Be?”, ami körbejárja az AI-jal leggyakoribb kapcsolatos mítoszokat, és a mondaivalója még mindig érvényes.)

    Említi a bejegyzés az szerzői jogi etikai problémákat. Teljesen egyetértek a szerzővel. Nehéz lenne vitatkozni azzal, hogy mennyire etikátlan az, ha szerzői joggal ellátott műveket lopnak el, de ami szerintem még ennél is felháborítóbb az az, hogy emellett az emberek milliói által szabad időben, mindenki javára lejegyzett tudást (pl. Wikipedia) néhány egyébként is gazdag cégtulajdonos egész egyszerűen lenyúlja és arra használja, hogy általa saját magát még elképzelhetetlenebbül gazdaggá tegye. Ha van valami, ami ebben az egészben végtelenül cinikus és visszataszító, akkor ez az.

Vélemény, hozzászólás?

Az e-mail címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük