Tyglade förväntningar, och hälsosam skepticism om ”AI”
Det finns en vanlig fras inom fusionsforskning som ofta repeteras, både i humorsyfte men också för att betona viden av problematiken som försöker lösas, och det är att ”fusion alltid är 30 år i framtiden”. Detta har repeteras sedan åtminstone 70-talet och förmodligen ända sedan 50-talet. 30 år är i ett mänskligt perspektiv en lång tid framöver och att kunna förespå utveckling så långt fram är en utmaning. Med det i åtanke ska vi istället fundera lite över ett annat stort problem där aktörer utan problem kan lova att genombrott är att vänta inom år (istället för decennier). Vi börjar med att kolla på några av de saker som har utlovats.
Bilden ovan är lånad från: https://dandkim.com/working-with-gen-ai/
”Snart” är allt revolutionerat!
Visste ni att vi enbart är några år från en sann generell AI, vars intelligens överstiger mänsklig nivå? Bland orakel som har yttrandet denna förutsägelse finns bland annat OpenAI:s VD Sam Altman och VD:n för Googles DeepMind avdelning Demis Hassabis. Både gjorde separata uttalanden om detta under 2023, så egentligen bör vi förvänta oss artificiell generell intelligens (”AGI”) ungefär lagom till nästa riksdagsval 2026 (med den otvivelaktiga tillämpningen att denna såklart kan räkna våra röster :)). För att förtydliga är artificiell generell intelligens den heliga graalen inom AI, en sådan presterar bättre än en människa inom i princip alla intellektuella uppgifter. När AGI kan konstrueras försvinner det huvudsakliga behovet av mer specialiserade system som enbart kan hantera enkla saker som exempelvis bildigenkännlig eller språkförståelse.
Även bortsett ifrån den stundande superintelligensen som kommer att lösa alla problem, fortsätter många att fokusera på mer specialiserade uppgifter som likaså de kommer att revolutioneras närsomhelst! Låt oss kolla på några exempel (där vi samtidigt kommer ihåg att de här enbart är några få av ett stort antal olika exempel).
Som i en nästan barock särskiljning mot fusion har bilföretaget Tesla (med Elon Musk i spetsen) lovat sedan 2016 att fullständigt självkörande bilar är ca ett år bort (vilket för den som räknar innebär att de skulle ha funnits med start 2017). Sedan 2016 har samma löfte uttalas flertal gånger, så sent som deras senaste resultatrapport för första kvartalet 2024 förekom flera referenser till ”AI” satsningar och en självkörande robottaxi-tjänst. Så förmodligen 2025 behöver ingen välja mellan att köra bil eller kolla Reddit.
När man resonera vilken som är den viktigaste spelaren inom AI brukar många felaktigt säga OpenAI. Sanningen är att det är Nvidia som är de som har vunnit mest hittills av de pågående ”AI revolutionen”. Det är ingen slump att företaget är bland de tre mest värderade företagen på planeten. Med framgången har det kommit extra utrymme för Nvidias läderbeklädda VD:n Jensen Huang att få utrymme att göra uttalanden med genomslagskraft. En uppmaning ifrån honom är att dagens unga helt kan strunta i att lära sig programmering. I framtiden kommer alla att vara programmerare med hjälp av AI hävdar han. Antydan blir att framtidens varianter av exempelvis Microsofts Github Copilot sköter hela mjukvaruutvecklingen. Löftet blir i slutändan att programmerare inte längre behövs och att exempelvis ekonomer eller läkare enbart kan beskriva vad de vill ha för att få ett färdigt program.
Nästa område där inget kommer att vara sig likt i framtiden är film- och video-produktion. Efter ChatGPT blir nästa storstilade produkt från OpenAI ”Sora”. Produkten är en AI modell som kan generera en videosekvens från en textprompt, med ett innehåll av ”realistiska och fantasirika scener”. Sora är fortfarande inte släppt för allmänt bruk men kommer att bli det i framtiden (under 2024) så fort framförallt ”etiska bekymmer” är utreda. Med Sora menar många att filmproduktion kommer att kullkastas och att godtyckliga videoklipp kan genereras med exakt det innehållet som efterfrågas med alla detaljer som önskas.
Som ett sista exempel kan vi vända oss tillbaka till våran bransch (IT-säkerhet). Vad för någon revolution står vi inför i framtiden? Som med allt innan så kommer allt att revolutioneras av AI hävdar många. Men låt oss ta ett ytterligare specifikare exempel inom IT-säkerhet.
Under den senaste upplagan av Security Fest i Göteborg beskrevs det under presentationen ”Double-edged Sword – Exploring Offensive and Defensive AI Applications” hur en enkel applikation av AI är ”Self-augmenting Malware”. Detta är skadlig kod som själv kan skriva om sig för att undvika detektion av antivirus (såsom via Yara regler). Vidare talas det om framtida versioner av skadlig kod med än mer avancerade egenskaper, som automatiskt anpassar sig efter värdsystemet för att undvika detektion, och sedan använder det den har lärt sig för att propagera vidare till andra system inom miljön (även detta automatiskt). Antydan är att skadlig kod självständigt kan agera som en hacker i nätverket och att koden sprider sig likt en allomfattande mask (”worm”).
Men hur är allt idag?
Så om framtiden är ljus (bländande så enligt somliga), hur är läget idag? Vad är det för hopp som förväntas ifrån det vi har nu? Låt oss som tidigare avsnitt kolla på några exempel för att bättre förstå vart vi egentligen är just nu gällande AI:s förmåga/kapacitet. Gemensam för exemplen är att de fantastiska prestationerna inte alltid är vad de verkar…
Vi börjar med vad som har blivit den arketypiska AI-produkten, ChatGPT. Vid lansering av den senaste huvudversionen som underbygger ChatGPT, GPT-4, lyfte OpenAI bland annat fram modellens förmåga att kunna avklara den amerikanska versionen av advokatexamen via en så kallad ”bar exam”. Denna brukar räknas som svår och kräva år av studier. Vad mer, inte nog med att GPT-4 klarade examen, den presterade vid 90:e percentilen (bättre än 90% av de som brukar ta provet). Allt som allt en riktig juridik stjärna.
I mars i år publicerades dock en artikel som närmare undersökte och synade OpenAI:s påstående om GPT-4:s prestation och hur den förhåller sig till andra provtagare. Läsaren hänvisas till artikeln för en fullständig redogörelse, men i korthet så gjordes de ursprungliga jämförelserna mot provtagare som flera gånger tidigare har misslyckats provet. Vid jämförelse mot de som skriver provet första gången så sjunker resultatet till runt 69:percentilen (och ännu lägre för uppsatsdelen). Med det här så noterar vi att de ursprungliga hävdade resultaten inte är alltför omvälvande.
För att breda våran horisont bortom OpenAI så har dess största konkurrent inom språkmodeller, Google och deras modell Gemini, integrerat den senare i dess söktjänst. Syftet är att AI-modellen ska svara på sökfrågor istället för att presentera länkar till relevant innehåll på Internet. Få har samtidigt nog kunnat undgå att höra om några av dess mer..fantasieggande svar. Exempel inkluderar att tillsätta lim till pizza-såsen för att få den mer fast, och att man bör äta en liten sten varje dag. Vad däremot kan ha undgått många är att det smarriga pizza-sås-lim-receptet fortfarande är det som presenteras av AI-summeringen. Allt initialt rapporterande om receptet har gjort att den felaktiga informationen har etsat sig fast i modellen.
Om språkmodeller kanske har längre kvar än vad vi tror, hur går det då för Tesla och deras bildigenkänning för självkörande bilar? I dagsläget existerar enbart ett självkörande läge som kräver att föraren ständigt har översyn och är bered att ingripa om systemet behöver det. Det är inte svårt att hitta många olika videos på nätet (och reddit i synnerhet) på tillfällen där bilen har försökt svänga in i mötande trafik eller nästan kört rakt in in passerande tåg. Till och med provdockor av barn har rammats. Det kan vara bra samtidigt att veta att det finns tillverkare och leverantörer som har bättre framgång än Tesla (främst genom att kraftigt utöka antalet sensorer i bilen), exempelvis de självkörande taxibilarna ”Waymo One” i San Francisco. Även de har dock ett antal olika egenheter.
Lite paradoxalt kan kreativt arbete vara ett område där AI lättast kan göra genomslag. Att exempelvis Stable Diffusion kan skapa bilder av i många fall bra kvalitet har varit fallet i ett par år nu (så länge man inte tänker på en nörd utan glasögon, dessa finns inte enligt DALL-E). Nästa steg är oundvikligen video-generering. De klipp som har släppts skapade av Sora har i stort blivit hyllade för dess noggrannhet. Några fåtal professionella kreatörer har fått förhandstillgång till Sora för att göra kortfilmer i syfte att marknadsföra produkten. En av dessa handlar om en man med en ballong istället för huvud. I slutet av klippet står sloganen ”made with Sora”. I senare intervjuer berättade dock en av kreatörerna inblandande att de fick använda manuella VFX tekniker för att åtgärda ”inkonsekventa” aspekter av klippet. Exakt omfattning av detta går att läsa lite om i den publicerade intervjun, men det är uppenbart från bilderna däri att de genererade innehållet inte skulle kunna stå på egna ben.
Låt oss avsluta såsom vi gjorde när vi kollade framåt genom att igen fundera på samma IT-säkerhetstillämpning som nämndes tidigare. I presentationen från Security Fest nämndes det hur skadlig kod med egen omskrivningsförmåga kan undgå att detekteras av Yara-regler. Meningen efter nämner samtidigt att detta enbart fungerar för kortare kod-snuttar. Vid en genomläsning av den publicerade PDF:en som underbygger presentationen så framgår det att flera manuella verifieringssteg och justeringar har gjorts i deras kraftigt begränsade samt tillrättalagda konceptbevis för att få fram någon kod som fungerar. Scenariot låter mer som en medberoende-situation med en osäker praktikant än något självständigt och smart beteende.
Vilka är de nuvarande utmaningarna för AI-system?
Vi har nu sett att flera utmaningar finns för aktuella AI-system som finns runt om oss. Låt oss ta ytterligare ett steg tillbaka och konkretisera dessa i en enkel punktlista. I huvudsak finns tre utmaningar för AI-system (med en fjärde som härled från de andra men ändå är ack så viktig). En kort förklaring av varje koncept ges också (där djupdykningar får invänta eventuella framtida bloggar).
- Hallucinationer och falsk säkerhet [”riktighet”]
- Hallucinationer i sammanhanget generativa (AI) modeller är när modellen svarar på en fråga genom att ge nonsens information. Svaret som ges uttrycks lika tvärsäkert som alla andra svar. Således kan vi här se två problem i ett: felaktiga svar kan ges av modellen, och den har inget koncept om vad som skulle kunna vara fel eller inte (inget i paritet med människors ”jag är inte säker men kanske…”). Den här utmaningen motsvarar problemet som Google har med sin AI-sökning som föreslår lim i pizzasåsen, och när ChatGPT hittar på information om nyhetsartiklar och forskningsreferenser (som inte finns). Observera att detta både kan orsakas av bristfällig träningsdata och framförallt av hur en generativ AI modell hanterar frågor som den inte har någon direkt referensram för (sett tidigare i träningsdata). Hallucinationer är ett fundamentalt fenomen som är kopplat till både språkmodeller och generativa AI-modeller.
- Brist på bra och korrekt träningsdata [”prestanda”]
- En ständig och oundviklig utmaning vid alla maskininlärningsprojekt är att samla in tillräckligt mycket data. Det som till stor del har möjliggjort nuvarande AI-system är den vida mängden information som finns på Internet. För generativa modeller är detta en ren guldgruva (i synnerhet om man struntar i upphovsrätt som många stora företag gjorde för den intala träningen). Trots den stora mängden information som finns på Internet så är det en ändlig mängd. Vad mer, som vi alla människor vet så är inte allt som finns på Internet korrekt. Ofta går det att glömma att mycket som skrivs är skämt eller sarkasm. Just nyanser och sammanhang för informationen är något som är svårt att förmedla till träningen av modeller. Ytterligare behöver också AI-systemet se varierande data för att kunna generalisera bortom de vanligaste exemplen av situationer. Därför har vi två faktorer gällande data, dels att denna är begränsad men också att den data som finns är av varierande kvalitet, sammanhang och variation. Exempel på brister i träningsdata är DALL-E som vägrar acceptera att det finns nördar utan glasögon och Sora som egentligen inte kan generera människor utan huvuden (vilket gjorde att de fick plocka bort huvudet och ersätta det med en ballong manuellt).
- Krav på beräkningskraft [”prestanda”]
- Bortsett från tillgången till omfattande mängder träningsdata så är utvecklingen av beräkningskraft den stora anledningen till ”AI-revolutionen”. De som själva har experimenterat med egna maskininlärningsprojekt vet att en vanlig CPU inte räcker. Även konsument grafikkort förströr lite när storskaliga generativa modeller ska implementeras. Det är just insikten att beräkningskraft är en av de begränsade faktorerna som gör att Nvidia, marknadsledande på specialiserad hårdvara för AI, har exploderat i värde.
- (Omfattande kostnader) [”prestanda”]
- Som en konsekvens av de två föregående punkterna, och den sista i synnerhet, uppstår stora merkostnader. Små aktörer har svårt att slå sig in på marknaden på grund av den relaterade kostnaden. Vad mer, även de stora aktörerna måste ta hänsyn till att varje ny iteration av AI-modellerna innebär drastiskt ökade kostnader. Kostnaderna kommer dels ifrån mängden data som behövs, hårdvaran som behöver inhandlas och de stora energibehoven för denna.
Med en uppfattning om vad för problem som finns idag kan vi börja fundera på den utlovade ljusa framtiden. Alla optimistiska förespråkare har såklart svar och lösningar redo för allt som kan bekymra en. För om framtiden är runt hörnet måste det finns en tydlig plan för att bemöta alla utmaningar och problem? Eller?
Det är inga problem för att dessa kan lösas enkelt genom att?
I samma ordning som tidigare kollar vi på utmaningarna/problemen men nu istället ur ett kritiskt lösningsorienterat perspektiv. Framförallt vill vi veta om det finns enkla och omedelbara lösningar som är kända. Som tidigare håller vi oss kortfattat, detaljer får vänta (som AGI) till framtiden.
- Hur löser man hallucinationer? Ofta föreslås flera olika strategier. Några exempel är bättre träningsdata, ändring eller justering av underliggande modeller, begränsa typen av användningsområde och utdata, kedja ihop flera AI-system och till sist att förlita sig på mänsklig översyn. Inget av dessa sätt är någon omedelbar lösning emellertid.
- Behovet av bättre träningsdata skjuter över problematiken till punkt 2. Alla typer av generativa modeller har en inneboende tendens att hallucinera svar när frågorna är alltför oväntade eller specifika. Det är en konsekvens av hur de olika beståndsdelarna som bygger upp generativa modellers samverkar. De exakta detaljerna kräver minst en egen blogg och det finns ingen exakt vetenskaplig uppfattning om hur hallucinationer fundamentalt uppstår (uppskatta mängden hallucinationer eller förutse exakt när de sker).
- Att begränsa användningsområdet gör systemet mindre betydelsefullt (kom också ihåg att det är en artificiell generell intelligens som utlovas, inte en selektiv).
- Att kedja ihop flera AI-system löser inte det grundläggande problemet och inducerar andra problem (exempelvis konflikter mellan de två som gör att korrekta svar maskeras).
- Att förlita sig på mänsklig inblandning är ingen godtagbar lösning eftersom varje svar i sådant fall behöver undersökas.
- Data är som tidigare nämnt ändligt, så hur ska detta problem avverkas? En generell uppfattning som har funnits länge är att prestandan för modeller växer kraftigt (till och med förhoppning om exponentiellt har framförts) med mängden data. Med det så innebär varje mängd extra data extra prestanda i ett kraftigt växande samband. I sådant fall räcker det att ta till vara på varje outnyttjad datakälla. Ett annat argument som somliga för fram är att byte eller revidering av modeller innebär att samma mängd träningsdata ger väsentligt bättre resultat. Både av dessa argument är dock ifrågasatta av vetenskaplig forskning.
- I en artikel från april i år så undersökte ett forskningslag hur modellers förmåga att generalisera och klassificera beror på mängden samt variationen av träningsdata. De fann att det behövs exponentiellt mycket träningsdata av en viss typ för att få linjärt ökade prestanda i dess klassificering/generering. Detta är såklart något förenklat men oavsett så är innebörden att en ökning av träningsdata inte nödvändigtvis behöver innebära någon praktiskt ökning av prestandan för den färdiga modellen.
- I två av de mest kända artiklarna inom området avhandlades fenomenet att nästan alla maskininlärningsmodeller presterar snarlikt givet tillräckligt mycket träningsdata. Enbart för små till mellanstora mängder träningsdata har modellen eller algoritmen någon betydande skillnad. Att generalisera resultatet till generativa modeller är inte helt rättfram men indikationen är fortfarande att byte av modell ofta inte innebär någon större skillnad när mängden träningsdata är stor.
- Och med det kommer vi till den sista punkten (eller punkterna, kombinera ihop dessa då de berör samma sak i slutändan). En begränsade faktor som till och med de mest optimistiska personerna erkänner är mängden energi som finns tillgänglig för att driva de beräkningstunga modellerna. Mängden energi som modellerna behöver stiger allteftersom komplexiteten ökar. Direkt relaterat till det är mängden och typen av hårdvara som behövs. Samma optimistiska personer föreslår emellertid att dessa är triviala problem att lösa genom att enbart slänga mer pengar på det. För varje rimlig person så framstår dessa summor dock som ren fantasi.
- En tidigare anställd på OpenAI, Leopold Aschenbrenner, har i ett omfattade blogginlägg lagt fram flera olika uppskattningar på mängden energi som krävs för olika nivåer av AI-utveckling. Nuvarande tappning av GPT-4 förbrukar ungefär lika mycket som tiotusen amerikanska hushåll. Notera att detta är energin för att träna och sedan använda modellen för alla dessa olika tillämpningar. För varje senare iteration (med två års mellanrum) ökar energiförbrukningen ungefär med en faktor tio, vilket betyder att modeller vid 2028 krävs lika mycket energi som en av de medelstora amerikanska delstaterna konsumerar. Givet andra verksamheters energibehov och klimatomställningen framstår detta behov som helt befängt. Ett av sätten som OpenAI försöker blidka sitt energibehov är att investera och teckna avtal med ett fusions start-up företag (”Helion”). Tur då att det inte är så att fusion alltid är 30 år i framtiden utan enkelt kan fixas på något år.
- För att helt täcka det långsiktiga behovet av beräkningskraft vill OpenAI:s VD Sam Altman ta in 7 biljoner dollar (på engelska 7 trilion). För att ens försöka förstå hur mycket pengar det är så är det 3 biljoner mer än vad hela andra världskriget kostade USA (efter inflationsjustering), och mer än tillräckligt för att köpa upp alla företag som tillverkar kretskort med biljoner av dollar kvar efter. Inget kan rättfärdiga en sådan ensidig investering.
Den samlade bilden är att alla de grundläggande problemen som finns för att ta AI till nästa nivå, och den ljusa framtiden som utlovas, saknar reala lösningar. Att manuellt kräva att människor går igenom alla resultat för att motverka hallucinationer strider mot hela dess syfte och innebär ingen väsentlig tidsvinst. Vad mer, ett datorsystem som levererar felaktig information är svår att ställa till svars (till skillnad från en människa). Att försöker få till drastiskt bättre prestanda och svars-kvalitet genom att samla in mer data verkar inte ha något stöd enligt nuvarande forskning, istället verkar en platå nås där ytterligare data inte nämnvärt förbättrar resultaten. För att köra alla dessa avancerade modeller krävs en betydande mängd beräkningskraft och som följd energi. Allt eftersom modellerna utökas kommer mer och mer beräkningskraft samt energi att krävas. Dessa skalar på sådant sätt att de snabbt blir orealistiska om inte samhället som sådant väljer att prioritera bort annat.
Givet allt detta så kanske ett bättre namn för en annan är ”pessimistkonsulten”. Jämsides det och allt vi har pratat om innan så finns det nog fog för att vara skeptisk till den förutspådda explosionsartade utvecklingen av nuvarande AI-lösningar.
En lagom entusiastisk hållning
Efter detta långa utlägg om alla problem med AI så kanske allt ser ut att vara nattsvart. Det stora problemet är dessvärre den påtvingade terminologin som har blivit standard. Nuvarande ”AI” system är inget annat än maskininlärningsmodeller utan någon egentlig intelligens. Att dessa istället har blivit benämnda som AI system är olycklig och skapar orealistiska förväntningar. Framförallt har det blivit en hets att försöka implementera AI inom allt, utan någon analys ifall det svarar mot några direkta fördelar. En chattrobot som kostar 50 000kr i månaden att drifta eller köpa in och producerar felaktiga svar i 5% av alla fall är ingen markant vinning för verksamheten. Än värre blir det om man ponerar problematiken att ingen person kan hållas ansvarig för felaktiga svar (fast samtidigt kan företaget juridiskt bli tvingad att uppfylla det som chattrobot lovar som hände för Air Canada). Lägg till de fortfarande inte helt kartlagda IT-säkerhetsriskerna med chattrobotar och den typen av lösningar framstår inte som solklara vinster för verksamheten.
Att helt avfärda alla AI system är såklart också dumdristigt. För bildigenkänning och klassificering finns det många tillämpningar. De nuvarande ”AI” systemen som har mest rättfram tillämpning är de med koncept om ”osäkerhet” eller sannolikhet, där användare själva kan utskilja när systemet inte är tvärsäker på sin sak. Generativa modeller har inte helt samma koncept, och framförallt är det inget som leverantörer i regel förmedlar till användare.
För den som vill läsa vidare finns det otaliga flera exempel på både problematik och löften gällande AI system. Den här bloggen har varit mest inriktad på att lyfta problematiken med AI som tidigare inte avhandlats men som nu senaste månaderna har fått större utrymme. För den som vill ha en mer positiv atmosfär om AI finns otaliga källor ute på Internet. Låt oss avslutningsvis summera hela bloggen med följande fras som man bör ha i åtanke varje gång en produkt saluförs med AI som argument:
”När någon berättar om hur bra deras AI system är, och speciellt lovar hur fantastiskt det kommer bli i framtiden, bör man ta konversationen tillbaka och fråga vad systemet kan göra idag samt vad den faktiska verksamhetsvinsten blir av att anamma systemet.”
Läs mer och referenser
Fusion är alltid 30 år i framtiden:
- https://fire.pppl.gov/Dean_US_fusion_TOFE_2004.pdf
- https://link.springer.com/article/10.1007/s10894-023-00361-z
AGI kommer närsomhelst:
- https://www.forbes.com/sites/randybean/2023/10/24/artificial-general-intelligence-agi-and-the-coming-wave
- https://medium.com/accelerated-intelligence/top-ai-experts-predict-artificial-superintelligence-in-3-5-years-now-what-fbfe00204c7f
- https://fortune.com/2023/05/03/google-deepmind-ceo-agi-artificial-intelligence
Olika AI-hypade uttalanden (Tesla, SORA och Security Fest 2024):
- https://jalopnik.com/elon-musk-tesla-self-driving-cars-anniversary-autopilot-1850432357
- https://insideevs.com/news/716959/tesla-q1-2024-earnings-report
- https://www.theverge.com/2023/8/23/23837598/tesla-elon-musk-self-driving-false-promises-land-of-the-giants
- https://www.wsj.com/business/autos/tesla-is-running-out-of-time-to-deliver-on-self-driving-promises-92f4afc1
- https://www.techradar.com/pro/nvidia-ceo-predicts-the-death-of-coding-jensen-huang-says-ai-will-do-the-work-so-kids-dont-need-to-learn
- https://www.bloomberg.com/professional/insights/data/microsofts-ai-copilot-is-beginning-to-automate-the-coding-industry
- https://openai.com/index/sora
- https://www.youtube.com/live/FDAUwMwVuns?si=8AF_RPxLw9UIQ4PZ&t=3933
Chat-GPT och Gemini har problem idag:
- https://www.abajournal.com/web/article/latest-version-of-chatgpt-aces-the-bar-exam-with-score-in-90th-percentile
- https://link.springer.com/article/10.1007/s10506-024-09396-9#Sec11
- https://www.theverge.com/2024/5/23/24162896/google-ai-overview-hallucinations-glue-in-pizza
- https://www.theverge.com/2024/6/11/24176490/mm-delicious-glue
Tesla bilar fortsätter att försöka köra på saker (men det går bättre för Waymo One):
- https://futurism.com/the-byte/tesla-driver-full-self-driving-swerves
- https://www.youtube.com/watch?v=3mnG_Gbxf_w&ab_channel=TheIndependent
- https://waymo.com/waymo-one-san-francisco
Sora kräver ganska mycket handpåläggning:
- https://www.tomsguide.com/ai/ai-image-video/remember-the-ballon-head-sora-video-it-wasnt-all-ai-generated-after-all
- https://www.fxguide.com/fxfeatured/actually-using-sora
- https://www.gamingdeputy.com/uncovering-the-reality-of-the-sora-film-hit-allegations-of-deceptive-special-effects-manipulating-the-audience/
Hur smart är dagens ”AI” virus:
Om hallucination och problematiken (omöjligheten) att lösa dessa:
- https://www.theguardian.com/commentisfree/2023/apr/06/ai-chatgpt-guardian-technology-risks-fake-article
- https://www.youtube.com/watch?v=rQ7-HqEgF40&ab_channel=TheOxfordReview
- https://gizmodo.com/google-search-ai-overview-giant-hallucination-1851499031
- https://www.ibm.com/topics/ai-hallucinations
- https://www.forbes.com/sites/shashankagarwal/2024/06/12/battling-ai-hallucinations–detect-and-defeat-false-positives
- https://www.cnbc.com/2023/05/31/openai-is-pursuing-a-new-way-to-fight-ai-hallucinations.html
- https://arxiv.org/pdf/2401.11817
- https://www.washingtonpost.com/technology/2023/05/30/ai-chatbots-chatgpt-bard-trustworthy
- https://www.sinardaily.my/article/218722/focus/world/new-study-finds-ai-legal-research-tools-unreliable-prone-to-hallucinations
Om bristen av träningsdata, och dess halvdana kvalité samt att det finns en platå för vinsten av mer data:
- https://www.pbs.org/newshour/economy/ai-gold-rush-for-chatbot-training-data-could-run-out-of-human-written-text-as-early-as-2026
- https://www.reddit.com/r/ChatGPT/comments/1aedjis/ai_cant_make_nerd_without_glasses_is_this_the_new
- https://www.theverge.com/2024/6/11/24176490/mm-delicious-glue
- https://arxiv.org/pdf/2404.04125
Hårdvara och energibehov (kostnad) för AI:
- https://techmonitor.ai/technology/ai-and-automation/chatgpt-ai-compute-power
- https://situational-awareness.ai
- https://ainowinstitute.org/publication/policy/compute-and-ai
Träningsdata är det viktigaste för AI-system, inte underliggande modeller:
OpenAI vill behöver mycket pengar, och vill använda fusion i närtid:
- https://www.theguardian.com/commentisfree/2024/feb/17/openai-boss-sam-altman-wants-7tn-for-all-our-sakes-pray-he-doesnt-get-it
- https://situational-awareness.ai/racing-to-the-trillion-dollar-cluster/#Power
- https://www.datacenterdynamics.com/en/news/openai-wants-to-buy-vast-quantities-of-nuclear-fusion-energy-from-helion-report
Personer är inte ansvariga för AI svars, men företag kan vara:
OpenAI behöver mycket pengar, och vill använda fusion i närtid:
- https://www.theguardian.com/commentisfree/2024/feb/17/openai-boss-sam-altman-wants-7tn-for-all-our-sakes-pray-he-doesnt-get-it
- https://situational-awareness.ai/racing-to-the-trillion-dollar-cluster/#Power
- https://www.datacenterdynamics.com/en/news/openai-wants-to-buy-vast-quantities-of-nuclear-fusion-energy-from-helion-report
Kritisk AI-video och podcast för den som hellre lyssnar, med lite mer historia: