» Håll dig ajour kring AI · En AI-skapad och ständigt föränderlig nyhetstidning om AI. Idag har vår robot sammanfattat 113 nyhetshändelser. Upptäck gärna vår kurs AI på jobbet förresten. «

AI revolutionerar vetenskapen men medför också risker

Under det senaste året har generativa AI-verktyg, som ChatGPT, Gemini och OpenAI´s Sora, fångat allmänhetens uppmärksamhet. Allt som behövs för att börja experimentera med AI är en internetuppkoppling och en webbläsare. AI används redan för att revolutionera vetenskapen - sex procent av allt vetenskapligt arbete använder AI, inte bara inom datavetenskap, utan även inom kemi, fysik, psykologi och miljövetenskap. Google DeepMind släppte en AI-genererad databas med mer än 380 000 nya materialföreningar, Lawrence Berkeley Lab använde AI för att utföra syntesexperiment i en skala som är mycket större än vad människor kan åstadkomma. Men AI har ännu större potential: att göra det möjligt för forskare att göra upptäckter som annars inte alls skulle vara möjliga. Det var en AI-algoritm som för första gången hittade signalmönster i hjärnaktivitetsdata som pekade på början av epileptiska anfall, en bedrift som inte ens den mest erfarna mänskliga neurologen kan upprepa. Tidiga framgångshistorier av användning av AI inom vetenskapen har lett till att vissa föreställer sig en framtid där forskare kommer att samarbeta med AI-vetenskapliga assistenter som en del av sitt dagliga arbete. Denna framtid är redan här. CSIRO-forskare experimenterar med AI-vetenskapsagenter och har utvecklat robotar som kan följa muntliga språkinstruktioner för att utföra vetenskapliga uppgifter under fältarbete. Men det finns en mycket verklig risk att AI fabricerar resultat och detta har redan hänt. Det är relativt enkelt att få ett generativt AI-verktyg att citera publikationer som inte existerar. Dessutom kan många AI-system inte förklara varför de producerar den output de producerar. Detta är inte alltid ett problem. Om AI genererar en ny hypotes som sedan testas med de vanliga vetenskapliga metoderna, är det ingen skada skedd. Men för vissa tillämpningar kan bristen på förklaring vara ett problem. Reproduktion av resultat är en grundläggande princip inom vetenskapen, men om de steg som AI tog för att nå en slutsats förblir oklara, blir reproduktion och validering svåra, om inte omöjliga. Och det kan skada människors förtroende för den producerade vetenskapen. En distinktion bör göras här mellan generell och smal AI. Smal AI är AI som är utbildad för att utföra en specifik uppgift. Smal AI har redan gjort stora framsteg. Google DeepMinds AlphaFold-modell har revolutionerat hur forskare förutsäger proteinstrukturer. Men det finns många andra, mindre väl publicerade, framgångar också - som att AI används på CSIRO för att upptäcka nya galaxer på natthimlen, IBM Research utvecklar AI som återupptäckte Keplers tredje lag om planetrörelse, eller Samsung AI bygger AI som kunde reproducera Nobelprisvinnande vetenskapliga genombrott. När det gäller smal AI som tillämpas på vetenskapen, förblir förtroendet högt. AI-system - särskilt de som bygger på maskininlärningsmetoder - uppnår sällan 100 procent noggrannhet på en given uppgift. (Faktum är att maskininlärningssystem presterar bättre än människor på vissa uppgifter, och människor presterar bättre än AI-system på många uppgifter. Människor som använder AI-system presterar generellt bättre än människor som arbetar ensamma och de presterar också bättre än AI som arbetar ensamma. Det finns en stor vetenskaplig evidensbas för detta faktum, inklusive denna studie.) AI som arbetar tillsammans med en expertforskare, som bekräftar och tolkar resultaten, är ett helt legitimt sätt att arbeta, och ses allmänt som att ge bättre prestanda än mänskliga forskare eller AI-system som arbetar ensamma. Å andra sidan är generella AI-system utbildade för att utföra en mängd olika uppgifter, inte specifika för något domän eller användningsfall. ChatGPT kan till exempel skapa en Shakespeares sonett, föreslå ett recept till middag, sammanfatta en kropp av akademisk litteratur, eller generera en vetenskaplig hypotes. När det gäller generell AI är problemen med hallucinationer och bias mest akuta och utbredda. Det betyder inte att generell AI inte är användbar för forskare - men den måste användas med försiktighet. Detta innebär att forskare måste förstå och bedöma riskerna med att använda AI i ett specifikt scenario och väga dem mot riskerna med att inte göra det. Forskare använder nu rutinmässigt generella AI-system för att hjälpa till att skriva artiklar, bistå med granskning av akademisk litteratur och till och med förbereda experimentplaner. En fara när det gäller dessa vetenskapliga assistenter kan uppstå om den mänskliga forskaren tar resultaten för givet. Välutbildade, flitiga forskare kommer naturligtvis inte att göra detta. Men många forskare där ute försöker bara överleva i en tuff bransch av publicera-eller-försvinna. Vetenskapligt bedrägeri ökar redan, även utan AI. AI kan leda till nya nivåer av vetenskapligt oegentligt uppträdande - antingen genom avsiktligt missbruk av tekniken, eller genom ren okunnighet då forskare inte inser att AI hittar på saker. Både smal och generell AI har stor potential att främja vetenskaplig upptäckt. Ett typiskt vetenskapligt arbetsflöde består konceptuellt av tre faser: att förstå vilket problem man ska fokusera på, att utföra experiment relaterade till det problemet och att utnyttja resultaten som påverkan i den verkliga världen. AI kan hjälpa till i alla tre av dessa faser. Det finns dock en stor hake. Nuvarande AI-verktyg är inte lämpliga att användas naivt direkt ur lådan för seriöst vetenskapligt arbete. Endast om forskare ansvarsfullt designar, bygger och använder nästa generation av AI-verktyg till stöd för den vetenskapliga metoden kommer allmänhetens förtroende för både AI och vetenskap att vinna och behållas. Att få detta rätt är värt det: möjligheterna att använda AI för att omvandla vetenskapen är oändliga. Google DeepMinds ikoniska grundare Demis Hassabis sa berömt: ´Att bygga allt mer kapabla och generella AI, säkert och ansvarsfullt, kräver att vi löser några av de svåraste vetenskapliga och tekniska utmaningarna i vår tid.´ Den omvända slutsatsen är också sann: att lösa de svåraste vetenskapliga utmaningarna i vår tid kräver att vi bygger allt mer kapabla, säkra och ansvarsfulla generella AI. Australiensiska forskare arbetar med det.

Direktlänk Dela Vishwakarma International fördjupade 15 april
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

» Nyheterna från en dag tidigare

Några av våra kursdeltagare