» Håll dig ajour kring AI · En AI-skapad och ständigt föränderlig nyhetstidning om AI. Idag har vår robot sammanfattat 133 nyhetshändelser. Upptäck gärna vår kurs AI på jobbet förresten. «
Yoshua Bengio är en kanadensisk datorforskare och professor vid Université de Montréal. Han är mest känd för sitt arbete inom artificiell intelligens (AI) och djupinlärning. Tillsammans med Geoffrey Hinton och Yann LeCun, tilldelades Bengio Turingpriset 2018, som ofta kallas ´Nobelpriset i datavetenskap´, för deras bidrag till utvecklingen av djupinlärning. Bengio är också grundare och vetenskaplig chef för MILA, Montreal Institute for Learning Algorithms, en forskningsorganisation som fokuserar på maskininlärning och AI. Hans arbete har haft stor inverkan på både akademiska och industriella tillämpningar av AI-teknik.
Senaste nytt kring Yoshua Bengio
AI-pionjären Yoshua Bengio varnar för hastig AI-utveckling
AI-pionjären Yoshua Bengio, grundare till forskningsinstitutet Mila i Montreal, uttrycker oro för att AI-utvecklingen går för snabbt och riskerar att skapa en ´ny art som kan fatta beslut som skadar eller till och med hotar människor´. Bengio har länge varnat för företag som rör sig för snabbt utan skyddsräcken, ´potentiellt på allmänhetens bekostnad´. Han anser att det är nödvändigt att ha ´regler som följs av alla företag´. Vid en världspremiär AI-toppmöte i Storbritannien i början av november fick Bengio i uppdrag att leda ett team som producerade en första rapport om AI-säkerhet. Målet är att fastställa prioriteringar för att informera framtida arbete med säkerheten för den banbrytande tekniken.

Mörka sidor av artificiell intelligens: Deepfakes och mer
Deepfakes, eller videor skapade med hjälp av artificiell intelligens (AI), har blivit ett populärt fenomen, men också en farlig form av digitalt missbruk. Ett exempel är en video som nyligen blev viral i Indien, där skådespelerskan Rashmika Mandanas ansikte hade lagts över en brittisk kvinnas ansikte. Många deepfakes används för att sprida falsk information eller icke-samtyckande porr, där en persons ansikte läggs över i en porrklipp. Forskningsföretaget Sensity AI har visat att 90-95% av deepfakes 2021 var icke-samtyckande porr, och 90% av dessa var kvinnor. Men deepfakes är bara toppen av isberget när det gäller de mörka sidorna av AI. Det finns risker med falska bilder, partiska AI-system och ´superintelligens´ som kan utvecklas utan mänsklig inblandning.
AI-språkmodeller visar inte på generell intelligens
Kända AI-forskare som Peter Norvig och Blaise Agüera y Arcasanser hävdar att artificiell generell intelligens redan finns i form av stora språkmodeller (LLMs). De menar att dessa modeller kan hantera nya uppgifter de inte är tränade för. Men detta påstående bör tas med en nypa salt. Språkförmåga är inte samma sak som intelligens och AI:s nuvarande språkkunskaper är mer en specialiserad färdighet än en demonstration av allmän intelligens. Dessutom bygger AI-system på statistiska samband i stora datamängder, vilket innebär att deras svar bestäms av mönster i data de har tränats på.
Sam Altman återvänder som VD för Open AI, Yoshua Bengio diskuterar AI:s framtid
Sam Altman, en framstående person inom artificiell intelligens (AI), har gjort en överraskande comeback som VD för Open AI. Detta kommer bara dagar efter att Altman oväntat lämnade företaget som gav oss ChatGPT, en banbrytande språkmodell. En annan framstående AI-person, Yoshua Bengio, reflekterade över teknikens framtid i en nyligen intervju. Bengio betonade behovet av samarbete och etiska överväganden i utvecklingen och implementeringen av AI-system. Han ser en framtid där AI fungerar som ett kraftfullt verktyg, förstärker mänsklig intelligens och hjälper oss att ta itu med komplexa problem i global skala.
Forskare uppmanar till större fokus på AI-säkerhet och reglering
Sören Mindermann, postdoktor vid MILA som arbetar med AI-säkerhet, har uttryckt oro över att stora teknikföretag som IBM förnekar riskerna med AI och lobbyar mot reglering. Han anser att det finns ett växande akademiskt konsensus om behovet av reglering och erkännande av verkliga risker. Mindermann har nyligen publicerat en artikel tillsammans med 22 medförfattare från USA, Kina, EU och Storbritannien, inklusive Geoffrey Hinton, Stuart Russell och Yoshua Bengio. I artikeln uppmanas företag som arbetar med AI-system att tilldela minst en tredjedel av sina resurser för att säkerställa AI-säkerhet och etisk användning.
Stora europeiska ekonomier motsätter sig AI-reglering
Frankrike, Tyskland och Italien motsätter sig reglering av de mest kraftfulla typerna av artificiell intelligens (AI), vilket kan påverka EU:s banbrytande lag om AI. De tre länderna blockerar förhandlingar om en kontroversiell sektion i EU:s utkast till AI-lagstiftning för att inte hindra Europas egen utveckling av ´grundmodeller´, AI-infrastruktur som ligger till grund för stora språkmodeller som OpenAI:s GPT och Googles Bard. Regeringstjänstemän hävdar att stränga restriktioner för dessa nya modeller skulle skada EU:s egna mästare i kapplöpningen om att utnyttja AI-teknik. I ett gemensamt dokument föreslår de att självreglera grundmodeller genom företagens löften och uppförandekoder. Detta ställer dem mot europeiska lagstiftare som vill begränsa grundmodeller. Förhandlingarna om AI-lagen kan till och med komma att upphöra helt.
En första titt på stora språkmodeller och deras användningsområden
Stora språkmodeller (LLM) som GPT, Bard och Llama 2 har fått mycket uppmärksamhet och används för en mängd olika uppgifter. De är användbara för textgenerering, kodgenerering och kodkomplettering, textsummering, översättningar mellan språk och text-till-tal och tal-till-text applikationer. Men de har också nackdelar, som att genererad text ofta är medioker och ibland till och med dålig. Dessutom kräver träning av LLMs stora textkroppar och stora mängder parametrar, även kända som vikter. Antalet parametrar har ökat över åren, vilket gör modellerna mer exakta, men också kräver mer minne och gör dem långsammare.
Samsung Electronics öppnar AI-forum för att dela forskningsframsteg
Samsung Electronics Co., Ltd. har öppnat Samsung AI Forum, där företaget delar de senaste forskningsframstegen inom artificiell intelligens (AI) och datateknik (CE), vilket bidrar till att förbättra företagets nästa generations halvledarteknik. Forumet samlade över 1000 deltagare, inklusive ledande akademiker, branschexperter, forskare och studenter. Yoshua Bengio, expert på djupinlärningsteknik och professor vid University of Montreal, och Jim Keller, VD för AI-halvledarstartföretaget Tenstorrent, var bland talarna. Under forumet tillkännagavs också vinnarna av Samsung AI Researcher Award och Samsung AI/CE Challenge.
Storbritanniens premiärminister Rishi Sunak värd för AI-toppmöte
Chatbots som ChatGPT har imponerat världen med sin förmåga att skriva tal, planera semestrar eller föra samtal lika bra eller möjligen bättre än människor, tack vare avancerade artificiella intelligenssystem. Nu har gräns AI blivit det senaste buzzordet eftersom det växer oro att den framväxande tekniken har förmågor som kan äventyra mänskligheten. Alla från brittiska regeringen till toppforskare och till och med stora AI-företag själva varnar för gräns AI: s ännu okända faror och kräver skyddsåtgärder för att skydda människor från dess existentiella hot. Debatten kulminerar på onsdag, när Storbritanniens premiärminister Rishi Sunak är värd för ett två dagar långt toppmöte inriktat på gräns AI. Det förväntas locka en grupp av cirka 100 tjänstemän från 28 länder, inklusive USA: s vicepresident Kamala Harris, Europeiska kommissionens ordförande Ursula von der Leyen och chefer från viktiga amerikanska artificiella intelligensföretag inklusive OpenAI, Googles Deepmind och Anthropic. Platsen är Bletchley Park, en tidigare topphemlig bas för andra världskrigets kodknäckare ledda av Alan Turing. Den historiska egendomen ses som födelseplatsen för modern databehandling eftersom det var där Turing och andra berömt knäckte Nazitysklands koder med hjälp av världens första digitala programmerbara dator. I ett tal förra veckan sa Sunak att endast regeringar - inte AI-företag - kan hålla människor säkra från teknikens risker. Men han noterade också att Storbritanniens tillvägagångssätt ´är att inte skynda på att reglera´, även när han skisserade en mängd skrämmande hot, till exempel användningen av AI för att mer lätt göra kemiska eller biologiska vapen. ´Vi måste ta detta på allvar, och vi måste börja fokusera på att försöka komma före problemet´, sa Jeff Clune, en biträdande datavetenskapsprofessor vid University of British Columbia med inriktning på AI och maskininlärning. Clune var bland en grupp inflytelserika forskare som författade en artikel förra veckan som uppmanade regeringar att göra mer för att hantera risker från AI. Det är den senaste i en serie allvarliga varningar från teknikmoguler som Elon Musk och OpenAI: s VD Sam Altman om den snabbt utvecklande tekniken och de olika sätt industrin, politiska ledare och forskare ser vägen framåt när det gäller att begränsa riskerna och regleringen. Det är långt ifrån säkert att AI kommer att utplåna mänskligheten, sa Clune, ´men det har tillräcklig risk och chans att inträffa. Och vi måste mobilisera samhällets uppmärksamhet för att försöka lösa det nu snarare än att vänta på att värsta scenariot ska hända.´ Ett av Sunaks stora mål är att hitta en överenskommelse om en kommuniké om AI-riskernas natur. Han avslöjar också planer på ett AI-säkerhetsinstitut som kommer att utvärdera och testa nya typer av tekniken och föreslår skapandet av en global expertpanel, inspirerad av FN: s klimatförändringspanel, för att förstå AI och ta fram en ´State of AI Science´ -rapport. Toppmötet återspeglar den brittiska regeringens ivrighet att vara värd för internationella sammankomster för att visa att den inte har blivit isolerad och fortfarande kan leda på världsscenen efter att ha lämnat Europeiska unionen för tre år sedan. Storbritannien vill också göra anspråk på en het policyfråga där både USA och den 27-nationers EU gör rörelser. Bryssel lägger sista handen vid vad som är på väg att bli världens första omfattande AI-regleringar, medan USA: s president Joe Biden undertecknade en omfattande verkställande order på måndag för att styra utvecklingen av AI, byggd på frivilliga åtaganden gjorda av teknikföretag. Kina, som tillsammans med USA är en av de två världs AI-makterna, har bjudits in till toppmötet, även om Sunak inte kunde säga med ´100% säkerhet´ att representanter från Beijing kommer att delta. Artikeln undertecknad av Clune och mer än 20 andra experter, inklusive två döpta till AI: s ´gudfäder´ - Geoffrey Hinton och Yoshua Bengio - uppmanade regeringar och AI-företag att vidta konkreta åtgärder, till exempel genom att spendera en tredjedel av sina forsknings- och utvecklingsresurser på att säkerställa säker och etisk användning av avancerad autonom AI. Gräns AI är en förkortning för de senaste och mest kraftfulla systemen som går ända upp till kanten av AI: s förmågor. De bygger på grundmodeller, vilka är algoritmer som tränas på en bred informationsbas skrapad från internet för att ge en allmän, men inte ofelbar, kunskapsbas. Det gör gräns AI-system ´farliga eftersom de inte är perfekt kunniga´, sa Clune. ´Människor antar och tror att de är enormt kunniga, och det kan ställa till problem.´ Mötet har dock stött på kritik för att det är för upptaget med avlägsna faror. ´Fokus för toppmötet är faktiskt lite för smalt´, sa Francine Bennett, tillförordnad direktör för Ada Lovelace Institute, en policyforskningsgrupp i London med fokus på AI. ´Vi riskerar att bara glömma den bredare uppsättningen risker och säkerhet´ och de algoritmer som redan är en del av vardagen, sa hon vid ett Chatham House-panel förra veckan. Deb Raji, en forskare vid University of California, Berkeley, som har studerat algoritmisk bias, pekade på problem med system som redan har implementerats i Storbritannien, såsom polisens ansiktsigenkänningssystem som hade en mycket högre falsk detektionsgrad för svarta människor och en algoritm som förstörde en gymnasieexamen. Toppmötet är en ´missad möjlighet´ och marginaliserar samhällen och arbetare som är mest påverkade av AI, sa mer än 100 civila samhällsgrupper och experter i ett öppet brev till Sunak. Skeptiker säger att den brittiska regeringen har satt sina toppmåls mål för lågt, med tanke på att reglering av AI inte kommer att finnas på agendan, och i stället fokuserar på att etablera ´skyddsräcken´. Sunaks uppmaning att inte skynda på reglering påminner om ´det budskap vi hör från många av de företagsrepresentanterna i USA´, sa Raji. ´Och så är jag inte förvånad över att det också gör sin väg in i vad de kanske säger till brittiska tjänstemän.´ Teknikföretag bör inte vara involverade i att utarbeta regler eftersom de tenderar att ´underskatta eller tona ner´ brådskan och hela skadeomfånget, sa Raji. De är också inte så öppna för att stödja föreslagna lagar ´som kan vara nödvändiga men som effektivt kan äventyra deras resultat´, sa hon. DeepMind och OpenAI svarade inte på förfrågningar om kommentarer. Anthropic sa att medgrundarna Dario Amodei och Jack Clark skulle delta. Microsoft sa i ett blogginlägg att det såg fram emot ´Storbritanniens nästa steg i att sammankalla toppmötet, främja sina insatser för AI-säkerhetstestning och stödja större internationellt samarbete om AI-styrning.´ Regeringen hävdar att den kommer att ha rätt blandning av deltagare från regeringen, akademin, det civila samhället och näringslivet. Institute for Public Policy Research, en center-vänster brittisk tankesmedja, sa att det skulle vara ett ´historiskt misstag´ om teknikindustrin fick reglera sig själv utan statlig tillsyn. ´Regulatorer och allmänheten är till stor del i mörkret om hur AI distribueras över ekonomin´, sa Carsten Jung, gruppens seniora ekonom. ´Men självreglering fungerade inte för sociala medieföretag, det fungerade inte för finanssektorn, och det kommer inte att fungera för AI.´
Invigning av BAPS Swaminarayan Akshardham-templet och AI-säkerhetstoppmöte
BAPS Swaminarayan Akshardham-templet i Robbinsville, New Jersey, invigdes den 8 oktober 2023. Det är det största i sitt slag i västra halvklotet och det tredje Akshardham-komplexet efter de i Gujarat och Delhi. Byggprojektet på 180 hektar kostade 96 miljoner dollar och tog 15 år att slutföra. Templet har dock skadats av en federal räd 2021 och pågående rättsliga problem. President Biden undertecknade en exekutiv order för att främja ansvarsfull AI-utveckling. Dessutom hölls det första AI-säkerhetstoppmötet i Bletchley Park i Milton Keynes, Storbritannien.
Kina deltog i toppmöte om AI-säkerhet i Storbritannien trots frånvaro i officiella handlingar
Trots att Kina inte listades bland de ´likasinnade´ deltagarna eller syntes i officiella handskakningar eller gruppfotografier, deltog landet i ett toppmöte om AI-säkerhet i Storbritannien. Kinas vice minister för vetenskap och teknologi, Wu Zhaohui, var närvarande på mötet. Det har spekulerats i att Kina inte annonserades på grund av att Storbritannien ville presentera en enad front och att Kina inte stödde torsdagens gemensamma överenskommelse. Kinas teknologiavdelning avböjde att kommentera varför de inte godkände förslaget, som handlade om testning av AI-modeller.
AI-utvecklare överens om att samarbeta med regeringar för att testa och hantera risker
Under den andra och sista dagen av Storbritanniens toppmöte om artificiell intelligens (AI) kom ledande utvecklare överens om att samarbeta med regeringar för att testa nya gränsmodeller innan de lanseras och hjälpa till att hantera risker snabbt. Brittiska premiärministern Rishi Sunak sa att USA, EU och andra likasinnade länder också var överens om att modellerna skulle genomgå noggrann utvärdering före och efter skapandet. Yoshua Bengio, känd som gudfadern till AI, kommer att hjälpa till att förbereda en ´state of science´-rapport för att skapa en gemensam förståelse för de kommande förmågorna och riskerna. Sunak har tidigare kritiserats för att bjuda in Kina, trots att många västerländska regeringar har dragit ned på sitt tekniska samarbete med Beijing, men han anser att alla AI-säkerhetsinsatser bör inkludera huvudaktörerna.
AI-pionjären Yoshua Bengio tilldelas Kanadas mest prestigefyllda vetenskapspris
Yoshua Bengio, en pionjär inom artificiell intelligens (AI) och forskningschef vid Montreal Institute for Learning Algorithms och professor vid Université de Montréal, har tilldelats Herzberg Canada Gold Medal for Science and Engineering, Kanadas mest prestigefyllda vetenskapspris. Priset delas årligen ut till kanadensare vars arbete har visat ´ihållande excellens och inflytande´ inom naturvetenskap eller teknik. Bengio, även känd som ´gudfadern till AI´, delar denna titel med Yann LeCun och landsmannen Geoffrey Hinton. Bengio har också uttryckt oro över de potentiella riskerna med AI och uppmanar till snabb och noggrann reglering av området.
Första AI-säkerhetstoppmötet resulterar i flera avtal men globala regler är långt borta
Storbritanniens premiärminister Rishi Sunak har varit värd för det första toppmötet om säkerhet inom artificiell intelligens (AI), där en rad viktiga avtal har ingåtts. Världsledare, företagsledare och forskare, inklusive Elon Musk och Sam Altman från OpenAI, diskuterade framtida reglering av AI. Ledare från 28 länder, inklusive Kina, undertecknade Bletchley-deklarationen, ett gemensamt uttalande om teknikens risker. USA och Storbritannien meddelade planer på att lansera egna AI-säkerhetsinstitut. Trots viss enighet om behovet att reglera AI kvarstår meningsskiljaktigheter om hur detta ska ske.
Världens första AI-säkerhetstoppmöte hålls på Bletchley Park
Bletchley Park, en gång hem för kodknäckare under andra världskriget, var värd för världens första AI-säkerhetstoppmöte. Representanter från 27 regeringar och ledande AI-företag deltog, inklusive Elon Musk och OpenAI:s VD Sam Altman. Rishi Sunak, som leder den brittiska regeringen, var värd för evenemanget. Diskussioner kring AI-säkerhet har ökat under året efter lanseringen av ChatGPT. Under toppmötet tillkännagav Sunak att AI-företag har gått med på att ge regeringar tidig tillgång till deras modeller för att utföra säkerhetsutvärderingar. Yoshua Bengio, en Turing-prisbelönt datavetare, har gått med på att leda en kropp som ska försöka fastställa den vetenskapliga konsensusen om risker och förmågor hos gränsöverskridande AI-system.
Storbritanniens premiärminister tillkännager överenskommelse för att testa AI-modeller
Storbritanniens premiärminister Rishi Sunak tillkännagav en ny överenskommelse under en tvådagars konstgjord intelligens (AI) toppmöte på Bletchley Park. I överenskommelsen, som undertecknats av Australien, Kanada, EU, Frankrike, Tyskland, Italien, Japan, Korea, Singapore, USA och Storbritannien, kommer åtta ledande teknikföretags AI-modeller att testas innan de släpps. De åtta företagen är Amazon Web Services, Anthropic, Google, Google DeepMind, Inflection AI, Meta, Microsoft, Mistral AI och Open AI. Sunak tillkännagav också ytterligare detaljer om en överenskommelse för att inrätta en internationell rådgivande panel om framstående AI-risker.
Storbritannien värd för globalt AI-möte medan experter varnar för potentiella risker
AI-tekniken utvecklas snabbt och förändrar många aspekter av det moderna livet. Vissa experter fruktar dock att den kan användas för skadliga ändamål. Storbritannien är värd för ett globalt möte med världsledare och teknikchefer, inklusive Elon Musk, för att diskutera hur avancerade AI kan användas säkert. AI låter datorer lära sig och lösa problem nästan som en person. Tekniken ligger bakom röststyrda virtuella assistenter som Siri och Alexa och hjälper Facebook och X (tidigare Twitter) att bestämma vilka sociala medieinlägg som ska visas för användare. AI låter även Amazon analysera kunders köpvanor för att rekommendera framtida köp. Många experter är förvånade över hur snabbt AI har utvecklats och fruktar att dess snabba tillväxt kan vara farlig. Vissa har till och med sagt att AI-forskningen bör stoppas.
G7-länderna arbetar tillsammans för att reglera artificiell intelligens
Brittiska premiärministern Rishi Sunak är värd för en grupp på 100 representanter från affärsvärlden och politiken för att diskutera potentialen och fallgroparna med artificiell intelligens (AI). AI Safety Summit, som hålls på Bletchley Park, Storbritannien, börjar den 1 november och syftar till att komma fram till en uppsättning globala principer för att utveckla och implementera ´frontier AI-modeller´. G7-gruppen av industrinationer har publicerat ett gemensamt uttalande där de godkänner en uppförandekod och en uppsättning vägledande principer för utvecklingen av generativa AI-modeller. Storbritannien har också tillkännagett att de kommer att investera £118 miljoner i färdighetsfinansiering inom AI-området.
Rishi Sunak och Elon Musk diskuterar AI på globalt toppmöte
Storbritanniens premiärminister, Rishi Sunak, kommer att leda ett globalt toppmöte om artificiell intelligens (AI) i Storbritannien, där bland annat teknikmiljardären Elon Musk kommer att delta. Evenemanget kommer att äga rum i Bletchley Park och kommer även att inkludera Sam Altman från OpenAI, Nick Clegg från Meta och AI-experten Yoshua Bengio. Diskussionen mellan Sunak och Musk kommer att sändas direkt.
Storbritannien värd för toppmöte om farorna med framkant AI
Chatbots som ChatGPT har imponerat världen med sin förmåga att skriva tal, planera semestrar eller hålla en konversation lika bra eller kanske till och med bättre än människor, tack vare framkantens AI-system. Nu har gräns AI blivit det senaste buzzordet när oro växer över att den framväxande teknologin har kapaciteter som kan äventyra mänskligheten. Alla från den brittiska regeringen till toppforskare och till och med stora AI-företag själva larmar om gräns AI: s ännu okända faror och kräver skyddsåtgärder för att skydda människor från dess existentiella hot. Debatten kommer till en spets på onsdag, när den brittiska premiärministern Rishi Sunak är värd för ett två dagars toppmöte med fokus på gräns AI.
Globala ledare och teknikexperter samlas för toppmöte om AI-säkerhet
Ledare, teknikchefer och experter samlas på Bletchley Park för ett toppmöte om säkerhet inom artificiell intelligens (AI). Toppmötet kommer att diskutera ´frontier AI´-system, högpresterande modeller som kan utföra en mängd olika uppgifter. Bland deltagarna finns Rishi Sunak, Storbritanniens premiärminister, tekniksekreteraren Michelle Donelan, USA:s vicepresident Kamala Harris, Europeiska kommissionens president Ursula von der Leyen och Italiens premiärminister Giorgia Meloni. Teknikindustrin representeras av företag som Google DeepMind, OpenAI och Meta. Experter inkluderar två av de tre ´gudfäder´ till modern AI, Geoffrey Hinton och Yoshua Bengio.
Fokus på domedagsscenarier i AI distraherar från omedelbara risker, säger branschexpert
Enligt Aidan Gomez, medförfattare till en forskningsstudie som hjälpte till att skapa tekniken bakom chatbots, är fokuseringen på domedagsscenarier i artificiell intelligens (AI) en distraktion som spelar ner omedelbara risker som storskalig generering av felinformation. Gomez, som är VD för Cohere, ett nordamerikanskt företag som tillverkar AI-verktyg för företag, inklusive chatbots, anser att AI redan används i stor utsträckning och att toppmötet bör fokusera på dessa applikationer. Han uttrycker oro över spridningen av felaktig eller felaktig information online, då AI-modeller kan skapa media som är extremt övertygande och nästan omöjliga att skilja från mänskligt skapade texter eller bilder.
Världsledare samlas i Storbritannien för att diskutera AI-säkerhet
Omkring 100 världsledare, teknikchefer, akademiker och AI-forskare samlas på Bletchley Park i Storbritannien för att diskutera hur man bäst kan maximera fördelarna med AI-teknologi samtidigt som man minimerar riskerna. UK:s AI Safety Summit kommer att fokusera på riskerna med så kallad ´frontier AI´, de mest avancerade och kraftfulla systemen som ännu inte finns men som kan komma att existera snart på grund av AI:s snabba framsteg. Kritiker menar dock att mötets fokus borde ligga på AI:s mer omedelbara och akuta problem, som den stora mängden energi den förbrukar och den inverkan den redan har på jobb. Storbritanniens premiärminister Rishi Sunak har en ambitiös plan att positionera Storbritannien som den globala ledaren för AI-säkerhet.
Obegränsad AI-utveckling äventyrar mänsklighetens framtid, varnar forskare
Enligt Max Tegmark, professor i fysik och AI-forskare vid Massachusetts Institute of Technology, äventyrar några teknikföretag mänsklighetens framtid genom obegränsad AI-utveckling. Tegmark organiserade ett öppet brev som krävde ett sex månaders uppehåll i stora AI-experiment. I en policydokument publicerad denna vecka, sa 23 AI-experter, inklusive Geoffrey Hinton och Yoshua Bengio, att regeringen måste tillåtas stoppa utvecklingen av exceptionellt kraftfulla modeller. Förra månaden sa Amazon att de skulle investera upp till 4 miljarder dollar i Anthropic, ett start-up företag grundat av tidigare OpenAI-chefer. Amazon-Anthropic-avtalet ses som e-handelsjättens mest betydande drag hittills för att komma ikapp med Microsoft och Alphabet.
Världens första AI-toppmöte att äga rum på Bletchley Park
Världens första AI-toppmöte kommer att äga rum nästa vecka på Bletchley Park i Buckinghamshire, där Alan Turing knäckte Enigma-koden under andra världskriget. Vetenskapsmän, matematiker och politiker från hela världen kommer att diskutera om AI utgör ett hot mot mänskligheten eller om det är en positiv kraft som kan utveckla nya läkemedel och genterapier. Två av de tre ´gudfäderna för AI´ varnar för att AI kan bli så kraftfullt och självständigt att det kan ta över mänskligheten. Den tredje menar att de andra har ´dramatiskt överskattat hotet av en oavsiktlig AI-övertagning´ och att införandet av de regleringar de vill ha bara skulle ´fördröja framstegen inom kunskap och vetenskap´.
AI-experter varnar för etiska risker med snabb AI-utveckling
AI:s snabba utveckling har lett till både banbrytande förmågor och betydande etiska problem. AI-system visar allt mer förmågor som överstiger mänsklig förståelse, vilket får experter att varna för potentiella risker och behovet av robust styrning. En öppen brev publicerad av AI-forskare understryker de potentiella farorna med okontrollerade AI-framsteg. AI-pionjärerna Yoshua Bengio och Geoffrey Hinton, tillsammans med andra experter, uppmanar företag att avsätta en betydande del av deras AI-budgetar till säkerhet och etik. De betonar vikten av forskning inom AI-säkerhet och behovet av effektiva statliga regler.
Kanadensiska AI-pionjärer uppmanar till bättre hantering av teknikrisker
Flera kanadensiska pionjärer inom artificiell intelligens (AI), inklusive Yoshua Bengio och Geoffrey Hinton, har undertecknat ett nytt dokument där de uppmanar regeringar att bättre hantera riskerna med tekniken. De varnar för att ytterligare framsteg inom AI kan förvärra global ojämlikhet, underlätta automatiserad krigföring, orkestrera massmanipulation och omfattande övervakning av befolkningar. För att hålla jämna steg med AI-innovationer och mildra risker uppmanar de regeringar och företag att ägna en tredjedel av sin AI-forsknings- och utvecklingsfinansiering till säker och etisk användning av systemen.
Akademiker uppmanar till säkerhetsåtgärder för AI för att förhindra potentiella existentiella risker
Ledande experter inom artificiell intelligens (AI) uppmanar regeringar och teknikföretag att snabbt utveckla säkerhetsåtgärder för AI-system för att mildra potentiella existentiella hot som tekniken kan utgöra. En essä skriven av 24 akademiker och experter varnar för att vårdslösa utvecklingar av teknikföretag, särskilt inom autonoma och andra banbrytande AI-system, kan leda till stora samhällsrisker. Författarna till essän uppmanade industrin att avsätta en tredjedel av sin forsknings- och utvecklingsbudget för säkerhets- och etikfrågor och för regeringen att säkerställa branschtillsyn genom mekanismer som juridiskt skydd för visselblåsare och obligatoriska rapporteringskrav.
AI-experter varnar för säkerhetsrisker och uppmanar till striktare reglering
Inför en global konferens om säkerhet inom artificiell intelligens (AI) i Storbritannien har två dussin AI-experter släppt en kort rapport och policytillägg som uppmanar mänskligheten att ´hantera pågående skador och förutse framväxande risker´ i samband med den snabbt utvecklande tekniken. Experterna, inklusive Yoshua Bengio, Geoffrey Hinton och Andrew Yao, skrev att ´AI kan vara tekniken som formar detta århundrade. Medan AI-förmågorna utvecklas snabbt, halkar framstegen inom säkerhet och styrning efter. För att styra AI mot positiva resultat och bort från katastrof, måste vi omorientera. Det finns en ansvarsfull väg, om vi har visheten att ta den.´
AI-experter varnar för hot mot social stabilitet och uppmanar till större ansvar för AI-företag
En grupp seniora experter, inklusive två ´gudfäder´ av tekniken, varnar för att kraftfulla AI-system hotar social stabilitet och att AI-företag bör hållas ansvariga för skador orsakade av deras produkter. De uppmanar till en rad politiska åtgärder, inklusive att regeringar och företag ska avsätta en tredjedel av sin AI-forsknings- och utvecklingsfinansiering till säker och etisk användning av system, och att techföretag ska hållas ansvariga för förutsägbara och förebyggbara skador från deras AI-system. Experterna varnar för att AI-system som utvecklas ovarsamt hotar att ´förstärka social orättvisa, underminera våra yrken, erodera social stabilitet, möjliggöra storskalig kriminell eller terroristaktivitet och försvaga vår gemensamma förståelse för verkligheten som är grundläggande för samhället.´
AI-forskare varnar för teknologins snabba utveckling
Yoshua Bengio, grundare och vetenskaplig direktör för Mila vid Quebec AI Institute, uttrycker oro över den snabba utvecklingen inom artificiell intelligens (AI). Bengio anser att AI kan uppnå mänskliga nivåer av kognitiv kompetens inom några år eller decennier, vilket kan utgöra ett hot mot demokrati, nationell säkerhet och vår gemensamma framtid. Han uppmanar till reglering och potentiella lagstiftningar för att hantera teknologins utveckling. Bengio är också bekymrad över AI:s potentiella inverkan på klimatförändringar och biologisk säkerhet.
AI kan användas för att skapa dödligare vapen, varnar professor
Yoshua Bengio, professor i datavetenskap vid University of Montreal, varnar för riskerna med artificiell intelligens (AI) i militära sammanhang. Han menar att AI kan användas för att skapa dödligare biologiska och kemiska vapen, och att tekniken kan bli ett hot om den vänds mot oss. Bengio noterar att AI-redan kan användas för att styra drönare och använda ansiktsigenkänningsteknik för att rikta in sig på specifika personer. Han är också orolig för möjligheten att skapa autonoma AI med egna självbevarande mål. Bengio uppmanar till starka skyddsräcken och licensiering för alla som utvecklar eller distribuerar kraftfulla AI-system.
AI:s framtid enligt ´AI:s gudfader´ Geoffrey Hinton
Geoffrey Hinton, ofta kallad ´AI:s gudfader´, delade nyligen sina insikter och oro för AI:s framtid i en exklusiv intervju med CBS News korrespondent Scott Pelley. Hinton, en brittisk datavetare vars banbrytande idéer varit avgörande för AI-teknikens framsteg, diskuterade potentialen för AI-system att bli smartare än människor och implikationerna av denna nya autonomi. Hinton och hans kollegor Yann Lecun och Yoshua Bengio mottog Turingpriset 2019 för sitt pionjärarbete med artificiella neurala nätverk. Hinton uttryckte oro för att AI-system autonomt kan skriva och exekvera sin egen kod, vilket kan utgöra en utmaning för att behålla kontroll över dessa system.
AI-experten Geoffrey Hinton varnar för att AI kan ta över
Geoffrey Hinton, ofta kallad ´Gudfadern till AI´, varnar för att AI-system kan vara mer intelligenta än vi tror och att det finns en risk att maskinerna kan ta över. Hinton, som är brittisk datavetare, hjälpte till att göra avancerad AI möjlig genom sina kontroversiella idéer. Han tror att AI kommer att göra enormt gott, men han har också en varning. Han menar att vi nu går in i en period då vi för första gången kan ha saker som är mer intelligenta än oss. Hinton menar att dessa AI-system kan förstå, vara intelligenta och fatta beslut baserat på sina egna erfarenheter.
Kanadensisk innovationsminister diskuterar reglering av AI
Innovationsminister François-Philippe Champagne säger att hans jobb är att flytta från ´rädsla till möjlighet´ när det gäller utveckling och reglering av artificiell intelligens (AI). Han betonade behovet av transparens kring tekniken och en ram för att balansera mellan ´kanadensarnas ångest´ och utvecklare som vill ha ´ansvarsfull innovation´. Champagne ville inte säga om han anser att AI utgör ett hot mot mänskligheten. Den federala regeringen har sedan juni 2022 lagt fram sina AI-regler med Artificial Intelligence and Data Act, inbakad i det större Bill C-27.
OpenAI lanserar GPT-4V med bildanalysfunktioner och DALL-E 3
Trots uppmaningar från framstående figurer som Elon Musk, Steve Wozniak och Yoshua Bengio om att stoppa utvecklingen av AI-språkmodeller, har OpenAI lanserat flera nya funktioner. Dessa inkluderar GPT-4V, en multimodal modell som kan analysera bilder och annat visuellt innehåll, samt DALL-E 3, den tredje versionen av företagets generativa AI-visuella konstplattform. GPT-4V kan bland annat transkribera handskriven text och generera kod från en skiss. DALL-E 3 kan tolka nyanser och detaljer för att översätta idéer till bilder.
Artificiell intelligens i film och verklighet: Hur nära är vi verkligen?
Artificiell intelligens (AI) har länge varit en del av våra berättelser, ibland som hjälpsamma robotar, ibland som hot mot mänskligheten. I den nya sci-fi-filmen ´The Creator´ är USA fast beslutna att utrota en samhälle av androider i Asien, rädda för att de artificiellt intelligenta varelserna hotar mänsklighetens överlevnad. Denna artikel diskuterar olika typer av AI som framställs i filmer och TV, från dödande AI som Skynet i ´Terminator´, till AI-älskare som Samantha i ´Her´, AI-filosofen som androiderna i ´Blade Runner´, och den allseende AI som i ´Minority Report´. Dessa skildringar har formgivit våra förhoppningar och rädslor för AI, men hur mycket av detta kan bli verklighet?
Bitter kamp om framtiden för AI: Domedagsprofeter, reformister och krigare
Enligt Bruce Schneier, säkerhetstekniker och föreläsare vid Harvard Kennedy School, och Dr. Nathan Sanders, datavetare vid Berkman Klein Center vid Harvard University, är det stor oenighet om framtiden för artificiell intelligens (AI). Vissa varnar för potentiellt destruktiva krafter medan andra ser möjligheter till affärsintäkter och nationell säkerhet. Detta leder till en mängd olika åsikter och politiska krav som underminerar vår förmåga att hantera en teknik som kommer att forma framtiden för politik, ekonomi och vårt dagliga liv. Kampen handlar inte bara om AI utan även om kontroll och makt, hur resurser ska fördelas och vem som ska hållas ansvarig.
SCALE AI arrangerar toppmöte om artificiell intelligens i Kanada
SCALE AI, en global innovationskluster för AI i Kanada, bjuder in medier till ALL IN, ett av de viktigaste mötena om kanadensisk artificiell intelligens. Evenemanget arrangeras i Palais des congrès de Montréal den 27-28 september, samt virtuellt. Initiativet är ett samarbete med CEIMIA, Mila - Quebec AI Institute och Chamber of Commerce of Metropolitan Montreal. Det kommer att samla ledande AI-experter, startups, investerare, forskare och regeringsrepresentanter för att diskutera hur AI omformar den kanadensiska ekonomin.
AI-assistenter kan bli vanliga men riskerar att göra kostsamma misstag
Flera teknikstartups, inklusive Lindy, arbetar med att utveckla AI-assistenter som kan utföra användbara uppgifter. Lindy, som drivs av AI, är för närvarande i privat beta. Trots att dessa AI-agenter kan bli förvirrade och leda till potentiellt kostsamma misstag, förutspår Flo Crivello, Lindys VD, att sådana agenter kommer att bli vanliga inom kort. Andra AI-projekt inkluderar OpenAI:s ChatGPT och Auto-GPT, som båda har visat potential för att skapa AI-agenter med mer avancerade funktioner.
Konstgjord intelligens: en global prioritet eller en potentiell risk?
Många framstående personer inom teknik och AI, inklusive Turingprisvinnaren Yoshua Bengio, Elon Musk och Andrew Yang, har uttryckt oro över utvecklingen av AI. Efter lanseringen av OpenAI:s ChatGPT-4 i mars, uppmanade de till en sex månaders paus på alla AI-system som överträffar GPT:s kapabiliteter. I maj undertecknades ett uttalande av nästan alla stora AI-företags VD:ar och de flesta toppforskare inom AI, där det stod att det är en global prioritet att minska risken för utrotning från AI, tillsammans med andra samhällsskaloriska risker som pandemier och kärnvapenkrig.
Serviceaide VD: Farhågor kring AI är överdrivna
Wai Wong, grundare, president och VD för Serviceaide, en global leverantör av företagstjänsthanteringslösningar, ger sin syn på artificiell intelligens (AI). Wong anser att farhågorna kring AI är överdrivna, och att dess framsteg bör följas noggrant men inte försenas. Han menar att AI för närvarande levererar stora praktiska fördelar för företag och samhället, och har potential att göra mycket mer. Wong nämner också att AI hjälper till att förvandla en rad industrier, affärsprocesser och applikationer, inklusive hälso- och sjukvård, cybersäkerhet och marknadsföring. Han tror att AI kommer att stärka anställda att göra sina jobb bättre och med mindre stress och flaskhalsar.
ChatGPT rekommenderar bästa böckerna om AI
Den ökande beroendet av AI-verktyg, särskilt generativ AI, beror på deras användarvänlighet och tillförlitlighet. Sedan vi stötte på AI-chattrobotar har produktiviteten och effektiviteten förbättrats avsevärt. Så vi frågade ChatGPT, den banbrytande chattroboten på detta område, om de bästa böckerna om AI som alla borde läsa. Bland de rekommenderade böckerna finns ´Artificial Intelligence: A Modern Approach´ av Stuart Russell och Peter Norvig, ´Superintelligence: Paths, Dangers, Strategies´ av Nick Bostrom, ´Deep Learning´ av Ian Goodfellow, Yoshua Bengio och Aaron Courville, ´Human Compatible: Artificial Intelligence and the Problem of Control´ av Stuart Russell och ´Prediction Machines: The Simple Economics of Artificial Intelligence´ av Ajay Agrawal, Joshua Gans och Avi Goldfarb.
AI-expert varnar för brist på reglering av AI-teknik
En av fäderna till artificiell intelligens, Yoshua Bengio, diskuterar nödvändigheten av att ha regleringar på AI-teknik. Bengios arbete under 1990-talet och 2000-talet har bidragit till grunden för chattrobotar som OpenAI´s ChatGPT och Googles Bard. Idag är Bengio en av de största rösterna som varnar världen om nödvändigheten av att ha kontroll och regleringar på AI-teknik. Han vittnade inför en amerikansk kongressutfrågning, och varnade för att den hektiska takten i AI-utvecklingen, i fel händer, kan användas för att skapa biologiska vapen.
Framstående personer inom AI diskuterar teknikens möjligheter och risker
Artificiell intelligens (AI) har blivit allt mer mainstream sedan ChatGPT lanserades i november. Investeringsnivån inom AI förväntas uppgå till 200 miljarder dollar till 2025. Betydande personer inom branschen har börjat diskutera riskerna och fördelarna med den snabba utvecklingen av AI. Vissa menar att AI kommer att leda till ett stort framsteg i människans livskvalitet, medan andra har uppmanat till en sex månaders paus i utvecklingen, vittnat inför kongressen om de långsiktiga riskerna med AI och hävdat att det kan utgöra en mer brådskande fara för världen än klimatförändringarna.
Teknikledare uppmanar till ansvarsfull utveckling av AI
Nick Shah från Peterson Technology Partners diskuterar påverkan av GPT4, den senaste generativa AI-tekniken, och uppmaningen till ansvarsfull utveckling för att hantera potentiella risker. Shah hänvisar till ett öppet brev undertecknat av stora namn inom teknikindustrin, inklusive Elon Musk, Steve Wozniak och Yuval Noah Harari, som uppmanar företag att pausa utvecklingen av AI-system som är kraftfullare än GPT4. Shah betonar att AI inte ska ersätta människor utan snarare assistera dem i deras arbete. Han nämner också att AI-industrin växer enormt och att det är viktigt att vara medveten om dess kraft och potential.
Historien om Artificiell Intelligens: Från Turing till ChatGPT
Artificiell intelligens (AI) har varit under utveckling sedan 1900-talet, men det var OpenAIs ChatGPT som definierade AI för allmänheten. AI:s moderna koncept kommer från matematikern Alan Turing, som föreslog ett tankexperiment kallat ´The Imitation Game´. Frank Rosenblatt kickstartade teknikens praktik genom att skapa ´Perceptron´, en dator som fungerar som neuroner i hjärnan. Trots vissa framgångsrika försök kunde Perceptron inte uppfylla Rosenblatts teorier. Geoffrey Hinton upptäckte på 1980-talet att flera lager av neuronnätverk kan möjliggöra maskininlärning. Slutligen blev ChatGPT populär 2022, vilket visade AI:s verkliga potential.
AI säkerhetsrisker: Katastrofala farhågor är överdrivna men mänskliga förmågor riskerar att erodera
Ökningen av AI-system som ChatGPT har lett till ökad oro för AI. Enligt Center for AI Safety bör risken för utrotning från AI prioriteras globalt tillsammans med andra samhällsskalorisker som pandemier och kärnvapenkrig. Experter varnar för att AI kan bli farligt eftersom det inte nödvändigtvis överensstämmer med skaparnas moraliska värderingar. Trots detta anser vissa att farhågorna är överdrivna. AI:s förmåga att skapa övertygande deepfake-video och ljud är skrämmande och kan missbrukas av människor med dåliga avsikter. AI kan också förändra hur människor ser på sig själva och kan försämra förmågor och upplevelser som människor anser vara väsentliga för att vara mänskliga.
AI:s inverkan på jobb och samhälle: en överblick
AI, eller artificiell intelligens, är ett område inom datavetenskap som utformats för att förstå och lagra mänsklig intelligens, härma mänskliga förmågor inklusive att slutföra uppgifter, bearbeta mänskligt språk och utföra taligenkänning. Det är den ledande innovationen inom teknik idag och dess primära mål är att eliminera tråkiga uppgifter och hjälpa till att omedelbart få tillgång till extremt detaljerad och hyperfokuserad information och data. AI har förmågan att konsumera och bearbeta massiva datauppsättningar och utveckla mönster för att göra förutsägelser för slutförandet av framtida uppgifter. I mars släppte Goldman Sachs en rapport och varnade allmänheten för hotet mot jobb som AI, och ChatGPT, en artificiell intelligenschattbot utvecklad av AI-forskningsföretaget OpenAI, utgör. Rapporten avslöjade att jobb med repetitiva ansvarsområden och viss manuell arbetskraft riskerar att automatiseras. Rapporten drar slutsatsen att 300 miljoner jobb kan påverkas av AI.
Forskare varnar för riskerna med artificiell intelligens
Fem ledande forskare har undertecknat ett öppet brev där de uppmanar till omedelbart stopp i utvecklingen av artificiell intelligens (AI) på grund av dess potentiella risker för mänskligheten. De menar att AI kan utgöra ett hot om den blir mer intelligent än människan, och att detta kan leda till att människor blir utrotade på samma sätt som andra arter har utrotats av mer intelligenta arter. Forskarna påpekar också att AI redan orsakar skador genom att användas på diskriminerande sätt, till exempel i fördelningen av välfärdsförmåner. Dessutom kan AI bli ett verktyg för de med illvilliga avsikter om den blir tillräckligt avancerad.
Majoriteten av indiska anställda oroade över att förlora jobb till AI: Microsoft-rapport
En ny rapport från Microsoft visar att 74% av indiska anställda är oroliga för att artificiell intelligens (AI) tar över deras arbete. Rapporten, som undersökte 31 000 personer i 31 länder, visade också att tre av fyra indiska anställda uttryckte oro över AI:s potentiella inverkan på deras roller. Trots oro över jobben är AI entusiastiskt förväntat av arbetstagare, med 83% som säger att de skulle förlita sig på maskiner för att minska arbetsbelastningen. Microsofts VD Satya Nadella betonade att AI-drivna verktyg kan hjälpa till att minska digital skuld, förbättra arbetstagares AI-färdigheter och stärka anställda. Intressant nog sade 100% av indiska kreativa arbetare som är bekanta med AI att de gärna skulle använda AI för de kreativa aspekterna av sina jobb.
Kyunghyun Cho, framstående AI-forskare och biträdande professor vid New York University, ifrågasätter den nuvarande diskursen kring AI-risk. Han anser att ´doomer´-narrativet kring artificiell allmän intelligens (AGI) och uppmaningar till reglering eller forskningsmoratorium är en distraktion från de verkliga problemen med dagens AI. Cho kritiserar också glorifieringen av ´hjälteskapsforskare´ som Geoffrey Hinton och Yoshua Bengio, samt uttrycker oro över Effective Altruism-rörelsen, som finansierar många AGI-insatser.
AI kan leda till mänsklighetens utrotning, varnar experter
Artificiell intelligens (AI) kan leda till mänsklighetens utrotning och riskerna bör behandlas med samma brådska som kärnvapenkrig, varnar flera experter, inklusive pionjärer som utvecklat tekniken. Exempel på AI inkluderar ansiktsigenkänning och digitala röstassistenter som Apples Siri och Amazons Alexa. AI kan bli farligt om det inte är i linje med mänskliga värderingar, och människor kan bli beroende av maskiner om viktiga uppgifter delegeras till dem. Många experter har skrivit under ett brev från Centre for AI Safety, som syftar till att minska samhällsskaleliga risker från AI. Bland undertecknarna finns Geoffrey Hinton, emeritus professor i datavetenskap vid University of Toronto, och Yoshua Bengio, professor i datavetenskap vid Universite de Montreal/Mila. För att reglera AI och förhindra dessa scenarier arbetar Centre for AI Safety med forskning, fältbyggnad och opinionsarbete.
Kanadensiska AI-experter uppmanar till paus i utvecklingen av kraftfulla AI-system
Två av de tre gudfäderna inom AI är professorer baserade i Kanada. Geoffrey Hinton från University of Toronto lämnade nyligen sitt jobb på Google för att tala mer öppet om riskerna med artificiell intelligens. Yoshua Bengio från Université de Montréal var en av flera högprofilerade namn, inklusive Elon Musk och Apple-medgrundaren Steve Wozniak, som nyligen skrev under ett öppet brev där de uppmanade till ett uppehåll i utvecklingen av allt kraftfullare AI-system. Kanada är långt ifrån att underteckna lagstiftning, som förväntas träda i kraft tidigast 2025. Det behövs flera månader för att enas om regler för lagförslaget C-27, Artificial Intelligence and Data Act, som introducerades i juni förra året. På kort sikt arbetar kanadensiska dataskyddsmyndigheter för närvarande med att undersöka ett ospecifierat klagomål om huruvida chatboten ChatGPT olämpligt samlar in, använder eller avslöjar data om kanadensare utan korrekt samtycke.
Experter inom artificiell intelligens (AI) blir allt mer oroade över den så kallade ´svarta lådan´ som döljer algoritmers godtyckliga förutsägelser. Denna ´svarta låda´ uppstår när utvecklare av AI-system inte längre kan förstå eller förutsäga hur AI:n kommer fram till sina slutsatser, något som kan leda till ogenomskinliga och okontrollerbara beslut. Googles VD Sundar Pichai menar att AI-programmens förmåga att generera oväntade svar är vad som kallas ´svarta lådan´. Vissa teoretiker tror att AI redan har nått en punkt där den överträffar människans intelligens, vilket kan skapa allvarliga etiska frågor och risker för samhället.