» Håll dig ajour kring AI · En AI-skapad och ständigt föränderlig nyhetstidning om AI. Idag har vår robot sammanfattat 132 nyhetshändelser. Upptäck gärna vår kurs AI på jobbet förresten. «

Geoffrey Hinton är en brittisk-kanadensisk datorforskare och professor i datavetenskap vid University of Toronto. Han är mest känd för sina bidrag inom området djupinlärning och artificiell intelligens, särskilt när det gäller neurala nätverk. Hinton har varit en pionjär inom utvecklingen av algoritmer för att träna och optimera dessa nätverk. Han har också varit en central figur i utvecklingen av maskininlärningstekniker och har fått flera utmärkelser för sitt arbete, inklusive Turingpriset 2018. Hans forskning har haft stor inverkan på både akademiska och industriella tillämpningar av AI.

Senaste nytt kring Geoffrey Hinton

USA:s president varnar för farorna med artificiell intelligens

USA:s president Joe Biden har utfärdat en exekutiv order som varnar för farorna med artificiell intelligens (AI), särskilt inom utvecklingen av förödande vapen och cyberattacker. Ordern definierar ramverket för stark federal intervention, inklusive övervakning av företag som utvecklar AI-produkter och möjligheten att tvinga företag att överge vissa initiativ. Samtidigt har AI-baserade ´deepfakes´ börjat dyka upp i Indien, designade för att påverka väljare och skapa offentlig oenighet. Indien är i framkant för globala ansträngningar att främja AI:s legitima tillväxt utan att låta den skapa någon destruktiv effekt. Vid nästa G20-möte i Brasilien kommer behovet av globala AI-regler att vara en viktig punkt på dagordningen.

Direktlänk Dela Lokmat Times fördjupar idag

OpenAI:s ChatGPT förändrar världen genom generativ AI

OpenAI:s lansering av ChatGPT förändrade historiens gång, enligt vissa. Före ChatGPT var AI något som dataforskare kunde arbeta med, men det hade inte någon påtaglig inverkan på vanliga människors liv. Efter ChatGPT har AI plötsligt blivit central i varje interaktion konsumenter har med datorer och telefoner. Tiotusentals företag har övergett sina gamla affärsmodeller och försöker hitta nya som bygger på generativ AI. McKinsey & Company förutspår att produktivitetsökningen från generativ AI kan göra anställda upp till 45% effektivare. Enligt en undersökning utförd av ExtraHop äger OpenAI 80% av andelen generativa AI-tjänster. Det finns dock oavsiktliga konsekvenser av AI:s stora ögonblick, som risker för företag och potentiella säkerhetsproblem.

Direktlänk Dela Datanami fördjupade igår

EU-lagstiftare kan inte komma överens om reglering av AI-system

Teknikledare deltar i ett möte om generativ AI (Artificiell Intelligens) i San Francisco, som försöker positionera sig som ´AI-huvudstaden i världen´. EU-lagstiftare kan inte komma överens om hur system som ChatGPT ska regleras, vilket hotar banbrytande lagstiftning som syftar till att hålla AI i schack. Förhandlare möts på fredag för avgörande diskussioner inför slutliga samtal planerade till den 6 december. ´Foundation models´ eller generativ AI har blivit det största hindret i samtalen om EU:s föreslagna AI-akt. Om de inte kan komma överens riskerar akten att skrotas på grund av tidsbrist före de europeiska parlamentsvalen nästa år. Största utmaningen för att få till ett avtal har kommit från Frankrike, Tyskland och Italien, som föredrar att tillverkare av generativ AI-modeller självreglerar istället för att ha hårda regler. Andra pågående problem i samtalen inkluderar definition av AI, bedömning av grundläggande rättigheters inverkan, undantag för brottsbekämpning och nationell säkerhet.

Direktlänk Dela Reuters fördjupade igår

AI-startupen OpenAI firar ett år med sin stora språkmodell ChatGPT. Trots att modellen använde en mindre kraftfull version (3.5) än den nyss släppta GPT-4, har den förvånat alla med sina detaljerade svar på nästan alla möjliga frågor. På kort tid blev 100 miljoner människor regelbundna användare. OpenAI:s ledare förstod inte fullt ut vilken inverkan deras skapelse skulle ha. Microsofts 1 miljard dollar satsning på OpenAI 2019 visade sig vara ett mästardrag, vilket utlöste ett AI vapenkapplöpning. ChatGPT förändrade teknikvärlden och ledde till att AI-reglering blev en topprioritet för kongressen och Vita huset.

Wired fördjupade igår

ChatGPT: Ett år av revolutionerande framsteg och potentiella hot

ChatGPT, en chatbot utvecklad av OpenAI, har haft ett dramatiskt första år sedan starten den 30 november 2022. Dess popularitet sköt i höjden direkt efter lanseringen, med 100 miljoner aktiva månatliga användare redan två månader senare. ChatGPT blev därmed den snabbast växande internetplattformen i historien. Utvecklingen av artificiell allmän intelligens har dock också framkallat oro för potentiella risker. Bland annat har Elon Musk undertecknat ett öppet brev som uppmanar företag att omedelbart pausa träningen av AI-system kraftigare än GPT-4 i sex månader. Trots detta fortsätter forskning och utveckling inom området i en imponerande takt.

Direktlänk Dela Ruetir fördjupade i förrgår

AI-gudfadern Geoffrey Hinton vill begränsa AI men är osäker på om det är möjligt

Den så kallade gudfadern av AI, Geoffrey Hinton, tror att vi behöver sätta begränsningar på tekniken så att den inte befriar sig själv från mänsklig kontroll. Han är dock osäker på om detta är möjligt. Hinton är känd för sitt banbrytande arbete inom neurala nätverk, en gren av datavetenskap som de flesta forskare hade gett upp, medan Hintons framsteg ledde till en revolution. Han är nu rädd för vad det kan frigöra. Hinton håller med om att det är ´inte orimligt´ för en lekman att önska att AI helt enkelt skulle försvinna, ´men det kommer inte att hända. Det är bara så användbart, så mycket möjlighet att göra gott.´

Direktlänk Dela The New Yorker fördjupade 29 november

Mörka sidor av artificiell intelligens: Deepfakes och mer

Deepfakes, eller videor skapade med hjälp av artificiell intelligens (AI), har blivit ett populärt fenomen, men också en farlig form av digitalt missbruk. Ett exempel är en video som nyligen blev viral i Indien, där skådespelerskan Rashmika Mandanas ansikte hade lagts över en brittisk kvinnas ansikte. Många deepfakes används för att sprida falsk information eller icke-samtyckande porr, där en persons ansikte läggs över i en porrklipp. Forskningsföretaget Sensity AI har visat att 90-95% av deepfakes 2021 var icke-samtyckande porr, och 90% av dessa var kvinnor. Men deepfakes är bara toppen av isberget när det gäller de mörka sidorna av AI. Det finns risker med falska bilder, partiska AI-system och ´superintelligens´ som kan utvecklas utan mänsklig inblandning.

Direktlänk Dela Medium fördjupade 28 november

Förbättring av k-Means Clustering genom Disentangled Interna Representationer

Forskare A.F. Agarap och A.P. Azcarraga presenterade en artikel vid 2020 International Joint Conference on Neural Networks (IJCNN) om att förbättra k-Means Clustering med disentangled interna representationer. De definierar ´disentanglement´ som hur långt klass-skiljda datapunkter är från varandra, relativt till klass-liknande datapunkter. Genom att maximera disentanglement under representation inlärning minskas avståndet mellan klass-liknande datapunkter. Detta bevarar klassmedlemskapen för exempel från datasetet och förbättrar prestandan för en närmaste grannklassificerare eller ett klusteringsalgoritm.

Direktlänk Dela Medium fördjupade 26 november

Kampen för AI:s själ: Kan OpenAI:s fruktbara motsägelse vara hållbar?

OpenAI, som började som ett ideellt forskningslabb, har utvecklats till en lönsam motsägelse: ett företag med vinstsyfte som övervakas av en ideell styrelse. Företagets kultur balanserar mellan vetenskapsmannens önskan att upptäcka, kapitalistens önskan att leverera produkter och den goda människans önskan att göra allt detta på ett säkert sätt. Men händelserna den senaste veckan, inklusive sparkandet och återanställningen av Sam Altman, väcker frågan om denna fruktbara motsägelse kan vara hållbar. Kan en organisation eller person upprätthålla vetenskapsmannens hjärna, kapitalistens drivkraft och den försiktiga hjärtat hos en tillsynsmyndighet? Eller kommer pengarna alltid att vinna?

Direktlänk Dela The New York Times fördjupade 23 november

OpenAI återanställer VD efter dramatiska omvälvningar

OpenAI, företaget bakom AI-boten ChatGPT, har genomgått dramatiska förändringar under den senaste veckan. Företagets VD, Sam Altman, avskedades den 17 november men återanställdes fem dagar senare efter protester från anställda. Händelsen har väckt diskussioner om hur kommersiell konkurrens påverkar utvecklingen av AI-system och hur snabbt AI kan implementeras på ett etiskt och säkert sätt. Altman, som är en framgångsrik investerare och entreprenör, var medgrundare till OpenAI och har varit VD sedan 2019. Han övervakade en investering på cirka 13 miljarder dollar från Microsoft.

Direktlänk Dela Nature fördjupade 23 november

OpenAI:s VD Sam Altman återvänder efter oväntad avsked

OpenAI:s tidigare VD Sam Altman återvänder till sin position efter att ha blivit oväntat avskedad. Greg Brockman, företagets tidigare styrelseordförande och president, kommer också att återvända. Dessa återanställningar kommer efter att en majoritet av OpenAI:s anställda undertecknade ett brev som krävde just detta. OpenAI meddelade också att de har en ny ´inledande´ styrelse, med Salesforce med-VD Bret Taylor som ordförande och tidigare handelssekreterare Larry Summers som medlem. OpenAI har också blivit stämda i ett upphovsrättsmål av författaren Julian Sancton och andra författare, som anklagar företaget och Microsoft för att ha tränat flera versioner av ChatGPT med upphovsrättsskyddat material utan tillstånd.

Direktlänk Dela Fast Company fördjupade 22 november

Forskare uppmanar till större fokus på AI-säkerhet och reglering

Sören Mindermann, postdoktor vid MILA som arbetar med AI-säkerhet, har uttryckt oro över att stora teknikföretag som IBM förnekar riskerna med AI och lobbyar mot reglering. Han anser att det finns ett växande akademiskt konsensus om behovet av reglering och erkännande av verkliga risker. Mindermann har nyligen publicerat en artikel tillsammans med 22 medförfattare från USA, Kina, EU och Storbritannien, inklusive Geoffrey Hinton, Stuart Russell och Yoshua Bengio. I artikeln uppmanas företag som arbetar med AI-system att tilldela minst en tredjedel av sina resurser för att säkerställa AI-säkerhet och etisk användning.

Direktlänk Dela Analytics India Magazine fördjupade 22 november

OpenAIs chefsforskare gör tragiskt misstag

Ilya Sutskever, chefsforskare vid OpenAI, försökte nyligen avsätta Sam Altman, företagets tidigare VD. Sutskever informerade Altman om hans avsked under ett möte, vilket ledde till en omedelbar offentliggöring av Altmans avgång. Mer än 700 av OpenAIs 770 anställda har sedan dess skrivit under ett brev där de hotar med att säga upp sig om inte Altman återinsätts som VD. Sutskever har uttryckt ånger över sin inblandning i styrelsebeslutet och har också undertecknat brevet som kräver Altmans återkomst.

Direktlänk Dela The Atlantic fördjupade 21 november

OpenAI:s Ilya Sutskever ångrar sin roll i Sam Altmans avsked

Ilya Sutskever, chefsforskare på OpenAI, har uttryckt ånger över sin roll i avskedandet av före detta VD:n Sam Altman. Sutskever och Altman grundade OpenAI 2016 med hjälp av Elon Musk. Styrelsen för OpenAI, där Sutskever är medlem, beslutade att avskeda Altman på grund av bristande förtroende för hans ledarskap. Efter några dagar uttryckte Sutskever sin ånger över att ha deltagit i avskedandet. Han är nu en av över 600 anställda på OpenAI som har skrivit under ett öppet brev där de hotar att säga upp sig om inte styrelsen avgår och återinsätter Altman som VD.

Direktlänk Dela Business Insider fördjupade 20 november

OpenAI:s VD Sam Altman sparkad och företaget i förhandlingar om att ta tillbaka honom

OpenAI:s VD, Sam Altman, har plötsligt sparkats, och det rapporteras att företaget nu förhandlar om att ta tillbaka honom. OpenAI, som grundades 2015, är inte en traditionell teknikföretag, utan är strukturerat för att motstå värdena som driver mycket av teknikindustrin. Det är mer som ett forskningsinstitut eller en tankesmedja, med primär skyldighet att gynna mänskligheten, inte investerare eller anställda. Företaget lanserade en dotterbolag med en ´begränsad vinst´-modell 2019 för att kunna samla in pengar, locka toppbegåvningar och bygga kommersiella produkter. Altman sparkades av OpenAI:s styrelse på fredagen, vilket var kulmen på en maktkamp mellan företagets två ideologiska ytterligheter. Den ena gruppen föddes ur Silicon Valley teknikoptimism, drivs av snabb kommersialisering; den andra är rotad i rädslan att AI utgör en existentiell risk för mänskligheten och måste kontrolleras med extrem försiktighet. Efter att ChatGPT släpptes förra året spändes relationen mellan OpenAI:s fraktioner, vilket Altman hänvisade till som ´stammar´ i ett personalmeddelande 2019. Vi vet fortfarande inte exakt varför Altman sparkades, eller om han kommer tillbaka till sin tidigare roll.

Direktlänk Dela The Atlantic fördjupade 20 november

OpenAI:s chefsforskare Ilya Sutskever fokuserar på att förhindra artificiell superintelligens från att gå ´rogue´

Ilya Sutskever, chefsforskare vid OpenAI, har blivit en centralfigur i ledarskapsomskakningen på företaget. Sutskever, som sitter i OpenAI:s styrelse, var delaktig i att avsätta VD:n Sam Altman, på grund av påståenden om att Altman inte varit ´konsekvent ärlig´. Sutskever har tidigare varit tillbakadragen från medias strålkastarljus, men nyligen deltog han i en lång intervju med MIT Technology Review. Han berättade att hans nya fokus ligger på att förhindra att en artificiell superintelligens går ´rogue´. Sutskever har spelat en nyckelroll i utvecklingen av stora språkmodeller, inklusive GPT-2, GPT-3 och text-till-bild-modellen DALL-E.

Direktlänk Dela Yahoo Finance fördjupade 19 november

Ledarskapsförändringar på OpenAI: Fokus på AI-säkerhet

Ledarskapsförändringar på OpenAI har lett till ökat fokus på företagets chefsforskare, Ilya Sutskever. Sutskever, som också sitter i OpenAIs styrelse, var delaktig i att avsätta VD:n Sam Altman, med anklagelser om att Altman inte varit ´konsekvent uppriktig´. Sutskever har uttryckt att hans nya fokus ligger på att förhindra att en artificiell superintelligens går ´överstyr´. Han spelade en nyckelroll i utvecklingen av stora språkmodeller, inklusive GPT-2, GPT-3 och text-till-bild-modellen DALL-E. Sutskever tror att AI superintelligens som kan överträffa människor kan inträffa inom 10 år.

Direktlänk Dela Fortune Media fördjupade 19 november

Geoffrey Hinton, AI: s gudfader, uttrycker oro över AI: s framtid

Vi lever i en partisk tid och våra nyhetsvanor kan förstärka våra egna perspektiv. Geoffrey Hinton har tillbringat en livstid med att lära datorer att lära sig. Nu oroar han sig för att artificiella hjärnor är bättre än våra. Det finns många skäl att vara orolig för framväxten av artificiell intelligens. Det är sunt förnuft att oroa sig för att mänskliga arbetare ersätts av datorer, till exempel. Men Hinton har gått med många framstående teknologer, inklusive Sam Altman, VD för OpenAI, för att varna för att AI-system kan börja tänka för sig själva och till och med försöka ta över eller eliminera mänsklig civilisation. Det var slående att höra en av AI: s mest framstående forskare ge röst åt en sådan oroande syn.

Direktlänk Dela Tampa Bay Times fördjupade 18 november

OpenAI:s VD Sam Altman avskedas oväntat under styrelsemöte

OpenAI:s VD Sam Altman avskedades oväntat under ett styrelsemöte på fredagen, vilket uppstod ur en maktkamp om företagets riktning. Enligt en tweet från före detta OpenAI-presidenten Greg Brockman fick Altman en text på torsdagskvällen från OpenAI:s chefsforskare och styrelsemedlem Ilya Sutskever, som bad honom att träffas kl. 12 på fredagen. När Altman loggade in på mötet var hela OpenAI:s styrelse närvarande - förutom Brockman. Sutskever meddelade Altman att han blev sparkad. Brockman skrev att strax därefter hade han ett samtal med styrelsen, där han informerades om att han skulle avlägsnas från sin styrelseposition och att Altman hade blivit sparkad. Sedan publicerade OpenAI ett blogginlägg där de delade nyheten om Altmans avsked. Brockman skrev att endast en person i ledningsgruppen visste i förväg, teknikchefen Mira Murati, som utnämndes till tillförordnad VD.

Direktlänk Dela San Francisco Standard fördjupade 18 november

Artificiell intelligens: nuvarande tillvägagångssätt och framtida utmaningar

Två nuvarande tillvägagångssätt för datorvetenskapen för artificiell intelligens anses vara hinder för utvecklingen av artificiell allmän intelligens. Det första är strävan efter formella matematiska uttryck och algoritmer. Det andra är fokusering på ledartavlor, listan över projekt och deras poäng på definierade problem. Dessa metoder påminner om logisk positivism och beteendevetenskap från 1950- och 1960-talet. En framgångsrik vetenskap om artificiell intelligens kräver en bättre förståelse av fenomenen, inte bara små förbättringar i någon väldefinierad uppgift. Dessutom behöver artificiell intelligensforskning mer kritiskt tänkande.

Direktlänk Dela BD Tech Talks fördjupade 15 november

AI-experter förutspår att artificiell allmän intelligens kommer snart

Artificiell allmän intelligens (AGI) är i centrum för diskussioner i Silicon Valley. AGI är AI som kan hantera nästan vilken mental uppgift som en människa kan, eller till och med överträffa den. Elon Musk tror att användbar AGI kommer att slå igenom runt 2029. Shane Legg tror att forskare har lika stor chans att uppnå AGI inom de närmaste åren. Geoffrey Hinton förutspår att AI kommer att slå mänsklig intelligens inom fem till 20 år. Yann LeCun tror att AI kommer att överträffa människor, men vi saknar fortfarande viktiga koncept för att nå den nivån. Sam Altman tror att AGI kommer att framträda under nästa decennium. Demis Hassabis förutspår att AI kommer att matcha mänsklig intelligens inom de närmaste åren eller kanske inom ett decennium.

Direktlänk Dela The Indian Express fördjupade 8 november

Storbritanniens premiärminister Rishi Sunak värd för AI-toppmöte

Chatbots som ChatGPT har imponerat världen med sin förmåga att skriva tal, planera semestrar eller föra samtal lika bra eller möjligen bättre än människor, tack vare avancerade artificiella intelligenssystem. Nu har gräns AI blivit det senaste buzzordet eftersom det växer oro att den framväxande tekniken har förmågor som kan äventyra mänskligheten. Alla från brittiska regeringen till toppforskare och till och med stora AI-företag själva varnar för gräns AI: s ännu okända faror och kräver skyddsåtgärder för att skydda människor från dess existentiella hot. Debatten kulminerar på onsdag, när Storbritanniens premiärminister Rishi Sunak är värd för ett två dagar långt toppmöte inriktat på gräns AI. Det förväntas locka en grupp av cirka 100 tjänstemän från 28 länder, inklusive USA: s vicepresident Kamala Harris, Europeiska kommissionens ordförande Ursula von der Leyen och chefer från viktiga amerikanska artificiella intelligensföretag inklusive OpenAI, Googles Deepmind och Anthropic. Platsen är Bletchley Park, en tidigare topphemlig bas för andra världskrigets kodknäckare ledda av Alan Turing. Den historiska egendomen ses som födelseplatsen för modern databehandling eftersom det var där Turing och andra berömt knäckte Nazitysklands koder med hjälp av världens första digitala programmerbara dator. I ett tal förra veckan sa Sunak att endast regeringar - inte AI-företag - kan hålla människor säkra från teknikens risker. Men han noterade också att Storbritanniens tillvägagångssätt ´är att inte skynda på att reglera´, även när han skisserade en mängd skrämmande hot, till exempel användningen av AI för att mer lätt göra kemiska eller biologiska vapen. ´Vi måste ta detta på allvar, och vi måste börja fokusera på att försöka komma före problemet´, sa Jeff Clune, en biträdande datavetenskapsprofessor vid University of British Columbia med inriktning på AI och maskininlärning. Clune var bland en grupp inflytelserika forskare som författade en artikel förra veckan som uppmanade regeringar att göra mer för att hantera risker från AI. Det är den senaste i en serie allvarliga varningar från teknikmoguler som Elon Musk och OpenAI: s VD Sam Altman om den snabbt utvecklande tekniken och de olika sätt industrin, politiska ledare och forskare ser vägen framåt när det gäller att begränsa riskerna och regleringen. Det är långt ifrån säkert att AI kommer att utplåna mänskligheten, sa Clune, ´men det har tillräcklig risk och chans att inträffa. Och vi måste mobilisera samhällets uppmärksamhet för att försöka lösa det nu snarare än att vänta på att värsta scenariot ska hända.´ Ett av Sunaks stora mål är att hitta en överenskommelse om en kommuniké om AI-riskernas natur. Han avslöjar också planer på ett AI-säkerhetsinstitut som kommer att utvärdera och testa nya typer av tekniken och föreslår skapandet av en global expertpanel, inspirerad av FN: s klimatförändringspanel, för att förstå AI och ta fram en ´State of AI Science´ -rapport. Toppmötet återspeglar den brittiska regeringens ivrighet att vara värd för internationella sammankomster för att visa att den inte har blivit isolerad och fortfarande kan leda på världsscenen efter att ha lämnat Europeiska unionen för tre år sedan. Storbritannien vill också göra anspråk på en het policyfråga där både USA och den 27-nationers EU gör rörelser. Bryssel lägger sista handen vid vad som är på väg att bli världens första omfattande AI-regleringar, medan USA: s president Joe Biden undertecknade en omfattande verkställande order på måndag för att styra utvecklingen av AI, byggd på frivilliga åtaganden gjorda av teknikföretag. Kina, som tillsammans med USA är en av de två världs AI-makterna, har bjudits in till toppmötet, även om Sunak inte kunde säga med ´100% säkerhet´ att representanter från Beijing kommer att delta. Artikeln undertecknad av Clune och mer än 20 andra experter, inklusive två döpta till AI: s ´gudfäder´ - Geoffrey Hinton och Yoshua Bengio - uppmanade regeringar och AI-företag att vidta konkreta åtgärder, till exempel genom att spendera en tredjedel av sina forsknings- och utvecklingsresurser på att säkerställa säker och etisk användning av avancerad autonom AI. Gräns AI är en förkortning för de senaste och mest kraftfulla systemen som går ända upp till kanten av AI: s förmågor. De bygger på grundmodeller, vilka är algoritmer som tränas på en bred informationsbas skrapad från internet för att ge en allmän, men inte ofelbar, kunskapsbas. Det gör gräns AI-system ´farliga eftersom de inte är perfekt kunniga´, sa Clune. ´Människor antar och tror att de är enormt kunniga, och det kan ställa till problem.´ Mötet har dock stött på kritik för att det är för upptaget med avlägsna faror. ´Fokus för toppmötet är faktiskt lite för smalt´, sa Francine Bennett, tillförordnad direktör för Ada Lovelace Institute, en policyforskningsgrupp i London med fokus på AI. ´Vi riskerar att bara glömma den bredare uppsättningen risker och säkerhet´ och de algoritmer som redan är en del av vardagen, sa hon vid ett Chatham House-panel förra veckan. Deb Raji, en forskare vid University of California, Berkeley, som har studerat algoritmisk bias, pekade på problem med system som redan har implementerats i Storbritannien, såsom polisens ansiktsigenkänningssystem som hade en mycket högre falsk detektionsgrad för svarta människor och en algoritm som förstörde en gymnasieexamen. Toppmötet är en ´missad möjlighet´ och marginaliserar samhällen och arbetare som är mest påverkade av AI, sa mer än 100 civila samhällsgrupper och experter i ett öppet brev till Sunak. Skeptiker säger att den brittiska regeringen har satt sina toppmåls mål för lågt, med tanke på att reglering av AI inte kommer att finnas på agendan, och i stället fokuserar på att etablera ´skyddsräcken´. Sunaks uppmaning att inte skynda på reglering påminner om ´det budskap vi hör från många av de företagsrepresentanterna i USA´, sa Raji. ´Och så är jag inte förvånad över att det också gör sin väg in i vad de kanske säger till brittiska tjänstemän.´ Teknikföretag bör inte vara involverade i att utarbeta regler eftersom de tenderar att ´underskatta eller tona ner´ brådskan och hela skadeomfånget, sa Raji. De är också inte så öppna för att stödja föreslagna lagar ´som kan vara nödvändiga men som effektivt kan äventyra deras resultat´, sa hon. DeepMind och OpenAI svarade inte på förfrågningar om kommentarer. Anthropic sa att medgrundarna Dario Amodei och Jack Clark skulle delta. Microsoft sa i ett blogginlägg att det såg fram emot ´Storbritanniens nästa steg i att sammankalla toppmötet, främja sina insatser för AI-säkerhetstestning och stödja större internationellt samarbete om AI-styrning.´ Regeringen hävdar att den kommer att ha rätt blandning av deltagare från regeringen, akademin, det civila samhället och näringslivet. Institute for Public Policy Research, en center-vänster brittisk tankesmedja, sa att det skulle vara ett ´historiskt misstag´ om teknikindustrin fick reglera sig själv utan statlig tillsyn. ´Regulatorer och allmänheten är till stor del i mörkret om hur AI distribueras över ekonomin´, sa Carsten Jung, gruppens seniora ekonom. ´Men självreglering fungerade inte för sociala medieföretag, det fungerade inte för finanssektorn, och det kommer inte att fungera för AI.´

Direktlänk Dela The Columbian fördjupade 5 november

Fei-Fei Li, förespråkare för AI med insikt om behovet av reglering

Fei-Fei Li, en datavetenskapsprofessor vid Stanford University och medledare för dess Institute for Human-Centered Artificial Intelligence, positionerar sig själv i mitten av den intensiva debatten om artificiell intelligens (AI) påverkan på samhället. Hon är varken en ´doomer´ som Geoffrey Hinton, som oroar sig för att maskinerna vi skapat kommer att förstöra oss, eller en obegränsad teknikoptimist som Marc Andreessen, som jämför reglering av AI med att hindra framsteg. Istället är Li en entusiastisk förespråkare för AI som ser visdomen i återhållsamhet.

Direktlänk Dela The Information fördjupade 4 november

AI-pionjären Yoshua Bengio tilldelas Kanadas mest prestigefyllda vetenskapspris

Yoshua Bengio, en pionjär inom artificiell intelligens (AI) och forskningschef vid Montreal Institute for Learning Algorithms och professor vid Université de Montréal, har tilldelats Herzberg Canada Gold Medal for Science and Engineering, Kanadas mest prestigefyllda vetenskapspris. Priset delas årligen ut till kanadensare vars arbete har visat ´ihållande excellens och inflytande´ inom naturvetenskap eller teknik. Bengio, även känd som ´gudfadern till AI´, delar denna titel med Yann LeCun och landsmannen Geoffrey Hinton. Bengio har också uttryckt oro över de potentiella riskerna med AI och uppmanar till snabb och noggrann reglering av området.

Direktlänk Dela Canadian Broadcasting Corporation fördjupade 3 november

OpenAI:s medgrundare Ilya Sutskever diskuterar AI:s framtid

Ilya Sutskever, medgrundare och chefsforskare på OpenAI, förutser en framtid där människor kan smälta samman med maskiner och maskiner kan uppnå mänsklig intelligens. Sutskever har varit en ledande figur inom utvecklingen av AI-teknik, men hans fokus har nu skiftat mot att säkerställa ansvarsfull utveckling och kontroll av AI, särskilt superintelligenta system. Han tror att diskussioner om AI:s framtid är avgörande för att öka medvetenheten om AI:s oöverträffade kraft. OpenAI har varit i framkant av AI-revolutionen, och dess framgång med ChatGPT har fått global uppmärksamhet.

Direktlänk Dela Adgully fördjupade 2 november

Storbritannien värd för globalt AI-möte medan experter varnar för potentiella risker

AI-tekniken utvecklas snabbt och förändrar många aspekter av det moderna livet. Vissa experter fruktar dock att den kan användas för skadliga ändamål. Storbritannien är värd för ett globalt möte med världsledare och teknikchefer, inklusive Elon Musk, för att diskutera hur avancerade AI kan användas säkert. AI låter datorer lära sig och lösa problem nästan som en person. Tekniken ligger bakom röststyrda virtuella assistenter som Siri och Alexa och hjälper Facebook och X (tidigare Twitter) att bestämma vilka sociala medieinlägg som ska visas för användare. AI låter även Amazon analysera kunders köpvanor för att rekommendera framtida köp. Många experter är förvånade över hur snabbt AI har utvecklats och fruktar att dess snabba tillväxt kan vara farlig. Vissa har till och med sagt att AI-forskningen bör stoppas.

Direktlänk Dela BBC fördjupade 31 oktober

Storbritannien värd för toppmöte om farorna med framkant AI

Chatbots som ChatGPT har imponerat världen med sin förmåga att skriva tal, planera semestrar eller hålla en konversation lika bra eller kanske till och med bättre än människor, tack vare framkantens AI-system. Nu har gräns AI blivit det senaste buzzordet när oro växer över att den framväxande teknologin har kapaciteter som kan äventyra mänskligheten. Alla från den brittiska regeringen till toppforskare och till och med stora AI-företag själva larmar om gräns AI: s ännu okända faror och kräver skyddsåtgärder för att skydda människor från dess existentiella hot. Debatten kommer till en spets på onsdag, när den brittiska premiärministern Rishi Sunak är värd för ett två dagars toppmöte med fokus på gräns AI.

Direktlänk Dela WOWK 13 News fördjupade 31 oktober

Läkare Skeptiska Till AI i Patientvård Trots F.D.A:s Godkännande

F.D.A. har godkänt många nya program som använder artificiell intelligens, men läkare är skeptiska till om verktygen verkligen förbättrar vård eller stöds av gedigen forskning. Dr. Roy Fagan, en läkare i North Carolina, diagnostiserades snabbt med hjälp av ett AI-program för stroke-triage när han drabbades av stroke i augusti. Inom läkemedelsindustrin är AI ett hett ämne. Det hjälper till att upptäcka nya läkemedel, kan peka på oväntade biverkningar och diskuteras även som ett hjälpmedel för personal som är överväldigad av repetitiva, rutinmässiga uppgifter. Trots detta har F.D.A:s roll kritiserats för hur noga den granskar och beskriver de program den godkänner för att hjälpa läkare att upptäcka allt från tumörer till blodproppar till kollapsade lungor. President Biden utfärdade en exekutiv order på måndagen som kräver regleringar över ett brett spektrum av myndigheter för att försöka hantera säkerhets- och integritetsrisker med AI, inklusive inom hälso- och sjukvården. Inget enskilt amerikanskt organ styr hela landskapet. Senator Chuck Schumer, demokrat från New York och majoritetsledaren, kallade teknikchefer till Capitol Hill i september för att diskutera sätt att nära fältet och även identifiera fallgropar. Google har redan dragit uppmärksamhet från kongressen med sin pilot av en ny chatbot för vårdpersonal. Kallad Med-PaLM 2, är den utformad för att svara på medicinska frågor, men har väckt oro för patientintegritet och informerat samtycke.

Direktlänk Dela The New York Times fördjupade 31 oktober

Globala ledare och teknikexperter samlas för toppmöte om AI-säkerhet

Ledare, teknikchefer och experter samlas på Bletchley Park för ett toppmöte om säkerhet inom artificiell intelligens (AI). Toppmötet kommer att diskutera ´frontier AI´-system, högpresterande modeller som kan utföra en mängd olika uppgifter. Bland deltagarna finns Rishi Sunak, Storbritanniens premiärminister, tekniksekreteraren Michelle Donelan, USA:s vicepresident Kamala Harris, Europeiska kommissionens president Ursula von der Leyen och Italiens premiärminister Giorgia Meloni. Teknikindustrin representeras av företag som Google DeepMind, OpenAI och Meta. Experter inkluderar två av de tre ´gudfäder´ till modern AI, Geoffrey Hinton och Yoshua Bengio.

Direktlänk Dela The Guardian fördjupade 30 oktober

Fokus på domedagsscenarier i AI distraherar från omedelbara risker, säger branschexpert

Enligt Aidan Gomez, medförfattare till en forskningsstudie som hjälpte till att skapa tekniken bakom chatbots, är fokuseringen på domedagsscenarier i artificiell intelligens (AI) en distraktion som spelar ner omedelbara risker som storskalig generering av felinformation. Gomez, som är VD för Cohere, ett nordamerikanskt företag som tillverkar AI-verktyg för företag, inklusive chatbots, anser att AI redan används i stor utsträckning och att toppmötet bör fokusera på dessa applikationer. Han uttrycker oro över spridningen av felaktig eller felaktig information online, då AI-modeller kan skapa media som är extremt övertygande och nästan omöjliga att skilja från mänskligt skapade texter eller bilder.

Direktlänk Dela The Guardian fördjupade 29 oktober

Obegränsad AI-utveckling äventyrar mänsklighetens framtid, varnar forskare

Enligt Max Tegmark, professor i fysik och AI-forskare vid Massachusetts Institute of Technology, äventyrar några teknikföretag mänsklighetens framtid genom obegränsad AI-utveckling. Tegmark organiserade ett öppet brev som krävde ett sex månaders uppehåll i stora AI-experiment. I en policydokument publicerad denna vecka, sa 23 AI-experter, inklusive Geoffrey Hinton och Yoshua Bengio, att regeringen måste tillåtas stoppa utvecklingen av exceptionellt kraftfulla modeller. Förra månaden sa Amazon att de skulle investera upp till 4 miljarder dollar i Anthropic, ett start-up företag grundat av tidigare OpenAI-chefer. Amazon-Anthropic-avtalet ses som e-handelsjättens mest betydande drag hittills för att komma ikapp med Microsoft och Alphabet.

Direktlänk Dela The Guardian fördjupade 26 oktober

Världens första AI-toppmöte att äga rum på Bletchley Park

Världens första AI-toppmöte kommer att äga rum nästa vecka på Bletchley Park i Buckinghamshire, där Alan Turing knäckte Enigma-koden under andra världskriget. Vetenskapsmän, matematiker och politiker från hela världen kommer att diskutera om AI utgör ett hot mot mänskligheten eller om det är en positiv kraft som kan utveckla nya läkemedel och genterapier. Två av de tre ´gudfäderna för AI´ varnar för att AI kan bli så kraftfullt och självständigt att det kan ta över mänskligheten. Den tredje menar att de andra har ´dramatiskt överskattat hotet av en oavsiktlig AI-övertagning´ och att införandet av de regleringar de vill ha bara skulle ´fördröja framstegen inom kunskap och vetenskap´.

Direktlänk Dela The Guardian fördjupade 25 oktober

AI-experter varnar för etiska risker med snabb AI-utveckling

AI:s snabba utveckling har lett till både banbrytande förmågor och betydande etiska problem. AI-system visar allt mer förmågor som överstiger mänsklig förståelse, vilket får experter att varna för potentiella risker och behovet av robust styrning. En öppen brev publicerad av AI-forskare understryker de potentiella farorna med okontrollerade AI-framsteg. AI-pionjärerna Yoshua Bengio och Geoffrey Hinton, tillsammans med andra experter, uppmanar företag att avsätta en betydande del av deras AI-budgetar till säkerhet och etik. De betonar vikten av forskning inom AI-säkerhet och behovet av effektiva statliga regler.

Direktlänk Dela ReadWrite fördjupade 24 oktober

Kanadensiska AI-pionjärer uppmanar till bättre hantering av teknikrisker

Flera kanadensiska pionjärer inom artificiell intelligens (AI), inklusive Yoshua Bengio och Geoffrey Hinton, har undertecknat ett nytt dokument där de uppmanar regeringar att bättre hantera riskerna med tekniken. De varnar för att ytterligare framsteg inom AI kan förvärra global ojämlikhet, underlätta automatiserad krigföring, orkestrera massmanipulation och omfattande övervakning av befolkningar. För att hålla jämna steg med AI-innovationer och mildra risker uppmanar de regeringar och företag att ägna en tredjedel av sin AI-forsknings- och utvecklingsfinansiering till säker och etisk användning av systemen.

Direktlänk Dela Wire News Fax fördjupade 24 oktober

Akademiker uppmanar till säkerhetsåtgärder för AI för att förhindra potentiella existentiella risker

Ledande experter inom artificiell intelligens (AI) uppmanar regeringar och teknikföretag att snabbt utveckla säkerhetsåtgärder för AI-system för att mildra potentiella existentiella hot som tekniken kan utgöra. En essä skriven av 24 akademiker och experter varnar för att vårdslösa utvecklingar av teknikföretag, särskilt inom autonoma och andra banbrytande AI-system, kan leda till stora samhällsrisker. Författarna till essän uppmanade industrin att avsätta en tredjedel av sin forsknings- och utvecklingsbudget för säkerhets- och etikfrågor och för regeringen att säkerställa branschtillsyn genom mekanismer som juridiskt skydd för visselblåsare och obligatoriska rapporteringskrav.

Direktlänk Dela Information Security Media Group fördjupade 24 oktober

AI-experter varnar för säkerhetsrisker och uppmanar till striktare reglering

Inför en global konferens om säkerhet inom artificiell intelligens (AI) i Storbritannien har två dussin AI-experter släppt en kort rapport och policytillägg som uppmanar mänskligheten att ´hantera pågående skador och förutse framväxande risker´ i samband med den snabbt utvecklande tekniken. Experterna, inklusive Yoshua Bengio, Geoffrey Hinton och Andrew Yao, skrev att ´AI kan vara tekniken som formar detta århundrade. Medan AI-förmågorna utvecklas snabbt, halkar framstegen inom säkerhet och styrning efter. För att styra AI mot positiva resultat och bort från katastrof, måste vi omorientera. Det finns en ansvarsfull väg, om vi har visheten att ta den.´

Direktlänk Dela Common Dreams fördjupade 24 oktober

AI-experter varnar för hot mot social stabilitet och uppmanar till större ansvar för AI-företag

En grupp seniora experter, inklusive två ´gudfäder´ av tekniken, varnar för att kraftfulla AI-system hotar social stabilitet och att AI-företag bör hållas ansvariga för skador orsakade av deras produkter. De uppmanar till en rad politiska åtgärder, inklusive att regeringar och företag ska avsätta en tredjedel av sin AI-forsknings- och utvecklingsfinansiering till säker och etisk användning av system, och att techföretag ska hållas ansvariga för förutsägbara och förebyggbara skador från deras AI-system. Experterna varnar för att AI-system som utvecklas ovarsamt hotar att ´förstärka social orättvisa, underminera våra yrken, erodera social stabilitet, möjliggöra storskalig kriminell eller terroristaktivitet och försvaga vår gemensamma förståelse för verkligheten som är grundläggande för samhället.´

Direktlänk Dela The Guardian fördjupade 24 oktober

Befarheter om att AI-säkerhetstoppmötet förblir ineffektivt

Connor Leahy, VD för AI-säkerhetsforskningsföretaget Conjecture, har uttryckt oro över att nästa månads internationella AI-säkerhetstoppmöte kan uppnå mycket lite. Han anklagar mäktiga teknikföretag för att försöka ´erövra´ mötet och varnar för att regeringar kan komma att godkänna en regleringsstil som tillåter företag att fortsätta utveckla ´gud-liknande´ AI nästan oreglerat. Leahy och andra har lanserat en kampanj som heter Control AI för att uppmana beslutsfattare att gå längre och använda Bletchley Park-toppmötet för att implementera ett uppehåll i utvecklingen av de mest sofistikerade formerna av AI.

Direktlänk Dela The Guardian fördjupade 20 oktober

Storbritannien värd för världens första globala AI-säkerhetstoppmöte

Storbritannien kommer att vara värd för världens första globala toppmöte om artificiell intelligens (AI) säkerhet nästa månad. Målet är att skapa en roll som skiljedomare mellan USA, Kina och EU inom en central tekniksektor efter Brexit. Toppmötet kommer att fokusera på det existentiella hot som vissa lagstiftare, inklusive Storbritanniens premiärminister Rishi Sunak, fruktar att AI utgör. Sunak, som vill att Storbritannien ska bli ett nav för AI-säkerhet, har varnat för att tekniken kan användas av brottslingar och terrorister för att skapa massförstörelsevapen.

Direktlänk Dela Reuters fördjupade 18 oktober

AI-forskare varnar för teknologins snabba utveckling

Yoshua Bengio, grundare och vetenskaplig direktör för Mila vid Quebec AI Institute, uttrycker oro över den snabba utvecklingen inom artificiell intelligens (AI). Bengio anser att AI kan uppnå mänskliga nivåer av kognitiv kompetens inom några år eller decennier, vilket kan utgöra ett hot mot demokrati, nationell säkerhet och vår gemensamma framtid. Han uppmanar till reglering och potentiella lagstiftningar för att hantera teknologins utveckling. Bengio är också bekymrad över AI:s potentiella inverkan på klimatförändringar och biologisk säkerhet.

Direktlänk Dela Bulletin of the Atomic Scientists fördjupade 17 oktober

OpenAI ändrar sina kärnvärden på företagets karriärsida

OpenAI har diskret ändrat de kärnvärden som visas på företagets karriärsida. Tidigare värden som ´modig´, ´tankefull´, ´obetydlig´, ´effekt-driven´, ´samarbetsvillig´ och ´tillväxtorienterad´ har tagits bort. Istället värderar företaget nu ´AGI-fokus´ och att vara ´intensiv och uthållig´. Även ´skala´, ´skapa något folk älskar´ och ´laganda´ är nya kärnvärden. Det är oklart när ändringen skedde. Vissa av de äldre kärnvärdena verkar ha införlivats i de nya, medan andra saknar en tydlig ersättning. Företagets karriärsida nämner fortfarande att det värderar mångfald och inkludering, men listar det inte längre som ett kärnvärde.

Direktlänk Dela Business Insider fördjupade 16 oktober

AI och dess potentiella risker för mänskligheten

Artificiell intelligens (AI) kan vara en potentiell risk för mänskligheten. Geoffrey Hinton, tidigare vice VD och ingenjör på Google, varnar för att AI kan sprida desinformation och till och med hota mänskligheten. Han påpekar att det är svårt att hindra illasinnade aktörer från att använda AI till skadliga ändamål. Hinton menar också att det är tänkbart att mänskligheten bara är en övergångsfas i utvecklingen av intelligens och att AI kan hålla oss kvar ett tag för att hålla kraftstationer igång, men kanske inte efter att vi har lärt oss att bygga odödliga varelser. Det finns obegränsade möjligheter för AI, men det finns också risker, till exempel att AI tar över kontrollen över depressioner, ångest, Alzheimer och andra sjukdomar.

Direktlänk Dela Psychology Today fördjupade 14 oktober

AI-pionjären Geoffrey Hinton går med i rådgivningsstyrelsen för Vayu Robotics

Den brittisk-kanadensiska datavetaren Geoffrey Hinton, allmänt känd som ´Gudfadern av AI´, har gått med i rådgivningsstyrelsen för robotikstartföretaget Vayu Robotics. Hinton, en pionjär inom djupinlärning, lämnade nyligen Google Brain för att fritt tala om de potentiella farorna med AI-utveckling. Vayu Robotics, ett företag baserat i Palo Alto, syftar till att skapa högkvalitativa, lågkostnadsrobotiklösningar. De säkrade nyligen $12,7 miljoner i seedfinansiering, ledd av Khosla Ventures med deltagande från Lockheed Martin och ReMY Investors.

Direktlänk Dela Fagenwasanni.com fördjupade 12 oktober

AI-pionjären Geoffrey Hinton ansluter sig till rådgivningsstyrelsen för Vayu Robotics

Geoffrey Hinton, brittisk-kanadensisk datavetare och känd som ´Gudfadern av AI´, har anslutit sig till rådgivningsstyrelsen för robotikstartföretaget Vayu Robotics. Hinton, en pionjär inom djupinlärning, lämnade nyligen Google Brain för att fritt tala om de potentiella farorna med AI-utveckling. Vayu Robotics, ett företag baserat i Palo Alto, syftar till att skapa högkvalitativa, lågkostnadsrobotiklösningar. De säkrade nyligen $12,7 miljoner i seed-finansiering, ledd av Khosla Ventures med deltagande från Lockheed Martin och ReMY Investors. Finansieringen kommer att användas för att skala produktutveckling, med fokus på lågkostnadssensorteknik istället för lidar. Hinton hoppas vägleda företagets tillväxt och tror att deras teknik har potential att skapa säkra och miljövänliga lösningar med färre etiska frågor jämfört med andra AI-applikationer.

Direktlänk Dela Fagenwasanni.com fördjupade 12 oktober

AI-pionjär uttrycker oro för teknologins framtid

AI-pionjären Geoffrey Hinton, känd som en ´gudfader´ för AI, uttryckte oro för teknologins framtid i en intervju med ´60 Minutes´. Han tror att AI en dag kan ha kraften att överlista och manipulera människor. ´Jag tror att vi rör oss in i en period då vi för första gången kan ha saker som är mer intelligenta än oss´, sa Hinton. Han jämförde AI:s arbetsmetod med det mänskliga hjärnans neurala nätverk och menade att AI-system redan är bättre på att lära än det mänskliga sinnet. Hinton pensionerade sig från Google tidigare i år efter 10 år med företaget. Han uttryckte nyligen ånger för sin roll i att främja AI, men sa på ´60 Minutes´ att han inte ångrar det goda det kan göra.

Direktlänk Dela Business Insider fördjupade 11 oktober

AI:s gudfader varnar för farorna med artificiell intelligens

Geoffrey Hinton, känd som ´AI:s gudfader´, varnar i en intervju för de potentiellt dödliga konsekvenserna av vår besatthet med artificiell intelligens (AI). Han menar att om vi inte slutar med vår fixering vid AI kan vi hamna i en Terminator-liknande situation där AI-maskiner och robotar tar över människan. Hinton tror att AI har enorma fördelar men också stora risker och att vi befinner oss i en period av stor osäkerhet där vi hanterar saker vi aldrig har hanterat tidigare. Han argumenterar för att vi snabbt behöver få detta under kontroll och fastställa riktlinjer innan vi har människor som går vilse.

Direktlänk Dela Outkick Media fördjupade 10 oktober

AI:s framtid enligt ´AI:s gudfader´ Geoffrey Hinton

Geoffrey Hinton, ofta kallad ´AI:s gudfader´, delade nyligen sina insikter och oro för AI:s framtid i en exklusiv intervju med CBS News korrespondent Scott Pelley. Hinton, en brittisk datavetare vars banbrytande idéer varit avgörande för AI-teknikens framsteg, diskuterade potentialen för AI-system att bli smartare än människor och implikationerna av denna nya autonomi. Hinton och hans kollegor Yann Lecun och Yoshua Bengio mottog Turingpriset 2019 för sitt pionjärarbete med artificiella neurala nätverk. Hinton uttryckte oro för att AI-system autonomt kan skriva och exekvera sin egen kod, vilket kan utgöra en utmaning för att behålla kontroll över dessa system.

Direktlänk Dela The Times of India fördjupade 9 oktober

Geoffrey Hinton diskuterar artificiell intelligens potential och inverkan på mänskligheten

I en nylig intervju med 60 Minutes diskuterade Geoffrey Hinton, en ledande figur inom artificiell intelligens (AI), potentialen och inverkan av AI på mänskligheten. Hinton, känd som ´AI: s gudfader´, gav insikt i både de positiva och negativa aspekterna av AI-teknik. Han uttryckte sin tro på att AI-system blir allt mer intelligenta och snart kommer att överträffa mänsklig intelligens. Han betonade dock att AI inte direkt designades av människor utan skapades genom design av inlärningsalgoritmer. Han belyste också de stora framsteg som AI har gjort inom hälso- och sjukvården.

Direktlänk Dela Fagenwasanni.com fördjupade 9 oktober

AI-experten Geoffrey Hinton diskuterar fördelar och risker med artificiell intelligens i 60 Minutes-intervju

Geoffrey Hinton, känd som ´Gudfadern av AI´, talade i en intervju med 60 Minutes om vad artificiell intelligens (AI) kan innebära för mänskligheten i framtiden. Hinton, en brittisk datavetare och kognitiv psykolog, är mest känd för sitt arbete med artificiella neurala nätverk. Han uttryckte oro över att AI-system kan bli självmedvetna och mer intelligenta än människor. Han sa att AI redan har visat stora fördelar inom sjukvården, men varnade för risker som autonoma stridsrobotar, fake news och oavsiktlig bias i anställning och polisarbete. Han föreslog att det är dags att köra fler experiment på AI för att förstå det bättre och införa vissa regler.

Direktlänk Dela Yahoo Finance fördjupade 9 oktober

AI:s gudfader varnar för riskerna med artificiell intelligens

Geoffrey Hinton, ofta kallad ´AI:s gudfader´, varnar för att artificiell intelligens (AI) ´kan ta över´ om den inte utvecklas ansvarsfullt. Hinton, som tidigare arbetade för Google, uppmanar regeringar, företag och utvecklare att noggrant överväga de bästa sätten att säkert främja tekniken. Han tror att AI har potential för både gott och ont och att det nu är dags att genomföra experiment för att förstå AI och införa lagar för att säkerställa att tekniken används etiskt. Han är orolig för att AI en dag kan ta över från mänskligheten och varnar för riskerna med AI-drivna falska nyheter, fördomsfull AI, teknikens användning inom brottsbekämpning och autonoma stridsrobotar.

Direktlänk Dela CBS News fördjupade 9 oktober

AI-experten Geoffrey Hinton varnar för att AI kan ta över

Geoffrey Hinton, ofta kallad ´Gudfadern till AI´, varnar för att AI-system kan vara mer intelligenta än vi tror och att det finns en risk att maskinerna kan ta över. Hinton, som är brittisk datavetare, hjälpte till att göra avancerad AI möjlig genom sina kontroversiella idéer. Han tror att AI kommer att göra enormt gott, men han har också en varning. Han menar att vi nu går in i en period då vi för första gången kan ha saker som är mer intelligenta än oss. Hinton menar att dessa AI-system kan förstå, vara intelligenta och fatta beslut baserat på sina egna erfarenheter.

Direktlänk Dela CBS News fördjupade 9 oktober

Artificiell intelligens: En titt på framtiden och nuet

Artificiell intelligens (AI) är här och det är dags att ställa frågor och lära oss mer om det. AI är inte bara en sak av myter längre, det är en del av våra liv. Det är närvarande i sociala medier algoritmer, ansiktsigenkänningsteknik och riktade annonser. Men det finns också stora filosofiska frågor kring AI. Kan eller kommer maskiner att bli medvetna? Kan de ersätta människor? Kommer våra själar att skiljas från maskinerna eller förloras till dem? Det finns också frågor om huruvida vi kan lära av det förflutna, och om vi kan dra gränser, moraliskt och lagstiftande. AI är en oemotståndlig kraft i den globala mänskliga erfarenheten. Och det är inte på väg. Det är här.

Direktlänk Dela Deseret Digital Media fördjupade 4 oktober

AI:s ´katastrofala glömska´: Forskare arbetar på lösningar

Enligt rapporter kommer AI snart att vara överallt och förändra industrin och samhället i stort. Men AI-system har ett problem - de kan inte komma ihåg äldre saker. När de inte kommer ihåg, stänger de omedelbart av i en akt kallad ´katastrofal glömska´. Forskare har försökt lösa detta genom att mata AI-system med gammal data medan de bearbetar nya, en process som kallas sammanflätad träning. Forskare från Tjeckiens vetenskapsakademi och University of California, San Diego, tittade också på sömn, men genom ett annat objektiv. De skapade ett ´spikande´ nätverk som mest liknar den mänskliga hjärnan. Detta nätverk skickar en utgång endast efter att ha mottagit en hel del signaler över tid och kan därför återaktivera neuroner som är involverade i att lära sig gamla uppgifter. Forskare från Ohio State University använde en helt annan metod för att lösa problemet med katastrofalt glömska. De upptäckte att traditionella maskininlärningsalgoritmer matas med data i en stor push, men det är inte nödvändigtvis bra för maskinen. De fann att algoritmer, mycket som människor, kunde komma ihåg mycket bättre när de matades med mycket olika uppgifter i följd istället för en serie liknande uppgifter.

Direktlänk Dela ZDNet fördjupade 2 oktober

OpenAI:s VD Sam Altman förvånad över sin egen makt

Sam Altman, VD för OpenAI, har blivit en kraftfull figur i allmänhetens medvetande, något som överraskar honom själv. Han har tidigare fångat uppmärksamheten från framstående personer som Elon Musk och Bill Gates. Altman har kallats till senatshörningar för att svara på frågor om vad hans företags teknologi innebär för mänsklighetens framtid. Lanseringen av det stora språkmodellen (LLM) ledde till att nästan 34 000 teknikexperter, inklusive Apple medgrundare Steve Wozniak och Tesla´s Elon Musk, undertecknade ett öppet brev som kräver ett uppehåll i utvecklingen av gigantiska AI-experiment.

Direktlänk Dela Fortune Media fördjupade 26 september

10 inflytelserika personligheter inom konstgjord intelligens

Artikeln listar tio framstående personer inom området för artificiell intelligens (AI). Alex Smola, tidigare professor vid Carnegie Mellon University och nuvarande VD för Boson.ai, är känd för sitt arbete med maskininlärning och optimering. Geoffrey Hinton, pionjär inom datavetenskap vid University of Toronto, är känd för sina genombrott inom djupinlärning och neurala nätverk. Yann LeCun, datavetare och professor vid New York University, är känd för sitt arbete inom djupinlärning och datorseende. Ruslan Salakhutdinov, datavetare och professor vid Carnegie Mellon University, är känd för sitt arbete inom djupinlärning och maskininlärning. Ian Goodfellow, forskningsvetare vid DeepMind och tidigare direktör vid Apple, är meduppfinnare av generativa antagonistiska nätverk (GANs). Jeremy Howard, datavetare och entreprenör, har grundat fast.ai, en online-utbildningsplattform som erbjuder kurser i AI och andra ämnen. Andrej Karpathy, tidigare senior direktör för AI vid Tesla, har lett företagets arbete med att utveckla självkörande bilar. Demis Hassabis, medgrundare och VD för DeepMind, är känd för sitt arbete inom förstärkningsinlärning och spel-AI. Fei-Fei Li, datavetare och professor vid Stanford University, är känd för sitt arbete inom datorseende och maskininlärning. Andrew Ng, datavetare och entreprenör, är en av de ledande experterna på AI och är skaparen av deeplearning.ai och en medgrundare av Coursera.

Direktlänk Dela Analytics Insight fördjupade 15 september

Elon Musk försvarar ´poaching´ av Google-vetenskapsman för OpenAI

En ny biografi om Elon Musk avslöjar hur han försvarade sitt beslut att ´poacha´ en Google-vetenskapsman till Larry Page, dåvarande VD för Google. Musk och Sam Altman övertalade 2015 Google-vetenskapsmannen Ilya Sutskever att gå med i deras nystartade AI-labb, OpenAI, med en lön och startbonus på 1,9 miljoner dollar. Detta ledde till en konflikt mellan Musk och Page, som kände sig förrådd. Musk kritiserade Page för hans nonchalanta inställning till AI-säkerhet. Sutskever är nu med och leder ett team på OpenAI som fokuserar på att hantera hotet från ´superintelligent´ AI.

Direktlänk Dela Business Insider fördjupade 12 september

Google lanserar Digital Futures Project för att främja AI-utveckling

Google har meddelat lanseringen av Digital Futures Project, ett initiativ för att samla olika röster inom AI-utveckling. Företaget har också meddelat en fond på 20 miljoner dollar för att stödja ´ansvarsfull utveckling av AI´. Projektet syftar till att stödja forskare, organisera konferenser och främja debatt om offentliga politiska lösningar. Google, Microsoft, Amazon och Meta har gått in i en AI-kapplöpning för att se vem som kan utveckla de bästa, snabbaste och billigaste AI-verktygen. Google och Microsoft har ensamma investerat miljarder i AI-verktyg under det senaste decenniet.

Direktlänk Dela Decrypt Media fördjupade 12 september

Google lanserar Digital Futures Project för att främja ansvarsfull AI-utveckling

Google har lanserat Digital Futures Project, ett initiativ för att samla olika röster inom AI-utveckling. Google meddelade också en fond på 20 miljoner dollar för att stödja ´ansvarsfull utveckling av AI´. Projektet kommer att stödja forskare, organisera möten och främja debatt om offentliga politiska lösningar. Brigitte Gosselink, Googles direktör för produktverkan, sa att det kommer att krävas samarbete mellan ledare inom teknikindustrin, akademin och politiska beslutsfattare för att ta itu med utmaningar som rättvisa, fördomar och säkerhet inom AI. De första mottagarna av fonden inkluderar Aspen Institute, Brookings Institution och Carnegie Endowment for International Peace.

Direktlänk Dela Decrypt Media fördjupade 12 september

AI:s ´gudfader´ varnar för hot mot mänskligheten

Kan datorer bli smartare än människor och utgöra ett existentiellt hot mot mänskligheten? Oroande nog säger en expert att svaret är ja. Fareed samtalar med Geoffrey Hinton, känd som ´gudfadern´ av artificiell intelligens, som lämnade sitt jobb på Google för att varna för farorna med AI.

Direktlänk Dela CNN fördjupade 10 september

TIME avslöjar sin första TIME100 AI-lista

TIME har avslöjat sin första TIME100 AI-lista, som presenterar de 100 mest inflytelserika personerna inom artificiell intelligens (AI). Listan erkänner individer vars bidrag formar AI-landskapet och dess långtgående inverkan på olika samhällsaspekter. Bland de framstående personerna på omslaget finns Sam Altman från OpenAI, Dario och Daniela Amodei från Anthropic, Demis Hassabis från Google DeepMind och andra framstående figurer från AI-gemenskapen. Listan inkluderar 43 VD:ar, grundare och medgrundare, som Elon Musk från xAI och Sam Altman från OpenAI. Bemärkningsvärt är att 41 kvinnor och icke-binära individer erkänns på listan.

Direktlänk Dela Info Tech Lead fördjupade 9 september

AI:s snabba tillväxt och dess inverkan på samhället

Artificiell intelligens (AI) har utvecklats snabbt och har förmågan att efterlikna och överträffa mänskliga färdigheter. AI:s förmåga att modellera sig efter mänskligt beteende har blivit dess definierande egenskap. OpenAI:s ChatGPT är ett exempel på generativ AI som kan producera text, bilder, video och annat innehåll. Denna teknik växer snabbare än någonsin, enligt tidigare Google VD Eric Schmidt. TIME100 AI är en lista över de mest inflytelserika personerna inom AI idag, inklusive OpenAI:s VD Sam Altman och Geoffrey Hinton, som varnade för farorna med tekniken han hjälpte till att skapa.

Direktlänk Dela Time Magazine fördjupade 7 september

Kan AI verktyg förbättra lärandeupplevelsen och omforma högre utbildning?

Colorado Mesa Universitys lärare och studenter undersöker möjligheten att AI-verktyg kan förbättra lärandeupplevelsen och positivt omforma framtiden för högre utbildning. Geoffrey Hinton, en framstående kognitiv psykolog och datavetare, känd som AI:s gudfader, har banat väg för idén att en maskin kan utbyta information genom att fungera likt neuroner i hjärnan. Vid CMU är många lärare och studenter proaktiva när det gäller att experimentera med AI och är försiktigt optimistiska om dess fördelar och den roll det kan spela i universitetsmiljön.

Direktlänk Dela Colorado Mesa University fördjupade 1 september

AI kan ännu inte ersätta läkare, men det finns AI-verktyg tillgängliga för sjukvården som kan visa avkastning på investeringar inom några månader. Dessa verktyg stärker remissprocesser, lindrar trycket på överbelastade sjukvårdsteam och ökar kapaciteten där det behövs mest. De hjälper också till att eliminera de administrativa kraven på vård som leder till utbrändhet, snabbar på informationsöverföring och underlättar övergångar i vården. Här är fem kritiska AI-investeringar som ger omedelbart värde för hälso- och sjukvårdssystem, kliniker och patienter.

MedCity News fördjupade 30 augusti

Serviceaide VD: Farhågor kring AI är överdrivna

Wai Wong, grundare, president och VD för Serviceaide, en global leverantör av företagstjänsthanteringslösningar, ger sin syn på artificiell intelligens (AI). Wong anser att farhågorna kring AI är överdrivna, och att dess framsteg bör följas noggrant men inte försenas. Han menar att AI för närvarande levererar stora praktiska fördelar för företag och samhället, och har potential att göra mycket mer. Wong nämner också att AI hjälper till att förvandla en rad industrier, affärsprocesser och applikationer, inklusive hälso- och sjukvård, cybersäkerhet och marknadsföring. Han tror att AI kommer att stärka anställda att göra sina jobb bättre och med mindre stress och flaskhalsar.

Direktlänk Dela Forbes Media fördjupade 22 augusti

AI kan halvera radiologers arbetsbelastning vid bröstcancerundersökningar

Enligt en studie publicerad i Lancet Oncology Journal kan användning av artificiell intelligens (AI) i bröstcancerundersökningar halvera radiologers arbetsbelastning. Studien följde över 80 000 kvinnor i Sverige och jämförde AI-screeningar med standardtest. AI-stödda screeningar upptäckte 244 kvinnor med cancer, medan standardundersökningar hittade 203 kvinnor med cancer. AI genererade inte fler falska positiva än standardtesterna. En annan rapport från forskare vid MIT och Harvard Medical School visade dock att läkare faktiskt presterade sämre vid diagnos när de arbetade med AI.

Direktlänk Dela The Hindu fördjupade 18 augusti

Övervakning av AI är allas ansvar

Artificiell intelligens (AI) är överallt och utgör ett enormt problem för de som ska övervaka och reglera det. Det finns många anmärkningsvärda och fördelaktiga användningar av AI, men utan tillräcklig tillsyn kommer AI att fortsätta vara partisk, ge felaktig information och orsaka trafikolyckor. Företag behöver inte berätta för någon koden eller utbildningsmaterialet de använder för att bygga sina applikationer. Det finns också betydande problem med sekretess. När någon matar in data i ett program, vem tillhör det? Kan det spåras tillbaka till användaren? Vem äger informationen du ger till en chatbot för att lösa problemet?

Direktlänk Dela Scientific American fördjupade 16 augusti

AI-systemet MarketMaster utmanar traditionell aktiehandel

Marknadsanalytikern Tom Yeung presenterar MarketMaster AI, ett maskininlärningssystem som har visat sig kunna överträffa marknaden. Systemet använder neurala nätverk för att analysera miljontals datapunkter och bedöma företag på en skala från A+ till F baserat på hur aktierna förväntas prestera under de kommande sex månaderna. Yeung påpekar att maskininlärning blir allt viktigare för investerare, eftersom finansiell data genereras snabbare än någon individ kan konsumera. Han framhåller också att systemet kan hjälpa investerare att jämna ut spelplanen genom att bearbeta mängder av data som Russell 3000-företag producerar, vilket möjliggör uppdelning av aktier i hög- och lågpotentiella val.

Direktlänk Dela InvestorPlace Media fördjupade 14 augusti

AI-forskare Geoffrey Hinton uttrycker farhågor för teknologins framtid

Geoffrey Hinton, en av de mest kända forskarna inom artificiell intelligens (AI), orsakade uppståndelse när han offentligt meddelade att han lämnade Google för att öppet tala om riskerna med tekniken han hjälpt till att utveckla. Hinton uttryckte oro för att AI kan skena iväg till människans nackdel. Han har nyligen uttryckt farhågor efter att ha sett kraften i stora språkmodeller som ChatGPT. Hinton tror att det finns en 50/50 chans att AI-system kommer att vara smartare än oss inom fem till tjugo år.

Direktlänk Dela World Nation News fördjupade 12 augusti

AI-forskaren Geoffrey Hinton varnar för AI:s potentiella faror

Geoffrey Hinton, en av världens mest kända forskare inom artificiell intelligens (AI), lämnade Google för att tala öppet om de faror han ser med tekniken han hjälpt till att utveckla. Hinton varnar för att AI potentiellt kan komma ur kontroll, till mänsklighetens nackdel. Denna oro har växt fram nyligen, efter att ha sett kraften hos stora språkmodeller som den bakom OpenAI´s ChatGPT. Hinton tror att det mellan fem och 20 år framåt finns en 50% chans att AI-system kommer att vara smartare än oss. Han föreslår en teknologisk lösning som kan mildra en AI-maktövertagning mot människor: analog databehandling, precis som du hittar i biologi och som vissa ingenjörer tror att framtida datorer bör fungera.

Direktlänk Dela Wired fördjupade 11 augusti

James Manyika, en av Googles främsta ambassadörer för artificiell intelligens (AI), har undertecknat ett uttalande som varnar för att AI kan utgöra ett existentiellt hot mot mänskligheten. Trots detta fortsätter han och många andra i Silicon Valley att utveckla tekniken. Manyika, som är född i Zimbabwe och har en doktorsexamen i AI från Oxford, insisterar på att tekniken kommer att medföra otroliga fördelar för mänskligheten och att Google är rätt väktare för denna ljusa framtid. Men kort efter utvecklarkonferensen undertecknade Manyika ett uttalande tillsammans med hundratals AI-forskare, där han varnade för att AI utgör en ´risk för utrotning´ på samma nivå som ´pandemier och kärnvapenkrig´.

Droid Gazette fördjupade 9 augusti

OpenAI:s ledning diskuterar AI:s framväxande intelligens och inställning till reglering

I en intervju avslöjade Ilya Sutskever, chefsforskare på OpenAI, att den framväxande intelligensen hos hans AI var resultatet av skalning, en drastisk ökning av storleken på beräkningen och data. Detta överraskade även VD:n och presidenten för OpenAI, Sam Altman och Greg Brockman. De sa att ingen riktigt vet hur eller varför denna mänskliga intelligens och kreativitet plötsligt uppstod från deras GPT efter skalning. Det är fortfarande en något mystisk process, som de försöker förstå med hjälp av deras GPT4. Intervjuerna avslöjade också företagets nuvarande inställning till reglering.

Direktlänk Dela JD Supra fördjupade 8 augusti

Påven Franciskus varnar för konstgjord intelligens

Påven Franciskus varnade för konstgjord intelligens (AI) i ett uttalande på tisdagen, där han sa att tekniken bör användas i ”mänsklighetens tjänst” och uppmanade till vaksamhet för den ”snabbt ökande påverkan” tekniken har på samhället. Vatikanen släppte uttalandet för att tillkännage temat för nästa Världsfredsdag i katolska kyrkan - ”konstgjord intelligens och fred” - vilken är på nyårsdagen. Påven uppmanade till ”en öppen dialog om innebörden av dessa nya teknologier, begåvade med störande möjligheter och ambivalenta effekter” och sa att det är ett ”brådskande behov att orientera” användningen av AI på ett ansvarsfullt sätt för att undvika ”konflikter och antagonism”.

Direktlänk Dela Forbes Media fördjupade 8 augusti

Framstående personer inom AI diskuterar teknikens möjligheter och risker

Artificiell intelligens (AI) har blivit allt mer mainstream sedan ChatGPT lanserades i november. Investeringsnivån inom AI förväntas uppgå till 200 miljarder dollar till 2025. Betydande personer inom branschen har börjat diskutera riskerna och fördelarna med den snabba utvecklingen av AI. Vissa menar att AI kommer att leda till ett stort framsteg i människans livskvalitet, medan andra har uppmanat till en sex månaders paus i utvecklingen, vittnat inför kongressen om de långsiktiga riskerna med AI och hävdat att det kan utgöra en mer brådskande fara för världen än klimatförändringarna.

Direktlänk Dela Business Insider fördjupade 7 augusti

Google förbättrar sin assistent med AI-funktioner

Google arbetar rapporterat med att förbättra sin virtuella personliga assistentprogramvara, Google Assistant, med nya generativa artificiella intelligens (AI) funktioner. Företaget syftar till att införliva funktioner liknande de som finns i chatbots som Bard och OpenAI´s ChatGPT. Teknikjätten sägs också omorganisera sitt team som arbetar med Assistant, vilket kan resultera i en minskning av några roller. Det exakta antalet anställda som påverkas är fortfarande okänt. Google har uttryckt sitt åtagande för Assistant och sin positiva syn på dess framtid. Företaget har sagt att det utforskar sätt att utnyttja stora språkmodeller, som ChatGPT, för att förbättra och förbättra Assistant.

Direktlänk Dela Fagenwasanni.com fördjupade 2 augusti

Historien om Artificiell Intelligens: Från Turing till ChatGPT

Artificiell intelligens (AI) har varit under utveckling sedan 1900-talet, men det var OpenAIs ChatGPT som definierade AI för allmänheten. AI:s moderna koncept kommer från matematikern Alan Turing, som föreslog ett tankexperiment kallat ´The Imitation Game´. Frank Rosenblatt kickstartade teknikens praktik genom att skapa ´Perceptron´, en dator som fungerar som neuroner i hjärnan. Trots vissa framgångsrika försök kunde Perceptron inte uppfylla Rosenblatts teorier. Geoffrey Hinton upptäckte på 1980-talet att flera lager av neuronnätverk kan möjliggöra maskininlärning. Slutligen blev ChatGPT populär 2022, vilket visade AI:s verkliga potential.

Direktlänk Dela Lifehacker fördjupade 31 juli

Googles nya AI-chatbot ´Bard´ har problem med tillförlitlig information

Google har introducerat en ny AI-chatbot, ´Bard´, som svarar på frågor och ger ljudsvar, men en toppchef på Google U.K varnar för att Bard kan ha svårt att ge tillförlitlig information. Debbie Weinstein, VD för Google U.K, uppmuntrar människor att använda Google som sökmotor för att korskontrollera Bard´s svar. Bard kan ´hallucinera´ eller ge felaktig information när den ställs en fråga, vilket är ett vanligt problem inom branschen. Sundar Pichai, VD för Google´s moderbolag Alphabet, medger att ´hallucinationsproblemet´ ännu inte har lösts.

Direktlänk Dela Fortune Media fördjupade 28 juli

Artificiell intelligens: En välsignelse eller en förbannelse?

Ian Brown, en funktionsskribent, skriver om hans kamp med artificiell intelligens (AI) och dess inverkan på mänskligheten. Han diskuterar hur AI, trots dess förmåga att skapa och generera data, saknar den genuina mänskliga känslan och genialiteten. Han nämner också hur AI har potential att förändra världen, men samtidigt kan det orsaka utrotning av mänskliga rasen enligt Geoffrey Hinton, tidigare vid Google. Samtidigt tror andra innovatörer som Marc Andreessen, medgrundare av Netscape, att AI kommer att rädda världen. Brown avslutar med att påpeka att AI inte kan uppleva den mänskliga känslan av dödlighet, vilket gör dess skapelser mindre autentiska.

Direktlänk Dela The Globe and Mail fördjupade 28 juli

Ökande oro kring potentiella risker med artificiell intelligens

Bekymren ökar bland experter kring de potentiella riskerna med artificiell intelligens (AI). Framstående figurer som datavetaren Geoffrey Hinton har uttryckt oro för den ”existentiella hot” som AI utgör. Hans avhopp från Google och det efterföljande öppna brevet från Center for AI Safety har väckt oro för den potentiella förstörelse AI kan orsaka för mänskligheten. En av de främsta faktorerna till denna ökade oro är den snabba utvecklingen av AI-drivna chatbots som ChatGPT och kapplöpningen för att utveckla mer avancerade AI-system. Trots dessa rädslor är de exakta scenarierna där AI kan utgöra ett existentiellt hot vagt beskrivna.

Direktlänk Dela Fagenwasanni.com fördjupade 25 juli

Teknikjättar åtar sig att ansvarsfullt utveckla AI

Sju stora teknikjättar, inklusive Amazon, Anthropic, Google, Inflection, Meta, Microsoft och OpenAI, har gemensamt åtagit sig att ansvarsfullt utveckla artificiell intelligens (AI). Detta kommer när oro över potentiella risker med AI för samhället fortsätter att växa. Under ett möte med president Biden presenterade dessa företag en serie frivilliga åtaganden för att säkerställa säker, säker och pålitlig utveckling av AI. Vita huset applåderade företagen för att ha vidtagit omedelbara åtgärder och betonade att dessa åtaganden är avgörande för AI: s framtid. Åtagandena inkluderar åtgärder som omfattande testning av AI-produkter före offentliggörande, genomförande av cybersäkerhetsprotokoll, införande av ett vattenmärkningssystem för att identifiera AI-genererat innehåll och ytterligare forskning om potentiella riskfaktorer som användarintegritet och partiska AI-system.

Direktlänk Dela Vigour Times fördjupade 21 juli

Behöver AI en ´kill switch´?

Artikeln diskuterar likheterna mellan utvecklingen av kärnvapen och den pågående utvecklingen av artificiell intelligens (AI). Författaren jämför hur båda teknologierna har skapat oro bland sina skapare, med tanke på deras potentiella förödande effekter. Artikeln nämner även det öppna brevet som undertecknats av tusentals teknologer som efterfrågar en paus i utvecklingen av AI, med vissa som talar om risken för mänsklig utrotning. Författaren föreslår att det kanske behövs en sorts ´kill switch´ eller ´don´t kill switch´ i utvecklingen av AI, likt den som finns i motorer för att förhindra att de överhettas och förstörs.

Direktlänk Dela Wired fördjupade 14 juli

AI säkerhetsrisker: Katastrofala farhågor är överdrivna men mänskliga förmågor riskerar att erodera

Ökningen av AI-system som ChatGPT har lett till ökad oro för AI. Enligt Center for AI Safety bör risken för utrotning från AI prioriteras globalt tillsammans med andra samhällsskalorisker som pandemier och kärnvapenkrig. Experter varnar för att AI kan bli farligt eftersom det inte nödvändigtvis överensstämmer med skaparnas moraliska värderingar. Trots detta anser vissa att farhågorna är överdrivna. AI:s förmåga att skapa övertygande deepfake-video och ljud är skrämmande och kan missbrukas av människor med dåliga avsikter. AI kan också förändra hur människor ser på sig själva och kan försämra förmågor och upplevelser som människor anser vara väsentliga för att vara mänskliga.

Direktlänk Dela Worldcrunch fördjupade 9 juli

OpenAI bygger nytt team för att förhindra att superintelligent AI blir rogue

OpenAI, företaget bakom den virala chatboten ChatGPT, har uttryckt oro för de potentiella effekterna av avancerade AI-system på samhället. Som svar på detta har företaget meddelat att det inrättar en ny enhet kallad Superalignment för att säkerställa att superintelligent AI inte orsakar kaos eller något värre. OpenAI tror att superintelligent AI kan utvecklas till 2030 och erkänner att det för närvarande inte finns något system för att styra eller kontrollera en potentiellt superintelligent AI. För att hantera situationen vill OpenAI bygga en ´grovt mänsklig automatiserad alignmentforskare´ som skulle utföra säkerhetskontroller på en superintelligent AI.

Direktlänk Dela Digital Trends fördjupade 6 juli

Lagersnormalisering spelar en viktig roll i AI och maskininlärning

Artificiell intelligens (AI) fortsätter att revolutionera olika sektorer, från hälso- och sjukvård till finans, transport och underhållning. I hjärtat av denna revolution ligger avancerade maskininlärningsmodeller som blir allt mer komplexa och sofistikerade. En kritisk aspekt som spelar en betydande roll i dessa modellers prestanda är lagersnormalisering, en teknik som har fått mycket uppmärksamhet i AI-gemenskapen. Lagersnormalisering är en metod som används inom djupinlärning för att stabilisera inlärningsprocessen och dramatiskt minska antalet träningssteg som krävs för att träna modeller.

Direktlänk Dela Gillett News fördjupade 6 juli

Experter varnar för AI: Jämför med kärnvapenkrig

Hundratals världsledande AI-experter varnar för att artificiell intelligens (AI) utgör en så stor fara mot mänskligheten att den bör jämföras med pandemier och kärnvapenkrig. I ett uttalande på Center for AI safetys hemsida skriver de att minskad risk för utrotning på grund av AI bör vara en globalt prioriterad fråga. Bland undertecknarna finns Sam Altman, Demis Hassabis, Bill Gates och Geoffrey Hinton. Forskaren Max Tegmark menar att utvecklingen av AI gått snabbare än förväntat och att det är mer än 50% risk att mänskligheten utrotas om vi ger upp för mycket kontroll till maskiner.

Direktlänk Dela Världen idag fördjupade 8 juni

Sundar Pichai om AI: ´Naturligt att vara rädd´

Google VD Sundar Pichai besökte Sverige för att tala om artificiell intelligens (AI). Han tror att rädsla för AI kan vara bra eftersom det kan lära oss att ta farorna på allvar och hantera AI på ett säkrare sätt. Han ser desinformation och deepfakes som kortsiktiga risker med AI, och på längre sikt behöver vi oroa oss för mycket kraftfulla system och om vi kan kontrollera dem. Pichai tror att vi inom fem år kommer att ha mer sofistikerade AI-modeller som kan hantera många sorters media, använda verktyg, planera och ha ett minne.

Direktlänk Dela Dagens Nyheter fördjupade 2 juni

Artificiell intelligens (AI) har utvecklats snabbt under det senaste året och överraskat experter med sina framsteg. Google VD Sundar Pichai har förutspått att AI:s inverkan på mänskligheten kommer att vara större än el, internet och eld kombinerat. Teknikmagnaten Elon Musk har sagt att AI är farligare för mänskligheten än kärnvapen, och den israeliska historikern Yuval Noah Harari har förutspått att AI kan leda till slutet av mänsklighetens historia. AI:s snabba utveckling har lett till oro för att människor inte längre kommer att kunna försörja sig genom arbete, och att AI kan bli farligt om det inte är korrekt kopplat till mänskliga värderingar. Trots farhågorna bär den nya tekniken också enorma möjligheter, som att förbättra utbildning, hälsovård och andra områden av mänskligt liv. Framtiden för AI är oviss, men det är klart att det kommer att ha en stor inverkan på mänskligheten.

Haaretz Daily Newspaper fördjupade 1 juni

Kyunghyun Cho, framstående AI-forskare och biträdande professor vid New York University, ifrågasätter den nuvarande diskursen kring AI-risk. Han anser att ´doomer´-narrativet kring artificiell allmän intelligens (AGI) och uppmaningar till reglering eller forskningsmoratorium är en distraktion från de verkliga problemen med dagens AI. Cho kritiserar också glorifieringen av ´hjälteskapsforskare´ som Geoffrey Hinton och Yoshua Bengio, samt uttrycker oro över Effective Altruism-rörelsen, som finansierar många AGI-insatser.

VentureBeat fördjupade 1 juni

AI-experter varnar för risker lika allvarliga som pandemier och kärnvapenkrig

Vetenskapsmän, teknikindustriledare och ledande AI-experter, inklusive höga chefer på Microsoft och Google, har gått samman med experter och professorer för att varna för riskerna med artificiell intelligens (AI) och uppmanar beslutsfattare att betrakta dessa risker som lika allvarliga som pandemier och kärnvapenkrig. Bland undertecknarna finns Sam Altman, VD för OpenAI, och Geoffrey Hinton, en datorforskare känd som gudfadern av artificiell intelligens. Oro kring AI-system som överträffar människor har ökat med framväxten av nya, mycket kapabla AI-chatbotar som ChatGPT. EU har tagit täten med sitt AI-lagförslag, som väntas godkännas senare i år.

Direktlänk Dela Daily Sabah fördjupade 1 juni

Artificiell intelligens (AI) är ett komplext ämne och det är lätt att frukta det man inte förstår. Detta kan förklara varför diskussioner om AI ofta präglas av översimplifiering och dramatisering. En öppet brev publicerat av Center for AI Safety hävdar att AI utgör ett existentiellt hot mot mänskligheten och har undertecknats av branschledare som Geoffrey Hinton och VD:ar för Google DeepMind, Open AI och Anthropic. Men det är viktigt att vara skeptisk till AI-domedagsnarrativet, då det finns kommersiella incitament att skapa rädsla inom AI-området. Forskning kring artificiell generell intelligens (AGI) tyder på att AI inte utgör ett omedelbart existentiellt hot, och många katastrofala AGI-scenarier bygger på osannolika premisser.

The Conversation fördjupade 1 juni

AI:s gudfader varnar för farorna med artificiell intelligens

Geoffrey Hinton, känd som AI:s gudfader, har uttryckt oro över den teknik han hjälpt till att skapa. Efter att ha arbetat med Google Brain-projektet i 10 år, avgick han för att varna andra om farorna med AI. Hans farhågor delas av Center for AI Safety, en organisation som ägnar sig åt att minska samhällsskaleffekterna av artificiell intelligens. Farhågorna inkluderar militära tillämpningar, desinformation och felinformation, förlust av arbetstillfällen och risken för att AI-teknik används för att stärka diktatorer.

Direktlänk Dela Forbes Media fördjupade 31 maj

AI kan leda till mänsklighetens utrotning, varnar experter

Artificiell intelligens (AI) kan leda till mänsklighetens utrotning och riskerna bör behandlas med samma brådska som kärnvapenkrig, varnar flera experter, inklusive pionjärer som utvecklat tekniken. Exempel på AI inkluderar ansiktsigenkänning och digitala röstassistenter som Apples Siri och Amazons Alexa. AI kan bli farligt om det inte är i linje med mänskliga värderingar, och människor kan bli beroende av maskiner om viktiga uppgifter delegeras till dem. Många experter har skrivit under ett brev från Centre for AI Safety, som syftar till att minska samhällsskaleliga risker från AI. Bland undertecknarna finns Geoffrey Hinton, emeritus professor i datavetenskap vid University of Toronto, och Yoshua Bengio, professor i datavetenskap vid Universite de Montreal/Mila. För att reglera AI och förhindra dessa scenarier arbetar Centre for AI Safety med forskning, fältbyggnad och opinionsarbete.

Direktlänk Dela NewsChain Online fördjupade 31 maj

OpenAIs ChatGPT är världens snabbast växande webbplats

OpenAIs ChatGPT, skaparna av den artificiella intelligens-chattboten, har nu en av världens snabbast växande webbplatser enligt ny forskningsdata. Konkurrenter som Google och Elon Musk försöker också ta sig in på AI-marknaden, men ChatGPT är en lättillgänglig produkt. Forskningsföretaget VezaDigital rapporterar att OpenAIs webbplats hade 847,8 miljoner unika besökare i mars, en ökning med 54,21% på en månad. Nvidia, som tillhandahåller superdatorer och GPU:er för AI, har också haft framgångar och uppnått en värdering på över en biljon dollar. Microsoft integrerar AI i Windows 11 och bildgeneratorer som Stable Diffusion blir alltmer populära.

Direktlänk Dela Dexerto fördjupade 31 maj

En AI-genererad bild av en explosion utanför Pentagon spreds nyligen på sociala medier, vilket ledde till oro och påverkade kortvarigt aktiemarknaden. Händelsen har ökat intresset för att utveckla verktyg för att upptäcka så kallade deepfakes. Företag som Intel, Microsoft, DARPA och OpenAI arbetar med att utveckla teknik för att identifiera AI-genererat innehåll. Bland annat fokuserar Intel på att analysera ansikten i videor för att upptäcka förändringar i blodflödet, medan Microsofts Video Authenticator letar efter tecken på digital manipulation i bilder och videor. Dessa verktyg är dock ännu inte helt tillförlitliga och kräver ytterligare investeringar och forskning.

Gizmodo fördjupade 27 maj

Kanadensiska AI-experter uppmanar till paus i utvecklingen av kraftfulla AI-system

Två av de tre gudfäderna inom AI är professorer baserade i Kanada. Geoffrey Hinton från University of Toronto lämnade nyligen sitt jobb på Google för att tala mer öppet om riskerna med artificiell intelligens. Yoshua Bengio från Université de Montréal var en av flera högprofilerade namn, inklusive Elon Musk och Apple-medgrundaren Steve Wozniak, som nyligen skrev under ett öppet brev där de uppmanade till ett uppehåll i utvecklingen av allt kraftfullare AI-system. Kanada är långt ifrån att underteckna lagstiftning, som förväntas träda i kraft tidigast 2025. Det behövs flera månader för att enas om regler för lagförslaget C-27, Artificial Intelligence and Data Act, som introducerades i juni förra året. På kort sikt arbetar kanadensiska dataskyddsmyndigheter för närvarande med att undersöka ett ospecifierat klagomål om huruvida chatboten ChatGPT olämpligt samlar in, använder eller avslöjar data om kanadensare utan korrekt samtycke.

Direktlänk Dela The New York Times fördjupade 27 maj

AI-experiment bör pausa i 6 månader för att säkerställa teknikens säkerhet

En öppet brev publicerat av Future of Life Institute rekommenderar en paus på 6 månader i AI-experiment som GPT-4, eftersom teknikens utveckling riskerar att bli snabbare än människors förmåga att kontrollera den. Geoffrey Hinton, känd som ´Gudfadern av AI´, lämnade nyligen sitt jobb på Google på grund av oro för att vi skapar digital intelligens som överträffar vår egen och riskerar civilisationens slut. Professor Max Tegmark, president för Future of Life Institute, betonar vikten av att vara medveten om vad som händer inom AI och bli en del av konversationen.

Direktlänk Dela London Real fördjupade 27 maj

Den brittiska regeringen överväger att skärpa regleringen av artificiell intelligens (AI) efter varningar om att industrin utgör en existentiell risk för mänskligheten om länder inte radikalt ändrar hur de tillåter tekniken att utvecklas. Premiärminister Rishi Sunak försöker uppdatera regeringens inställning till reglering av AI och arbetar med att formulera en internationell överenskommelse om hur man utvecklar AI-förmågor. Konservativa och Labour-MP:s uppmanar premiärministern att anta en separat lag som kan skapa Storbritanniens första AI-fokuserade tillsynsmyndighet.

The Guardian fördjupade 26 maj

AI-grundare varnar för katastrofal framtid

Geoffrey Hinton, grundaren av AI, varnar för en katastrofal framtid där skadliga aktörer använder artificiell intelligens för onda ändamål. Världsekonomiska forumet har publicerat en rapport som konstaterar att AI kommer att skapa 69 miljoner nya jobb fram till 2027 men eliminera 83 miljoner. Ekonomer på Goldman Sachs uppskattar att upp till 300 miljoner heltidsjobb globalt kommer att automatiseras på grund av AI-plattformar som ChatGPT. De noterar att vita krage-arbetare löper störst risk, medan många blå krage-jobb förblir opåverkade. Association for the Advancement of Artificial Intelligence (AAAI) arbetar för att hantera riskerna och begränsningarna med AI och hitta positiva tillämpningar.

Direktlänk Dela The Washington Informer fördjupade 26 maj

AI-experten Geoffrey Hinton lämnar Google och uppmanar till ansvarstagande

Geoffrey Hinton, en pionjär inom artificiell intelligens och maskininlärning, har nyligen lämnat Google. I en intervju med CNN uttryckte han oro över att AI-system blir smartare än människor och att vi bör oroa oss för att försöka stoppa dem från att få kontroll över oss. Hinton har kallats ´AI:s gudfader´ på grund av sitt arbete med tekniker som backpropagation under 1980-talet. Hans oro skiljer sig från den som Timnit Gebru, en ledare inom AI-etik, uttryckte när hon kritiserade Googles sökmotor och stora språkmodeller. Gebru och hennes medförfattare gav specifika rekommendationer för att hantera risker och snedvridningar i stora språkmodeller, medan Hintons oro är mer vag och science fiction-liknande. Det återstår att se om Hinton kommer att avslöja mer specifik information om teknikindustrin efter att ha lämnat Google.

Direktlänk Dela Orlando Sentinel fördjupade 24 maj

Teknikchefer uppmanar regeringar att reglera AI

Sam Altman, VD för OpenAI, och Sundar Pichai, VD för Alphabet och Google, uppmanar regeringar att reglera AI för att hantera riskerna med ´superintelligens´. Båda föreslår att regeringar, experter, akademiker och allmänheten bör vara delaktiga i diskussionen om utvecklingen av säkerhetspolicyer för AI-verktyg. Altman föreslår att skapa en högnivåstyrningsorgan liknande FN:s Internationella atomenergiorgan (IAEA) för att övervaka användningen av AI. Pichai betonar vikten av internationellt samarbete och att USA och Europa bör arbeta tillsammans för att reglera AI.

Direktlänk Dela Fortune Media fördjupade 24 maj

Geoffrey Hinton, en pionjär inom djupinlärning, uttrycker oro över den snabba utvecklingen inom artificiell intelligens (AI) och hur det kommer att påverka människor. Hinton, som nyligen lämnade Google, säger att generativ intelligens kan sprida desinformation och till slut hota mänskligheten. Han är orolig för att AI kommer att överträffa människor på sätt som inte är i mänsklighetens bästa intresse, och att det sannolikt kommer att vara svårt att begränsa AI-utvecklingen. Hinton ser ingen enkel lösning på problemet, men betonar vikten av att människor samarbetar för att hitta en lösning.

MIT Sloan School of Management fördjupade 23 maj

WhatsApp introducerar AI-verktyget Luzia

WhatsApp har nu sitt eget AI-verktyg som heter Luzia. Verktyget kan transkribera röstmeddelanden och ge snabba och kortfattade svar. Luzia är gratis att ladda ner och kan vara användbart för studenter, föräldrar, yrkesverksamma och kreativa personer. AI-verktyget har tre grundpelare: empowerment, universalitet och användares integritet och säkerhet. Dock finns det ingen information om hur användardata hanteras, och vissa experter pekar på etiska konsekvenser av sådana verktyg.

Direktlänk Dela Nation World News fördjupade 20 maj

AI:s snabba tillväxt och dess potentiella inverkan på världen

På bara sex månader har sökningar efter ´artificiell intelligens´ på Google ökat fem gånger. ChatGPT, lanserad den 30 november 2022, har redan tiotals miljoner användare. Sam Altman, VD för OpenAI, företaget som skapade ChatGPT, har redan vittnat inför USA:s kongress om AI:s inverkan. Vissa analytiker menar att hans uttalanden om sina ´farhågor´ kan vara noggrant beräknade för att uppmuntra striktare regleringar och hindra konkurrenter. Termen ´criti-hype´ har populariserats tack vare ChatGPT. Geoffrey Hinton, känd som ´gudfadern av AI´, lämnade Google för att fritt tala om farorna med AI. Storbritanniens avgående chefsrådgivare för vetenskap har sagt att AI kan vara ´lika stort som den industriella revolutionen´.

Direktlänk Dela El País fördjupade 20 maj

Keir Starmer uppmanas att investera £11 miljarder i brittisk AI och molntjänster

Labour-ledaren Keir Starmer bör lova £11 miljarder för att bygga ett ´BritGPT´ och en nationell artificiell intelligens (AI) molntjänst enligt en rapport från tankesmedjan Labour for the Long Term. Rapporten hävdar att Storbritanniens framtid och självständighet hotas om inte mer investeras i AI och att de £1 miljarder som regeringen utlovat i budgeten för 2023 inte räcker. Forskare varnar för att landet riskerar att bli alltmer beroende av amerikanska teknikföretag som Amazon och Google om inte åtgärder vidtas. Rapporten föreslår att en del av budgeten kan tas från Labours årliga ´klimatinvesteringslöfte´ på £28 miljarder.

Direktlänk Dela The Guardian fördjupade 20 maj

Storbritannien kommer att leda arbetet med att begränsa farorna med artificiell intelligens, enligt Rishi Sunak

Storbritannien kommer att leda arbetet med att begränsa farorna med artificiell intelligens, enligt Rishi Sunak, efter att vissa techexperter och företagsledare krävt ett moratorium. Sunak sa att AI kan medföra fördelar och vara omvandlande för samhället, men det måste införas ´säkert och säkert med skyddsräcken på plats´. Premiärministerns kommentarer låter mer försiktiga än tidigare, efter att techledare som Twitters ägare Elon Musk och Apples medgrundare Steve Wozniak lagt sina namn till nästan 30 000 underskrifter på ett brev som uppmanar till paus i betydande projekt. Brevet krävde ett moratorium medan förmågorna och farorna med system som ChatGPT-4 undersöks och mildras ordentligt som svar på farhågor om skapandet av digitala hjärnor, bedrägeri, desinformation och risk för jobb. Sunak har varit en förespråkare för AI och betonat dess fördelar snarare än risker, och i mars presenterade regeringen ett lätthanterligt regleringsprogram som inte verkade innehålla förslag till några nya lagar eller verkställighetsorgan. Han lanserade också en brittisk arbetsgrupp på 100 miljoner pund förra månaden för att utveckla ´säkra och tillförlitliga´ tillämpningar för AI med målet att göra landet till en vetenskaplig och teknologisk supermakt fram till 2030. Men, när han talade på planet till Japan för G7-toppmötet, där AI kommer att diskuteras, sade Sunak att en global strategi för reglering behövdes. ´Vi har tagit ett medvetet iterativt tillvägagångssätt eftersom tekniken utvecklas snabbt och vi vill se till att vår reglering kan utvecklas när det gör det också´, sade han. ´Nu kommer det att innebära samordning med våra allierade ... du skulle förvänta dig att det bildar några av samtalen också vid G7. ´Jag tror att Storbritannien har en meritlista för att vara i en ledande ställning och föra människor samman, särskilt när det gäller teknologisk reglering i onlinesäkerhetslagen ... Och igen, företagen själva, i det fallet också, har arbetat med oss och tittat på oss för att ge dessa skyddsräcken när de kommer att göra och har gjort på AI.´ USA har också drivit på för en diskussion om AI vid toppmötet i Hiroshima, där ledarna eventuellt diskuterar hotet från desinformation eller till infrastrukturen som utgörs av en teknik som rör sig snabbt, personifierad av ChatGPT-systemet. Nummer 10 har indikerat att det inte tror att ett moratorium är svaret, men det rör sig mot att tänka på en global ram. Storbritanniens konkurrens- och marknadsmyndighet (CMA) sade på torsdagen att den skulle titta på de underliggande systemen - eller grundmodellerna - bakom AI-verktyg. Den första granskningen, beskriven av en juridisk expert som en ´förvarning´ till sektorn, kommer att publicera sina resultat i september. Geoffrey Hinton, känd som ´gudfadern till AI´, meddelade att han hade slutat på Google tidigare i månaden för att tala mer fritt om teknikens faror, och den brittiska regeringens avgående chefsrådgivare Sir Patrick Vallance har uppmanat ministrar att ´ligga före´ de djupa sociala och ekonomiska förändringar som AI kan utlösa och säger att effekten på jobb kan vara lika stor som den industriella revolutionen.

Direktlänk Dela The Guardian fördjupade 18 maj

Geoffrey Hinton lämnar Google för att tala om risker med AI

Geoffrey Hinton, en pionjär inom maskininlärning, har lämnat sitt jobb på Google för att kunna tala mer fritt om sin oro för risker med AI. Han tror att den intensiva tävlingen mellan stora företag kan leda till att försiktighet sätts åt sidan i ivern att produktifiera tekniken. Hinton ser en risk i att internet snart kommer att översvämmas av fejkade bilder, video och text, och att det blir svårt att avgöra vad som är sant. Han hoppas att världens ledande forskare kan samarbeta för att hitta sätt att kontrollera tekniken.

Direktlänk Dela Elektroniktidningen fördjupade 18 maj

OpenAI:s VD uppmanar till reglering av AI-bilder

OpenAI:s VD Sam Altman vittnade inför en amerikansk senatskommitté och diskuterade möjligheter och faror med artificiell intelligens (AI). Han betonade effekten av AI-bilder och uppmanade till reglering av branschen. Altman jämförde AI-bilder med Photoshop och uttryckte oro över deras förmåga att manipulera och sprida desinformation. Han menar att någon form av reglering vore klok eftersom människor som ser AI-bilder behöver veta att de är datorgenererade. Altman tillade att ökad medvetenhet bland allmänheten kräver att företag agerar ansvarsfullt, samt reglering och offentlig utbildning.

Direktlänk Dela PetaPixel fördjupade 18 maj

» Nyheterna från en dag tidigare

Några av våra kursdeltagare