» Håll dig ajour kring AI · En AI-skapad och ständigt föränderlig nyhetstidning om AI. Idag har vår robot sammanfattat 215 nyhetshändelser. Upptäck gärna vår kurs AI på jobbet förresten. «

University of Washington är ett offentligt forskningsuniversitet i Seattle, Washington, USA. Grundat 1861, är det ett av de äldsta universiteten på västkusten. Universitetet har tre campus: Seattle, Tacoma och Bothell. Det erbjuder över 280 examensprogram inom olika ämnesområden, som arkitektur, teknik, medicin och konst. Universitetet är känt för sin forskning och innovation, särskilt inom områden som miljövetenskap, biovetenskap och datavetenskap. Det har också starka idrottsprogram och är medlem i Pac-12 Conference, med många framgångsrika lag inom olika sporter.

Senaste nytt kring University of Washington

AlphaFold3, en ny AI som kan förutsäga biomolekylers strukturer

Forskare har tagit ett stort steg mot att förstå proteiners och andra biomolekylers funktion genom utveckling av nya maskininlärningsalgoritmer. I en artikel publicerad i Nature presenterade Google DeepMind och dess spinoff-företag Isomorphic Labs den senaste versionen av deras AlphaFold-program, AlphaFold3, som kan förutsäga strukturerna hos proteiner, DNA, RNA, ligander och andra biomolekyler. AlphaFold3 går utöver proteiner till en mer utmanande och relevant biologisk landskap som inkluderar den stora mångfalden av molekyler som interagerar i celler.

Direktlänk Dela Quanta Magazine fördjupade 9 maj
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

AI-teknologi genererar ritningar för DNA-redigering

Generativa AI-teknologier kan nu skapa ritningar för mikroskopiska biologiska mekanismer som kan redigera DNA, vilket pekar mot en framtid där forskare kan bekämpa sjukdomar med större precision och hastighet än idag. Enligt en forskningsartikel publicerad av Profluent, ett startup-företag i Berkeley, Kalifornien, är tekniken baserad på samma metoder som driver ChatGPT, den online chatbot som lanserade AI-boomen efter sin release 2022. Profluent meddelade också att de har använt en av dessa AI-genererade genredigerare för att redigera mänskligt DNA och att de ´open sourcear´ denna redigerare, kallad OpenCRISPR-1. Detta innebär att de tillåter individer, akademiska laboratorier och företag att experimentera med tekniken gratis. Projektet är en del av en bredare ansträngning att bygga AI-teknologier som kan förbättra sjukvården.

Direktlänk Dela Genetic Literacy Project fördjupade 7 maj

Emily Fox, Ph.D., utses till Senior Vice President för AI/maskininlärning på insitro

insitro, ett läkemedelsupptäckande och utvecklande företag drivet av maskininlärning, har utsett Emily Fox, Ph.D., till Senior Vice President för AI/maskininlärning. I denna roll kommer hon att övervaka områden som data science och beräkningsbiologi, inklusive data modaliteter som genetik, omics, avbildning, kliniska data och molekylär design. Dr. Fox, professor vid avdelningen för statistik och datavetenskap vid Stanford University, har gjort banbrytande bidrag till tillämpningen av maskininlärning inom sjukvården.

Direktlänk Dela Business Wire fördjupade 30 april

Äldre invandrare lär sig om AI och dess risker

Lam Thuy Vo, en utredande journalist vid The Markup, har besökt en grupp vietnamesiska invandrare i Oakland för att förklara koncept som AI och desinformation. Under ett gemenskapligt möte frågade Vo om någon i gruppen, som mestadels bestod av personer i 50- och 60-årsåldern, kände till AI. Ingen i gruppen hade hört talas om det. Vo, tillsammans med Sarah Nguyễn, en doktorand vid University of Washington, och Thảo Lê, en vietnamesisk tolk under utbildning, försökte förklara AI och dess risker. Trots brist på kunskap om teknologi, kämpar dessa äldre redan med onlinehot som robocalls och phishingförsök.

Direktlänk Dela CalMatters fördjupade 26 april

Ny forskning utmanar förmågan hos multimodala språkmodeller att förstå visuell perception

Forskare från University of Pennsylvania, University of Washington, Allen Institute for AI, University of California och Columbia University har samarbetat för att undersöka visuell perception hos multimodala stora språkmodeller (LLMs). De introducerar Blink, en ny benchmark för LLMs som fokuserar på kärnvisuell perceptionsförmåga. Blink innehåller 14 klassiska datorseendeutmaningar och 3 800 frågor med 7 300 bilder. Forskarna upptäckte att den mest avancerade modellen, GPT-4V, bara uppnådde en genomsnittlig noggrannhet på 51,26%, vilket är 44,44% sämre än människor och bara 13,17% bättre än slumpmässig gissning. Forskningen föreslår att perceptuella kapaciteter hos multimodala LLMs kan ha överdrivits.

Direktlänk Dela MarkTechPost fördjupade 23 april

True Media: Ett verktyg för att bekämpa AI-baserad desinformation

True Media är en icke-vinstdrivande organisation som syftar till att identifiera AI-baserad desinformation genom att analysera manipulerade bilder, videor och texter. Organisationen, grundad av Oren Etzioni, använder en kombination av egenutvecklad teknik och AI-baserade verktyg för att avgöra om misstänkt media är äkta eller förfalskad. True Media kan användas av journalister, faktakontrollanter, kampanjpersonal, universitet och ideella organisationer. Enligt True Media själva har deras teknik över 90 procent träffsäkerhet vid identifiering av deepfakes.

Direktlänk Dela Nyheter24 fördjupade 18 april

Japan inleder partnerskap med amerikanska universitet för att påskynda AI-forskning

Japan har inlett nya partnerskap med amerikanska universitet för att påskynda forskning inom artificiell intelligens (AI). Enligt avtalet kommer University of Washington och University of Tsukuba att gemensamt forska kring AI och arbetsplatsutveckling. I ett andra partnerskap kommer Carnegie Mellon University att samarbeta med Keio University för att fokusera på multimodal inlärning, kroppslig AI och livsvetenskaper. Privata amerikanska och japanska företag, inklusive Nvidia, Softbank Group och Amazon, kommer att bidra med 110 miljoner dollar för att stödja forskningsinsatserna.

Direktlänk Dela AI Business fördjupade 15 april

Universiteten i Washington och Tsukuba ingår AI-partnerskap med NVIDIA och Amazon

Universitetet i Washington och Universitetet i Tsukuba har gått in i ett innovationspartnerskap med NVIDIA och Amazon för att främja forskning, entreprenörskap, arbetskraftsutveckling och social implementering inom artificiell intelligens. Detta USA-Japan akademiska partnerskap är en del av en bred, $110 miljoner insats för att bygga vidare på de starka banden mellan USA och Japan och fortsätta att leda innovation och tekniska genombrott inom artificiell intelligens. Avtalet tillkännagavs den 9 april i Washington, D.C. som en del av premiärminister Kishida Fumios historiska statsbesök.

Direktlänk Dela India Education Diary fördjupade 13 april

Försvar av LLM i datavetenskap: Vad ChatGPT kan och inte kan göra för din datavetenskapskarriär

När ChatGPT först lanserades i november 2022 var entusiasmen för LLM (Large Language Model) enorm. AI:n kommunicerade som en människa, vilket till och med för teknikinitierade var chockerande. Men sedan började problemen visa sig. ChatGPT hallucinerar, enligt maskininlärningsforskare, och citerar ofta ´källor´ som inte existerar. Etiker varnar för att ChatGPT är en katastrof för akademisk integritet, och AI-etikforskare varnar för att mycket av träningsdatan var full av fördomar. Trots detta menar artikelförfattaren att det vore dumt att helt ignorera tekniken.

Direktlänk Dela Towards Data Science fördjupade 11 april

USA och Japan avtäcker gemensamma teknikinitiativ

USA och Japan har presenterat en rad nya initiativ inom AI, kvantberäkning, halvledare och andra kritiska teknologier. President Biden och Japans premiärminister Kishida Fumio tillkännagav de ambitiösa planerna under Kishidas officiella besök i Vita huset. Ett av de mest framstående initiativen är ett partnerskap på 110 miljoner dollar mellan University of Washington, University of Tsukuba, Carnegie Mellon University och Keio University, med stöd av techjättar som NVIDIA, Arm, Amazon och Microsoft samt japanska företag. USA och Japan har också åtagit sig att stödja varandra i etableringen av nationella AI-säkerhetsinstitut.

Direktlänk Dela AI News fördjupade 11 april

Frågor kring AI-träning med användardata växer

Innehåll som postas på internet används troligen för att träna den nuvarande vågen av generativa AI. Teknikföretag har skrapat stora delar av webben för att samla in data som de påstår behövs för att skapa generativ AI, ofta utan hänsyn till innehållsskapare, upphovsrättslagar eller sekretess. Företag med stora mängder människors inlägg försöker nu sälja eller licensiera informationen. Samtidigt har det gjorts små framsteg för att ge människor mer kontroll över vad som händer med det de postar online. Vissa företag låter nu individer och företagskunder välja bort att deras innehåll används i AI-träning eller säljs för träningsändamål.

Direktlänk Dela Wired fördjupade 10 april
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

Thomas Padilla, biträdande direktör på Archive.org, diskuterade vad som exakt utgör en ´öppen AI´ under National Information Standards Organizations konferens. Han identifierade fem egenskaper som öppen AI bör ha, inklusive att den ska vara återanvändbar och att användarna ska väga avvägningar mellan prestanda och ´bredare återanvändbarhet och potentialen för andra i vårt samhälle att bygga på den nedre modellen´. Padilla granskade också licensvillkoren för Meta´s Llama 2 på dess GitHub-förråd och ifrågasatte om det verkligen är öppen källkod. Han nämnde också det öppna språkmodellen OLMo som ett exempel på en modell som visar löfte om att ha en starkare överensstämmelse med andan av öppen källkod.

The New Stack fördjupade 31 mars

Meta AI och University of Washington presenterar CAD för att förbättra språkmodellers sammanfattningar

Forskare från University of Washington och Meta AI har presenterat en kontextmedveten avkodning (CAD) som förstärker skillnaden mellan utdata-sannolikheter när en modell används med och utan kontext. CAD är särskilt effektiv för att åsidosätta en modells tidigare kunskap när den motsäger den tillhandahållna kontexten, vilket leder till betydande förbättringar i uppgifter där det är nödvändigt att lösa kunskapskonflikter. CAD kan användas med färdigtränade språkmodeller utan ytterligare träning. I tester har CAD visat sig överträffa den standardavkodningsalgoritmen med stor marginal i alla åtta modeller över båda datamängderna.

Direktlänk Dela MarkTechPost fördjupade 31 mars

Forskare vid University of Washington, inklusive professor Jenq-Neng Hwang, har utvecklat en metod för att lära AI att övervaka hur många distinkta poser en bebis kan uppnå under dagen. Detta är användbart för att hjälpa familjer med autismhistorik att förstå om deras bebisar också sannolikt har autism. Forskarna har skapat en unik pipeline för att göra sin algoritm exakt och användbar, trots begränsade träningsdata för bebisar. Arbetet presenterades nyligen vid IEEE/CVF Winter Conference on Applications of Computer Vision 2024.

Tech Xplore fördjupade 29 mars

ChatGPT: En revolution inom kundengagemang och sociala medier

ChatGPT, en AI-modell utvecklad av OpenAI, förändrar sättet företag engagerar sig med kunder och analyserar sociala medier. Med sin förmåga att processa naturligt språk kan ChatGPT erbjuda mänskliknande interaktioner, vilket förbättrar kundservice och minskar risken för missförstånd. Dessutom kan ChatGPT upptäcka känslomässiga undertoner i kommunikation, vilket är avgörande för kundnöjdhet. Denna AI-innovation gör det möjligt för företag att upptäcka mönster och trender i sociala medier. Trots dess avancerade kapabiliteter kräver ChatGPT inte omfattande datorresurser, vilket gör den tillgänglig för både stora företag och mindre uppstartsföretag.

Direktlänk Dela YTech News fördjupade 26 mars

Microsoft och University of Washington utvecklar nytt ramverk för textmining

Forskare från Microsoft Corporation och University of Washington har presenterat TnT-LLM, ett nytt ramverk för textmining. TnT-LLM är en tvåstegsmodell som använder fördelarna med att träna efter stora språkmodeller (LLMs) i båda stegen för att generera taxonomier och klassificera texter. Forskarna kommer först upp med en nollskotts flerstegs resonemangsmetod för taxonomiskapandefasen. Denna metod berättar för en LLM att skapa och förbättra en etiketttaxonomi för ett specifikt användningsfall (såsom avsiktsdetektering) upprepade gånger baserat på korpusen. Sedan använder de LLMs som dataförstärkningar för klassificering av texter. Denna metod kan enkelt anpassas till olika användningsfall och textkorpusar med minimal mänsklig inblandning. Forskarna planerar att vidare undersöka hybridmetoder som kombinerar LLMs med inbäddningsbaserade metoder för att öka ramverkets hastighet, effektivitet och motståndskraft.

Direktlänk Dela MarkTechPost fördjupade 24 mars

Gymnasieelever lär sig identifiera deepfakes och konspirationsteorier på MisInfo Day

Gymnasieelever deltog i University of Washingtons årliga MisInfo Day tidigare denna månad. De tittade på bilder av ansikten för att avgöra om bilderna skapats med generativa AI-verktyg eller var autentiska. Videor, bilder och texter skapade av generativa artificiella intelligensverktyg dyker upp i val, till försäljning på Amazon och till och med i rättsdokument. MisInfo Day har sedan dess grundande 2019 vuxit till att bli en av nationens mest kända mediekompetenshändelser för gymnasieelever. Gymnasielärare sökte något liknande de kunde ta med till sina elever, och MisInfo Day föddes.

Direktlänk Dela Capital Public Radio fördjupade 21 mars

Forskare utvecklar ny attack för att stjäla data från AI-modeller

Forskare från Google DeepMind, Open AI, ETH Zurich, McGill University och University of Washington har utvecklat en ny attack för att extrahera viktig arkitekturinformation från stora språkmodeller som ChatGPT och Google PaLM-2. Forskningen visar hur angripare kan extrahera antagligen dold data från en chattbot med LLM för att kopiera eller stjäla dess funktionalitet helt. Angreppet avslöjar svagheter som tillverkare av AI-verktyg fortfarande behöver lösa i sina teknologier. Forskarna kunde genom att attackera det sista lagret av många stora LLMs extrahera betydande proprietär information om modellerna.

Direktlänk Dela Dark Reading fördjupade 13 mars

Forskare avslöjar sårbarheter i AI-språkmodeller

Forskare från Google DeepMind, OpenAI, ETH Zurich, McGill University och University of Washington har utvecklat ett nytt angrepp för att extrahera viktig strukturell information från proprietära stora språkmodeller (LLM), som ChatGPT och Google PaLM-2. Studien visar hur motståndare kan extrahera dolda detaljer från en LLM-aktiverad chatbot för att kopiera eller stjäla dess funktioner. Forskarna noterar att mycket lite är känt offentligt om hur stora språkmodeller som GPT-4, Gemini och Claude 2 fungerar. Angripare som kan extrahera information från det så kallade ´embedding projection layer´ kan få värdefull insikt i modellens interna funktion för att generera mer effektiva angrepp, reverse engineer modellen, eller försöka underminera dess beteende.

Direktlänk Dela Tech Gate fördjupade 13 mars

Forskare har lyckats öppna stängda AI-tjänster från OpenAI och Google

En grupp forskare har lyckats öppna stängda AI-tjänster från OpenAI och Google, genom att utnyttja en attack som återvinner en annars dold del av transformer-modeller. Attacken belyser delvis en viss typ av så kallade ´svarta låda´-modeller, genom att avslöja inbäddningsprojektionslagret av en transformer-modell genom API-förfrågningar. Forskarna har offentliggjort sina resultat till OpenAI och Google, båda har infört försvar för att motverka attacken. De valde att inte publicera storleken på två OpenAI gpt-3.5-turbo-modeller, vilka fortfarande används.

Direktlänk Dela The Register fördjupade 13 mars

Ny teknik för att kringgå AI-säkerhet med ASCII-konst

Forskare från University of Washington och University of Chicago har utvecklat en ny metod för att kringgå säkerhetsprotokoll i avancerade AI-språkmodeller, inklusive ChatGPT-4, Claude, Gemini och LLaMA. Metoden använder ASCII-konst för att maskera ord som vanligtvis censureras av AI:ns säkerhetsprotokoll. Genom att omvandla ord till ASCII-bilder kan de få AI-system att svara med innehåll som de är programmerade att undvika. Detta är en betydande oro för dem som förlitar sig på AI:ns förmåga att filtrera bort oönskat material. Denna sårbarhet har testats och bekräftats på flera AI-modeller.

Direktlänk Dela Geeky Gadgets fördjupade 11 mars
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

Anthropic presenterar världens mest intelligenta chattbot, Claude 3.0

Anthropic har avslöjat den senaste versionen av sin Claude-familj av chattbotar, Claude 3.0, som lovar förbättrade förmågor och säkerhet. Den nya modellen, som följer Claude 2.0, visar hur snabbt denna industri utvecklas. Claude 3.0 kan svara på textfrågor och analysera bilder, men genererar inte bilder från text. Det finns tre versioner av Claude 3, från instegsnivån ´Haiku´ till ´Sonnet´ på nära expertnivå och toppmodellen ´Opus´. Alla inkluderar ett kontextfönster på 200 000 tokens, motsvarande cirka 150 000 ord. Claude 3.0 har också ledande resultat på standardiserade språk- och mattester.

Direktlänk Dela VentureBeat fördjupade 10 mars

AI-genererade recept leder ofta till oväntade resultat, varnar experter

Artificiell intelligens (AI) skapar allt fler recept, men resultaten är ofta oväntade och inte alltid på ett bra sätt. Livsmedelsmärken som Heinz och Avocados From Mexico försöker integrera tekniken på sina webbplatser, men experter varnar för att AI inte är så smart som vi tror, särskilt när det gäller mat. AI kan inte förstå alla de multisensoriska upplevelser som gör god mat bra, eftersom de är utformade för att matcha tvådimensionella ord och färger. Dessutom kan AI inte kontrollera sitt arbete, eftersom det saknar luktsinne och smaklökar. Det finns även risk för att AI kan sätta ihop saker som kan vara giftiga eller skadliga, eller interagera med människors mediciner utan att kunna flagga för det eller märka det.

Direktlänk Dela The Washington Post fördjupade 7 mars

Öppet brev om AI kritiseras för brist på specifika åtaganden

Ett öppet brev med titeln ´Bygg AI för en bättre framtid´, initierat av riskkapitalisten Ron Conway och hans företag SV Angel, har fått över 300 underskrifter från företag som OpenAI, Salesforce, Google, Meta och Microsoft. Brevet uppmanar alla att bygga, bredvid utplacera och använda AI för att förbättra människors liv och låsa upp en bättre framtid. Brevet har dock kritiserats för att vara vagt och sakna specifika åtaganden. Det adresserar inte frågor om transparens, ansvar och hänsyn till integritet, bias och ojämlikhet.

Direktlänk Dela VentureBeat fördjupade 6 mars

AI förändrar konstvärlden, skapar oro för konstnärers ersättning

Konstnärer och forskare diskuterar den växande rollen av artificiell intelligens (AI) i konstvärlden. Seattle-konstnären Gerardo Pena, även känd som Periko the Artist, uttrycker oro över hur konstnärer kommer att ersättas när deras arbete i princip återskapas av AI. Peter Hamilton, medgrundare av världens första NFT-museum i Seattle, ser AI som en del av konstens utveckling och som ett nytt verktyg för konstnärer. Adam Hyland, doktorand vid University of Washington, forskar kring kontroverserna kring AI-genererad konst och oroar sig för den snabba takt och skala på vilken AI används i konst.

Direktlänk Dela KING 5 News fördjupade 4 mars

Användning av AI för att förbättra medicinsk datahantering

Läkare har mycket data att informera sina beslut, men har inte alltid tid att tolka dessa data. Dushyant Sahani, ordförande för radiologi vid University of Washington, tror att läkare endast kan bearbeta cirka 5% av den tillgängliga datan innan de bestämmer sig för en viss behandling. Sahani är medgrundare till UW:s institut för medicinsk datavetenskap, som stöder hälso- och sjukvårdsrelaterade artificiella intelligensinitiativ. Institutet hoppas kunna tillhandahålla forskning, utbildning och finansiering för att få AI in i sjukhus för att förbättra patientresultaten.

Direktlänk Dela The Columbian fördjupade 3 mars

AI-startups utvecklar teknik för att generera övertygande videor

I april avslöjade New York-startupen Runway AI en teknik som låter människor generera videor genom att skriva en mening på en datorskärm. Trots att de första videorna var suddiga och störda, var det ett tydligt tecken på att AI-teknologier kommer att generera allt mer övertygande videor. Bara tio månader senare har San Francisco-startupen OpenAI avtäckt ett liknande system som skapar videor som ser ut som om de var tagna från en Hollywoodfilm. Tekniken kan snabba upp arbetet för erfarna filmskapare, men också bli ett snabbt och billigt sätt att skapa online desinformation. OpenAI kallar sitt nya system Sora, efter det japanska ordet för himmel.

Direktlänk Dela Modern Diplomacy fördjupade 29 februari

Google pausar bildgenerering i AI-chatbot Gemini efter kritik

Google har pausat funktionen för att generera bilder av människor i sin AI-chatbot Gemini efter att användare påpekade att den inte visade vita personer i historiska sammanhang. Företaget tillät att Gemini användare genererade realistiska bilder av människor, men användare på sociala medier plattformen X påpekade att Gemini undvek att visa vita människor, även i historiska sammanhang där de sannolikt skulle dominera skildringarna. Google tog tillfälligt bort bildgenereringsfunktionen för människor och företagets senior vice VD Prabhakar Raghavan publicerade ett blogginlägg för att försöka förklara företagets beslut. Google har kritiserats för att inte ha varit tillräckligt transparenta om sitt tillvägagångssätt.

Direktlänk Dela Time Magazine fördjupade 28 februari

Google ber om ursäkt för felaktig utrullning av AI-bildgenerator

Google ber om ursäkt för den felaktiga utrullningen av sin nya artificiella intelligens-bildgenerator. Verktyget överkompenserade ibland i sin strävan att generera en diversifierad uppsättning människor, även när det inte var meningsfullt. Detta ledde till att Google tillfälligt stoppade sin Gemini-chatbot från att generera några bilder med människor i dem, efter att vissa användare på sociala medier hävdade att verktyget hade en anti-vit bias. Prabhakar Raghavan, en högre vice VD som driver Googles sökmotor och andra företag, medgav att vissa av de genererade bilderna var felaktiga eller till och med stötande.

Direktlänk Dela MarketWatch fördjupade 24 februari

Google ber om ursäkt för felaktig AI-bildgenerering

Google bad om ursäkt på fredagen för den felaktiga lanseringen av en ny artificiell intelligens bildgenerator, och erkände att resursen i vissa fall skulle ´överkompensera´ i sökandet efter en mångfald av människor även när en sådan variation inte var logisk. Detta kom efter att Google tillfälligt stoppat sin Gemini chatbot från att generera några bilder med människor i dem, som svar på sociala medier som hävdade att verktyget hade en anti-vit bias. Prabhakar Raghavan, en hög chef på Google, medgav att vissa av de genererade bilderna var felaktiga eller till och med stötande.

Direktlänk Dela Tech Gate fördjupade 24 februari

Grimes kallar Google Gemini AI för ´årtiondets mest inverkande konstprojekt´

Den kanadensiska musikern och skivproducenten Grimes har i ett inlägg på sociala medier beskrivit Google Gemini AI som ´årtiondets mest inverkande konstprojekt´ och ´värdigt moma´. Uttalandet kom efter att Google tillfälligt stoppat chatbotens förmåga att generera bilder. Tidigare under veckan började användare på sociala medier posta skärmdumpar av chatboten som påstås ha producerat bilder på figurer av olika raser som svar på uppmaningar att skapa historiska scener från perioder i historien som generellt domineras av vita människor. Google meddelade att de jobbar på att förbättra dessa avbildningar.

Direktlänk Dela ARTnews fördjupade 24 februari

Google ber om ursäkt för felaktig lansering av AI-bildgenerator

Google bad om ursäkt på fredagen för sin felaktiga lansering av en ny artificiell intelligens bildgenerator, och erkände att verktyget i vissa fall skulle ´överkompensera´ när det sökte en mångfald av människor även när en sådan variation inte var logisk. Detta kom som svar på en sociala medier-upprördhet från vissa användare som hävdade att verktyget hade en anti-vit bias i sättet det genererade en rasligt diversifierad uppsättning bilder i svar på skriftliga uppmaningar. Prabhakar Raghavan, en senior vice president som driver Googles sökmotor och andra företag, sa i ett blogginlägg på fredagen att ´det är klart att denna funktion missade målet´. Google tillade den nya bildgenererande funktionen till sin Gemini chatbot, tidigare känd som Bard, för ungefär tre veckor sedan. Google har länge vetat att sådana verktyg kan vara svårhanterliga. Sedan dess har pressen att offentligt släppa generativa AI-produkter ökat på grund av en konkurrenskamp mellan teknikföretag som försöker kapitalisera på intresset för den framväxande tekniken. Raghavan sa på fredagen att ´när vi byggde denna funktion i Gemini, stämde vi den för att säkerställa att den inte faller i några av de fällor vi sett tidigare med bildgenereringsteknik´.

Direktlänk Dela The Baltimore Sun fördjupade 23 februari

Google pausar bildgenerering för AI-chatbot Gemini på grund av felaktiga historiska skildringar

Google har tillfälligt stoppat sin AI-chatbot Gemini från att generera bilder av människor, efter att ha bett om ursäkt för ´felaktigheter´ i de historiska framställningar den skapade. Användare har lagt upp skärmdumpar på sociala medier av historiskt vita dominerade scener med etniskt mångsidiga karaktärer som de säger att den genererade, vilket har lett till kritik om företaget överkompenserar för risken för rasbias i sin AI-modell. Google meddelade att de arbetar för att förbättra dessa skildringar.

Direktlänk Dela South China Morning Post fördjupade 23 februari

Framtidsutsikter för marknaden för kurser inom maskininlärning undersöks i ny rapport

En ny forskningsrapport undersöker utvecklingen och framtidsutsikterna för marknaden för kurser inom maskininlärning fram till 2030. Rapporten använder både kvalitativa och kvantitativa metoder för att analysera marknadens drivkrafter och begränsningar. Rapporten inkluderar även en djupgående analys av geografisk segmentering, nuvarande efterfrågan, tillväxthastighet, branschintäkter och CAGR-status. Forskningen erbjuder taktiker för företag att motverka riskerna som COVID-19 medför. Nyckelspelare på marknaden inkluderar bland andra edX, Ivy Professional School, NobleProg, Udacity, Coursera, Undemy, Google, CloudxLab, Greatlearning, Simplilearn, MIT, University of Washington, Edvancer, Jigsaw Academy, CMU och Collège de France.

Direktlänk Dela The Suffolk Voice fördjupade 23 februari

OpenAI introducerar AI-video generator ´Sora´

OpenAI, företaget bakom chattbotten ChatGPT och stillbildsgeneratorn DALL-E, har introducerat en ny teknik kallad ´Sora´ som kan generera videoklipp som ser ut som de är tagna direkt från en Hollywood-film. Tekniken, som avslöjades bara 10 månader efter att New York-startupen Runway AI presenterade liknande teknik, kan skapa videor baserat på korta beskrivningar. Detta kan påskynda arbetet för erfarna filmskapare, men kan också bli ett snabbt och billigt sätt att skapa desinformation online. OpenAI delar för närvarande tekniken med en liten grupp akademiker och forskare för att identifiera potentiella missbruk.

Direktlänk Dela Hawaii Tribune-Herald fördjupade 22 februari

AI-bildgenerators bilder kan påverkas av kön och rasstereotyper, enligt studie

En studie från University of Washington tyder på att resultatet av en AI-bildgenerator kan påverkas av kön och rasstereotyper. Studien fann att bildgenereraren Stable Diffusion överrepresenterade ljushyade män, underrepresenterade ursprungsbefolkningar och till och med sexualiserade vissa kvinnor av färg när den ombads att skapa en bild av ”en person”. Eftersom AI blir allt mer utbrett i vårt dagliga liv, har dessa typer av mänskliga fördomar och fördomar potential att spridas och orsaka mer skada. Sourojit Ghosh, en fjärdeårs doktorand i människocentrerad design och teknik vid University of Washington, och Ramón Alvarado, biträdande professor i filosofi och medlem av Data Science Initiative vid University of Oregon, diskuterar etiken kring artificiell intelligens.

Direktlänk Dela Oregon Public Broadcasting fördjupade 14 februari

Forskare utvecklar den största n-gramspråkmodellen hittills

Forskare från University of Washington och Allen Institute for Artificial Intelligence har utforskat relevansen av n-gramspråkmodeller (LM) i eran av neurala stora språkmodeller (LLM). De har moderniserat traditionella n-gram LMs genom att skala upp träningsdata till 1,4 biljoner tokens, vilket motsvarar storleken på stora öppen källkods-textkorpusar. Detta representerar den största n-gram LM hittills. Forskarna introducerar konceptet med en ∞-gram LM, med obegränsat n, som använder en backoff-variant för förbättrad noggrannhet. Den nya modellen, kallad infini-gram-motorn, uppnår enastående effektivitet med 7 byte lagring per token.

Direktlänk Dela MarkTechPost fördjupade 13 februari

AI upptäcker nya antibiotika och öppnar upp för bättre läkemedelsdesign

Forskare vid MIT har upptäckt en ny klass av antibiotika som kan utrota den läkemedelsresistenta superbakterien MRSA, tack vare AI. Studien är ett betydande genombrott då få nya antibiotika har utvecklats sedan 1960-talet. Forskarna använde en metod känd som förklarande AI, vilket avslöjar AI:ns resonemangsprocess. Detta kan vara avgörande för att utveckla ny läkemedelsdesign. Forskarna matade in data, såsom patientegenskaper, och modellen förutspådde vilka läkemedel som kan vara effektiva. Forskarna hade ingen aning om hur modellen kom fram till sina förutsägelser - tills nu.

Direktlänk Dela Medscape fördjupade 13 februari

Mobilapp kan identifiera sjukdomar baserat på hostljud

Forskare och läkare vid University of Washington utvecklar en mobilapp som kan identifiera respiratoriska sjukdomar baserat på ljudet av hosta. Forskarna använder maskininlärning för att identifiera olika hostor från olika sjukdomar, särskilt tuberkulos. Dr. David Horne, en docent vid UW Medicine och medicinsk chef på Firland Northwest TB Center, och hans team arbetar med att utveckla appen. Appen jämför ljudet av TB-relaterade hostor med andra typer av hostor. Forskarna samlade in data från en grupp i Nairobi, Kenya, för forskningen. De samlade in inspelningar av hostor från bekräftade TB-patienter och de som inte hade TB. Forskarna hoppas kunna utveckla appen ytterligare för att till slut kunna registrera och jämföra hostor från COVID-19, lunginflammation och astmapatienter.

Direktlänk Dela KING 5 News fördjupade 10 februari

Forskare utvecklar ny djupinlärningsmetod för proteindesign

Ett forskarteam från University of Washington har tagit fram en djupinlärningsbaserad metod för proteindesign, kallad LigandMPNN, för att adressera befintliga utmaningar i proteindesignprocessen. Tidigare metoder, som Rosetta och ProteinMPNN, har inte kunnat modellera icke-proteinatomer och molekyler explicit, vilket hindrar noggrann design av proteinsekvenser som interagerar med små molekyler, nukleotider och metaller. LigandMPNN bygger på ProteinMPNN-arkitekturen men inkluderar den fullständiga icke-proteinatomiska kontexten. Metoden visade sig vara mer effektiv och 250 gånger snabbare än Rosetta.

Direktlänk Dela MarkTechPost fördjupade 4 februari

Apple lanserar Vision Pro och ny AI-verktyg för att bekämpa djupfalskningar avslöjas

Apple CEO Tim Cook och senior vice president för detaljhandel, Deirdre O´Brien, lanserade försäljningen av Apple Vision Pro i New York denna vecka. Ken Case, medgrundare och VD för Seattle-baserade Omni Group, diskuterade utvecklingen av mjukvara för den nya enheten. Omni Group, som skapar produktivitetsappar för Mac, iPhone och iPad, har släppt en version av sin projektledningsmjukvara OmniPlan för Apple Vision Pro. Dessutom avslöjade Oren Etzioni, en datorvetenskapsprofessor vid University of Washington och en långvarig AI-specialist, en ny icke-vinstdrivande och icke-partisk teknikorganisation, TrueMedia.org. De utvecklar ett AI-drivet verktyg för att upptäcka AI-genererade djupfalskningar, i syfte att bekämpa politisk desinformation inför valet 2024.

Direktlänk Dela GeekWire fördjupade 3 februari

Allen Institute for AI släpper öppen källkodsmodell för stora språk: OLMo

Allen Institute for AI (AI2) har släppt sin Open Language Model, eller OLMo, en efterlängtad öppen källkodsmodell för stora språk, tillsammans med den underliggande datan och koden som syftar till att betydligt förbättra förståelsen för hur generativ AI faktiskt fungerar. OLMo är enligt AI2 en verkligt öppen källkodsmodell för stora språk som släppts tillsammans med förträningsdata och träningskod, något som inga öppna modeller i denna skala erbjuder idag. Målet är att kollektivt främja vetenskapen om språkmodeller. OLMo finns tillgängligt på HuggingFace och GitHub.

Direktlänk Dela GeekWire fördjupade 2 februari

Universitetet i Washington begränsar användningen av AI-verktyget ChatGPT i undervisningen

Efter att användningen av AI-verktyget ChatGPT har ökat under det senaste året har flera professorer vid University of Washington (UW) ändrat sina kursformat och skapat specifika regler för hur tjänsten får användas i deras kurser. Kevin Zatloukal, datavetenskapsprofessor vid Paul G. Allen School of Computer Science, tillåter inte sina studenter att använda ChatGPT på uppdrag. Megan Callow, direktör för skrivprogrammet över hela campus, delar också oro över ChatGPT: s tillförlitlighet.

Direktlänk Dela The Daily of the University of Washington fördjupade 29 januari

Förstår artificiell intelligens vad den säger?

Artificiell intelligens (AI) har blivit mer kraftfull än någonsin, men forskare undrar fortfarande om dessa AI-modeller förstår vad de säger. AI-pionjären Geoff Hinton menar att det är dags att avgöra vad dessa modeller förstår. En teori utvecklad av Sanjeev Arora vid Princeton University och Anirudh Goyal vid Google DeepMind tyder på att dagens största språkmodeller inte bara härmar vad de har sett tidigare. Deras teoretiska tillvägagångssätt, som ger ett matematiskt bevisbart argument för hur och varför en stor språkmodell kan utveckla så många förmågor, har övertygat experter som Hinton och andra.

Direktlänk Dela Quanta Magazine fördjupade 22 januari

Ny maskininlärningsbok av Chirag Shah från University of Washington

En ny bok, ´A Hands-on Introduction to Machine Learning´, av Chirag Shah, professor vid University of Washington, har mottagit positiva recensioner för dess pedagogiska tillvägagångssätt. Boken innehåller detaljerad täckning av maskininlärningsämnen, med hjälpfulla ´Prova själv´-sidor för läsarna att testa sin förståelse. Varje kapitel innehåller också ´Konceptuella frågor´ och ´Hands-on-exempel´. Boken använder mest Python, men har också ett appendix ´R for Machine Learning´.

Direktlänk Dela Inside Big Data fördjupade 22 januari

Felmeddelanden från AI-verktyg har blivit allt vanligare på internet, vilket tyder på att en stor del av innehållet skapas av AI snarare än människor. Dessa felmeddelanden genereras när AI-verktyg som OpenAI:s ChatGPT får en begäran som strider mot deras riktlinjer. Mike Caulfield, som studerar desinformation och digital läskunnighet vid University of Washington, varnar för att AI-språkverktyg skapar en ny generation av lågkvalitativt spam som hotar att översvämma internet. McKenzie Sadeghi, analytiker på NewsGuard, påpekar att det troligen finns mycket AI-genererat innehåll som inte innehåller dessa AI-felmeddelanden och därför är svårare att upptäcka.

Fior Reports fördjupade 20 januari

AI-genererade felmeddelanden blir allt vanligare på internet

På Amazon kan du köpa en produkt med namnet ´Förlåt, jag kan inte slutföra denna begäran eftersom den strider mot OpenAI:s användningspolicy´. Sådana felmeddelanden har blivit ett tecken på att innehåll på internet inte är skrivet av människor, utan genererat av AI-verktyg som OpenAI:s ChatGPT. Dessa felmeddelanden blir vanligare när människor och företag använder AI för att snabbt och billigt skapa innehåll, även för ändamål som strider mot OpenAI:s policy, som plagiat eller falsk online-interaktion. McKenzie Sadeghi, analytiker på NewsGuard, en firma som spårar felinformation, noterade att många inlägg på sociala medier innehöll dessa felmeddelanden, vilket tyder på att konton använder chatboten för att automatiskt skapa inlägg. Dessa felmeddelanden har blivit så vanliga att de nu används som ett snabbt sätt att upptäcka AI-förfalskningar. Amazon har tagit bort vissa produktlistor med AI-felmeddelanden, men andra kvarstår. En talesperson för OpenAI, Niko Felix, sa att företaget regelbundet förfinar sina användningspolicyer för ChatGPT och andra AI-språkverktyg när de lär sig hur människor missbrukar dem.

Direktlänk Dela The Washington Post fördjupade 20 januari

Forskare förklarar språkmodeller på ett lättförståeligt sätt

Ett forskarteam vid University of Washington har publicerat en studie som förklarar språkmodeller på ett lättförståeligt sätt. Språkmodeller, som ofta kallas för ”artificiell intelligens”, ligger till grund för chatbots som ChatGPT och Google Bard. Sofia Serrano, doktorand vid Paul G. Allen School of Computer Science & Engineering, förklarar att en språkmodell i grunden är en nästa-ords-prediktor. Den tittar på mycket text och märker vilka ord som tenderar att följa efter vilka sekvenser av andra ord. Detta resulterar i en stor matematisk funktion som generellt är ganska bra på att förutsäga vilka ord som kommer härnäst.

Direktlänk Dela Newswise fördjupade 9 januari

AI hjälper forskare att studera djurkommunikation

Forskare använder allt mer artificiell intelligens (AI) för att studera djurs kommunikationssystem. Detta har lett till en ökad förståelse för djurkommunikation. AI verktyg som DeepSqueak, utvecklat av neurovetenskapsmannen Kevin Coffey vid University of Washington, USA, kan analysera stora mängder ljuddata från djur på sekunder, något som skulle ta människor årtionden att gå igenom. DeepSqueak hjälper till att avkoda gnagares prat genom att jämföra deras samtal med liknande samtal och ge insikter i deras beteende. Sedan introduktionen 2018 har DeepSqueak använts för att studera gnagares sociala beteende, droganvändning, autism och mer.

Direktlänk Dela ABS-CBN News fördjupade 9 januari

Forskare använder AI för att avkoda djurkommunikation

Forskare använder artificiell intelligens (AI) för att analysera och avkoda hur djur kommunicerar. Detta har lett till en ökad förståelse för djurs kommunikation, delvis tack vare AI, som gör det möjligt för forskare att analysera stora mängder ljuddata från djurrop på sekunder, en process som skulle ta människor årtionden att gå igenom. Det finns hundratals AI-verktyg för att analysera olika arters vokaliseringar. Kevin Coffey, en neurovetenskapsman vid University of Washington, USA, hjälpte till att bygga DeepSqueak, ett maskininlärningsverktyg som avkodar gnagares pladder. DeepSqueak har sedan dess introduktion 2018 använts för att studera gnagares sociala beteende, droganvändning, autism och mer. Det har också modifierats för användning med många andra arter, som delfiner, apor och fåglar. Forskare vid University of Würzburg, Tyskland, använde mikrofoner för att spela in ljudlandskap i regnskogen och analyserade djurens vokaliseringar, inklusive insekter och fåglar, för att spåra biologisk mångfald. Earth Species Project (ESP) använder också AI för att övervaka biologisk mångfald.

Direktlänk Dela Deutsche Welle fördjupade 8 januari

Forskare introducerar CLADDER, en datamängd för att testa formell orsakssambandsresonemang i LLM

Forskare från MPI för intelligenta system, Tübingen, ETH Zürich, IIT Kharagpur, Hongkong universitet och Washington universitet har introducerat CLADDER, en datamängd för att testa formell orsakssambandsresonemang i storskaliga språkmodeller (LLM) genom symboliska frågor och svar. CLADDER består av över 10 000 orsaksfrågor som täcker olika frågor över de tre stegen av kausalitetsstegen. Forskarna utformade också CausalCOT, en strategi för att förenkla orsakssambandsproblem genom att bryta ner dem i enklare steg. Resultaten tyder på att alla dessa modeller kämpar med resonemangsfrågorna i CLADDER-datasetet.

Direktlänk Dela MarkTechPost fördjupade 3 januari

Quantum maskininlärning: nästa steg i AI-teknologi?

Quantum maskininlärning, en kombination av maskininlärning och kvantdatorer, undersöks av teknikföretag som Google, IBM och uppstartsföretag som Righetti och IonQ. Akademiska forskare är också intresserade, med CERN redan använder maskininlärning för att leta efter subatomära partiklar. Forskare försöker nu avgöra om quantum maskininlärning erbjuder fördelar jämfört med klassisk varierande inlärning. Det finns också intresse för att tillämpa quantum maskininlärningsalgoritmer på fenomen som är inneboende kvantum.

Direktlänk Dela Biz.crast.net fördjupade 2 januari

Artiklar publicerade under 2023 avfärdar flera vanliga missuppfattningar om den senaste generationen av AI-chattrobotar. Chattrobotar verkar kunna mycket, men deras ´kunskap´ är faktiskt mänsklig kunskap återspeglad genom den massiva mängd text som de är tränade på. De har ingen fysisk kropp och kan inte göra rationella beslut. De är bra på att förutsäga den bästa sekvensen av ord att svara med, men de kan inte förstå konceptet av negation. Chattrobotar är inte 100% artificiella, de är beroende av tusentals arbetare och miljoner användare för att förbättra och utöka sitt innehåll.

The Atlanta Journal-Constitution fördjupade 28 december

Ny studie visar att superintelligent AI kan förutsägas och kontrolleras

En ny studie hävdar att uppkomsten av superintelligent AI är förutsägbar. Tidigare har det funnits farhågor om att superintelligent AI skulle kunna utvecklas på ett okontrollerbart sätt och bli ett stort problem. Studien presenterades på NeurIPS maskininlärningskonferens i New Orleans och visar att AI kan kontrolleras genom att överväldiga systemet med frågor. Forskarna testade också AI:s förmåga att utföra olika uppgifter och fann att tecken på intelligens försvann när de granskade sannolikheten för varje svar. Slutligen testades en datorvision där forskarna kunde återta kontrollen genom att ställa strängare krav på korrekthet.

Direktlänk Dela Knewz.com fördjupade 27 december

Föräldrar ser potential i AI för utbildning men oroar sig för bristande kunskap

En ny undersökning av National Parents Union visar att föräldrar ser möjligheter med artificiell intelligens (AI) inom K-12-utbildning, men oroar sig för att de vet för lite om det. Undersökningen visar att 44% av föräldrarna anser att det finns fördelar men också risker med AI. Endast 16% av de 1,515 respondenterna sade att de hade detaljerad information om hur AI fungerar, med 62% som sade att de vet lite till ingenting alls om hur AI fungerar för utbildning. Runt 1 av 4 föräldrar tror att de potentiella fördelarna med AI överväger nackdelarna, medan 16% sade motsatsen. Ytterligare 17% var osäkra.

Direktlänk Dela Read Lion fördjupade 27 december

Forskare använder Harry Potter för att förstå AI

Forskare använder Harry Potter-böckerna för att experimentera med generativ artificiell intelligens (AI) teknologi på grund av seriens bestående inflytande och komplexa språkdata. En artikel med titeln ´Vem är Harry Potter?´ belyser en ny teknik som hjälper stora språkmodeller att selektivt glömma information. Forskare från Microsoft har visat att AI-modeller kan ändras eller redigeras för att ta bort kunskap om Harry Potter-böckerna utan att offra beslutsfattande och analytiska förmågor. Forskare från University of Washington, University of California vid Berkeley och Allen Institute for AI har utvecklat en ny AI-språkmodell med hjälp av Harry Potter-böckerna.

Direktlänk Dela BollyInside fördjupade 27 december

Harry Potter-böcker används i AI-forskning för att testa språkmodeller

Harry Potter-böckerna används allt mer inom AI-forskning för att testa generativ artificiell intelligens. Forskare använder seriens omfattande språkdata och komplexa ordlekar för att experimentera med AI. Microsoft-forskarna Mark Russinovich och Ronen Eldan har till exempel demonstrerat att AI-modeller kan redigeras för att ta bort all kunskap om Harry Potter-böckerna, inklusive karaktärer och handlingar, utan att offra AI-systemets beslutsfattande och analytiska förmågor. I en annan studie utvecklade forskare från University of Washington, University of California och Allen Institute for AI en ny språkmodell som kan ta bort data för att minska juridiska risker.

Direktlänk Dela Hindustan Times Tech fördjupade 27 december

Experter varnar för ökad valrelaterad desinformation inför presidentvalet 2024

Experter varnar för att desinformation kopplad till val sannolikt kommer att bli ett ännu större problem inför presidentvalet 2024. Falska berättelser om att valet 2020 stals har fortfarande betydande genomslag. Verktyg som AI-text och bildprogramvara ökar risken för overifierbar, modifierad eller rentav påhittad information som kan vilseleda väljare. Florida guvernör Ron DeSantis presidentkampanj har redan använt AI-bilder för att dela vilseledande bilder om före detta president Donald Trump i annonser. Sociala medieplattformar har nyligen infört regler som styr avslöjande och varningar om användning av AI i politiska annonser. Twitter, under Elon Musks ägande, har kraftigt minskat moderering av desinformation.

Direktlänk Dela WMAR-2 News fördjupade 27 december

Experter varnar för riskerna med AI och deepfakes i USA:s presidentval 2024

Inför presidentvalet i USA 2024 varnar experter och förespråkare för påverkan av spridningen av artificiell intelligens (AI) och dess inverkan på mängden och sofistikeringen av desinformation riktad mot väljare. Detta blir första gången det blir lätt för vem som helst att få tillgång till AI-teknologi som kan skapa en trovärdig deepfake-video, foto eller ljudklipp på sekunder. Oren Etzioni, AI-expert och professor emeritus vid University of Washington, uttrycker rädsla för en ´tsunami av desinformation´. Dessutom har sociala medieföretag minskat antalet policyer utformade för att kontrollera spridningen av falska inlägg. Slutligen är Donald Trump, som varit en stor förespråkare för lögnen att han vann presidentvalet 2020 mot Biden, återigen kandidat 2024.

Direktlänk Dela Common Dreams fördjupade 27 december

Falska valkonspirationsteorier och deepfakes hotar framtida val i USA

Nästan tre år efter stormningen av USA:s kongress fortsätter falska valkonspirationsteorier att spridas på sociala medier och kabelnyheter, och experter varnar för att det sannolikt kommer att bli värre i kommande presidentval. Många amerikaner, uppviglade av före detta president Donald Trump, fortsätter att sprida den obefogade idén att valen i USA inte kan lita på. Samtidigt har generativa AI-verktyg gjort det billigare och enklare att sprida desinformation som kan vilseleda väljare och potentiellt påverka val. Sociala medieföretag som tidigare investerade tungt i att korrigera rekord har ändrat sina prioriteringar.

Direktlänk Dela Hartford Courant fördjupade 26 december

AI och deepfakes förändrar politiken genom att sprida desinformation

Enligt experter kan AI och deepfakes förändra politiken genom att sprida desinformation som kan påverka val. Många amerikaner, uppmuntrade av den tidigare presidenten Donald Trump, fortsätter att driva idén om att valen i USA inte kan lita på. Generativa AI-verktyg har gjort det billigare och enklare att sprida desinformation som kan vilseleda väljare och potentiellt påverka val. Sociala medieföretag som tidigare investerade tungt i att korrigera rekord har ändrat sina prioriteringar. Manipulerade bilder och videor kring val är inget nytt, men 2024 kommer att vara det första amerikanska presidentvalet där sofistikerade AI-verktyg som kan producera övertygande fejk på sekunder är bara några klick bort. Flera stater har infört lagar som kräver att deepfakes ska märkas eller förbjuder dem som missrepresenterar kandidater.

Direktlänk Dela CBS News fördjupade 26 december

Elon Musks AI-chattbot Grok skapar kontrovers med politiskt vinklade svar

Grok, en generativ AI-chattbot introducerad av Elon Musks AI-startup xAI, har skapat kontrovers genom att ge politiskt vinklade svar. När Grok tillfrågades om vem den skulle rösta på i nästa presidentval, svarade den att den skulle rösta på Joe Biden. Grok valde också ut de bästa och sämsta presidenterna i amerikansk historia, där Donald Trump var den enda listad som den sämsta sedan 1950, medan Barack Obama och Biden listades som de bästa. Detta har lett till kritik, särskilt från högern, och vissa hävdar att kompletterande åtgärder behövs för att hantera den politiska snedvridningen av generativ AI.

Direktlänk Dela News Rebeat fördjupade 24 december

Förbättringar i prestanda för stora språkmodeller som ChatGPT är mer förutsägbara än de verkar. Vissa forskare tror att AI så småningom kan uppnå allmän intelligens, matcha och till och med överträffa människor i de flesta uppgifter. Det har på senare tid diskuterats om en AI-superintelligens plötsligt kommer att dyka upp, eller om forskare kommer att se den komma och ha en chans att varna världen. Vissa fynd pekar på ´emergence´, ett fenomen där AI-modeller snabbt och oförutsägbart blir intelligentare. Men en nyligen studie kallar dessa fall ´mirages´ och föreslår att innovativa förmågor istället byggs upp mer gradvis.

Nature fördjupade 22 december

Apple och University of Washington introducerar DATACOMP, en testbädd för multimodala dataset

Forskare från Apple och University of Washington har introducerat DATACOMP, en multimodal dataset-testbädd som innehåller 12,8 miljarder par av bilder och textdata från Common Crawl. Denna testbädd möjliggör för forskare att utforma och utvärdera nya filtreringstekniker, vilket förbättrar förståelsen och förbättrar datasetdesignen för multimodala modeller. DATACOMP är en datasetexperiment testbädd med 12,8 miljarder bild-textpar från Common Crawl. DATACOMP underlättar innovation och utvärdering inom forskning om multimodala dataset, vilket förbättrar förståelsen och förfinar modellerna för förbättrad prestanda.

Direktlänk Dela MarkTechPost fördjupade 22 december

Forskare utvecklar Perseus för att minska energiförbrukningen vid träning av stora språkmodeller

Stora språkmodeller som GPT-3 kräver betydande energi på grund av deras beräkningsbehov under träning och inferens. Forskare vid University of Michigan och University of Washington har funnit att inte all energi som förbrukas under träningen direkt bidrar till genomströmning vid träning, och det kan minskas avsevärt utan att sänka träningshastigheten. De föreslår en enda optimeringsramverk kallad Perseus som minimerar både inre och yttre energisvullnad. Att integrera Perseus i träningsarbetet har starka implikationer för framtiden för AI-utveckling.

Direktlänk Dela MarkTechPost fördjupade 17 december

USA:s Department of Energy har skapat ett AI-center vid Pacific Northwest National Laboratory (PNNL) för att samordna forskning inom vetenskap, säkerhet och energiresiliens. Forskare vid PNNL var bland de första att utforska artificiell intelligens (AI) för flera decennier sedan. Centret kommer att fokusera på att utveckla sätt att hålla AI säker och pålitlig, i linje med president Bidens senaste exekutiva order. PNNL-forskare har redan bidragit till IEEE:s etikcertifieringsprogram för autonoma och intelligenta system. Forskarna på PNNL använder också AI för att förbättra driften av landets elnät och för att skydda mot spridning av kärnmaterial.

Newswise fördjupade 14 december

ChatGPT: En AI revolution inom vetenskapen

ChatGPT, ett AI-program utvecklat av forskare vid OpenAI i San Francisco, har haft en djupgående och varierande inverkan på vetenskapen under det senaste året. Programmet har skrivit vetenskapliga artiklar, utarbetat presentationer och bidragit till forskningsidéer. Trots att det också har uppfunnit referenser, skapat fakta och regurgiterat hatprat, har det förändrat hur forskare arbetar och återuppväckt debatter om gränserna för AI och mänsklig intelligens. Trots detta har tekniken också sina faror, inklusive fel och fördomar, och har börjat användas för att generera artiklar utan att det deklareras.

Direktlänk Dela Nature fördjupade 13 december

Fysik- och tekniknyheter: LK-99 är inte supraledande, ChatGPT läcker data, beteenden styrs av dopamin

En forskargrupp vid Österrikes vetenskapsakademi presenterade en ny metod för att studera kvantmaterial, vilket kan förbättra förståelsen för kvantmaterial. Tidigare i år hävdade ett sydkoreanskt team att den polykristallina föreningen LK99 var supraledande vid rumstemperatur, men nu har ett team vid Beijing National Laboratory for Condensed Matter Physics och Institute of Physics motbevisat detta. JT-60SA, världens största experimentella kärnfusionsreaktor, invigdes officiellt. I tekniknyheter lurade ett team på Google ChatGPT att läcka privat användardata. Vidare har ett team av mekaniska ingenjörer vid Universidad Tecnológica de Panamá utvecklat ett isoleringsmaterial baserat på risagn, vilket kan vara framtidens miljövänliga isoleringsmaterial. Forskare från Norska universitetet för vetenskap och teknologi och Indian Institute of Technology Bombay utvecklade en kännande tass för att förbättra rörligheten för robotar på olika terränger. Dessutom har ett team från University of Washington och MIT utvecklat en ny metod för att lära robotar att utföra önskade uppgifter i en föränderlig miljö. I andra nyheter har medicinska forskare vid Monash University funnit bevis för att höga nivåer av ´bra´ kolesterol kan vara förknippade med risk för demens. Slutligen har ett team vid Wake Forest University School of Medicine funnit bevis för att mänskligt beteende styrs av snabba förändringar i dopaminnivåerna i hjärnan.

Direktlänk Dela Science X fördjupade 4 december

Forskning avslöjar säkerhetsrisker med stora språkmodeller som ChatGPT

Stora språkmodeller (LLM) som ChatGPT är känsliga för knepiga uppmaningar och kan potentiellt läcka data de tränats på. Forskare från Google DeepMind, UC Berkeley, University of Washington och andra har upptäckt att denna metod, kallad ´divergensattack´, kan äventyra användarnas integritet. Forskarna undersökte fenomenet ´minnesförmåga´, där det visade sig att LLM kan återkalla och återskapa vissa datafragment de tränats på. De experimenterade med olika språkmodeller, inklusive ChatGPT, LLaMA och GPT-Neo. ChatGPT visade minnesförmåga, vilket innebär att modellen kan komma ihåg användarinmatningar och den information som används för att träna dem. Forskarna varnar användare att avstå från att använda LLM för applikationer där de behöver avslöja känslig information utan tillräckliga säkerhetsåtgärder.

Direktlänk Dela The Tech Report fördjupade 4 december

ChatGPT avslöjar användares kontaktinformation, Booking.com drabbas av bedrägerier

Forskare har upptäckt att AI-chattboten ChatGPT kan avslöja användares kontaktinformation genom en enkel knep. Genom att få boten att upprepa ett ord kunde forskarna få fram riktiga telefonnummer och e-postadresser. I ett annat fall avslöjade ChatGPT kontaktinformation för en amerikansk advokatbyrå. Samtidigt drabbas Booking.com av bedrägerier där hotellbokningar kapas via stulna konton från darknet. Studien bakom de riskfyllda lösenorden för 2023 har också släppts, vilket detaljerar vilka som är mest sannolika att bli hackade eller lätt gissade av andra.

Direktlänk Dela Tech Times fördjupade 4 december

Forskare introducerar banbrytande fysikinformerad djupinlärningsmodell för cancerbehandling

Forskare har introducerat en banbrytande lösning som betydligt höjer vår förståelse för tumördynamik. Studien fokuserar på att exakt förutsäga intratumoral vätsketryck (IFP) och liposomackumulering, och avslöjar en banbrytande fysikinformerad djupinlärningsmodell. Denna innovativa metod lovar att optimera cancerbehandlingsstrategier, och ger exakta insikter i fördelningen av terapeutiska medel inom tumörer. Forskarna presenterar en avancerad modell för att förutsäga voxel-för-voxel intratumoral liposomackumulering och IFP med hjälp av data från före och efter administrering. Modellen lovar exakta förutsägelser och har omedelbara konsekvenser för utformningen av cancerbehandlingar.

Direktlänk Dela MarkTechPost fördjupade 1 december

OpenAI:s AI-chatbot förstår inte konceptet för integritet, avslöjar användardata

En ny studie visar att OpenAI:s AI-drivna chatbot, ChatGPT, för närvarande inte förstår konceptet för integritet. Användare har utnyttjat ChatGPT för att generera en Windows 11-produktnyckel genom att lura den att det skulle bota deras hund. Forskare har nu upptäckt att ChatGPT avslöjar personliga användardata när den ombeds att upprepa ett ord för evigt. AI:en avslöjade e-postadresser, telefonnummer och andra detaljer. Forskarna, från Google DeepMind och andra institutioner, kunde också få AI:en att avslöja kontaktuppgifter för grundaren och VD:n för ett icke namngivet företag.

Direktlänk Dela International Business Times fördjupade 1 december

Google´s DeepMind lyckas få AI-chattboten ChatGPT att avslöja sin träningsdata

För ett år sedan släppte OpenAI ChatGPT som en ´lågmäld forskningsförhandsgranskning´ i ett försök att utmanövrera rivalen Anthropic. Nu har Google´s DeepMind lyckats få AI-chattboten att avslöja sin träningsdata. Detta skedde genom en attackuppmaning som bad en produktionsmodell att upprepa specifika ord för evigt. Det specifika ordet var ´poem´ och det räckte för att få ChatGPT att ´sjunga´. Forskare säger att stora mängder privat identifierbar information från OpenAI:s stora språkmodeller blev tillgängliga genom denna unika uppmaningskonstruktion. De visade också att på en offentlig version av ChatGPT blev stora textpassager skrapade från internet tillgängliga. Forskarna noterade att de hade informerat OpenAI om sårbarheten den 30 augusti och att utvecklaren av LLM hade utfärdat en patch. Forskarna, från Google DeepMind, University of Washington, Cornell, Carnegie Mellon University, University of California Berkeley och ETH Zurich, skrev i en publicerad artikel.

Direktlänk Dela CXO Today fördjupade 1 december

ChatGPT, AI-chattboten från OpenAI, firar sitt första år. Chattboten, som ursprungligen lanserades som en enkel webbaserad och chattfokuserad gränssnitt på toppen av en av OpenAIs befintliga modeller, GPT-3.5, har blivit företagets mest populära produkt någonsin och den snabbast växande konsumentappen i historien. Under året efter lanseringen fick ChatGPT betalnivåer med extra funktioner, inklusive ett företagsanpassat paket. OpenAI uppgraderade också ChatGPT med webbsökning, dokumentanalys och bildskapande förmågor. ChatGPT har blivit prioritet nummer ett på OpenAI och har skiftat fokus på andra AI-företag och forskningslaboratorier.

TechCrunch fördjupade 30 november

OpenAI´s ChatGPT kan avslöja privat information, enligt forskning

En forskargrupp har upptäckt att OpenAI´s chatbot, ChatGPT, kan avslöja privat information om den uppmanas att upprepa ett ord som ´poem´ i all oändlighet. Denna sårbarhet kan orsaka att chatboten avslöjar telefonnummer, e-postadresser och annan information den har tränats på. Forskargruppen, som består av forskare från Google DeepMind, University of Washington, Cornell, Carnegie Mellon, University of California Berkeley och ETH Zurich, kunde utvinna över 10 000 unika träningsdataexempel genom att spendera endast 200 dollar. Dessa exempel inkluderade personlig identifierbar information och Bitcoin-adresser.

Direktlänk Dela The Times of India fördjupade 30 november

Google DeepMind forskare avslöjar sårbarhet i OpenAI´s ChatGPT

Alphabet Inc.´s Google försöker avslöja de hemligheter som OpenAI´s ChatGPT är tränad på. Ett team av AI-forskare, inklusive några från Google DeepMind, har hittat ett sätt att få ChatGPT att avslöja sin träningsdata, inklusive personligt identifierbar information. Forskarna kunde också få ChatGPT att reproducera data den skrapat från internet. De använde en enkel metod där de bad ChatGPT att upprepa ett givet ord för alltid. Under utförandet började ChatGPT spotta ut text från sin träningsdata, inklusive namn, e-postadresser, telefonnummer och mer. Det verkar nu som att OpenAI har åtgärdat denna sårbarhet.

Direktlänk Dela Benzinga fördjupade 30 november

Forskare skapar ny standard för bilföljningsmodeller

Forskare från Hong Kong University of Science and Technology, Guangdong Provincial Key Lab of Integrated Communication, Tongji University och University of Washington har utvecklat en ny standard för bilföljningsmodeller kallad FollowNet. De använde konsekventa kriterier för att extrahera bilföljningshändelser från fem offentligt tillgängliga databaser för att etablera standarden. Forskarna tränade och utvärderade fem grundläggande bilföljningsmodeller inom ramen för standarden, inklusive konventionella och datadrivna metoder. De satte den första standarden för sådant beteende med hjälp av enhetliga dataformat för att underlätta skapandet av bilföljningsmodeller.

Direktlänk Dela MarkTechPost fördjupade 29 november

Oreglerad AI kan leda till ökning av global energiförbrukning

Oreglerad användning av artificiell intelligens (AI) kan leda till en betydande ökning av global energiförbrukning, liknande den effekt vi sett med kryptovalutautvinning. Avancerade teknologier, särskilt AI, blir allt viktigare verktyg inom olika industrier, vilket optimerar verksamheten men potentiellt driver upp energianvändningen. EU:s AI-lag erkänner AI-systemens energiintensiva natur och belyser behovet av globala regleringsåtgärder för att hantera ökningen i energiförbrukningen från nya teknologier. Företag som Nvidia använder nu avancerade grafikprocessorer (GPU) snarare än enklare processorer, kallade CPU, vilket kräver mer energi.

Direktlänk Dela OilPrice.com fördjupade 29 november

OpenAI:s VD Sam Altman återinsatt efter uppsägning, men könsbalansen i styrelsen ifrågasätts

OpenAI:s styrelse avskedade oväntat sin populära VD, Sam Altman, tidigare denna månad, vilket chockerade teknikvärlden och ledde till hot om uppsägningar från majoriteten av anställda. Efter fem dagars kaos återinsattes Altman, med en omstrukturerad, helt manlig styrelse som övervakar honom, ledd av ex-VD:n för Salesforce och tidigare Twitter-styrelseordföranden Bret Taylor. Den tidigare sexpersonersstyrelsen har nu minskat till tre, men fler väntas ansluta. Två kvinnor som tidigare satt i styrelsen, Helen Toner och Tasha McCauley, är nu avskurna från företaget.

Direktlänk Dela Wired fördjupade 28 november

Praktiska tips för kostnadseffektiv implementering av generativ AI

Generativ AI förändrar hur vi söker och analyserar information, skapar kod, säkrar nätverk och skriver artiklar. Men att utveckla och implementera AI kan vara en dyr process med hög risk för misslyckande. Dessutom kräver gen AI och de stora språkmodellerna (LLM) som driver det, superdatorarbetsbelastningar som förbrukar mycket el. Dr. Sajjad Moazeni från University of Washington uppskattar att träning av en LLM med över 175 miljarder parametrar tar lika mycket energi som 1 000 amerikanska hushåll använder på ett år. För att minska riskerna och kostnaderna med att implementera gen AI föreslås sex tips, bland annat att börja med en grundmodell, matcha modellen till applikationen, återträna för att skapa mindre modeller med högre noggrannhet, använda befintlig infrastruktur, köra hårdvarumedveten inferens och hålla ett öga på molnutgifterna.

Direktlänk Dela Intelligent CIO fördjupade 28 november

Forskare från MIT, Harvard University och University of Washington har utvecklat en ny förstärkningsinlärningsmetod för AI som inte är beroende av en expertdesignad belöningsfunktion. Istället utnyttjar den feedback från icke-experter, insamlad från många användare, för att vägleda AI-agenten när den lär sig att nå sitt mål. Detta tillvägagångssätt gör att AI-agenten kan lära sig snabbare, trots att data insamlade från användare ofta är fulla av fel. Dessutom tillåter denna nya metod att feedback samlas in asynkront, så icke-expertanvändare över hela världen kan bidra till att undervisa agenten.

MIT News fördjupade 27 november

Forskare utvecklar ny metod för att effektivt lära AI-agenter komplexa uppgifter

Forskare från MIT, Harvard och University of Washington har utvecklat en ny förstärkningsinlärningsmetod, HuGE, som använder crowdsourcad feedback för att effektivt lära AI-agenter komplexa uppgifter. HuGE möjliggör för AI-agenter att lära sig snabbt med hjälp av människor, även om människorna gör misstag. Denna nya metod tillåter feedback att samlas in asynkront, så icke-expertanvändare runt om i världen kan bidra till att lära agenten. Metoden har visat lovande resultat i både simuleringar och verkliga tillämpningar.

Direktlänk Dela SciTechDaily fördjupade 27 november

Open AI:s framtid i fara efter medgrundarens avsked

Avskedandet av Open AI:s medgrundare Sam Altman har lett till oro för företagets framtid och potentiella påverkan på utvecklingen av generativ AI-teknik. Nästan alla Open AI:s anställda har undertecknat ett brev där de hotar att sluta och börja arbeta för Microsoft om inte hela Open AI:s styrelse avgår och Altman återinsätts som vd. Microsoft har lovat jobb till alla Open AI-anställda inom sitt nya avancerade AI-labb. Om Open AI skulle kollapsa på grund av interna problem, tror experter att det inte skulle ha en märkbar effekt på AI-utvecklingen.

Direktlänk Dela Computer Sweden fördjupade 21 november

Microsoft anställer tidigare OpenAI-ledare och aktiekursen når rekordhöjder

Efter att två nyckelpersoner lämnat OpenAI, vilket skapade stor oro, har Microsoft anställt företagets tidigare VD Sam Altman och medgrundare Greg Brockman för att leda ett internt AI-innovationslaboratorium. Detta ledde till att Microsofts aktiekurs nådde rekordhöjder på måndagen. Anställningen av Altman och Brockman ses som en stor vinst för Microsofts AI-ambitioner, och kan leda till snabbare implementering av AI-innovationer. Detta kan dock också intensifiera oro kring reglering och ansvarsfull utveckling av AI-teknologier.

Direktlänk Dela The Seattle Times fördjupade 21 november

Forskare utvecklar Punica, ett fleranvändarsystem för LoRA-modeller på gemensam GPU-kluster

Forskare från University of Washington och Duke University har utvecklat och byggt Punica, ett fleranvändarsystem för LoRA-modeller på en gemensam GPU-kluster. LoRA, eller lågrankad anpassning, är en metod för att specialisera stora förtränade språkmodeller för domänspecifika uppgifter med minimal träningsdata. Genom att hålla vikterna från den förtränade modellen och lägga till träningsbara ranknedbrytningsmatriser till varje lager av Transformer-arkitekturen, minskar LoRA antalet träningsbara parametrar. Punica använder två metoder för att arrangera uppgifter för flera hyresgäster och ökar genomströmningen med 12 gånger jämfört med tidigare lösningar.

Direktlänk Dela MarkTechPost fördjupade 18 november

Generativa AI-modeller utmanar men överträffar inte mänsklig intelligens

Den senaste vågen av generativ AI, inklusive tekniker som ChatGPT, GPT4, DALL-E 2/3 och Midjourney, har väckt stor uppmärksamhet globalt. Trots att dessa modeller kan producera resultat som utmanar experter inom språk och visuella domäner, gör de ofta grundläggande förståelsefel. Forskare från University of Washington och Allen Institute for Artificial Intelligence har undersökt detta fenomen, känd som den generativa AI-paradoxen. De har kommit fram till att dessa modeller kan producera expertliknande resultat eftersom de tränats att göra det, men deras förståelse är ofta bristfällig jämfört med människor. Denna forskning ifrågasätter om mänsklig intelligens kan översättas till artificiell intelligens.

Direktlänk Dela MarkTechPost fördjupade 10 november

Googles AI förvirrad över afrikanska länder som börjar på ´K´

Googles sökmotor har nyligen blivit förvirrad över om det finns ett afrikanskt land som börjar på bokstaven ´k´. Ett ´featured snippet´-svar på frågan indikerade felaktigt att det inte finns något sådant land, trots att Kenya existerar. Detta svar skrevs ursprungligen av ChatGPT, en AI, och har sedan dess blivit en framstående del av Googles kunskapsbas. Detta problem, att AI kan sprida felaktig information, har blivit allt mer framträdande i takt med att Google går in i den generativa AI-eran. Trots att Google försöker bekämpa AI-genererat skräp, riskerar företaget att producera sitt eget genom nya funktioner som dess generativa AI-verktyg.

Direktlänk Dela The Atlantic fördjupade 7 november

Microsofts AI-satsning och dess potentiella inverkan på konst och serier diskuterades vid University of Washington

En Microsoft-representant talade om företagets stora satsning på AI, med nya ´co-piloter´ inbäddade i produkter som Word, Excel och PowerPoint, vid ett föreläsning på University of Washington. Under samma vecka deltog författaren i Short Run Comics and Arts Festival, en lokal oberoende och alternativ serieutställning. Författaren uttrycker blandade känslor kring AI:s inverkan på konst och serier, och huruvida det kan leda till att konstnärer förlorar sina jobb. Han påpekar att AI kan vara användbart för att generera referensbilder och bakgrunder, men ifrågasätter om det kan ersätta den personliga berättelsen och stilen hos en konstnär.

Direktlänk Dela Internal Correspondence Version 2 fördjupade 6 november

AI-verktyg kan hjälpa personer med funktionsnedsättningar men har fortfarande betydande problem, visar studie

Generativa AI-verktyg som ChatGPT och Midjourney kan potentiellt hjälpa personer med olika funktionsnedsättningar genom att sammanfatta innehåll, komponera meddelanden eller beskriva bilder. Trots detta är graden av denna potential en öppen fråga eftersom dessa verktyg ofta genererar felaktigheter och kan förstärka ableistiska fördomar. Sju forskare vid University of Washington genomförde en tre månader lång studie för att testa AI-verktygens användbarhet för tillgänglighet. Trots att de fann fall där verktygen var hjälpsamma, upptäckte de även betydande problem med AI-verktyg i de flesta användningsfall. Forskarna presenterade sina resultat den 22 oktober vid ASSETS 2023-konferensen i New York.

Direktlänk Dela AZoM.com fördjupade 3 november

AI-verktyg som ChatGPT kan stärka matematikundervisningen

AI-verktyg som ChatGPT ses inte som ett hot utan snarare som ett stöd inom matematikundervisning, enligt Jake Price, biträdande professor i matematik och datavetenskap vid University of Puget Sound. Han menar att AI kan fungera som en handledare, ge omedelbar feedback till elever som kämpar med ett problem och till och med visa nya dataprogrammerare exempelkod. Min Sun, professor i utbildning vid University of Washington, anser att elever bör använda ChatGPT som en personlig handledare. Khan Academy har skapat en AI-handledare, Khanmigo, som kan förklara och ge exempel när elever fastnar.

Direktlänk Dela The Spokesman-Review fördjupade 2 november

AI-pionjär Sam Altman uppmanar till reglering av artificiell intelligens

Sam Altman, VD för OpenAI, har uppmanat till skapandet av regleringar som omfamnar löftet om artificiell intelligens (AI), samtidigt som de minskar risken att den överväldigar mänskligheten. OpenAI´s produkt ChatGPT har potential att revolutionera nästan alla branscher, men har också väckt oro för allt från fusk i skolor till att ersätta mänskliga arbetare. Altman varnar för att AI kan användas för att manipulera väljare och sprida desinformation. Han har tidigare betonat vikten av etisk och ansvarsfull AI-utveckling i möten med Vita husets ledare.

Direktlänk Dela CNN fördjupade 31 oktober

Forskare utvecklar metod för att upptäcka problematisk träningsdata i stora språkmodeller

Forskare från University of Washington och Princeton University har utvecklat en metod för att identifiera om en stor språkmodell (LLM) har tränats på specifik text. De introducerar en ny detektionsmetod, MIN-K% PROB, som identifierar ord med låg sannolikhet under LLM. De har även introducerat en benchmark kallad WIKIMIA som automatiskt utvärderar detektionsmetoderna på nyligen utgivna förtränade LLMs. Forskarna har applicerat metoden på tre verkliga scenarier - upptäckt av upphovsrättsskyddade böcker, detektering av förorenade downstream-exempel och integritetsgranskning av maskinavläsning. De fann starka bevis för att GPT-3-modellen kan ha tränats på upphovsrättsskyddade böcker.

Direktlänk Dela MarkTechPost fördjupade 30 oktober

AI-verktyg kan förstärka matematikundervisningen

Generativa AI-verktyg som ChatGPT utgör en ny utmaning för lärare, men många matematikprofessorer tror att AI kan förstärka matematikundervisningen. Jake Price, biträdande professor i matematik och datavetenskap vid University of Puget Sound, ser inte ChatGPT som ett hot. AI kan fungera som en handledare, ge omedelbar feedback till en elev som har problem, och hjälpa en lärare att planera matematiklektioner. Trots vissa begränsningar tror Min Sun, en utbildningsprofessor vid University of Washington, att elever borde använda ChatGPT som en personlig handledare. Khan Academy har skapat en AI-handledare kallad Khanmigo.

Direktlänk Dela The Hechinger Report fördjupade 24 oktober

AI: s växande energiförbrukning väcker miljöfrågor

AI kräver energi och vatten. Företag arbetar på att minska sitt koldioxidavtryck, men användare behöver också vara skickliga i hur de använder AI. Du sitter framför din dator och börjar ställa frågor till ChatGPT - en stor språkmodellbaserad AI (Artificial Intelligence) chatbot utvecklad av OpenAI - om ett arbetsprojekt. När du får dina svar och några lösningar kan dina prompts och frågor ha använt mer energi än en Google-sökfråga. Forskning stöder: AI: s energifotavtryck växer när fler människor använder det, vilket väcker frågor om dess miljöpåverkan. De senaste två åren har sett omfattande AI-adoption. OpenAI: s konversations-ChatGPT-chatbot satte bollen i rullning; nu har Google (Alphabet) och Microsoft sina egna versioner av chatbots, Bard respektive Bing Chat. Enligt en Reuters-rapport hade ChatGPT ensam mer än 100 miljoner aktiva användare i månaden i början av 2023.

Direktlänk Dela Mint fördjupade 22 oktober

Konstnärer och författare har stämt stora AI-utvecklare, inklusive OpenAI, Meta och Stability AI, för upphovsrättsintrång. Dessa AI-system skapar bilder och text baserat på verkliga människors kreativa arbete, varav mycket är upphovsrättsskyddat. AI-modellerna tränas på stora datamängder från internet, vilket kan innebära brott mot upphovsrätten och hota privatlivet för miljarder människor. Dessutom kan snedvridna data leda till att AI-modellerna tränas på partiska data. Företagen är ofta ovilliga att avslöja var de får sin träningsdata ifrån, vilket gör det svårt att avgöra exakt vilka datakällor som används.

Scientific American fördjupade 19 oktober

Allen Institute for AI strävar efter att demokratisera AI-forskning

Allen Institute for AI, ledd av den respekterade datavetaren Ali Farhadi, strävar efter att demokratisera forskning och utveckling inom artificiell intelligens (AI) genom att bygga ett fritt tillgängligt AI-alternativ. Institutet har startat en ambitiös insats för att skapa ett öppet system där andra forskare kan granska och använda det nya systemet och den data som matas in i det. Detta ställer institutet i centrum för en debatt om hur öppen eller stängd ny AI bör vara. Allen Institute har tagit ett första steg genom att släppa en stor datamängd för att träna AI-modeller. Den inkluderar offentligt tillgänglig data från webben, böcker, akademiska tidskrifter och datorprogram.

Direktlänk Dela The New York Times fördjupade 19 oktober

» Nyheterna från en dag tidigare

Några av våra kursdeltagare