» Håll dig ajour kring AI · En AI-skapad och ständigt föränderlig nyhetstidning om AI. Idag har vår robot sammanfattat 170 nyhetshändelser. Upptäck gärna vår kurs AI på jobbet förresten. «

Berkeley är en stad i Kalifornien, USA, känd för sin världsberömda universitet, University of California, Berkeley. Det grundades 1868 och är en av de främsta forskningsinstitutionerna i världen. Staden är också känd för sin politiska aktivism, särskilt under 1960-talet, då den var centrum för den amerikanska medborgarrättsrörelsen och anti-krigsprotester. Berkeley har en rik kultur, med flera teatrar, museer och gallerier, samt en livlig musikscen. Staden är också hem för många teknikföretag och startups. Berkeley är en progressiv och miljömedveten stad, med starkt fokus på hållbarhet och social rättvisa.

Senaste nytt kring Berkeley

Röstskådespelare stämmer AI-startup för missbruk av deras röster

Röstskådespelarna Paul Skye Lehrman och Linnea Sage har stämt det Berkeley-baserade AI-startupföretaget LOVO, anklagande företaget för att ha missbrukat deras röster samt röster av kända personer som Scarlett Johansson, Ariana Grande och Conan O´Brien. Lehrman och Sage upptäckte att deras röster användes utan deras tillstånd på en YouTube-kanal och en podcast. De påstår att deras röster användes för att träna LOVO:s AI-system utan deras samtycke, vilket de anser är en kränkning av deras rättigheter. Stämningen, som är den första mot ett AI-företag för användning av likheter för att träna ett AI-system, markerar en växande konflikt mellan skapare och företag som påstås obehindrat samla in stora mängder data för att driva sin teknologi.

Direktlänk Dela The Hollywood Reporter fördjupade i förrgår
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

Jakub Pachocki tar över som ny chefsforskare på OpenAI

OpenAI:s VD Sam Altman meddelade att Jakub Pachocki kommer att ta över som OpenAI:s nya chefsforskare efter att Ilya Sutskever meddelat sitt beslut att lämna företaget. Altman uttryckte starkt förtroende för Pachocki och sade att han är ´en av de största hjärnorna i vår generation´. Pachocki har tidigare varit direktör för forskning på OpenAI och har lett viktiga projekt som GPT-4 och OpenAI Five. Han har också haft en postdoktoral position i Jelani Nelsons grupp vid Harvard University och har en doktorsexamen i datavetenskap från Carnegie Mellon University.

Direktlänk Dela Times Now News fördjupade 15 maj

AI-startups automatiserar musikskapande, väcker oro bland artister

AI-startups som Suno och Udio utvecklar verktyg som automatiserar musikskapandet. Genom att ange en kort textkommando kan Suno skapa musik som låter förvånansvärt mänskligt på bara några sekunder. Hela album med vad som verkar vara AI-genererade låtar skapade med Suno strömmas nu på tjänster som Spotify. Detta har dock väckt oro över artisternas försörjning och kan snart fylla internet med halvfärdiga, datoriserade låtar. Hundratals musiker, inklusive Billie Eilish, Miranda Lambert och Aerosmith, skrev ett öppet brev förra månaden via den ideella Artist Rights Alliance där de uppmanar AI-utvecklare, teknikföretag och andra att stoppa användningen av AI för att kränka och devalvera rättigheterna för mänskliga artister.

Direktlänk Dela The Star Online fördjupade 13 maj

Så skyddar du dig mot AI-röstbedrägerier: använd säkerhetsord

AI:s snabba framsteg har gjort människor till lätta byten för allt mer förekommande AI-röstbedrägerier. Teknikexperter har dock avslöjat ett säkert sätt att skilja människor från dessa digitala telefonkloner - genom att be dem om ett säkerhetsord. Hany Farid, professor vid University of California, Berkeley, som har forskat om ljudförfalskningar, stöder idén. Bedrägerier där cyberbrottslingar använder billiga AI-verktyg för att efterlikna familjemedlemmars röster för att lura människor att ge dem bankkontonummer och annan värdefull information blir allt vanligare. Ett sätt att skydda sig är att uppfinna ett speciellt säkerhetsord eller en privat fras som endast dina familjemedlemmar känner till.

Direktlänk Dela New York Post fördjupade 7 maj

Elon Musk överlovar men underlevererar, enligt topp-ekonom

Enligt J. Bradford DeLong, ekonomiprofessor vid UC Berkeley och tidigare tjänsteman vid finansdepartementet, överlovar Tesla-chefen Elon Musk men underlevererar. Även om Musk har bidragit till att driva fram teknik som batteriteknik, elbilar och rymdfart, har han nyligen skiftat fokus från elbilar och batterier till sociala medier, artificiell intelligens och robotaxi. DeLong påpekade att trots att Musk förra månaden lovade att påskynda planerna på att lansera en ny, billigare elbil, fortsätter han att bekräfta sina ambitioner att utveckla en flotta av självkörande bilar.

Direktlänk Dela Fortune Media fördjupade 5 maj

Perplexity, AI-startup med värde på $1bn, siktar på att konkurrera med Google

Aravind Srinivas, som har erfarenhet från OpenAI och Google´s DeepMind, har medgrundat Perplexity, ett generativ AI-startup värderat till 1 miljard dollar. Företaget syftar till att ge snabba, Wikipedia-liknande svar på sökfrågor, med ambitionen att konkurrera med Google-sök. Srinivas jämförde nyligen kulturerna på OpenAI och DeepMind i en podcast, och talade om hur den ingenjörsledda, frihjulande inställningen hos det förra störde den forskningsbesatta, ´mycket brittiska´ hierarkin hos det senare. Han ser Alphabets Achilles häl genom att använda ett koncept från ´The Innovator´s Dilemma´, en management-bestseller från 1997 av Clayton Christensen.

Direktlänk Dela The Economist Newspaper fördjupade 2 maj

Kaliforniskt företag använder AI för att utveckla genredigeringsverktyg

Utvecklingen av syntetisk biologi och artificiell intelligens kan definiera detta århundrade, särskilt när de samverkar. Ett exempel på detta är uppstartsföretaget Profluents ai-genererade genredigeringsverktyg. Företaget från Berkeley, Kalifornien, använder en stor språkmodell för att leta efter Crispr-kandidater som vi aldrig har stött på i naturen. I en vetenskaplig artikel visar forskarna att deras modell gav en nästan femfaldig ökning av mångfalden i naturligt förekommande Crispr-Cas9-familjer.

Direktlänk Dela Ny Teknik fördjupade 2 maj

Skolanställd skapade falsk röstinspelning av rektor med hjälp av AI

En 42-sekunders röstinspelning som påstås vara av en rektor vid en högskola i Maryland, där han förolämpar svarta studenter, visade sig vara en falsk inspelning skapad med hjälp av artificiell intelligens. Inspelningen, som publicerades på sociala medier i januari, ledde till att rektorn, Eric Eiswert, sattes på ledighet. Men Baltimore County-polisen anklagade en skolanställd, Dazhon Darien, för att ha använt AI-verktyg för att fabricera ljudet med avsikt att falskt framställa rektorn som rasistisk och antisemitisk. Darien greps på Baltimore-Washington International Marshall Airport när han var på väg att flyga till Houston.

Direktlänk Dela The Washington Post fördjupade 26 april

Cleanlab lanserar Trustworthy Language Model för att lösa generativ AI:s hallucinationsproblem

En startup född i ett kvantdatorklabb har presenterat lösningen på ett av generativ AI:s största problem. Cleanlab lanserade idag Trustworthy Language Model (TLM), en grundläggande framsteg inom generativ AI som upptäcker när stora språkmodeller hallucinerar. Steven Gawthorpe, PhD, biträdande direktör och senior dataforskare vid Berkeley Research Group, kallade Trustworthy Language Model ´det första genomförbara svaret på LLM-hallucinationer som jag har sett´. Generativ AI står inför att förvandla varje industri och yrke, men det står inför en stor utmaning i ´hallucinationer´, när LLM genererar felaktiga eller vilseledande resultat. Cleanlab är det första att knäcka det.

Direktlänk Dela Dailyguardian.ca fördjupade 25 april

Cleanlab lanserar lösning för att upptäcka ´hallucinationer´ i stora språkmodeller

Start-up-företaget Cleanlab har lanserat Trustworthy Language Model (TLM), en betydande framsteg inom generativ AI som kan upptäcka när stora språkmodeller hallucinerar. Steven Gawthorpe, PhD, biträdande chef och senior dataforskare på Berkeley Research Group, kallade TLM den första fungerande lösningen på hallucinationer i stora språkmodeller. TLM kombinerar osäkerhetsbedömning, auto-ML-ensembling och kvantinformationsalgoritmer för att skapa förtroende för generativ AI. Dess API omsluter alla stora språkmodeller och producerar en tillförlitlig förtroendescore för varje svar. I jämförelse med andra metoder presterar TLM bättre i alla branschstandarder för tillförlitlighet hos stora språkmodeller.

Direktlänk Dela GlobeNewswire fördjupade 25 april

AI-Driven Deepfakes skapar förvirring i politiska val

AI-drivna deepfake-bilder, ljud och videor skapar förvirring i politiska diskussioner inför valet 2024, när mer än hälften av världens befolkning kommer att rösta. Indiska ´deepfake´-skaparen Divyendra Singh Jadoun har fått hundratals förfrågningar från politiker som vill använda hans tjänster för att förfalska ljudinspelningar och bilder av sina motståndare. Trots att Jadoun vägrar att medverka i förtalskampanjer, förväntar han sig att många konsulter kommer att göra det. Detta illustrerar hur AI-verktyg förändrar den demokratiska processen och gör det lättare att skapa falska medier kring kampanjer.

Direktlänk Dela The Washington Post fördjupade 23 april
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

AI-mätning anses vara ett problem

Enligt AI Index, en årlig rapport från Stanford University, är bristfällig mätning ett av de största problemen för AI-forskare. Detta då AI-företag ofta använder vaga fraser för att beskriva hur deras modeller skiljer sig från en version till en annan. AI-modeller uppdateras så ofta att en chattbot som kämpar med en uppgift en dag kan klara den nästa. Ett vanligt test för AI-modeller är Massive Multitask Language Understanding (MMLU), ett slags allmänt intelligensprov. Men AI-system blir för smarta för de nuvarande testerna och det blir svårare att utforma nya. Dessutom finns det inga oberoende tester eller granskningsprocesser för dessa modeller.

Direktlänk Dela The Times of India fördjupade 21 april

Tiden för att utnyttja sårbarheter minskar medan patchningstiden förblir oförändrad

Tiden det tar för angripare att utnyttja sårbarheter har minskat till dagar och kommer snart att vara timmar eller minuter, medan tiden för att applicera patchar fortfarande ligger mellan 20 och 45 dagar. Uppgradering av infrastrukturen, särskilt i sektorer med äldre utrustning, är en annan utmaning. Hypershield, byggt på förvärv som dataanalysplattformen Splunk och molnsäkerhets-startupen Lightspin, och mer nyligen Isovalent, företaget bakom Cilium, en avancerad open source-applikation som använder en teknik kallad Extended Berkeley Packet Filter (EBPF).

Direktlänk Dela Computersweden.se fördjupade 18 april

Djup inlärning och artificiell intelligens förvandlar partikelfysik och astrofysik

Artificiell intelligens (AI) har blivit ett samlingsbegrepp för en mängd kraftfulla och genomträngande datoriserade teknologier, såsom maskininlärning och neurala nätverk, som fortsätter att förändra vetenskap och samhälle. AI spelar en allt större roll inom partikelfysik och astrofysik, vilket gör att forskare kan kontrollera partikelacceleratorer med en aldrig tidigare skådad precision och nästan omedelbart analysera enorma mängder data från partikeldetektorer och teleskop. AI strömlinjeformar sökningar efter nya material, himlakroppar och sällsynta partikelhändelser och förbättrar prestandan för komplexa verktyg som partikelacceleratorer, röntgenlasrar och teleskop.

Direktlänk Dela Symmetry Magazine fördjupade 18 april

AI revolutionerar vetenskapen men medför också risker

Under det senaste året har generativa AI-verktyg, som ChatGPT, Gemini och OpenAI´s Sora, fångat allmänhetens uppmärksamhet. Allt som behövs för att börja experimentera med AI är en internetuppkoppling och en webbläsare. AI används redan för att revolutionera vetenskapen - sex procent av allt vetenskapligt arbete använder AI, inte bara inom datavetenskap, utan även inom kemi, fysik, psykologi och miljövetenskap. Google DeepMind släppte en AI-genererad databas med mer än 380 000 nya materialföreningar, Lawrence Berkeley Lab använde AI för att utföra syntesexperiment i en skala som är mycket större än vad människor kan åstadkomma. Men AI har ännu större potential: att göra det möjligt för forskare att göra upptäckter som annars inte alls skulle vara möjliga. Det var en AI-algoritm som för första gången hittade signalmönster i hjärnaktivitetsdata som pekade på början av epileptiska anfall, en bedrift som inte ens den mest erfarna mänskliga neurologen kan upprepa. Tidiga framgångshistorier av användning av AI inom vetenskapen har lett till att vissa föreställer sig en framtid där forskare kommer att samarbeta med AI-vetenskapliga assistenter som en del av sitt dagliga arbete. Denna framtid är redan här. CSIRO-forskare experimenterar med AI-vetenskapsagenter och har utvecklat robotar som kan följa muntliga språkinstruktioner för att utföra vetenskapliga uppgifter under fältarbete. Men det finns en mycket verklig risk att AI fabricerar resultat och detta har redan hänt. Det är relativt enkelt att få ett generativt AI-verktyg att citera publikationer som inte existerar. Dessutom kan många AI-system inte förklara varför de producerar den output de producerar. Detta är inte alltid ett problem. Om AI genererar en ny hypotes som sedan testas med de vanliga vetenskapliga metoderna, är det ingen skada skedd. Men för vissa tillämpningar kan bristen på förklaring vara ett problem. Reproduktion av resultat är en grundläggande princip inom vetenskapen, men om de steg som AI tog för att nå en slutsats förblir oklara, blir reproduktion och validering svåra, om inte omöjliga. Och det kan skada människors förtroende för den producerade vetenskapen. En distinktion bör göras här mellan generell och smal AI. Smal AI är AI som är utbildad för att utföra en specifik uppgift. Smal AI har redan gjort stora framsteg. Google DeepMinds AlphaFold-modell har revolutionerat hur forskare förutsäger proteinstrukturer. Men det finns många andra, mindre väl publicerade, framgångar också - som att AI används på CSIRO för att upptäcka nya galaxer på natthimlen, IBM Research utvecklar AI som återupptäckte Keplers tredje lag om planetrörelse, eller Samsung AI bygger AI som kunde reproducera Nobelprisvinnande vetenskapliga genombrott. När det gäller smal AI som tillämpas på vetenskapen, förblir förtroendet högt. AI-system - särskilt de som bygger på maskininlärningsmetoder - uppnår sällan 100 procent noggrannhet på en given uppgift. (Faktum är att maskininlärningssystem presterar bättre än människor på vissa uppgifter, och människor presterar bättre än AI-system på många uppgifter. Människor som använder AI-system presterar generellt bättre än människor som arbetar ensamma och de presterar också bättre än AI som arbetar ensamma. Det finns en stor vetenskaplig evidensbas för detta faktum, inklusive denna studie.) AI som arbetar tillsammans med en expertforskare, som bekräftar och tolkar resultaten, är ett helt legitimt sätt att arbeta, och ses allmänt som att ge bättre prestanda än mänskliga forskare eller AI-system som arbetar ensamma. Å andra sidan är generella AI-system utbildade för att utföra en mängd olika uppgifter, inte specifika för något domän eller användningsfall. ChatGPT kan till exempel skapa en Shakespeares sonett, föreslå ett recept till middag, sammanfatta en kropp av akademisk litteratur, eller generera en vetenskaplig hypotes. När det gäller generell AI är problemen med hallucinationer och bias mest akuta och utbredda. Det betyder inte att generell AI inte är användbar för forskare - men den måste användas med försiktighet. Detta innebär att forskare måste förstå och bedöma riskerna med att använda AI i ett specifikt scenario och väga dem mot riskerna med att inte göra det. Forskare använder nu rutinmässigt generella AI-system för att hjälpa till att skriva artiklar, bistå med granskning av akademisk litteratur och till och med förbereda experimentplaner. En fara när det gäller dessa vetenskapliga assistenter kan uppstå om den mänskliga forskaren tar resultaten för givet. Välutbildade, flitiga forskare kommer naturligtvis inte att göra detta. Men många forskare där ute försöker bara överleva i en tuff bransch av publicera-eller-försvinna. Vetenskapligt bedrägeri ökar redan, även utan AI. AI kan leda till nya nivåer av vetenskapligt oegentligt uppträdande - antingen genom avsiktligt missbruk av tekniken, eller genom ren okunnighet då forskare inte inser att AI hittar på saker. Både smal och generell AI har stor potential att främja vetenskaplig upptäckt. Ett typiskt vetenskapligt arbetsflöde består konceptuellt av tre faser: att förstå vilket problem man ska fokusera på, att utföra experiment relaterade till det problemet och att utnyttja resultaten som påverkan i den verkliga världen. AI kan hjälpa till i alla tre av dessa faser. Det finns dock en stor hake. Nuvarande AI-verktyg är inte lämpliga att användas naivt direkt ur lådan för seriöst vetenskapligt arbete. Endast om forskare ansvarsfullt designar, bygger och använder nästa generation av AI-verktyg till stöd för den vetenskapliga metoden kommer allmänhetens förtroende för både AI och vetenskap att vinna och behållas. Att få detta rätt är värt det: möjligheterna att använda AI för att omvandla vetenskapen är oändliga. Google DeepMinds ikoniska grundare Demis Hassabis sa berömt: ´Att bygga allt mer kapabla och generella AI, säkert och ansvarsfullt, kräver att vi löser några av de svåraste vetenskapliga och tekniska utmaningarna i vår tid.´ Den omvända slutsatsen är också sann: att lösa de svåraste vetenskapliga utmaningarna i vår tid kräver att vi bygger allt mer kapabla, säkra och ansvarsfulla generella AI. Australiensiska forskare arbetar med det.

Direktlänk Dela Vishwakarma International fördjupade 15 april

MIT forskare introducerar ny ram för att förenkla diffusionsmodeller

Forskare vid MIT Computer Science and Artificial Intelligence Laboratory (CSAIL) har introducerat en ny ram för att förenkla den flerstegsprocess som traditionella diffusionsmodeller använder till ett enda steg. Detta görs genom en lärare-student-modell, där en ny dator modell lär sig att härma beteendet hos mer komplicerade, ursprungliga modeller som genererar bilder. Metoden, känd som distribution matching distillation (DMD), behåller kvaliteten på de genererade bilderna och möjliggör mycket snabbare generering. Denna modell kan förbättra designverktyg, möjliggöra snabbare innehållsskapande och potentiellt stödja framsteg inom läkemedelsupptäckt och 3D-modellering.

Direktlänk Dela The Good Men Project fördjupade 14 april

AI-genererade falska profiler ett växande problem på LinkedIn

AI-genererade falska profiler har blivit ett problem på LinkedIn, världens största sociala plattform för professionella. Dessa konton använder datorgenererade profilbilder som uppfattas som mer verkliga och tillförlitliga än bilder på riktiga människor. Forskare vid Stanford Internet Observatory upptäckte över 1000 falska LinkedIn-profiler med syntetiska ansikten och skriftliga detaljer skapade av AI under 2022. LinkedIn har sedan dess förbättrat sina filter för att upptäcka falska profiler och lanserat nya funktioner och system för att säkerställa att medlemmarna interagerar med riktiga människor. Företaget har även vunnit ett rättsfall mot två marknadsföringsföretag, TopSocial och SocialBD24, som skapade falska LinkedIn-profiler för att generera marknadsföringsleads.

Direktlänk Dela Hindustan Times fördjupade 14 april

AI för att upptäcka AI-genererade deepfakes fungerar inte alltid

Artificiell intelligens (AI) förstärker audio-deepfakes, vilket väcker oro inom områden som politik och finansiellt bedrägeri. USA:s federala regering har förbjudit robosamtal som använder AI-genererade röster och erbjuder en kontantpris för lösningar på röstkloneringsbedrägerier. Forskare och privata företag arbetar med att utveckla programvara för att upptäcka röstkloner. NPR utförde ett experiment som visade att tekniska lösningar inte alltid är effektiva för att upptäcka AI-genererade röster. Flera företag, inklusive Pindrop Security, AI or Not och AI Voice Detector, erbjuder verktyg för att upptäcka deepfake-ljud, men resultaten varierar.

Direktlänk Dela National Public Radio fördjupade 5 april

Chatbot Arena: En ny plattform för att jämföra AI-språkmodeller

Sedan ChatGPT:s ankomst har många språkmodeller lanserats på AI-marknaden. Det omfattande utbudet gör det svårt för användare att bedöma kvaliteten på olika modeller. För att ge en objektiv bedömning av språkmodellernas prestanda har Large Model Systems Organization (LMSYS) beslutat att erbjuda sin egen ranking. LMSYS är ett projekt initierat av studenter vid University of Berkeley och stöttat av Hugging Face. De har skapat Chatbot Arena, en plattform för att jämföra olika AI-modeller. Den mest framstående modellen är inte GPT-4, utan Claude 3 Opus, utvecklad av Anthropic.

Direktlänk Dela Blogdumoderateur.com fördjupade 31 mars

Introduktion av ROUTERBENCH: Ett nytt ramverk för att optimera användningen av Massive Language Designs

Den digitala eran har markerats av introduktion och utveckling av Massive Language Designs (LLMs), som har blivit hörnstenar i utvecklingen av applikationer som kräver nyanserad förståelse och generering av mänsklig text. Den exponentiella tillväxten av dessa modeller, med Hugging Encounter som listar 469 848 modeller i januari 2024, har inlet en ny era av artificiell intelligens. Forskare från Martian, UC Berkeley och UC San Diego introducerar ROUTERBENCH, ett banbrytande benchmark för att bedöma effektiviteten hos LLM-routingmetoder. Detta ramverk erbjuder ett systematiskt sätt att undersöka routerprestanda, vilket banar väg för mer informerat och strategiskt produktutplacering. Det betonar behovet av ständig innovation i routingmetoder för att hålla jämna steg med den utvecklande LLM-landskapet.

Direktlänk Dela Tech Gate fördjupade 31 mars

ROUTERBENCH: Ett nytt benchmark för att optimera utplacering av stora språkmodeller

Forskare från Martian, UC Berkeley och UC San Diego har introducerat ROUTERBENCH, ett banbrytande benchmark som utvärderar effektiviteten hos routing-system för stora språkmodeller (LLM). Detta ramverk erbjuder en systematisk metod för att bedöma routerprestanda, vilket ger värdefulla insikter för informerad och strategisk modellutplacering. Genom att dynamiskt välja den optimala LLM för varje inmatning förenklar denna routerbaserade metod urvalsprocessen och utnyttjar styrkorna hos olika modeller. ROUTERBENCH omfattar en stor databas med över 405k inferensresultat från olika LLM och erbjuder ett standardiserat ramverk för att utvärdera routingstrategier.

Direktlänk Dela Elblog fördjupade 31 mars
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

ROUTERBENCH - ett nytt ramverk för att utvärdera stora språkmodeller

I den digitala tidsåldern har stora språkmodeller (LLM) blivit hörnstenar i utvecklingen av applikationer som kräver nyanserad förståelse och generering av text som liknar mänskligt tal. Detta har lett till utmaningar för utvecklare och forskare att välja den mest lämpliga LLM som optimerar både prestanda och kostnadseffektivitet. Forskare från Martian, UC Berkeley och UC San Diego introducerar ROUTERBENCH, ett omfattande benchmark för att bedöma effektiviteten hos LLM routing-system. Detta nya ramverk erbjuder ett systematiskt sätt att utvärdera routerprestanda och banar väg för mer informerat och strategiskt modellimplementering.

Direktlänk Dela MarkTechPost fördjupade 30 mars

Claude 3 Opus AI tar över första platsen från GPT-4 på Chatbot Arena

Claude 3 Opus AI, utvecklad av Anthropic, har tagit över första platsen på Chatbot Arena, en webbplats som testar och jämför effektiviteten hos olika AI-modeller. Detta är första gången som Claude har överträffat en AI-modell från OpenAI. Claude 3 Opus är en av tre nyligen utvecklade LLM-modeller av Anthropic, med Sonnet och Haiku som kompletterar trion. Chatbot Arena, som lanserades i maj, är en skapelse av Large Model Systems Organization, en öppen forskningsorganisation grundad av studenter och lärare vid University of California, Berkeley.

Direktlänk Dela ZDNet fördjupade 28 mars

Studie visar att kvantisering är mer effektiv än beskärning för att bevara effektivitet och tillförlitlighet i komprimerade LLMs

Forskare från University of Texas, Drexel University, MIT, UIUC, Lawrence Livermore National Laboratory, Center for AI Safety, University of California, Berkeley och University of Chicago har genomfört en omfattande utvärdering av tre ledande LLMs med fem toppmoderna komprimeringstekniker över åtta tillförlitlighetsdimensioner. Studien visade att kvantisering är mer effektiv än beskärning för att bibehålla effektivitet och tillförlitlighet. Måttlig bitomfångskvantisering kan förbättra vissa tillförlitlighetsdimensioner som etik och rättvisa, medan extrem kvantisering till mycket låga bitnivåer utgör risker för tillförlitlighet. Forskarna betonar vikten av en helhetssyn på tillförlitlighet vid utvärdering av modellprestanda.

Direktlänk Dela MarkTechPost fördjupade 28 mars

Ny teknik för att optimera stora språkmodeller introducerad

Forskare vid University of California, Berkeley, har introducerat en ny teknik som kallas Retrieval Augmented Fine Tuning (RAFT) för att optimera stora språkmodeller (LLM) för domänspecifika tillämpningar. RAFT kombinerar återhämtning-förstärkt generation (RAG) och finjustering för att förbättra LLM:ernas förmåga att både få kunskap om den specialiserade domänen och bättre extrahera information från in-kontextdokument. RAFT kan vara mycket användbart för företag som anpassar LLM:er för applikationer som arbetar med deras egna data. Forskarna jämförde RAG-metoder med att sitta vid en öppen bokexamen utan att ha studerat, medan en RAFT-tränad modell är som en student som har studerat ämnet och sitter vid en öppen bokexamen. RAFT-koden har designats för att använda GPT-4 som standard för att generera CoT-resonemangs steg för träningsexemplen.

Direktlänk Dela BD Tech Talks fördjupade 25 mars

EMMET: En ny algoritm för AI-modellredigering utvecklad av UC Berkeley-forskare

AI utvecklas ständigt och kräver effektiva metoder för att integrera ny kunskap i befintliga modeller. Detta har lett till födelsen av modellredigering. Målet är att förse AI-modeller med den senaste informationen utan att underminera deras grundläggande struktur eller övergripande prestanda. Tekniker som ROME och MEMIT har historiskt erbjudit lösningar. Forskare från UC Berkeley har skapat EMMET, en banbrytande algoritm som kombinerar styrkorna hos både ROME och MEMIT. EMMET skiljer sig genom att möjliggöra batchredigeringar, vilket uppnås genom att noggrant balansera bevarandet av modellens ursprungliga funktioner och minnet av nya fakta. EMMET har potential att förbättra anpassningsförmågan hos AI-system, vilket gör att de kan utvecklas tillsammans med den växande kunskapskroppen.

Direktlänk Dela MarkTechPost fördjupade 25 mars

En politisk konsult, Steve Kramer, som tidigare arbetade för demokraten Dean Phillips presidentkampanj, har erkänt att han låg bakom det automatiska samtal som använde en AI-genererad röst av president Joe Biden för att uppmana väljare i New Hampshire att inte delta i statens primärval den 23 januari. Samtalet, som skickades till över 20 000 människor i slutet av januari, markerade det första stora försöket att använda AI för att imitera en amerikansk president i ett försök att undertrycka röster. Detta har lett till brottsutredningar och oro över framtida AI-användning inom amerikansk politik.

Yahoo News UK fördjupade 21 mars

Teknikjättarnas inflytande och subkulturen i Silicon Valley

En stor dos indirekt samhälleligt inflytande ligger nu i händerna på teknikjättarna. I det moderna teknikmeckat, Silicon Valley, finns en subkultur med tekniknördar som föredrar science fiction och dataspel framför den analoga kulturen. De dras mot världsåskådningar som har uppstått från digitala diskussionsforum. Populära filosofier inkluderar effektiv altruism och effektiv accelerationism. Dessa idéer har rotat sig i Kaliforniens tekniska och ekonomiska maktcentrum, med nära kopplingar till framstående universitet som Stanford och UC Berkeley.

Direktlänk Dela Hufvudstadsbladet fördjupade 17 mars

Användning av federerat lärande för att förbättra patientresultat samtidigt som datasekretess och säkerhet hanteras

Många organisationer implementerar maskininlärning (ML) för att förbättra sina affärsbeslut genom automatisering och användning av stora distribuerade datamängder. För att hantera säkerhets- och integritetsrisker som uppstår vid delning av rå, icke-sanerad känslig information över olika platser, används federerat lärande (FL), en decentraliserad och samarbetsinriktad ML-träningsteknik som erbjuder datasekretess samtidigt som noggrannhet och trohet bibehålls. Denna artikel delar ett FL-tillvägagångssätt med FedML, Amazon Elastic Kubernetes Service (Amazon EKS), och Amazon SageMaker för att förbättra patientresultat samtidigt som datasekretess och säkerhetsproblem hanteras.

Direktlänk Dela Amazon Web Services fördjupade 15 mars

Forskare varnar för riskerna med dataförgiftning i generativ AI

Generativ AI:s förmåga att skapa nytt och originellt innehåll håller stor potential för att öka mänsklig produktivitet. Men med dessa förmågor kommer ökade risker för hacking. Forskare varnar för potentialen för attacker kända som dataförgiftning, där skadliga aktörer infogar felaktig eller vilseledande information i data som används för att träna en AI-modell med syftet att sprida desinformation. Enligt Florian Tramèr, biträdande professor i datavetenskap vid ETH Zürich, kan generativa AI-modeller vara särskilt sårbara eftersom de måste ta in stora mängder text, bilder och annan data från den offentliga internet för att få den kunskap de behöver för att skapa något på egen hand. Vissa forskare menar att lagstiftning kan behövas för att hantera problemet med dataförgiftning, samt andra frågor kring generativ AI som integritet och upphovsrättsintrång.

Direktlänk Dela Mint fördjupade 14 mars

AI-verktyg i klassrummet: Vän eller fiende?

Lärare över hela landet brottas med frågan om AI-verktyg som ChatGPT ska ses som vän eller fiende i klassrummet. En studie utförd av forskare från University of South Carolina, University of California, Berkeley och Emerson College visar att AI kan vara ett användbart verktyg för idégenerering, men det finns också potentiella negativa effekter på elevernas kreativa tänkande och självförtroende. Trots att AI kan generera idéer snabbt och effektivt, uttryckte studenter oro över överberoendet av tekniken och dess inverkan på deras egna tankar och kreativa förmågor.

Direktlänk Dela The Good Men Project fördjupade 11 mars

Förstärkning av maskinernas beslutsförmåga med ArCHer

Forskare från University of California Berkeley och Google DeepMind har utvecklat en innovativ ramverk kallad ArCHer för att förbättra maskiners beslutsförmåga, särskilt inom området förstärkning inlärning (RL). ArCHer använder en unik två-nivå RL-strategi för att optimera både makrostrategier och mikrobeslut. Ramverket introducerar en ny skådespelar-kritikerstruktur där den höga kritikern bedömer potentialen hos olika strategier, samtidigt som den låga skådespelaren förfinar individuella åtgärder inom varje tur. ArCHer har visat betydande framsteg i effektivitet och prestanda i olika testmiljöer.

Direktlänk Dela MarkTechPost fördjupade 8 mars

UC Berkeley utvecklar språkmodellsbaserad prognosmetod

Ett forskningsteam från UC Berkeley har utvecklat en ny språkmodellsbaserad pipeline för prognostisering. Systemet automatiserar kritiska komponenter i prognosprocessen, inklusive hämtning av relevant information från nyhetskällor, resonemang baserat på insamlade data och sammanställning av individuella prognoser till en övergripande förutsägelse. Systemet kombinerar olika metoder för att uppnå omfattande täckning i prognostisering genom att bryta ner frågor till delfrågor och använda sökfrågor. Artiklar hämtas från nyhets-API:er och filtreras baserat på relevanspoäng som tillhandahålls av GPT-3.5-Turbo. Artiklarna sammanfattas sedan för att passa inom språkmodellens kontextfönster. Systemet uppnådde en genomsnittlig Brier-poäng på .179, vilket nästan motsvarar den mänskliga aggregerade poängen på .149, vilket indikerar att språkmodellsbaserade prognossystemet nästan motsvarar, och i vissa fall överträffar, noggrannheten hos mänskliga prognosmakare.

Direktlänk Dela MarkTechPost fördjupade 6 mars

Google och UC Berkeley tävlar om AI-modellprestanda

Google presenterade nyligen sin mest avancerade generativa artificiella intelligens (AI) modell, Gemini 1.5, som är särskilt skicklig på att identifiera specifika ramar i videomaterial baserat på textbeskrivningar. Men modellen saknar tekniska detaljer om hur programvaran fungerar och koden är inte tillgänglig. Forskare vid University of California i Berkeley har dock utvecklat en öppen källkodsmodell, Large World Model (LWM), som kan matcha några av Geminis förmågor. LWM kan processera text, video och bilder, och kan utföra uppgifter liknande Gemini 1.5.

Direktlänk Dela ZDNet fördjupade 4 mars

Överanvändning av AI kan vara skadligt, säger UC Berkeley-student

En student vid UC Berkeley uttrycker oro över överanvändning av AI-verktyg som ChatGPT. Studenten erkänner att AI kan vara tidsbesparande och hjälpa till att lätta arbetsbördan, men varnar för att överberoende kan vara skadligt. Detta kan underminera den personliga utveckling som krävdes för att komma in på universitetet och kan leda till en brist på kritiskt tänkande. Studenten pekar också på att AI-verktyg kan vara opålitliga och att överanvändning kan skada den mentala hälsan och förmågan att hantera oväntade utmaningar. Trots detta tror studenten att AI kan vara en otrolig tillgång om det används korrekt och sparsamt.

Direktlänk Dela Tech Gate fördjupade 4 mars

UC Berkeley-student uttrycker oro över överanvändning av AI i akademiska sammanhang

En student vid UC Berkeley uttrycker sin oro över den ökade användningen av AI-verktyg som ChatGPT i akademiska sammanhang. Studenten påpekar att medan AI kan vara tidsbesparande och hjälpa till med uppgifter, finns det risk för överberoende. Detta kan underminera personlig tillväxt och kritiskt tänkande, vilket är viktiga färdigheter för framtiden. Dessutom kan överberoendet av AI utgöra risker för mental hälsa och förmågan att hantera oväntade utmaningar. Studenten framhåller att AI-verktyg kan vara användbara om de används korrekt och sparsamt, men att det är viktigt att inte förlita sig för mycket på dem.

Direktlänk Dela Her Campus Media fördjupade 3 mars

Perplexity AI:s VD Aravind Srinivas om sin resa från IIT Madras till Silicon Valley

Aravind Srinivas, VD för sökmotorstartföretaget Perplexity AI, berättade om sin besvikelse när han inte kom in på datavetenskap vid IIT Madras, trots att han har en dubbelexamen i elektroteknik därifrån. Han försökte byta till datavetenskap men misslyckades med en liten procentandel. Hans misslyckande ledde till att han lärde sig programmeringsspråket Python och maskininlärning på egen hand, vilket senare hjälpte honom att toppa klassen i ett maskininlärningskurs. Srinivas fick sedan en praktikplats med den kanadensiska datavetaren Yoshua Bengio, som rekommenderade honom till en doktorandplats i datavetenskap. Han fick senare arbete på Deep Mind och Google, innan han blev VD för Perplexity AI.

Direktlänk Dela Business Today fördjupade 1 mars

Enkrypt AI säkrar 2,35 miljoner dollar i finansiering för att förbättra säkerheten och tillförlitligheten för generativ AI

AI-företaget Enkrypt AI har tillkännagivit en finansieringsrunda på 2,35 miljoner dollar för att säkerställa att företagets användning av generativ AI och LLM är säker och i linje med regelverken. Finansieringsrundan leddes av Boldcap med deltagande från Berkeley SkyDeck, Kubera VC, Arka VC, Veredas Partners, Builders Fund och ängelinvesterare inom AI, hälso- och företagssektorn. Enkrypt AI grundades av Sahil Agarwal och Prashanth Harshangi, båda med doktorsexamen från Yale och erfarenhet inom AI. Enkrypt AI har tidigare utvecklat och implementerat AI-modeller inom olika sektorer, inklusive USA:s försvarsdepartement och olika företag inom självkörande bilar, musik, försäkringar och finans.

Direktlänk Dela Business Insider fördjupade 28 februari

FlowGPT: Ett alternativ till OpenAIs GPT Store

För några månader sedan lanserade OpenAI GPT Store, en marknadsplats där människor kan skapa och lista AI-drivna chatbots anpassade för att utföra en mängd olika uppgifter. Men för att använda den krävs det att man använder OpenAIs modeller och inga andra, vilket vissa chatbot-skapare och användare motsätter sig. Startups skapar därför alternativ. Ett av dessa är FlowGPT, som syftar till att vara en slags ´app store´ för generativa AI-modeller. Genom FlowGPT kan användare bygga sina egna GenAI-drivna appar och göra dem offentligt tillgängliga, och tjäna tips för sina bidrag. Jay Dang, en avhoppare från UC Berkeley datavetenskap, och Lifan Wang, en före detta ingenjörschef på Amazon, grundade FlowGPT förra året med en gemensam önskan att skapa en plattform där människor snabbt kunde skapa och dela GenAI-appar.

Direktlänk Dela TechCrunch fördjupade 27 februari

AI-drivna ljudfakes utgör hot mot demokratier i framtida val

AI-syntetiserade röstimitationer användes för att påverka valresultat i Slovakien, Pakistan, Bangladesh och USA under 2023 och 2024. De så kallade ´deepfakes´ skapades för att sprida desinformation och manipulera väljare. AI-ljudfakes anses vara ett större hot än fabrikerade videor eftersom de är billigare och enklare att skapa, och det finns färre kontextuella ledtrådar att upptäcka med blotta ögat. Med teknikens framsteg blir det allt svårare för allmänheten att skilja mellan verkliga och AI-genererade bilder och tal. Detta utgör en potentiellt katastrofal risk för demokratier världen över.

Direktlänk Dela Global Investigative Journalism Network fördjupade 26 februari

AI-experter efterlyser striktare reglering av deepfakes

AI-experter och företagsledare, inklusive teknikens pionjär Yoshua Bengio, har undertecknat ett öppet brev som kräver mer reglering kring skapandet av deepfakes, på grund av potentiella risker för samhället. Gruppen, ledd av Andrew Critch, en AI-forskare vid UC Berkeley, framhåller att deepfakes ofta involverar sexuell bildframställning, bedrägeri eller politisk desinformation. Brevet, ´Disrupting the Deepfake Supply Chain´, rekommenderar fullständig kriminalisering av deepfake barnpornografi, straff för individer som medvetet skapar eller underlättar spridningen av skadliga deepfakes och krav på att AI-företag ska förhindra att deras produkter skapar skadliga deepfakes.

Direktlänk Dela Hindustan Times Tech fördjupade 25 februari

Över 400 individer kräver mer reglering av deepfakes

Över 400 individer från olika branscher, inklusive akademi, underhållning och politik, har skrivit under ett öppet brev som kräver mer reglering kring skapandet av deepfakes, med hänvisning till potentiella risker för samhället. Brevet, med titeln ´Disrupting the Deepfake Supply Chain´, ger rekommendationer om hur man ska reglera deepfakes, inklusive fullständig kriminalisering av deepfake barnpornografi, kriminella påföljder för alla individer som medvetet skapar eller underlättar spridningen av skadliga deepfakes och kräver att AI-företag förhindrar att deras produkter skapar skadliga deepfakes.

Direktlänk Dela The Economic Times fördjupade 23 februari

Perplexity AI omformar sökmotorer, Byju´s når finansiell milstolpe

Perplexity AI, ledd av Aravind Srinivas, tidigare student vid IIT Madras och UC Berkeley, arbetar för att omforma traditionella sökmotorer genom att skapa en konversationsdriven sökupplevelse. Med över 1 miljon användare i Indien och stöd från tunga investerare som Jeff Bezos och Nvidia, strävar företaget efter att demokratisera information genom förbättrat språkstöd och inklusivitet. I samarbete med indiska startups som Sarvam AI, arbetar Perplexity AI för att bryta språkbarriärer. Under tiden har edtech-jätten Byju´s nått en viktig milstolpe med sin fulltecknade rättsemisson på 200 miljoner dollar, trots interna utmaningar och krav på omstrukturering.

Direktlänk Dela BNN Breaking News fördjupade 22 februari

AI-experter uppmanar till större reglering av deepfakes

AI-experter och företagsledare, inklusive en av teknikens pionjärer Yoshua Bengio, har skrivit under ett öppet brev som kräver mer reglering kring skapandet av deepfakes, med hänvisning till potentiella risker för samhället. ´Deepfakes innebär ofta sexuella bilder, bedrägeri eller politisk desinformation. Eftersom AI utvecklas snabbt och gör deepfakes mycket lättare att skapa, behövs skyddsåtgärder´, sade gruppen i brevet. Brevet rekommenderar hur man ska reglera deepfakes, inklusive fullständig kriminalisering av deepfake barnpornografi och kräver att AI-företag förhindrar att deras produkter skapar skadliga deepfakes.

Direktlänk Dela Channel NewsAsia fördjupade 21 februari

OpenAI introducerar Sora, en AI som kan omvandla text till video

OpenAI har introducerat sin senaste AI-system, Sora, som kan omvandla textbeskrivningar till fotorealistiska videoklipp. Sora kan skapa videoklipp upp till 60 sekunder långa med hjälp av antingen textinstruktioner eller text i kombination med en bild. Teknologin väcker både entusiasm och farhågor om hur artificiella deepfake-videor kan förvärra desinformation under globala valår. Sora baseras delvis på OpenAI:s befintliga teknologier, som bildgeneratorn DALL-E och de storskaliga språkmodellerna GPT. Sora kombinerar två olika AI-metoder för att uppnå högre realism.

Direktlänk Dela New Scientist fördjupade 17 februari

AI-verktyg i klassrummet: Vän eller fiende?

En studie av lärare över hela landet visar att AI-verktyg som ChatGPT kan vara både vän och fiende i klassrummet. Forskningen, publicerad i Journal of Creativity och representerar forskare från University of South Carolina, University of California, Berkeley och Emerson College, visar att AI kan vara ett användbart verktyg för brainstorming, men det kan också ha negativa effekter på studenternas kreativa tänkande och självförtroende. Studenterna rapporterade att det var hjälpsamt att ´ha en annan hjärna´, men kände också att användning av AI var ´den enkla utvägen´ och tillät dem inte att tänka själva.

Direktlänk Dela Youth Today fördjupade 13 februari

Toppuniversiteten för studier inom artificiell intelligens

Efterfrågan på artificiell intelligens (AI) har ökat snabbt de senaste åren och förväntas fortsätta öka. Flera start-ups utvecklar nu AI-baserade produkter och lösningar, vilket skapar stor efterfrågan på AI-experter världen över. AI används i flera branscher, företag, hälsosektorer, utbildningssystem och transportsystem. Att studera AI kan vara ett bra val då det öppnar upp för många jobbmöjligheter med konkurrenskraftiga löner och en ljus framtid. Några av de bästa universiteten för AI-studier är Stanford University, Massachusetts Institute of Technology (MIT), University of Oxford, National University of Singapore, Columbia University, University of Edinburgh, University of Michigan och University of California, Berkeley.

Direktlänk Dela Academiamag.com fördjupade 10 februari

AI-Genererad Robosamtal Imiterar President Biden Spåras till Företag i Texas

En AI-genererad robosamtal som imiterar president Joe Bidens röst har spårats tillbaka till ett företag i Dallas förorter. New Hampshire´s justitieminister identifierade Walter Monk och hans företag Life Corporation som ansvariga för det falska samtalet, som uppskattas ha nått över 20 000 människor och uppmanade demokrater att inte rösta i statens primärval. Monk är en serieentreprenör vars företag har arbetat inom den politiska robosamtalsindustrin i nästan två decennier. Enligt Federal Election Commission har cirka 140 federala kampanjer och politiska aktionskommittéer rapporterat att de betalat företag kopplade till Monk mellan 2004 och 2022, totalt cirka 770 000 dollar.

Direktlänk Dela CNN fördjupade 8 februari

Recension av Fei-Fei Lis bok, ´The Worlds I See´

Fei-Fei Li är en framstående kvinna inom det manligt dominerade området artificiell intelligens. I sin bok ´The Worlds I See´ beskriver hon sin resa från att vara en ung forskare i Kina till att bli en ledande figur inom AI. Hon diskuterar sin forskning, inklusive hur hon tillämpar principer från visuell igenkänning i hjärnan på maskininlärning. Li är också medgrundare till AI4All, en ideell organisation som främjar mångfald och inkludering inom AI. Trots en kontrovers under hennes tid som chefsforskare för Google Cloud har Li blivit en förebild inom sitt område.

Direktlänk Dela Women´s Agenda fördjupade 6 februari

ChatGPT:s uppdatering för att minska ´lathet´

ChatGPT, AI-programmet från OpenAI, har nyligen fått kritik för att vara ´lat´ och ge svar som inte stämmer överens med användarnas förfrågningar. OpenAI:s VD Sam Altman medger att programmet har visat dåliga vanor, men hävdar att en programuppdatering bör göra det ´mycket mindre lat´. Användare har rapporterat problem som att programmet hävdar att det inte kan surfa på internet, trots att det kan det. Det har också varit diskussioner om att äldre versioner av programmet kan ha fungerat bättre. Sedan ChatGPT:s lansering till allmänheten i november 2022 har det samlat över 1,7 miljarder användare.

Direktlänk Dela Fortune Media fördjupade 5 februari

Australisk nyhetsstation skyller på AI för kontroversiell bildredigering

En australisk nyhetsstation har bett om ursäkt efter att ha visat en förändrad bild av en parlamentsmedlem, Georgie Purcell, och hävdade att bilden redigerades av ett AI-verktyg i Adobe Photoshop. Purcell, som är medlem i Animal Justice Party, postade den ursprungliga bilden tillsammans med den redigerade på sociala medier och påpekade att hennes kropp och klädsel hade blivit photoshoppade. Nyhetsstationen, 9News, kallade det för ett ´grafiskt fel´ och skyllde på Adobe snarare än mänskligt fel. Adobe hävdade dock att ändringar i bilden skulle ha krävt ´mänsklig inblandning och godkännande´.

Direktlänk Dela CNET Networks fördjupade 5 februari

AI-skapat falskt innehåll skapar kaos, detektionsverktyg begränsade

Falskt och vilseledande innehåll skapat av artificiell intelligens (AI) har snabbt gått från att vara ett teoretiskt hot till en skrämmande verklighet. Teknik för att producera övertygande ljudinspelningar av en person som talar blir ständigt bättre och har blivit allmänt tillgänglig med en enkel online-sökning. Detta har redan orsakat kaos, med falska telefonsamtal och inspelningar. Företag som Reality Defender använder AI för att upptäcka AI, men det finns fortfarande ingen helt säker metod för att snabbt och tillförlitligt bestämma om ljudet kommer från en riktig person. De flesta detektionsprogrammen är utbildade för att identifiera befintliga deepfake-algoritmer, vilket gör dem ett steg efter nya innovationer. Det är även svårt att få finansiering för detektionsverktyg jämfört med att skapa deepfakes.

Direktlänk Dela America Online fördjupade 4 februari

AI-verktyg i klassrummet: Vän eller fiende?

Lärare över hela landet kämpar med huruvida de ska se AI-verktyg som ChatGPT som vän eller fiende i klassrummet. En studie utförd av forskare från University of South Carolina, University of California, Berkeley och Emerson College visar att svaret kan vara både och. Studien visade att AI kan vara ett användbart verktyg för brainstorming, men det kan också ha negativa effekter på studenternas kreativa tänkande och självförtroende. Forskarna noterade att medan användning av ChatGPT förbättrade studenternas kreativa output individuellt, tenderade AI-idéerna att vara repetitiva i stort. Detta beror troligen på att generativ AI återanvänder befintligt innehåll snarare än att skapa originaltankar.

Direktlänk Dela The Conversation fördjupade 1 februari

Kemister ifrågasätter Google DeepMinds och UC Berkeleys robotforskning

Forskning från Google DeepMind och UC Berkeley om en robot som skapar nya material förutsagda av AI-algoritmer ifrågasätts nu av en grupp kemister. I den ursprungliga studien användes en robotiskt labbsystem, A-Lab, för att automatiskt syntetisera nya föreningar förutsagda av Google DeepMinds modell GNoMe. Emellertid tror sju forskare från Princeton University och University College London att A-Lab inte lyckades skapa ett enda nytt oorganiskt material. De fann att de flesta av dem hade felklassificerats. Forskarna tror att det ursprungliga experimentet inte tog hänsyn till ´sammansättningsstörning´, och antog att atomerna i varje förening som A-Lab skapade var ordnade när de faktiskt var oordnade och redan existerar i Inorganic Crystal Structure Database (ICSD).

Direktlänk Dela The Register fördjupade 31 januari

Google Bard överträffar GPT-4 för att bli näst bästa chatbot på LMSYS Leaderboard

Google Bard har nu överträffat GPT-4 för att bli den näst bästa chatboten på LMSYS Leaderboard, vilket försvagar OpenAI:s dominans inom chatbotområdet. Det har nu passerat GPT-4 och närmar sig GPT-4 Turbo, som behåller sin förstaplats. Båda GPT-4 Turbo och GPT-4 har länge haft en stark grepp om de två översta platserna. Bards framgång beror på dess uppdatering med den nya stora språkmodellen Gemini Pro. LMSYS Org, som står för Large Model Systems Organization, skapade Chatbot Arena Leaderboard. Denna organisation är en öppen forskningsgrupp som grundades av University of California, Berkeley i samarbete med University of California, San Diego och Carnegie Mellon University. Bard är bara den andra modellen på ledartavlan som har uppnått ett poäng över 1200. Bard har även slagit alla versioner av Claude, med Gemini Pro Dev API-versionen som rankar högre än Anthropics Claude 2.1 och GPT 3.5 Turbo.

Direktlänk Dela AI Business fördjupade 31 januari

Lärare vid Berkeley High School hanterar användning av AI i studentuppgifter

Sedan lanseringen av ChatGPT i november 2022 har artificiell intelligens (AI) blivit lättillgängligt för studenter, vilket har lett till att många genererar uppsatser, koder och andra typer av uppgifter artificiellt. Detta har skapat nya bekymmer för lärare kring akademisk hederlighet och plagiering. Som ett resultat har många lärare på Berkeley High School uppdaterat sina kursplaner och klassrumsförväntningar för att hantera detta. BHS datavetenskapslärare Peter Seibel presenterade för BHS-personal i början av året om ChatGPT:s relevans och hur lärare bör hantera det. Seibel förklarade att det bästa sättet för lärare att hantera detta är att bygga förtroende med sina elever. Engelskläraren Brooke McKinney har en låg toleranspolicy för ChatGPT i sin klass och betonar vikten av akademisk hederlighet. Engelskläraren Amanda Daly har inte stött på mycket problem med ChatGPT eftersom majoriteten av hennes uppgifter är handskrivna.

Direktlänk Dela Berkeley High Jacket fördjupade 27 januari

Generativ AI kommer inte ersätta människor inom överskådlig framtid

Generativ AI (GenAI) har hyllats som ett revolutionerande verktyg för kreativitet, men det finns fyra huvudskäl till varför det inte kommer ersätta människor inom överskådlig framtid. För det första skyddas inte verk producerade av GenAI av upphovsrätt. För det andra har GenAIs tillförlitlighet visat sig vara ojämn, vilket har lett till rättsliga konsekvenser. För det tredje är stora språkmodeller (LLMs) datakortsiktiga eftersom de inte tränas på några av de rikaste och högkvalitativa databaserna vi skapar som art. Slutligen kommer AI aldrig att kunna avgöra vad som är värdefullt - det är människor som bestämmer slutvärdet av output.

Direktlänk Dela Entrepreneur Media fördjupade 26 januari

Etiska överväganden kring användning av AI inom mentalvård

Jodi Halpern, professor vid UC Berkeley School of Public Health, har under flera år arbetat med etiken kring innovativa teknologier, som genredigering och artificiell intelligens (AI). På senare tid har hon fokuserat på den växande användningen av AI inom mental hälsa. Flera företag inom hälso- och tekniksektorn har lanserat appar som påstås kunna hjälpa till att diagnostisera psykiska tillstånd och komplettera eller till och med ersätta individuell terapi. Men Halpern har också oro över hur AI används inom mentalvården, särskilt när det gäller AI-baserade ´terapeuter´ och ´kamrater´ som marknadsförs till personer med psykiska hälsoproblem. Hon är också oroad över marknadsföringen av mentalvårdsappar till skolor.

Direktlänk Dela Greater Good Science Center at University of California, Berkeley fördjupade 24 januari

Politiker använder AI som syndabock för att avfärda skadliga anklagelser

Experter inom artificiell intelligens (AI) varnar för att AI-genererat innehåll kan förvirra verklighetsuppfattningen. Politiker över hela världen har avfärdat potentiellt skadliga bevis, som suddiga videoklipp och röstinspelningar, som AI-genererade fejk. Förra månaden avfärdade den tidigare presidenten Donald Trump en annons på Fox News som innehöll videoklipp av hans välkända offentliga missar, och hävdade att materialet var genererat av AI. AI skapar en ´lögnarens utdelning´, säger Hany Farid, professor vid University of California i Berkeley. AI ´destabiliserar själva begreppet sanning´, tillägger Libby Lange, analytiker vid organisationen Graphika.

Direktlänk Dela The Washington Post fördjupade 22 januari

Microsoft lanserar Azure AI Studio för generativ AI-apputveckling

Den 15 november meddelade Microsoft lanseringen av Azure AI Studio, en ny plattform för utveckling av generativa AI-applikationer. Plattformen använder sig av OpenAI-modeller som GPT-4, samt modeller från Microsoft Research, Meta, Hugging Face och andra. Azure AI Studio är ett system för att välja generativa AI-modeller, för att grundlägga dem med RAG (Retrieval-Augmented Generation) med hjälp av vektorinbäddningar, vektorsökningar och data, och för att finjustera dessa modeller för att skapa AI-drivna kopiloter eller agenter. Azure AI Studio har konkurrens från företag som Amazon och Google, samt från mindre kända aktörer som LangChain och LangSmith.

Direktlänk Dela InfoWorld fördjupade 22 januari

Påverkan av deepfakes på demokratin: En blick på Slovakien och Kanada

Dagar före det nationella valet i Slovakien förra hösten började en manipulerad ljudinspelning spridas online där det lät som att Michal Simecka, ledare för det progressiva slovakiska partiet, diskuterade att köpa röster med en lokal journalist. Filen visade sig senare vara en ´deepfake´-bluff. Simecka förlorade valet mot den pro-Kreml populistiska kandidaten Robert Fico. Caroline Xavier, chef för Communications Security Establishment (CSE), Kanadas cyberunderrättelsebyrå, uttryckte oro över hur produkter av artificiell intelligens påverkar demokratin. Hany Farid, professor vid University of California-Berkeley, ser två huvudhot från sammanstötningen mellan generativt AI-innehåll och politik. Det första är dess effekt på politiker - på deras förmåga att förneka verkligheten. Det andra hotet, säger han, är redan igång: spridningen av falskt innehåll designat för att skada enskilda kandidater.

Direktlänk Dela Canadian Broadcasting Corporation fördjupade 18 januari

ChatGPT kan öka produktiviteten inom kodning, hälso- och sjukvård och utbildning, enligt OpenAI:s VD

OpenAI:s VD Sam Altman menar att chatboten ChatGPT kan vara särskilt användbar för arbetare inom kodning, hälso- och sjukvård och utbildning. Inom kodning kan ChatGPT hjälpa programmerare att arbeta upp till tre gånger snabbare, genom att bistå med uppgifter som kodgranskning och generering av ny kod. Inom utbildning kan AI-system hjälpa lärare med att utforma läroplaner och personliga lektionsplaner, samt sköta administrativa uppgifter. Inom hälso- och sjukvård kan AI-verktyg fungera som en digital assistent för läkare, genom att hjälpa till med tidskrävande administrativa uppgifter och svara på vanliga patientfrågor.

Direktlänk Dela Consumer News and Business Channel fördjupade 17 januari

OpenAI:s ChatGPT har potential att öka produktiviteten inom kodning, hälso- och sjukvård och utbildning

OpenAI:s VD Sam Altman menar att företagets chatbot, ChatGPT, kan vara särskilt användbar inom tre specifika industrier: kodning, hälso- och sjukvård och utbildning. Inom kodning kan ChatGPT hjälpa programmerare att slutföra sitt arbete tre gånger snabbare än vanligt genom att granska kod för misstag, skriva testfall och generera ny kod. Inom utbildning kan AI-system hjälpa lärare att utforma läroplaner och spara tid genom att utföra administrativa uppgifter. Inom hälso- och sjukvård har OpenAI:s chatbot redan klarat amerikanska medicinska licensprov och kan hjälpa läkare med tidskrävande administrativa uppgifter.

Direktlänk Dela Biz.crast.net fördjupade 17 januari

San Francisco förblir en teknikmagnet trots kritik

Catalin Voss, medgrundare till Ello, ett företag som använder taligenkänningsteknologi för att hjälpa kämpande studenter att utveckla sina läsfärdigheter, hyllar San Francisco som den ultimata staden för teknisk innovation och möjlighet. Trots kritik från konservativa medier och teknikledare som Elon Musk, hävdar Voss och andra San Francisco-loyalister att staden fortsätter att vara en dynamisk hub för teknikstartups, talang och finansiering. De menar att framväxande tekniknav som Nashville, Miami och Austin inte riktigt kan jämföra sig. Trots den ekonomiska nedgången pandemin orsakat ser de nästa teknikboom inom artificiell intelligens.

Direktlänk Dela Los Angeles Times fördjupade 16 januari

Maskininlärning kommer att förändra vetenskapen, enligt Dr. Wahid Bhimji

Dr. Wahid Bhimji, som leder ett data- och AI-tjänstteam vid National Energy Research Scientific Computing Center vid Lawrence Berkeley National Laboratory, tror att djupinlärning (DL) kommer att förändra vetenskapen. Han förutser en ökad användning av denna teknologi inom vetenskaplig forskning. DL-modeller har funnits sedan 1980-talet, men intresset för dem återuppväcktes på grund av de övertygande frågor som började få svar under det senaste decenniet. Framstegen inom datateknik och tillgängligheten av stora mängder bearbetade data har gjort DL mer genomförbart inom vetenskaplig forskning.

Direktlänk Dela The Campus - City College of New York fördjupade 11 januari

Forskare på Google och Stanford arbetar med robotik och maskininlärning

Sergey Levine är biträdande professor vid UC Berkeley och forskningsvetenskapsman på Google. Hans arbete handlar om algoritmer för lärandebaserad kontroll, robotik och beslutsfattande. Han gick med i UC Berkeleys fakultet 2016, efter att ha avslutat en doktorsexamen vid Stanford University, en postdoc vid UC Berkeley och ett år som heltidsforskare i Google Brain-teamet. Hans tidigare forskning inkluderar populära algoritmer för djup förstärkningsinlärning, tidiga tillämpningar av djup förstärkningsinlärning för robotmanipulation, algoritmer för meta-lärande och en mängd robotinlärningsresultat inom områdena rörelse, navigation och fingerfärdig manipulation. Karol Hausman är forskningsvetenskapsman på Google DeepMind och adjungerad professor vid Stanford, där han arbetar med robotik och maskininlärning. Han tog sin doktorsexamen vid University of Southern California och sin M.Sc. vid Technical University of Munich och Warsaw University of Technology. Hans främsta intresse ligger i att möjliggöra för robotar att förvärva allmänna färdigheter i verkliga miljöer. Nyligen har han varit mycket entusiastisk över att undersöka grundmodeller för robotbeslutsfattande. När han inte felsöker robotar på Google, samundervisar han Deep RL-klassen vid Stanford.

Direktlänk Dela Institute of Electrical and Electronics Engineers fördjupade 9 januari

Artificiell intelligens hjälper till i sökandet efter försvunnen tonåring från Berkeley

Ett hjärtskärande mysterium har kvarstått i den lilla staden Berkeley i över ett decennium. Användningen av artificiell intelligens kan vara en ytterligare resurs för att hjälpa till att lösa det.

Direktlänk Dela KSDK News fördjupade 6 januari

Fyra skäl till varför AI inte kommer ersätta människor inom den närmaste framtiden

Generativ AI (GenAI) har varit ett hett ämne sedan dess introduktion tidigare i år, med verktyg som ChatGPT, MidJourney och Bard som förväntas ersätta mänsklig produktivitet. Men trots de höga förväntningarna finns det minst fyra skäl till varför AI inte kommer att eliminera människor inom den närmaste framtiden. För det första kan GenAI:s resultat inte vara skyddade av upphovsrätten. För det andra är GenAI:s tillförlitlighet fortfarande oklar. För det tredje är data från stora språkmodeller (LLM) begränsade. Slutligen kommer AI aldrig att kunna avgöra vad som är värdefullt, eftersom det är människor som bestämmer det slutliga värdet av resultatet.

Direktlänk Dela Biz.crast.net fördjupade 5 januari

Självkörande laboratorier: En tyst revolution inom vetenskapen

Artificiell intelligens (AI) och robotar kan vara lösningen på det repetitiva arbete som ofta förekommer i laboratorier. Trots att AI:s förmåga att förutsäga möjliga nya strukturer har ökat enormt, som med Google DeepMinds proteinstruktur-predikterande AI AlphaFold, har vår förmåga att testa om dessa strukturer existerar och är korrekta inte hängt med. Självkörande laboratorier, som består av en kombination av robotarmar, testutrustning och en AI-övervakare, kan utföra experiment tusentals till miljontals gånger snabbare än en människa. Google DeepMind delade sina AI-kristallprognoser med ett team på Lawrence Berkeley National Laboratory i Kalifornien som utvecklar ett självkörande laboratorium, kallat A-Lab. Trots dessa framsteg finns det fortfarande många frågor kring självkörande laboratorier, och människor behövs fortfarande för att tolka resultaten.

Direktlänk Dela Government Technology fördjupade 3 januari

AI leder revolutionen inom halvledare och högpresterande datorer

AI leder revolutionen inom halvledare och högpresterande datorer. Enligt en nyligen publicerad rapport av forskningsföretaget GlobalData, förändrar AI genom att omvandla vad rapporten kallar ´materialupptäckt´. Denna innovationsdrivare påverkar stora sektorer som förnybar energi, halvledare och läkemedel genom att möjliggöra snabbare och mer effektiva upptäcktsprocesser, ta bort hinder för forskning och utveckling och driva framsteg inom materialvetenskap. Saurabh Daga, Associate Project Manager för Disruptive Tech på GlobalData, säger att AI blir allt viktigare för att låsa upp innovativa material och driva framåt branschspecifika utvecklingar. AI:s potential ses av de stora företagen i dessa branscher. Nyligen AI-möjliggjorda initiativ inkluderar Google DeepMind Graphical Networks for Material Exploration (GNoME), som rapporteras använda avancerade djupinlärningsmodeller för upptäckt av ny materialstruktur. GlobalData säger att detta avancerade AI-verktyg används på Lawrence Berkeley National Laboratory A-Lab, där forskare använder AI, maskininlärning och robotik för att syntetisera nya material för banbrytande applikationer.

Direktlänk Dela Embedded Computing Design fördjupade 28 december

Googles DeepMind påskyndar materialutveckling med AI

Googles investeringar i artificiell intelligens (AI) börjar redan ge avkastning. Företagets AI-forskningslaboratorium DeepMind har använt en teknik som kallas grafiska nätverk för materialutforskning (GNoME) för att förutsäga strukturerna på cirka två miljoner nya material. Av dessa har mer än 700 redan skapats och genomgår nu laboratorietester. Vissa av dessa GNoME-utvecklingar har bidragit till att befolka en databas för forskning som driver ett nytt autonomt laboratorium som nyligen tillkännagavs av Lawrence Berkeley National Laboratory.

Direktlänk Dela ThomasNet fördjupade 27 december

Forskare använder Harry Potter för att förstå AI

Forskare använder Harry Potter-böckerna för att experimentera med generativ artificiell intelligens (AI) teknologi på grund av seriens bestående inflytande och komplexa språkdata. En artikel med titeln ´Vem är Harry Potter?´ belyser en ny teknik som hjälper stora språkmodeller att selektivt glömma information. Forskare från Microsoft har visat att AI-modeller kan ändras eller redigeras för att ta bort kunskap om Harry Potter-böckerna utan att offra beslutsfattande och analytiska förmågor. Forskare från University of Washington, University of California vid Berkeley och Allen Institute for AI har utvecklat en ny AI-språkmodell med hjälp av Harry Potter-böckerna.

Direktlänk Dela BollyInside fördjupade 27 december

Harry Potter-böcker används i AI-forskning för att testa språkmodeller

Harry Potter-böckerna används allt mer inom AI-forskning för att testa generativ artificiell intelligens. Forskare använder seriens omfattande språkdata och komplexa ordlekar för att experimentera med AI. Microsoft-forskarna Mark Russinovich och Ronen Eldan har till exempel demonstrerat att AI-modeller kan redigeras för att ta bort all kunskap om Harry Potter-böckerna, inklusive karaktärer och handlingar, utan att offra AI-systemets beslutsfattande och analytiska förmågor. I en annan studie utvecklade forskare från University of Washington, University of California och Allen Institute for AI en ny språkmodell som kan ta bort data för att minska juridiska risker.

Direktlänk Dela Hindustan Times Tech fördjupade 27 december

AI-accelererad materialutveckling: GNoMe utmärker sig för skala och precision

Användningen av AI för att utveckla nya material har blivit vanlig, men GNoMe utmärker sig för sin skala och precision. Chris Bartel, biträdande professor i kemiteknik och materialvetenskap vid University of Minnesota, noterar att GNoMe tränades med en betydligt större mängd data än jämförbara projekt. Forskare tillbringar ofta år med att utveckla material baserat på befintliga strukturer i hopp om att upptäcka nya kombinationer. Tack vare djupinlärningsverktyget kan denna forskning nu påskyndas. Lawrence Berkeley National Laboratory, tillsammans med Google DeepMind, har publicerat två artiklar i tidskriften Nature.

Direktlänk Dela Notebookcheck fördjupade 16 december

Kaliforniska väljare kräver åtgärder mot AI-genererad desinformation

Enligt en ny undersökning från Berkeley IGS är 84% av väljarna i Kalifornien oroade över farorna med desinformation, deepfakes och AI för demokratin. Nästan tre fjärdedelar anser att staten har ett ansvar att agera. Undersökningen visade också att 78% av väljarna anser att sociala medieföretag är ansvariga för spridningen av desinformation, men oförmögna att lösa problemet. Dessutom visade 87% av väljarna starkt stöd för ökad transparens och ansvarsskyldighet kring deepfakes och algoritmer. Kaliforniens lagstiftare uppmanas att agera inför 2024 års val, som förutspås bli landets första fullskaliga AI-val.

Direktlänk Dela Lake County Record-Bee fördjupade 16 december

AI-system utmärker sig på imitation men inte innovation

Forskare vid University of California, Berkeley har upptäckt att AI-system ofta saknar den mänskliga förmågan att innovera. Medan barn och vuxna kan lösa problem genom att hitta nya användningar för vardagliga objekt, saknar AI-system ofta förmågan att se verktyg på ett nytt sätt. AI språkmodeller som ChatGPT tränas passivt på dataset som innehåller miljarder ord och bilder producerade av människor, vilket gör att AI-system kan fungera som en ´kulturell teknologi´ som kan sammanfatta befintlig kunskap. Men till skillnad från människor, kämpar de när det gäller att innovera på dessa idéer.

Direktlänk Dela Tech Xplore fördjupade 12 december

AI-laboratorieassistent ifrågasätts av forskare

En autonom laboratorieassistent, A-Lab, som använder AI och robotik för att skapa nya material, har kritiserats av forskare som ifrågasätter dess upptäckter. När A-Lab presenterades rapporterade man att den hade skapat 41 nya material på 17 dagar. Men efter granskning av A-Labs data hävdar kritiker att dessa material är en illusion. Robert Palgrave, fast tillstånds-kemist vid University College London, menar att det inte finns tillräckligt med bevis för att stödja påståendet att nya material har syntetiserats. Leslie Schoop, fast tillstånds-kemist vid Princeton University, betonar vikten av att forskningsresultat som involverar AI uppfyller samma standarder som förväntas av mänskliga forskare.

Direktlänk Dela Nature fördjupade 12 december

Generativ AI: Vad är det och hur fungerar det?

Generativ AI är överallt nuförtiden, inklusive i skapandet av rubriker. Denna typ av AI, som OpenAI´s ChatGPT, har förmågan att producera text som verkar ha skrivits av en människa. Generativ AI kan ses som en maskininlärningsmodell som är utbildad för att skapa ny data, snarare än att göra en förutsägelse om en specifik datamängd. Tekniken är inte ny och baseras på forskning och beräkningsframsteg som sträcker sig mer än 50 år tillbaka. Generativ AI har en mängd olika tillämpningar, från att skapa syntetiska bilddata till att designa nya proteinstukturer.

Direktlänk Dela The Good Men Project fördjupade 10 december

AI blir allt viktigare verktyg inom patentlagstiftning

Juridikprofessorer och praktiserande advokater som talade vid Berkeley-Stanford Advanced Patent Law Institute på torsdagen var överens om att artificiell intelligens blir ett allt viktigare verktyg i branschen och snabbt ersätter arbete som vanligtvis görs av advokater i början av karriären. De varnade dock att advokatbyråer måste avslöja sin användning av tekniken för klienter och domstolar.

Direktlänk Dela Law360 fördjupade 8 december

Google Deepmind AI identifierar 2,2 miljoner nya oorganiska kristaller

Google Deepminds AI, Graph Networks for Materials Exploration (GNoME), har identifierat 2,2 miljoner nya oorganiska kristaller, varav 380 000 är stabila. Detta motsvarar nästan 800 års kunskap och accelererar forskningen inom materialvetenskap. GNoME har även identifierat 52 000 nya föreningar liknande grafit, samt 528 potentiella litiumjonledare. Deepmind samarbetar med Berkeley Lab för att utveckla ett autonomt labb som kan syntetisera nya kristaller autonomt. Google har gjort dessa upptäckter tillgängliga för vetenskapen.

Direktlänk Dela Warp News fördjupade 6 december

Forskare vid University of California utvecklar ny maskininlärningsmetod för AI-träning

Forskare vid University of California, Berkeley har utvecklat en ny maskininlärningsmetod, kallad ´reinforcement learning via intervention feedback´ (RLIF), som kan underlätta träningen av AI-system för komplexa miljöer. RLIF kombinerar förstärkningsinlärning med interaktiv imitationsträning, två viktiga metoder som ofta används vid träning av artificiella intelligenssystem. RLIF kan vara användbart i inställningar där en belöningssignal inte är lätt tillgänglig och mänsklig feedback inte är mycket exakt, vilket ofta händer vid träning av AI-system för robotik.

Direktlänk Dela VentureBeat fördjupade 5 december

Meta och IBM lanserar AI Alliance för att förespråka ´open-science´-ansats till AI-utveckling

Facebooks moderbolag, Meta, och IBM har lanserat en ny grupp kallad AI Alliance som förespråkar en ´open-science´-ansats till AI-utveckling. Detta ställer dem i opposition mot rivaler som Google, Microsoft och OpenAI. Debatten handlar om säkerhet och vem som får dra nytta av AI:s framsteg. AI Alliance, som inkluderar Dell, Sony, chipstillverkarna AMD och Intel samt flera universitet och AI-startups, kommer sannolikt att lobba för att nya lagstiftningar ska gynna dem. Metas chefsforskare för AI, Yann LeCun, har kritiserat OpenAI, Google och startupföretaget Anthropic för deras ´massiva företagslobbying´.

Direktlänk Dela The Guardian fördjupade 5 december

IBM och Meta lanserar AI-allians för att främja öppen AI-forskning

IBM och Meta har lanserat AI-alliansen, en internationell koalition av över 50 organisationer, inklusive AMD, Intel, NASA, CERN och Harvard University, som syftar till att främja ´öppen innovation och öppen vetenskap inom AI´. Målet är att gemensamt främja alternativ till de slutna AI-system som för närvarande används av marknadsledare som OpenAI och Google. Alliansen syftar till att släppa modeller öppet och dela forskning om hur AI-modeller skapas eller tränas, samt att uppmuntra till öppen AI-forskning från andra. AI-alliansen har även skisserat flera initiativ för att främja AI-fältet på ett ansvarsfullt sätt.

Direktlänk Dela Ars Technica fördjupade 5 december

Meta och IBM bildar AI Alliance för att främja ansvarsfull AI-innovation

Meta och IBM har tillsammans bildat AI Alliance, en grupp bestående av 50 företag, startups, universitet, forskningsinstitut och statliga organ, för att främja en öppen källkodsgemenskap och påskynda ansvarsfull innovation inom AI. Gruppen inkluderar framstående AI-organisationer som Hugging Face, Intel, AMD, Oracle och Stability AI, samt utbildningsinstitutioner som Yale, Cornell, Hebrew University of Jerusalem och UC Berkeley. Alliansen planerar att främja ekosystemet för öppna grundmodeller, utveckla utvärderingsverktyg för ansvarsfull AI-utveckling och utbilda allmänheten och reglerande organ om risker och fördelar med AI.

Direktlänk Dela Gizmodo fördjupade 5 december

IBM och Meta leder ny AI-allians

IBM och Meta har tillsammans med över 50 grundande medlemmar och samarbetspartners, inklusive AMD, Intel, Hugging Face, Dell Technologies, Cerebras, Sony och Oracle, bildat en allians för att främja ansvarsfull och öppen utveckling av artificiell intelligens (AI). Alliansens syfte är att stödja en transparent och samarbetsinriktad AI-utveckling, vilket man hoppas kommer att bidra till att skapa utvärderingsstandarder och verktyg för att bygga AI-system. Bland de institutioner som har gått med i koalitionen finns Harvard University, Yale University, Imperial College London, University of Tokyo, UCLA Berkeley och Notre Dame.

Direktlänk Dela IT Pro fördjupade 5 december

Introduktion av GNoME: Ett AI-verktyg som hjälper till att upptäcka 2,2 miljoner nya kristaller

Forskare från Lawrence Berkeley National Laboratory och Google DeepMind har publicerat två artiklar i Nature som demonstrerar potentialen hos AI-förutsägelser för autonom materialsyntes. Deras nya djupinlärningsverktyg, Graph Networks for Materials Exploration (GNoME), förutspår stabiliteten hos nya material, vilket kraftigt förbättrar hastigheten och effektiviteten i upptäckten. GNoME har lett till upptäckten av 2,2 miljoner fler kristaller, vilket motsvarar ungefär 800 års information. Bland dess 2,2 miljoner förutsägelser visar 380 000 störst löfte för experimentell syntes på grund av deras stabilitet.

Direktlänk Dela MarkTechPost fördjupade 3 december

Amazon Web Services (AWS) har investerat 1,25 miljarder dollar i AI-startupen Anthropic. Detta har tolkats som ett försök av AWS att hålla jämna steg med Microsoft och Google inom AI-området. AWS, som är världens dominerande molnleverantör, har dock kritiserats för att inte vara tillräckligt utrustad för att vinna i den nya fasen av molntjänster, kallad Cloud 2.0, där företag måste konkurrera baserat på hur väl deras mjukvara och andra verktyg stöder AI. AWS VD, Adam Selipsky, har dock inte förnekat att företaget försöker komma ikapp. Anthropic kommer att göra AWS till sin primära molnleverantör och kommer att använda AWS egna AI-chip för att träna och distribuera framtida modeller.

Fortune Media fördjupade 3 december

Google Deepmind upptäcker miljontals nya material med hjälp av djupinlärning

Googles artificiella intelligens, Deepmind, har upptäckt miljontals nya material genom djupinlärning. Genom sitt verktyg för materialutforskning, GNoME, har Deepmind identifierat 2,2 miljoner nya oorganiska kristaller, varav 380 000 anses vara de starkaste. Omkring 736 av dessa har redan utvecklats oberoende i forskningslaboratorier runt om i världen. Bland dessa finns material som kan utveckla framtida teknologier, från superledare och superdatorer till nästa generations batterier. Deepmind gör alla GNoME:s upptäckter och förutsägelser tillgängliga för Next Gen Materials Project, och Google ger forskare gratis tillgång till datan.

Direktlänk Dela Nation World News fördjupade 2 december

Artificiell intelligens och dess inverkan på ekonomisk produktivitet, inkomstojämlikhet och industriell koncentration

Artificiell intelligens (AI) har potential att kraftigt påverka ekonomin, men dess framtida inverkan är osäker och beror på beslut som fattas idag. AI kan påverka produktivitetsökning, arbetsmarknaden och industriell koncentration. Det finns två möjliga scenarier för varje område: ett negativt och ett positivt. I det negativa scenariot kan AI leda till låg produktivitetstillväxt, högre inkomstojämlikhet och högre industriell koncentration. I det positiva scenariot kan AI leda till högre produktivitetstillväxt, lägre inkomstojämlikhet och lägre industriell koncentration. Vilket scenario som blir verklighet beror på en mängd faktorer, inklusive teknologiska och politiska beslut som fattas idag.

Direktlänk Dela International Monetary Fund fördjupade 2 december

UC Berkeley forskare introducerar RLIF för förbättrad robotinlärning

Forskare från UC Berkeley presenterar en ny metod för inlärningsbaserade kontrollproblem, där förstärkningsinlärning (RL) kombineras med användarinterventionsignaler. Metoden, kallad RLIF (Reinforcement Learning via Intervention Feedback), utnyttjar off-policy RL och mänskliga korrigeringar för att guida inlärningsprocessen och presterar bättre på högdimensionella kontinuerliga kontrolluppgifter och verkliga robotmanipulationsuppgifter. RLIF antar inte nära optimala expertinterventioner, vilket möjliggör förbättring av expertens prestanda och potentiellt undviker interventioner. Framtida arbete bör fokusera på säkerhetsutmaningar vid implementering av policys under expertövervakning med online-utforskning.

Direktlänk Dela MarkTechPost fördjupade 2 december

Ny teknik som avkodar hjärnaktivitet kan potentiellt användas för att läsa tankar, vilket kan ha tillämpningar inom sjukdomsbehandling och brottsutredningar. Tekniken, som utvecklades av amerikanska datavetare, kan dock också missbrukas av företag och regeringar för att få tillgång till individens innersta hemligheter. Elon Musk´s företag, Neuralink, har utvecklat en teknik för att implantera elektroder i hjärnan, vilket kan användas för att behandla sjukdomar som PTSD. Emellertid har detta framkallat oro för att tekniken kan användas för att hacka mänskliga hjärnor och läsa deras tankar.

Illvet fördjupade 2 december

Google´s DeepMind lyckas få AI-chattboten ChatGPT att avslöja sin träningsdata

För ett år sedan släppte OpenAI ChatGPT som en ´lågmäld forskningsförhandsgranskning´ i ett försök att utmanövrera rivalen Anthropic. Nu har Google´s DeepMind lyckats få AI-chattboten att avslöja sin träningsdata. Detta skedde genom en attackuppmaning som bad en produktionsmodell att upprepa specifika ord för evigt. Det specifika ordet var ´poem´ och det räckte för att få ChatGPT att ´sjunga´. Forskare säger att stora mängder privat identifierbar information från OpenAI:s stora språkmodeller blev tillgängliga genom denna unika uppmaningskonstruktion. De visade också att på en offentlig version av ChatGPT blev stora textpassager skrapade från internet tillgängliga. Forskarna noterade att de hade informerat OpenAI om sårbarheten den 30 augusti och att utvecklaren av LLM hade utfärdat en patch. Forskarna, från Google DeepMind, University of Washington, Cornell, Carnegie Mellon University, University of California Berkeley och ETH Zurich, skrev i en publicerad artikel.

Direktlänk Dela CXO Today fördjupade 1 december

De bästa neurala nätverksprogrammen: En jämförelse

Neurala nätverksprogram möjliggör implementering, driftsättning och utbildning av artificiella neurala nätverk. Dessa nätverk är utformade för att efterlikna mänskliga hjärnans beteende och används för en mängd olika uppgifter, inklusive mönsterigenkänning, dataanalys och prognoser. Här är de tio bästa neurala nätverksprogrammen: Keras (bäst för snabb prototypframställning), TensorFlow (bäst för produktionsdistribution), PyTorch (bäst för modularitet och snabb experiment), Apache MXNet (bäst för flexibel forskningsprototypframställning), Torch (bäst för forskare och utvecklare inom akademisk och forskningsgemenskap), Weka (bäst för utveckling av nya maskininlärningsscheman), Neural Designer (bäst för GUI-baserad utveckling), Chainer (bäst för små till medelstora projekt), Caffe (bäst för bildklassificering och datorseendeuppgifter) och Knet (bäst för dynamisk beräkning).

Direktlänk Dela Compliance Week fördjupade 1 december

AI och konst: Framtiden för kreativitet

I slutet av 2022 introducerades ChatGPT till världen och möttes av kollektiv förvåning. Detta verktyg, tillsammans med andra nya generativa AI-verktyg som DALL-E 2 och Midjourney, har utmanat uppfattningen att robotar inte kan skapa konst. De har vunnit fotografi- och konsttävlingar och till och med klarat medicinska styrelser och advokatexamen. Berkeley robotikprofessor Ken Goldberg argumenterar för att vi bör omfamna dessa nya generativa teknologier. Hans kommande utställning för Getty Museum i Los Angeles kommer att inkludera generativ AI.

Direktlänk Dela California Alumni Association fördjupade 1 december

Kalifornier kräver åtgärder mot AI-genererad desinformation i val

Enligt en ny undersökning från Berkeley IGS är 84% av Kaliforniens väljare oroliga för farorna med desinformation, deepfakes och AI för demokratin. Nästan tre av fyra väljare anser att staten har ett ansvar att agera. Undersökningen visade också att 78% av väljarna anser att sociala medieföretag är ansvariga för spridningen av desinformation, men oförmögna att lösa problemet. 87% av väljarna visar starkt stöd för ökad transparens och ansvarighet kring deepfakes och algoritmer. Inför 2024 års val, som förväntas bli USA:s första fullfjädrade AI-val, skapas nya ledare för att driva förändring och fylla luckan, som California Institute for Technology and Democracy (CITED).

Direktlänk Dela Santa Monica Daily Press fördjupade 30 november

Kalifornier kräver åtgärder mot AI och desinformation inför kommande val

Enligt en ny undersökning från Berkeley IGS är 84% av Kaliforniens väljare oroliga över farorna med desinformation, deepfakes och AI för demokratin. Nästan tre fjärdedelar av väljarna anser att delstatsregeringen har ett ansvar att agera. Dessutom fann undersökningen att 78% av väljarna anser att sociala medieföretag är ansvariga för spridningen av desinformation men också oförmögna att lösa problemet. Grupper som California Institute for Technology and Democracy (CITED) skapas för att driva förändring och fylla tomrummet. CITED kommer att driva en lagstiftningsstrategi 2024 och avser att spela en aktiv roll under valcykeln kring användningen av AI och deepfakes.

Direktlänk Dela CalMatters fördjupade 30 november

Google DeepMind förutspår strukturen på ännu ej upptäckta material

Google DeepMind har skapat ett system, A-Lab, som kan förutspå strukturen på material som ännu inte har upptäckts eller är kända. Systemet kan utföra syntes och analys av produkterna utan mänsklig inblandning. Verktyget har förutspått nästan 400 000 stabila ämnen som kan produceras i laboratorieförhållanden. Ekin Dogus Cubuk, som leder materialupptäcksteamet på Google DeepMind i London, påpekar att mycket av vår omgivande teknologi, inklusive batterier och solceller, kan förbättras med bättre material. AI-systemet tränades på data från Materials Project, en internationell forskargrupp grundad vid Lawrence Berkeley National Laboratory 2011.

Direktlänk Dela The Times of India fördjupade 30 november

OpenAI´s ChatGPT kan avslöja privat information, enligt forskning

En forskargrupp har upptäckt att OpenAI´s chatbot, ChatGPT, kan avslöja privat information om den uppmanas att upprepa ett ord som ´poem´ i all oändlighet. Denna sårbarhet kan orsaka att chatboten avslöjar telefonnummer, e-postadresser och annan information den har tränats på. Forskargruppen, som består av forskare från Google DeepMind, University of Washington, Cornell, Carnegie Mellon, University of California Berkeley och ETH Zurich, kunde utvinna över 10 000 unika träningsdataexempel genom att spendera endast 200 dollar. Dessa exempel inkluderade personlig identifierbar information och Bitcoin-adresser.

Direktlänk Dela The Times of India fördjupade 30 november

DeepMinds AI förutser strukturen på över två miljoner nya kemiska material

Enligt en artikel publicerad i vetenskapstidskriften Nature har AI-utvecklad av DeepMind förutsett strukturen på över två miljoner nya kemiska material. Detta markerar ett genombrott för att förbättra verkliga teknologier. Nästan 400 000 av dess teoretiska materialdesign kan snart genomgå laboratorietestning. Forskningen kan användas för att utveckla batterier, solpaneler och datorchips med förbättrad prestanda. AI utvecklad av DeepMind tränades med data från Materials Project, ett internationellt forskningskonsortium etablerat vid Lawrence Berkeley National Laboratory 2011.

Direktlänk Dela Cointelegraph fördjupade 30 november

Google DeepMinds AI kan förutsäga miljontals kristallstrukturer för framtidens teknologi

Google DeepMind har utvecklat en AI-modell som kan förutsäga miljontals oorganiska kristallstrukturer som potentiellt kan användas för att utveckla nästa generations mikroprocessorer, elektriska batterier, solpaneler och liknande. Modellen, kallad GNoME, är baserad på ett grafneuralt nätverk som har tränats på data från 69 000 kända kristaller. GNoME har genererat 2,2 miljoner möjliga kristallstrukturer, varav 380 000 potentiellt kan vara stabila nog att användas i framtida teknologier. GNoME har också genererat 52 000 föreningar med en liknande struktur till grafen och 528 litiumjonledare, samt 15 litiumövergångsmetaloxider som potentiellt kan användas för att tillverka material till supraledare och uppladdningsbara batterier.

Direktlänk Dela The Register fördjupade 30 november

Googles AI-system GNoME upptäcker över 2 miljoner nya material

Forskare vid Google DeepMind och Lawrence Berkeley National Laboratory har utvecklat ett nytt AI-system, GNoME, som har upptäckt över 2 miljoner nya material som kan användas för att utveckla teknologier som batterier, solpaneler och datorkretsar. På 17 dagar identifierade AI-systemet 2,2 miljoner potentiellt stabila nya oorganiska kristallstrukturer, varav över 700 redan har experimentellt validerats. GNoME använder två metoder för att upptäcka stabila material och dess framgångar testades med autonoma robotar vid Berkeley Lab. Den nyupptäckta materialdatan har gjorts offentligt tillgänglig via Materials Project-databasen.

Direktlänk Dela VentureBeat fördjupade 29 november

OpenAI:s GPT-4 uppfattas som ´latare´ av användare

OpenAI har varit i rampljuset under november på grund av olika kontroverser. Användare har uttryckt missnöje med språkmodellen GPT-4, som de menar har blivit ´latare´. Användare har rapporterat att GPT-4 vägrar flera förfrågningar eller ger ofullständiga svar på detaljerade frågor. Dessutom har det rapporterats att språkmodellen använder andra verktyg än de den har instruerats att använda. En studie i samarbete med Stanford University och University of California, Berkeley, visade att noggrannheten hos GPT-4 sjönk från 97,6% till 2,4% mellan mars och juni. Samtidigt menar Peter Welinder, vice VD för produkter på OpenAI, att tunga användare kan uppleva en psykologisk effekt där svarens kvalitet verkar försämras över tid när språkmodellen faktiskt blir mer effektiv. Användare har föreslagit många idéer för att förklara varför GPT-4 för närvarande upplever komplikationer, allt från att OpenAI sammanfogar modeller till en fortsatt serveröverbelastning.

Direktlänk Dela Digital Trends fördjupade 29 november

AI hjälper till att katalogisera kristaller

Google DeepMind har skapat ett maskininlärningsverktyg, GNoME, som kan använda befintliga bibliotek av kemiska strukturer för att förutsäga nya. Verktyget har kommit fram till 2,2 miljoner kristallstrukturer, alla nya för vetenskapen. För att kontrollera maskinens förutsägelser samarbetade DeepMind med forskare vid University of California, Berkeley. De valde 58 av de förutsagda föreningarna och kunde syntetisera 41 av dem på lite över två veckor. Fler än 700 andra kristaller har producerats av andra grupper sedan de började förbereda sin artikel. DeepMind har offentliggjort en delmängd av vad de tror bör vara de 381 000 mest stabila strukturerna.

Direktlänk Dela The Economist Newspaper fördjupade 29 november

Forskare utvecklar ny metod för att förbättra maskininlärning av potentiella energiytor

Forskare vid University of California, Lawrence Berkeley National Laboratory och Penn State University har utvecklat en aktiv inlärningsprocess (AL) för att förbättra maskininlärningsmodeller (ML) för att förutsäga potentiella energiytor (PES). Dessa ytor representerar förhållandet mellan atomers eller molekylers positioner och deras associerade potentiella energi, vilket är avgörande för att förstå molekylärt beteende, kemiska reaktioner och materialegenskaper. Forskarna utvidgade det ursprungliga datasetet för väteförbränning genom att förbereda kollektiva variabler för det första systematiska provet. De fann att metadynamik är ett effektivt verktyg för att sampla instabila strukturer, vilket hjälper AL-processen att identifiera luckor i PES-landskapet.

Direktlänk Dela MarkTechPost fördjupade 24 november

UC Berkeley forskare förbättrar stora språkmodeller med förstärkningsinlärning för målinriktade dialoger

Forskare från UC Berkeley har utforskat en ny metod för att anpassa stora språkmodeller (LLMs) med förstärkningsinlärning (RL) för målinriktade dialoger. De har utvecklat en optimerad zero-shot-algoritm och ett nytt system kallat Imagination Engine (IE) som genererar uppgiftsrelevanta och varierande frågor för att träna nedströmsagenter. För att testa effektiviteten jämförde forskarna prestanda hos en GPT-agent och IE+RL med hjälp av mänskliga utvärderare. De fann att deras föreslagna agent presterade bättre än GPT-modellen över alla mätvärden. Forskarna tror att denna process kan automatiseras ytterligare för att förbättra prestanda hos zero-shot-dialogagenter.

Direktlänk Dela MarkTechPost fördjupade 19 november

Mänskliga barn överträffar AI-verktyg i problemlösning och tänkande, visar studie

Enligt en studie från University of California, Berkeley, är mänskliga barn betydligt bättre än AI-verktyg på grundläggande problemlösning och tänkande uppgifter. Forskarna fann att AI har en allvarlig svaghet: innovation. Trots att AI-verktyg är mycket bra på att förutsäga och utföra statistikcentrerade uppgifter, saknar de förmågan att producera verkligt nya idéer. Studien fokuserade på verktygsanvändning, särskilt verktygsinnovation, för att testa problemlösningsförmågan hos sina försökspersoner. Resultaten visade att barn, till skillnad från AI, hade utmärkta innovativa problemlösningsförmågor.

Direktlänk Dela Futurism fördjupade 16 november

Föräldraskap 2023: Prata med dina barn om internet, sociala medier och AI

Common Sense Media, en ideell organisation som betygsätter filmer och andra medier för föräldrar, har lanserat sin första analys och betyg för AI-verktyg, inklusive OpenAI:s ChatGPT och Snapchats My AI chatbot. My AI fick ett av de lägsta betygen bland de 10 system som täcktes i Common Sense-rapporten. Rapporten varnar för att chatboten är villig att prata med tonåriga användare om sex och alkohol. Den högsta betygen gick till AI-tjänster för utbildning som Ello, som använder taligenkänning för att agera som en läsare, och Khan Academys chatbot-hjälpare Khanmigo för studenter. Bland de AI-verktyg som fick dåliga betyg fanns Snapchats My AI och bildgeneratorerna Dall-E 2 från OpenAI och Stable Diffusion från startup-företaget Stability AI.

Direktlänk Dela Wired fördjupade 16 november

UC Berkeley och Stanford forskare utvecklar effektiv finjusteringsmetod för stora språkmodeller

Ett team av forskare från UC Berkeley och Stanford har utvecklat en ny parameter-effektiv finjusteringsmetod kallad Low-Rank Adaptation (LoRA) för att implementera stora språkmodeller (LLM). S-LoRA är utformat för att möjliggöra effektiv implementering av många LoRA-adaptrar. S-LoRA tillåter tusentals adaptrar att köra på en enda GPU eller över flera GPU:er med minimal overhead. Metoden introducerar enhetlig sidindelning för att optimera GPU-minnesanvändningen, med hjälp av ny tensorparallellism och anpassade CUDA-kärnor för heterogen batchbehandling. Dessa tekniker minskar avsevärt de beräkningskrav som krävs för att implementera LLM i verkliga applikationer.

Direktlänk Dela MarkTechPost fördjupade 12 november

Framtida utveckling och påverkan av artificiell intelligens (AI) till 2030

Artificiell intelligens (AI) har visat enastående framsteg genom åren och har överträffat våra vildaste fantasier. Men vad väntar oss 2030? Kommer AI:s intelligens att nå nya höjder som vi bara kan drömma om idag? Fram till 2030 förväntas AI:s IQ öka avsevärt, NLP (Natural Language Processing) förbättras och AI:s kreativitet och originalitet förbättras. Det kommer även att finnas ökade etiska överväganden, särskilt när det gäller partiskhet i AI-beslut och potentialen för superintelligens. AI kommer att påverka samhället och industrin på flera sätt, inklusive etiska överväganden, jobbförskjutning, industriell störning, förbättringar inom hälso- och sjukvård, framsteg inom utbildning och datasekretessproblem.

Direktlänk Dela TechBullion fördjupade 11 november

AI-genererade falska bilder och deras roll i konflikten mellan Israel och Hamas

AI-genererade bilder har förbättrats mycket under året och används nu för att skapa mer eller mindre realistiska bilder relaterade till Mellanösternkonflikten. Dessa bilder kan ofta utlösa starka känslor och används för att sprida vissa berättelser. AI-experten Hany Farid menar att desinformation, inklusive spridning genom AI-bilder, fungerar exceptionellt bra i konflikter där känslorna är höga. Trots detta har den stora floden av AI-bilder ännu inte materialiserats i konflikten mellan Israel och Hamas, enligt Tomasso Canetta från European Digital Media Observatory.

Direktlänk Dela Deutsche Welle fördjupade 10 november

AI-robotikens framtid: Bygger ´GPT för robotik´

Peter Chen är VD och medgrundare till Covariant, världens ledande företag inom AI-robotik. Innan han grundade Covariant var Peter forskare på OpenAI och Berkeley Artificial Intelligence Research (BAIR) Lab. Stora språkmodeller som ChatGPT, LLaMA och Bard har revolutionerat AI för språk. OpenAI:s GPT-modeller har blivit mest erkända för att ta text- och bildingångar och leverera mänsklika svar. Nästa framsteg som kommer att definiera AI för kommande generationer är robotik. Att bygga AI-drivna robotar som kan lära sig att interagera med den fysiska världen kommer att förbättra alla former av repetitivt arbete inom logistik, transport, tillverkning, detaljhandel, jordbruk och till och med sjukvård. Det kommer också att låsa upp lika många effektiviteter i den fysiska världen som vi har sett i den digitala världen under de senaste decennierna. Framsteg har gjorts inom att bygga ´GPT för robotik´. Chen har publicerat mer än 30 akademiska artiklar som har dykt upp i de bästa globala AI- och maskininlärningstidningarna.

Direktlänk Dela TechCrunch fördjupade 10 november

I Gazakriget har grupper som främjar olika ideologier börjat använda artificiell intelligens (AI) för att generera falska bilder och videor som sprids på nätet. Hany Farid, professor vid UC Berkeley School of Information, har noterat en stor mängd AI-genererade bilder. Förekomsten av falska bilder och videor har lett till minskad tillit till nyhetsmedia, sociala medieplattformar och andra institutioner. Farid har utvecklat verktyg för att automatisera delar av analysprocessen för att identifiera falska bilder, men många kräver manuell inspektion.

InformationWeek fördjupade 10 november

Förklaring av generativ AI

Generativ AI är en teknik som blir allt populärare och finns i nästan varje applikation. Det är en form av maskininlärning som tränas för att skapa ny data, snarare än att göra en förutsägelse om en specifik dataset. Generativ AI kan skapa objekt som liknar den data den tränades på. Tekniken är inte ny, och bygger på forskning och beräkningsframsteg som sträcker sig tillbaka över 50 år. Generativ AI har en mängd olika tillämpningar, från att skapa syntetiska bilddata till att designa nya proteinstrukturer eller kristallstrukturer.

Direktlänk Dela Tech Xplore fördjupade 9 november

Länder från sex kontinenter diskuterar risker och fördelar med AI vid historiskt toppmöte

Under ett toppmöte på den historiska platsen Bletchley Park i Storbritannien, där brittiska kodknäckare under andra världskriget hjälpte till att vända krigets gång, diskuterade länder från sex kontinenter riskerna med artificiell intelligens (AI). Dagens verklighet är att regeringar inte längre kontrollerar strategisk innovation, vilket har lett till oro kring AI-teknologin. Teknikföretag som driver denna innovation efterfrågar begränsningar, men på sina egna villkor. Stuart Russell, professor i datavetenskap vid University of California i Berkeley, uttryckte att allmänheten har fått nog. Denna vecka kom EU och 27 länder, inklusive USA och Kina, överens om en banbrytande deklaration för att begränsa riskerna och dra nytta av fördelarna med AI. Men det är oklart hur testningen kommer att skilja sig från de mandat som beskrivs i Vita husets verkställande order eller löftet med AI-företag.

Direktlänk Dela The Washington Post fördjupade 2 november

AI förändrar hur företag hanterar ostrukturerad data

Mänskligt genererad kunskap fortsätter vara en av de mest värdefulla delarna av en organisation, men mycket av den kunskapen är fångad i system och har historiskt varit svår att extrahera. Den mänskliga kunskapen inom en organisation existerar oftast i form av ostrukturerad data. Denna ostrukturerade data är extremt värdefull för företag, men få använder den till sin fulla potential. AI förändrar hur ledare ser på sina samlingar av ostrukturerad data. Genom att använda AI kan företag skapa, hantera och extrahera värde från all sin ostrukturerad data på ett revolutionerande sätt.

Direktlänk Dela InformationWeek fördjupade 27 oktober

Forskaren Alexei Efros arbetar för att förbättra datorseendet

Alexei Efros, datorforskare vid Berkeley Artificial Intelligence Research Lab, arbetar med att förstå och förbättra hur maskiner ser och förstår den visuella världen. Efros, som flyttade från Ryssland till Kalifornien på 1980-talet, började sin karriär med att skriva kod för att spela spel på sin sovjetiska persondator. Hans forskning har lett till utvecklingen av tekniker för att lappa hål i fotografier, vilket senare antogs av Adobe Photoshop för dess ´content-aware fill´-verktyg. Efros försöker nu förbättra datorseendet genom att kombinera stora online-datauppsättningar med maskininlärningsalgoritmer. Han hoppas att detta inte bara kommer att förbättra praktiska tillämpningar, som självkörande bilar, utan också ge insikter för att bättre förstå ´mänsklig visuell intelligens´.

Direktlänk Dela Quanta Magazine fördjupade 24 oktober

AI-experter varnar för hot mot social stabilitet och uppmanar till större ansvar för AI-företag

En grupp seniora experter, inklusive två ´gudfäder´ av tekniken, varnar för att kraftfulla AI-system hotar social stabilitet och att AI-företag bör hållas ansvariga för skador orsakade av deras produkter. De uppmanar till en rad politiska åtgärder, inklusive att regeringar och företag ska avsätta en tredjedel av sin AI-forsknings- och utvecklingsfinansiering till säker och etisk användning av system, och att techföretag ska hållas ansvariga för förutsägbara och förebyggbara skador från deras AI-system. Experterna varnar för att AI-system som utvecklas ovarsamt hotar att ´förstärka social orättvisa, underminera våra yrken, erodera social stabilitet, möjliggöra storskalig kriminell eller terroristaktivitet och försvaga vår gemensamma förståelse för verkligheten som är grundläggande för samhället.´

Direktlänk Dela The Guardian fördjupade 24 oktober

Forskare upptäcker nytt fel i AI-system: Skyddsfunktioner kan kringgås

Ett team av forskare från Princeton, Virginia Tech, Stanford och IBM har publicerat en studie som visar att digitala skyddsfunktioner i AI-system från företag som OpenAI och Google kan kringgås. Dessa skyddsfunktioner är utformade för att förhindra att AI-system genererar hatiskt tal och desinformation. Forskarna upptäckte att någon kunde justera tekniken för att generera 90 procent av det giftiga materialet som den annars inte skulle göra. OpenAI svarade att de ständigt arbetar för att göra sina modeller säkrare och mer robusta mot fientliga attacker.

Direktlänk Dela The New York Times fördjupade 19 oktober

Protein Evolution och Agile BioFoundry samarbetar för att bryta ner textil- och plastavfall med AI och enzymer

USAs energidepartements Agile BioFoundry (ABF) samarbetar med det amerikanska teknikföretaget Protein Evolution i ett nytt projekt som utforskar användningen av AI och enzymer för att bryta ner textil- och plastavfall. Protein Evolution hävdar att dess teknologi är den första i USA som använder enzymer som katalysator för att producera ny polyetylentereftalat (PET) med hjälp av polyester textilavfall. Projektet har två separata grenar - den första kommer att använda AI för att skapa enzymer som bryter ner textil- och plastavfall, den andra kommer att hitta sätt att effektivisera metoder för tillverkning av de nödvändiga enzymerna. Forskningen leds av Lawrence Berkeley National Laboratory, i samarbete med Joint BioEnergy Institute, Advanced Biofuels och Bioproducts Process Development Unit.

Direktlänk Dela Just-Style fördjupade 18 oktober

» Nyheterna från en dag tidigare

Några av våra kursdeltagare