» Håll dig ajour kring AI · En AI-skapad och ständigt föränderlig nyhetstidning om AI. Idag har vår robot sammanfattat 202 nyhetshändelser. Upptäck gärna vår kurs AI på jobbet förresten. «
Cornell University är ett privat forskningsuniversitet i Ithaca, New York, USA. Det grundades 1865 av Ezra Cornell och Andrew Dickson White. Det är medlem i Ivy League, en grupp av åtta prestigefyllda amerikanska universitet. Cornell har omkring 24 000 studenter och erbjuder över 100 olika ämnen att studera. Universitetet är känt för sin höga akademiska standard, framstående forskning och starka fokus på tillämpad vetenskap. Det har 14 college och skolor som erbjuder både grundutbildning och forskarutbildning. Några av dess mest kända områden är arkitektur, hotell- och restaurangadministration, ingenjörsvetenskap och arbetsrelationer.
Senaste nytt kring Cornell University
Forskare från Cornell University och Amazon introducerar COLLAGE för att förbättra träningen av stora språkmodeller
Stora språkmodeller (LLM) har revolutionerat naturligt språkbearbetning genom att möjliggöra banbrytande framsteg inom olika applikationer. Men utbildningen av dessa modeller innebär betydande utmaningar, inklusive höga resurskrav och långa utbildningstider. För att lösa detta problem har forskare från Cornell University och Amazon introducerat COLLAGE, en ny metod som använder en Multi-Component Float (MCF) representation för att hantera operationer med numeriska fel. COLLAGE optimerar effektivitet och minnesanvändning under träning och introducerar metriken ”effektiv nedstigningskvalitet” för en mer nyanserad utvärdering av precisionstrategier. COLLAGE uppvisar betydande hastighetsökningar i träningsgenomströmningen, och uppnår upp till 3,7 gånger bättre genomströmning på en GPT-6.7B-modell.
har gått vår kurs "AI på jobbet".
San Francisco-startupen Krea AI lanserar video-genereringsfunktion
Krea AI, ett San Francisco-baserat generativt AI-medie-startup, har lanserat en funktion som låter betalande prenumeranter generera videor. Företaget, som grundades av Victor Pérez och Diego Rodriguez, lanserade sin offentliga beta 2023 med AI-bilduppgradering och realtids AI-bildgenereringsfunktioner. Krea AI skiljer sig från konkurrenter som Pika och Runway genom att ge användarna möjlighet att använda både ´nyckelbild´-stilla bilder och textprompter i samma projekt. Användare kan också välja olika ramar att radera, ändra ordning på eller ändra längden på.
Högskolor och universitet prioriterar AI-utbildning för att förbereda studenter för arbetslivet
För att bättre förbereda studenter för sina karriärer efter college prioriterar lärare och campusledare utbildning om generativa artificiella intelligensverktyg och funktioner. Generativ artificiell intelligens (AI) har varit en av de mest störande teknologierna under de senaste åren. För att uppfylla högre utbildnings uppdrag att utrusta studenter med livslånga färdigheter och inlärning inkluderar lärare över discipliner AI-verktyg i sina klassrum. En nyligen undersökning av akademiska chefer och prorektorer fann att 14% har granskat läroplanen för att säkerställa att den kommer att förbereda studenter för AI på arbetsplatsen och ytterligare 73% planerar att göra det. Bland studenter tror 72% av respondenterna i en studentröstundersökning att deras institution bör förbereda dem ´mycket´ eller ´något´ för att använda AI på arbetsplatsen. De flesta av studenterna har inte tagit till sig generativ AI för personligt eller akademiskt bruk. Från och med november 2023 säger en undersökning att drygt en tredjedel av studenterna i USA använder dessa verktyg månatligen och en annan fann att 20% använder AI för kursarbete.
New York förväntas uppleva AI-boom värd $320 miljarder
New York förväntas uppleva en boom inom artificiell intelligens (AI) värd $320 miljarder fram till 2038, tack vare inhemska talanger, enligt en ny rapport från Accenture och Tech:NYC. Rapporten visar att 90% av cheferna anser att stadens talangpool är nyckeln till framgång. New York har redan 40 000 AI-professionella och är den näst största platsen för att samla in pengar för AI-företag. Inom 15 år kommer AI att bli så utbrett att två tredjedelar av New York-borarnas arbetstid kommer att automatiseras eller förstärkas av AI, vilket kommer att lägga till miljarder till ekonomin.
New Yorks guvernör lanserar Empire AI för att säkra statens ledande position inom AI-forskning
New Yorks guvernör Kathy Hochul firade ett historiskt avtal med lagstiftaren för att inrätta Empire AI, ett konsortium som ska säkra New Yorks ledande position inom forskning om artificiell intelligens (AI). Konsortiet kommer att dra nytta av en statlig investering på 275 miljoner dollar för att skapa och lansera ett toppmodernt AI-beräkningscenter på University at Buffalo. Centret kommer att användas av ledande institutioner i New York för att främja ansvarsfull forskning och utveckling, skapa jobb och främja AI för allmänheten.
AI-genererad artikel drar tillbaka, väcker oro för AI i vetenskapen
Frontiers in Cell and Developmental Biology drog tillbaka en artikel med titeln ´Cellulära funktioner av spermatogoniala stamceller i förhållande till JAK/STAT-signalvägen´ efter att läsare påpekade att figurerna tydligt genererats med artificiell intelligens (AI) och var fulla av stavfel och icke-sensiska diagram. Artikeln är bara ett exempel som bidrar till växande oro över AI:s tillämpningar inom vetenskapen. En nyligen rapport från Cornell University beskriver de potentiella fördelarna med generativ AI, men även utmaningarna. Professorerna Allison Koenecke och James Grimmelmann vid Cornell uttrycker oro för att användningen av generativ AI kan leda till minskad forskningskvalitet och noggrannhet.
Apple planerar att förbättra iPhone 16-serien med avancerade AI-funktioner
Apple planerar att förbättra iPhone 16 och iPhone 16 Pro med avancerade AI-funktioner. Företaget utvecklar kompakta men kraftfulla stora språkmodeller (LLMs), designade speciellt för mobilintegration. Genom sitt engagemang med Hugging Face hub har Apple registrerat en serie av LLMs. Dessa är avgörande för funktionen hos generativa AI-appar. Apple förväntas förbättra sin Axx-chipserie för att möjliggöra lokal AI-beräkning för iPhone 16-serien. Apple har också visat sitt samarbete med akademiska sektorer genom ett partnerskap med Cornell University. Deras gemensamma forskning utforskar LLMs för att hjälpa synskadade användare och effektivisera röststyrd navigering.
AI kan förbättra noggrannheten i väderprognoser och öka vinsterna för företag
Framsteg inom artificiell intelligens (AI) kan drastiskt förbättra noggrannheten i väderprognoser, vilket potentiellt kan öka vinsterna för företag som är beroende av prognoser. Google har introducerat en ny AI-modell som kan producera exakta, storskaliga väderprognoser till en lägre kostnad än traditionella metoder. AI-modeller kan effektivisera verksamheten, minska kostnaderna och stärka beslutsfattandet inom olika branscher genom att erbjuda mer exakt och aktuell väderinformation. En ny studie stärker idén att AI slår traditionella prognosmetoder. Forskare från University of Reading jämförde nyligen prestandan för AI-baserade vädermodeller med traditionella fysikbaserade modeller. Studien fann att väderprognoser som använder maskininlärning kan uppnå liknande noggrannhet som konventionella metoder men med större hastighet, minskade kostnader och mindre beräkningskrav.
Forskare använder maskininlärning för att bevisa existensen av en sällsynt fas av materia
Forskare från US Department of Energy´s (DOE) Argonne National Laboratory, tillsammans med medarbetare från Stanford University och Cornell University, har använt maskininlärning för att upptäcka experimentella bevis för existensen av Bragg-glas i ett material. Bragg-glas uppvisar strukturella egenskaper av både ordnade och oordnade strukturer, vilket gör det till en sällsynt fas av materia. Forskarna använde stora mängder röntgenstrålningsdata och ett nytt verktyg för dataanalys med maskininlärning som utvecklats vid Cornell för att undersöka glasens natur. Denna upptäckt kan bidra till en bättre grundläggande förståelse för fasövergångar i materia.
Forskning visar att LLMs som ChatGPT kan vara nästa stora cybersäkerhetsrisk
Enligt de senaste forskningsresultaten kan språkmodeller som LLMs, till exempel ChatGPT, utgöra nästa stora oro inom cybersäkerhet. Tidigare trodde man att LLMs endast kunde utnyttja enklare cybersäkerhetssårbarheter, men de har visat en förvånansvärt hög kompetens när det gäller att exploatera komplexa sådana. Forskare vid University of Illinois Urbana-Champaign (UIUC) upptäckte att GPT-4 uppvisar en skrämmande hög förmåga att utnyttja ´one-day´-sårbarheter i verkliga system. I en datamängd av 15 sådana sårbarheter kunde GPT-4 utnyttja en oroande 87% av dem.
Forskningsgrupp föreslår formella interaktionsmodeller för att förbättra AI-system
Forskare från Cornell University, University of California, Princeton University och University of Texas har föreslagit formella interaktionsmodeller (FIM) för att förbättra design och utvärdering av AI-system. FIM är ett dynamiskt system som kopplar samman AI-system och användare. Modellen inkluderar fyra huvudsakliga användningsområden: den specificerar interaktioner för implementering, övervakar interaktioner med hjälp av empirisk analys, förutser samhällspåverkan med hjälp av kontrafaktisk analys och kontrollerar samhällseffekter genom interventioner. Forskarna använde dynamiska system för att belysa begränsningar i användningsfallen för framtida arbete.
har gått vår kurs "AI på jobbet".
Ny algoritm förbättrar inlärningsprocessen genom att integrera offline-data
Forskare från Cornell University, Princeton University och Microsoft Research har introducerat en ny algoritm, Dataset Reset Policy Optimization (DR-PO), som effektivt integrerar offline-data i förstärkningsinlärning (RL). Denna metod skiljer sig från traditionella metoder genom att återställa direkt till specifika tillstånd från en offline-datamängd under policyoptimering, vilket förbättrar effektiviteten i inlärningsprocessen och breddar tillämpningsområdet för de tränade modellerna. DR-PO har visat överlägsna resultat i studier som involverar uppgifter som TL;DR-sammanfattning och den antropiska hjälpsamma skadliga datamängden.
Utveckling av AI-assistenter: Siri och Ferret-UI
För 90-talets barn var den första mötet med AI ´Siri´, en AI-driven röstassistent som lanserades med iPhone 4S 2011. Siri gjorde livet enklare genom att utföra uppgifter som att ställa in samtal eller larm. Men på senare år har det inte skett mycket utveckling av Siri. I samband med AI-explosionen rapporteras det nu att Siri också kommer att genomgå denna omvandling och bli smartare. Apple har arbetat med Gen AI för Siri under en tid. Enligt en ny forskningsartikel från Cornell University finns det en ny MLLM (Multimodal Large Language Model) som förstår hur ett telefongränssnitt fungerar. Denna modell, kallad ´Ferret-UI´, lanserades i oktober 2023 och är utvecklad för att förstå UI-skärmar samt hur appar fungerar. Ferret-UI är ett resultat av omfattande forskning mellan Apple och Cornell University om hur stora språkmodeller kan känna igen och förstå element inom bilder.
Säkerhetsproblem med AI-assistenter: Vän eller fiende?
Från och med lanseringen av ChatGPT i slutet av 2022 har alla försökt rida på AI-vågen, vilket har översvämmat marknaden med olika AI-assistenter. Forskning publicerad av forskare vid University of Ber-Gurion visade att våra hemligheter kan exponeras trots kryptering av AI-assistentens svar. Studien visade att en angripare kunde avkoda en konversation med överraskande noggrannhet. Dessutom visade forskarna att när angriparen byggde ett verktyg för att avkoda en konversation kunde detta verktyg fungera på andra tjänster också. I slutet av mars förbjöd USA:s representanthus strikt användning av Microsofts Copilot av kongresspersonal. I början av april publicerade Cyber Safety Review Board (CSRB) en rapport som skyllde Microsoft för en ´kaskad av säkerhetsbrister´ som möjliggjorde för kinesiska hotaktörer att få tillgång till amerikanska regeringstjänstemäns e-post under sommaren 2023.
Cornell-forskare introducerar RLCM, en snabbare metod för text-till-bild-konvertering
Forskare vid Cornell University har introducerat ramverket Reinforcement Learning for Consistency Models (RLCM), en ny metod som påtagligt påskyndar processen för text-till-bild-konvertering. Till skillnad från traditionella metoder som förlitar sig på iterativ förfining, använder RLCM förstärkningsinlärning för att finjustera konsistensmodeller, vilket möjliggör snabb bildgenerering utan att offra kvaliteten. RLCM-ramverket tillämpar ett policygradienttillvägagångssätt för att finjustera konsistensmodeller, specifikt riktat mot Dreamshaper v7-modellen för optimering. Genom att använda dataset som LAION för estetiska bedömningar tillsammans med ett specialdesignat dataset, anpassar RLCM effektivt dessa modeller för att generera högkvalitativa bilder.
Ny era i grödprognoser: AI:s roll i jordbruket
En studie från Purdue University, i samarbete med Cornell University och Dale Bumpers National Rice Research Center, belyser betydelsen av offentliga avelsprogram för att förbättra grödornas motståndskraft för en hållbar framtid. I den ständigt föränderliga jordbrukslandskapet, där klimatförändringar presenterar aldrig tidigare skådade utmaningar, vänder sig forskare mot teknik som artificiell intelligens och maskininlärning för att säkra livsmedelssäkerheten. En studie publicerad i Proceedings of the National Academy of Sciences belyser en prediktiv modell som använder maskininlärningsalgoritmer för att förutsäga effekterna av klimatförändringar på risutbyten.
En grupp AI-forskare har upptäckt att skadliga aktörer kan manipulera de datamängder som generativa AI-verktyg, som ChatGPT, förlitar sig på för att ge korrekta svar, för så lite som $60. Forskare vid ETH Zürich fann att en angripare kan ´förgifta´ data som en AI-modell tränas på, vilket kan leda till att modellen ger felaktiga svar. En metod involverar att köpa utgångna domäner och lägga upp valfri information på webbplatserna. En annan metod innebär att förgifta data på Wikipedia genom att tajma redigeringar precis innan en moderator kan återställa ändringarna och innan webbplatsen tar snapshots.
AI-verktyg blir allt mer subtilt rasistiska, enligt ny rapport
Enligt en ny rapport blir populära artificiella intelligensverktyg allt mer subtilt rasistiska. Forskare inom teknik och lingvistik har avslöjat att stora språkmodeller som OpenAI:s ChatGPT och Googles Gemini håller rasistiska stereotyper om talare av African American Vernacular English (AAVE), en engelsk dialekt skapad och talad av svarta amerikaner. Forskarna fann att AI-modellerna var betydligt mer benägna att beskriva AAVE-talare som ´dumma´ och ´lata´, och tilldela dem lägre betalande jobb. AI-modellerna var också betydligt mer benägna att rekommendera dödsstraff för hypotetiska brottslingar som använde AAVE i sina rättsliga uttalanden.
Rappaports unika karriärväg till underhållningsjuridik
Rappaport, som förutom sin nuvarande roll på Columbia Records även har tjänstgjort som Senior Director of Business and Legal Affairs för Sony Music Entertainment och RCA Records, intervjuades nyligen om sin unika karriärväg till underhållningsjuridik. Hon började sin professionella karriär med en kandidatexamen i arkitektur från Cornell University, men bytte snart inriktning och tog en juristexamen vid American University Washington College of Law. Rappaports juridiska karriär inleddes på Arnold & Porter i Washington D.C., där hon fick möjlighet att bryta in i underhållningsjuridiken.
Ny metod för DNA-sekvensmodellering utvecklad genom samarbete mellan universitet
Forskare från Cornell University, Princeton University och Carnegie Mellon University har utvecklat en ny metod för att modellera DNA-sekvenser. Metoden bygger på utvecklingen av ´Mamba´-blocket, förbättrat för att stödja bidirektionalitet genom ´BiMamba´-komponenten och för att införliva RC-ekvivalens med ´MambaDNA´-blocket. Dessa block tjänar som grund för ´Caduceus´-modellerna, en banbrytande familj av RC-ekvivalenta, bidirektionella långdistans-DNA-sekvensmodeller. Modellerna har visat överlägsen prestanda jämfört med tidigare långdistansmodeller i olika nedströms jämförelser.
Microsoft står inför utmaningar kring AI säkerhet och upphovsrättsintrång
Microsoft står inför både interna och externa utmaningar. Företaget svarade på en stämning från New York Times genom att lämna in en inlaga för att avfärda anklagelserna. AI-ingenjören Shane Jones på Microsoft har skickat brev till Federal Trade Commissions ordförande Lina Khan och Microsofts styrelse, där han uttrycker allvarliga farhågor om säkerheten för Microsofts AI-modell Copilot Designer. Jones påstår att Copilot Designer, som drivs av OpenAIs Dall-E-bildgenerator, producerar bilder som strider mot molnleverantörens principer för ansvarsfull AI. Jones brev kommer samtidigt som Google, Microsofts huvudkonkurrent inom generativ AI, också kritiseras för sin multimodala modell Gemini.
har gått vår kurs "AI på jobbet".
AI-maskar hotar säkerheten för chattbotar som Google Gemini och OpenAI´s ChatGPT
Generativ AI, som OpenAI´s ChatGPT, har revolutionerat hur vi lever och arbetar under de senaste två åren. Men enligt en ny studie är denna teknik lika sårbar för externa hot som all annan teknologi. En AI-mask, kallad Morris II, har hittat ett säkerhetshål i två av världens mest populära AI-chattbotar - Google Gemini och OpenAI´s ChatGPT. Masken kan manipulera dessa AI-chattbotar och använda dem för att sprida skadlig kod, genomföra phishing-attacker och skicka skräppost. Trots att OpenAI och Google ständigt jobbar på att släppa säkerhetsuppdateringar, kan maskar fortfarande hitta nya svagheter i AI-chattbotar och utnyttja dem för skadliga syften.
AI-maskar hotar populära chattbotar som Google Gemini och OpenAI´s ChatGPT
Världen har tagit stora kliv framåt med OpenAI´s ChatGPT, som har gett allmänheten en smak av generativ AI. Men enligt en nyligen genomförd studie är generativ AI lika sårbar för yttre hot som vilken annan teknik som helst idag. Nyligen har en generativ AI-mask hittat en lucka i säkerhetssystemen för två av världens mest populära AI-chattbotar - Google Gemini och OpenAI´s ChatGPT. Denna mask kan manipulera dessa AI-chattbotar i sina klientappar och använda dem för att sprida skadlig programvara, genomföra phishingattacker och skicka skräppost. Trots att teamen på OpenAI och Google ständigt arbetar med att släppa säkerhetsuppdateringar, kan maskar fortfarande hitta nya svagheter i AI-chattbotar och hitta en lucka för att främja sina illvilliga avsikter.
Ny självutbredande AI-mask kan stjäla data och sprida skadlig kod
Forskare har skapat en självutbredande mask, kallad Morris II, som kan stjäla personlig information genom applikationer som använder AI-drivna chatbots. Morris II använder en prompt-injektionsattack för att lura AI-drivna e-postassistenter som innehåller chatbots, till exempel ChatGPT och Gemini, vilket möjliggör för hackare att infiltrera offer-e-post för att stjäla personlig information, lansera spamkampanjer och förgifta AI-modeller. Offren behöver inte klicka på något för att utlösa den skadliga aktiviteten: masken är utformad så att den automatiskt sprider skadlig kod utan mänsklig inblandning.
AI-mask hittar säkerhetslucka i populära chattbotar
Enligt en nyligen genomförd studie har en AI-mask hittat en säkerhetslucka i två av världens mest populära AI-chattbotar - Google Gemini och OpenAI:s ChatGPT. Denna mask kan manipulera dessa AI-chattbotar i deras klientappar och använda dem för att sprida skadlig programvara, utföra phishingattacker och skicka skräppost. Trots att teamen på OpenAI och Google ständigt arbetar med att släppa säkerhetsuppdateringar, kan maskar fortfarande hitta nya svagheter i AI-chattbotar och hitta en lucka för att vidarebefordra sina skadliga avsikter. AI-masken, kallad Morris II, skapad av forskare från Cornell University, kan bryta skyddet av dessa AI-modeller och styra dem att stjäla känslig information.
AI-mask kan stjäla konfidentiell data och bryta säkerhetsåtgärder
Forskare vid Cornell University, Technion-Israel Institute of Technology och Intuit har utvecklat den första generativa AI-masken, kallad ´Morris II´, som kan stjäla data eller sprida skadlig kod och sprida sig från ett system till ett annat. AI-masken kan bryta vissa säkerhetsåtgärder i OpenAI:s ChatGPT och Googles Gemini genom att attackera en generativ AI e-postassistent med avsikt att stjäla e-postdata och skicka skräppost. Forskarna rapporterade sina observationer till Google och OpenAI. Google avböjde att kommentera ämnet.
Forskare skapar farlig AI-mask kallad ´Morris II´
Forskare från Cornell University, Intuit och Technion-Israel Institute of Technology har skapat en artificiell intelligensmask känd som ´Morris II´, uppkallad efter den ökända internetmasken från 1988. Denna AI-mask kan sprida skadlig programvara, stjäla känslig information och till och med kringgå säkerhetsskydd i välkända AI-chattbotar som Gemini och ChatGPT. Masken kan använda AI-modeller för att duplicera och sprida farliga nyttolaster utan behov av mänskligt deltagande. Forskarna delade snabbt sina resultat med Google, företaget som skapade Gemini, och OpenAI, företaget som skapade ChatGPT.
Hur ChatGPT skyddar mig från phishing-attacker
ChatGPT, en AI-plattform, har visat sig vara effektivt för att upptäcka och försvara mot phishing-attacker. Trots avancerade cybersäkerhetsförsvar, finns det alltid luckor som kan utnyttjas av illvilliga aktörer. ChatGPT kan identifiera och peka ut misstänkta element i e-postmeddelanden, vilket kan hjälpa till att skydda användare från potentiella attacker. Forskare på mxHERO Labs undersöker hur AI kan tillämpas i e-postsammanhang och har sett AI:s nytta som ett anti-phishing-verktyg. De använder sin gratis tillgängliga ChatGPT-app, Chat for Email, för att bedöma om ett visst e-postmeddelande potentiellt är en phishing-attack.
Ny datormask ´Morris II´ kan attackera AI-system
En ny datormask kan attackera AI-system, inklusive OpenAI´s ChatGPT och Googles Gemini. Denna mask kan lura AI-baserade e-posthjälpmedel att stjäla personlig information och sända oönskade e-postmeddelanden. Masken, som kallas ´Morris II´, kan använda både text och bilder för att skada AI-system och fungerar genom att smyga in skadliga uppmaningar som får AI att upprepa dessa uppmaningar och utföra skadliga åtgärder utan att behöva några klick eller direktiv från användare. Skaparna av denna mask, från Cornell University, Intuit och Israels Technion, varnar att sådana maskar kan användas för storskaliga attacker i framtiden, vilket sätter fler AI-verktyg i fara. OpenAI har svarat genom att säga att de arbetar på att göra sina system starkare och bättre skyddade.
Ny AI-mask hotar generativa AI-modeller
Forskare har utvecklat en ny AI-mask känd som ´zero-click´ som utgör ett hot mot generativa AI-modeller. Masken har potential att sprida sig över system och eventuellt stjäla data eller initiera en ´fientlig självreplikerande prompt´ genom text- och bildinmatningar. Den utgör ett nytt cyberhot som utnyttjar sammanlänkningen och autonomi av AI-ekosystem. AI-masken kan utgöra ett betydande hot mot AI-plattformar som OpenAI´s ChatGPT-4 och Googles Gemini. Forskare från CISPA Helmholtz Center för informationssäkerhet betonar nödvändigheten av att utvecklingsgemenskapen tar dessa risker på allvar. Masken kan användas för phishing-attacker, skicka skräppost eller sprida propaganda.
ChatGPT skyddar mot phishingattacker
Enligt en artikel av Alex Panagides på mxHERO Labs kan AI, och specifikt ChatGPT, vara ett effektivt verktyg för att skydda mot phishingattacker. Trots avancerade cybersäkerhetsförsvar kan dessa attacker fortfarande tränga igenom och utnyttja välkända varumärken som MSN, VMware, McAfee, The Economist, Cornell University, CBS, Marvel och eBay. Men med hjälp av AI kan potentiella phishingattacker identifieras och undvikas. Genom att använda mxHERO Labs gratis ChatGPT-app, Chat for Email, kan användare be ChatGPT att bedöma om ett visst e-postmeddelande potentiellt är en phishingattack. Artikeln ger exempel på hur AI har identifierat och varnat för sådana attacker.
Forskare från Cornell University introducerar C3PO för att förbättra språkmodeller
Forskare från Cornell University har introducerat en ny metod, Contextualized Critiques with Constrained Preference Optimization (C3PO), för att förbättra språkmodellernas responsbeteende. C3PO-metoden finjusterar strategiskt språkmodeller för att tillämpa feedback där det är relevant och undvika övergeneralisering. Detta uppnås genom att använda Direct Preference Optimization (DPO) för data som anses vara inom räckvidd och Supervised Fine-Tuning (SFT) förluster för data utanför och nära räckvidd, vilket säkerställer att modellens prestanda förblir robust över olika sammanhang. C3PO har visat överlägsen prestanda genom att effektivt följa inom räckvidd prompts samtidigt som övergeneralisering minimeras.
Biden-administrationen söker allmänhetens åsikter om AI:s öppenhet
Den amerikanska Biden-administrationen har inlett en debatt om huruvida de mest kraftfulla artificiella intelligenssystemen bör vara öppna eller stängda. Vita huset söker nu allmänhetens åsikter om risker och fördelar med att ha en AI-systems nyckelkomponenter tillgängliga för alla att använda och modifiera. Teknikföretag är splittrade i frågan, med vissa som betonar farorna med allmänt tillgängliga AI-modellkomponenter och andra som understryker att öppen vetenskap är viktig för forskare och startups. Facebooks moderbolag Meta Platforms och IBM har varit bland de mest framstående förespråkarna för en öppen inställning. President Joe Biden har gett handelssekreterare Gina Raimondo till juli att tala med experter och komma tillbaka med rekommendationer om hur man ska hantera de potentiella fördelarna och riskerna. Nu säger handelsdepartementets National Telecommunications and Information Administration att det också öppnar en 30-dagars kommentarsperiod för att samla idéer som kommer att ingå i en rapport till presidenten.
Forskare utvecklar plattform för att lära barn om AI och robotik
Forskare vid University of Southern California har utvecklat en öppen källkodsplattform för att hjälpa studenter bygga sin egen AI-drivna, lågkostnads robotkompis. Målet är att förbereda nästa generation för ett samhälle drivet av AI. Plattformen lär ut grunderna i AI, men också viktiga färdigheter inom robotik, programvaruteknik och maskinteknik. Jämfört med andra alternativ, som NAO-roboten som kostar cirka 150 000 SEK, kostar teamets anpassningsbara robot cirka 2 500 SEK och erbjuder stor flexibilitet. Denna prisvärda och mångsidiga lösning uppnåddes genom att utnyttja den öppna källkodsroboten Blossom, tidigare utvecklad vid Cornell University.
Graf Mamba-nätverk förvandlar maskininlärning baserat på graf
Forskare från Cornell University har utvecklat Graf Mamba-nätverk (GMN), en banbrytande lösning på utmaningar som traditionella Graf Neurala Nätverk (GNN) står inför, som att hantera långdistansberoenden inom grafer och problemet med överkomprimering. GMN integrerar principerna för State Space Models (SSM) för att erbjuda en ny metod för grafisk inlärning. Denna ram är utformad för att övervinna begränsningarna hos både traditionella GNN och deras senaste framsteg, såsom Graftransformatorer. GMN utmärker sig genom sin beräknings effektivitet, vilket sätter en ny standard inom området.
Indiska kvinnor når toppnivåer inom AI-forskning och tillämpning
Enligt en artikel i The Economist har indier varit i framkant av AI-forskning och tillämpning. Förra året överträffade Indien Kina med det högsta antalet doktorander som studerar i USA. Av cirka 2,5 miljoner invandrade STEM-arbetare (vetenskap, teknik, teknik, matematik) i USA kommer 29% från Indien. Inom området för artificiell intelligens (AI) är 8% av världens ledande forskare indiska. Kvinnor halkar inte efter heller. Från och med 2022 har indierna de högsta AI-färdighetsgenomträngningsgraderna var Indien och detta inkluderar kvinnor! Här är listan över kvinnor som har uppnått högsta standarder inom ai - Niki Parmar, Aakanksha Chowdhery, Anima Anandkumar, Suchi Saria, Parvati Dev, Monisha Ghosh.
AI i utvecklingsländer: Hur ´tiny machine learning´ kan ha stor påverkan
Tiny Machine Learning (TinyML) är en teknik som tillåter AI-applikationer att köras på små, energieffektiva enheter snarare än på resurskrävande servrar. Dessa enheter är billiga och små nog att kunna användas i fält, exempelvis för att detektera myggvingeslag för att hjälpa till att förhindra spridning av malaria. TinyML-enheter fungerar inom begränsningar som påminner om persondatorns tidiga dagar, med minne mätt i kilobyte och hårdvara som kan köpas för så lite som 1 US-dollar. Dessa enheter kräver inte en bärbar dator eller mobiltelefon, utan kan köras på enkla mikrokontroller som driver standard elektroniska komponenter över hela världen.
Will Oremus går med som medvärd för The Technology 202; Meta planerar att märka AI-genererat innehåll
Will Oremus, en teknikanalytiker och skribent, kommer att gå med som medvärd för The Technology 202, och skriva en utgåva i veckan. Oremus började på The Post 2021 och har hjälpt till att leda tidningens täckning av konkurrensrätt, Elon Musk och artificiell intelligens. Med hans tillägg kommer nyhetsbrevet nu vanligtvis att skickas ut tre gånger i veckan, från tisdag till torsdag. Meta planerar att märka AI-genererat innehåll på sina plattformar. Detta steg överensstämmer med Biden-administrationens verkställande order om AI förra hösten, som uppmanade till ´vattenmärkning´ som en politisk prioritering.
Facebook och Instagram inför etiketter för AI-genererat innehåll
Facebook och Instagram-användare kommer snart att se etiketter på bilder som visas i deras sociala medieflöden, som en del av en bredare teknikindustrins initiativ för att skilja mellan vad som är verkligt och inte. Detta är ett försök att identifiera bilder och så småningom video och ljud som genereras av AI-verktyg. Det återstår att se hur väl det kommer att fungera i en tid då det är lättare än någonsin att skapa och distribuera AI-genererade bilder som kan orsaka skada. Meta kommer att arbeta för att märka bilder från Google, OpenAI, Microsoft, Adobe, Midjourney och Shutterstock.
Facebook och Instagram inför etiketter för AI-genererade bilder
Användare på Facebook och Instagram kommer snart att börja se etiketter på AI-genererade bilder som visas i deras sociala medieflöden. Detta är en del av en bredare teknikindustriinitiativ för att skilja mellan vad som är verkligt och inte. Meta, företaget bakom Facebook och Instagram, meddelade att de arbetar med industrins partners på tekniska standarder som gör det lättare att identifiera bilder och så småningom video och ljud som genereras av AI-verktyg. Det återstår att se hur väl detta kommer att fungera i en tid då det är lättare än någonsin att skapa och distribuera AI-genererade bilder som kan orsaka skada.
Facebook och Instagram börjar märka AI-genererade bilder
Facebook och Instagram kommer att börja märka bilder som visas på deras sociala medieflöden för att hjälpa användare att skilja mellan verkliga och AI-genererade bilder. Detta är en del av en bredare teknikindustriinitiativ för att identifiera innehåll skapat med artificiell intelligens. Det är dock oklart hur effektivt detta kommer att fungera, särskilt med tanke på den ökande förmågan att skapa och distribuera AI-genererade bilder som kan orsaka skada. Märkningen kommer att lanseras ´under de kommande månaderna´ och på olika språk.
Facebook och Instagram inför etiketter för AI-genererade bilder
Facebook och Instagram kommer att börja märka bilder som visas på deras sociala medier för att skilja mellan vad som är verkligt och inte. Detta är en del av en bredare teknikindustrins initiativ för att identifiera bilder, och så småningom video och ljud, genererade av artificiell intelligens. Det är dock oklart hur väl detta kommer att fungera, särskilt med tanke på hur lätt det är att skapa och distribuera AI-genererade bilder som kan orsaka skada. Meta arbetar med att märka bilder från Google, OpenAI, Microsoft, Adobe, Midjourney och Shutterstock.
Facebook och Instagram kommer att börja märka AI-genererade bilder
Facebook och Instagram kommer att börja märka AI-genererade bilder som visas på deras sociala medieflöden, som en del av en bredare teknikindustrins initiativ för att skilja mellan vad som är verkligt och inte. Meta sa att de arbetar tillsammans med branschpartners för att skapa tekniska standarder som gör det lättare att identifiera bilder och eventuellt video och ljud genererade av AI-verktyg. Nick Clegg, Metas president för globala frågor, specificerade inte när etiketterna skulle dyka upp, men sa att det kommer att ske ´under de kommande månaderna´ och på olika språk.
Facebook och Instagram kommer att märka AI-genererade bilder
Användare av Facebook och Instagram kommer att börja se etiketter på AI-genererade bilder som visas på deras sociala medieflöden. Detta är en del av en bredare teknikindustriinitiativ för att skilja mellan vad som är verkligt och inte. Meta, företaget bakom Facebook och Instagram, sa att de arbetar med branschpartners på tekniska standarder som kommer att göra det lättare att identifiera bilder och så småningom video och ljud som genereras av artificiella intelligensverktyg. Det återstår att se hur väl detta kommer att fungera.
AI-modell utvecklad för att minska globala ammoniakutsläpp från jordbruket
Ett internationellt forskarteam ledd av Hong Kong University of Science and Technology (HKUST) har utvecklat en artificiell intelligens (AI) modell för att minska globala ammoniak (NH3) utsläpp från jordbruket. Studien visar att globala NH3-utsläpp från åkermark är lägre än tidigare uppskattat och att optimering av gödselhanteringen kan minska utsläppen med cirka 38%. Forskningen ger viktiga insikter för att uppnå FN:s hållbarhetsmål relaterade till fattigdomsbekämpning, livsmedelssäkerhet och hållbart jordbruk. AI-modellen kan skapa anpassade gödselhanteringsplaner för olika regioner.
Forskare utvecklar AI för hållbar kemisk tillverkning
Forskarna Yuhe Tian och Austin Braniff utvecklar artificiell intelligens för att göra den energikrävande kemiska tillverkningsindustrin mer hållbar. De arbetar med att skapa AI som ska fungera på en blixtsnabb kvantdatorplattform och ha kapacitet att innovera nya, ´utanför boxen´-designer för tillverkningsprocesser. Tian tror att innovationer i nuvarande kemiska tillverkningsprocesser kan drivas av ´kvant AI´, eller maskininlärning på en banbrytande kvantdator. Med 240 000 dollar från National Science Foundation lanserar Tian ett tvåårigt projekt som kommer att utnyttja kvantintelligens för att innovera designen av miljövänliga kemiska anläggningar. Austin Braniff, en doktorand i kemiteknik, kommer att arbeta med Tian på projektet, som stöds av EPSCoR RII Track-4 Research Fellows Program och är värd för Cornell University AI for Science Institute.
AI-utvecklingens kostnad skjuter i höjden, uppstartsföretag föreslår alternativa lösningar
Kostnaden för att göra ytterligare framsteg inom artificiell intelligens (AI) blir alltmer chockerande. Efterfrågan på grafikkort (GPU:er) för AI-utbildning har drivit upp priserna på dessa viktiga komponenter. OpenAI har sagt att det kostade dem över 100 miljoner dollar att träna algoritmen som nu driver ChatGPT. Uppstartsföretag som Normal Computing och Extropic föreslår en radikal omprövning av hur datorchips designas för att möta dessa utmaningar. Normal Computings SPU utnyttjar elektriska oscillatorers termodynamiska egenskaper för att utföra beräkningar med slumpmässiga fluktuationer som uppstår inuti kretsarna. Extropic, å andra sidan, planerar att använda termodynamisk databehandling för AI.
Miljöpåverkan av generativ AI ökar, men byråer mäter inte effekten
Medvetenheten om att generativ AI har en miljöpåverkan sprider sig, men det är mindre klart hur byråer kan mäta effekten av deras användning. Generativ AI har identifierats som en energikrävande teknologi, och det krävs en stor mängd el för att driva verktyg som ChatGPT. Dessutom använder molnbaserad databehandling, som driver de flesta AI-verktyg, enorma mängder vatten. Microsofts globala vattenanvändning ökade till exempel med 34% mellan 2021 och 2022, främst på grund av utvecklingen av AI-teknologi. Trots detta mäter många byråer inte de miljöeffekter som deras AI-experiment kan ha.
AI-modeller kan ´minnas´ kända dikter, enligt studie
ChatGPT, en artificiell intelligens (AI) modell, kan ´minnas´ och återge hela dikter, särskilt kända som ofta finns online, enligt en studie från Cornell University. Studien väcker etiska frågor om hur AI-modeller tränas, sannolikt med data skrapad från internet. Forskarna noterade att ChatGPT:s svar förändrades över tid när modellen utvecklades. Från att ursprungligen skapa en dikt eller återanvända en dikt från en annan författare om den inte kände till en dikt, skulle den i juli 2023 fråga om dikten ens existerade om den inte kände till den.
New York lanserar konsortium för AI-forskning
New Yorks guvernör Kathy Hochul har tillkännagivit skapandet av Empire AI, ett nytt konsortium som syftar till att stärka New Yorks position inom artificiell intelligens (AI). Konsortiet kommer att omfatta sju grundläggande institutioner och kommer att lansera ett toppmodernt AI-datorcenter i norra New York. Det kommer att finansieras med över $400 miljoner i offentliga och privata investeringar. University of Buffalo, som redan är hem för ett superdatorcenter och flera AI-forskningsprojekt, övervägs som en potentiell plats för konsortiet. Konsortiet syftar till att främja ansvarsfull forskning och utveckling, skapa AI-jobb och ´låsa upp AI-möjligheter för allmänheten´, enligt Hochul.
NVIDIA lanserar beta-versioner av BioNeMo moln-API:er, främjar läkemedelsupptäckt
NVIDIA har avslöjat BioNeMo moln, en serie generativa AI molntjänster, på GTC-konferensen i mars 2023. Nu lanserar företaget beta-versioner av moln-API:er för BioNeMo, integrerade i plattformar anpassade för läkemedelsupptäcktsarbetsflöden. BioNeMo innehöll ursprungligen verktyg som AlphaFold2 av DeepMind, DiffDock av MIT, ESMFold, ESM2 av Meta, MoFlow av Cornell University och ProtGPT-2. De uppdaterade moln-API:erna kommer nu att omfatta modeller från tre distinkta källor: interna modeller, öppen källkod-modeller optimerade av NVIDIA och modeller skapade av dess partners. Dessutom meddelade biopharmaceutical MNC Amgen att de planerar att utnyttja generativ AI för läkemedelsupptäckt.
New York Times stämmer OpenAI och Microsoft för upphovsrättsintrång
New York Times (NYT) har stämt teknikföretagen OpenAI och Microsoft för att de illegalt använt miljontals upphovsrättsskyddade NYT-artiklar för att utveckla AI-modeller bakom verktyg som ChatGPT och Bing. NYT hävdar att dess rättigheter kränktes när dess artiklar skrapades för inkludering i de stora datamängder som AI-modellerna tränades på. Dessutom anklagar NYT verktygen för att ha kränkt dess upphovsrätt genom att producera detaljerade sammanfattningar av betalväggsartiklar eller hela avsnitt av specifika NYT-artiklar. OpenAI och Microsoft försvarar sig med att träningen av AI-modeller kvalificerar som ´fair use´.
Forskare utvecklar matematisk guide till operatorinlärning inom vetenskaplig maskininlärning
Forskare från University of Cambridge och Cornell University har utvecklat en matematisk guide till operatorinlärning, ett lovande område inom vetenskaplig maskininlärning (SciML). SciML kombinerar klassiska modelleringsmetoder baserade på partiella differentialekvationer (PDE) med maskininlärnings approximationsförmågor. Operatorinlärning är särskilt användbar när det är nödvändigt att bestämma egenskaperna hos ett dynamiskt system eller PDE. Forskarna har delat med sig av att operatorinlärning använder en mängd olika neurala nätverkstopologier och det är viktigt att förstå vilka som väljs.
Arbetsmarknaden kämpar för större inflytande över AI
Arbetare krävde 2023 större inflytande över hur artificiell intelligens (AI) omformar deras branscher, med oöverträffade vinster från Hollywood till Silicon Valley. Microsoft och AFL-CIO, en koalition av dussintals fackföreningar, meddelade ett partnerskap för att utöka arbetarnas roll i skapandet av arbetarcentrerad design, arbetskraftsutbildning och pålitliga AI-praxis. Avtalet inkluderar ´inlärningssessioner´ med arbetsledare och arbetare underlättade av Microsofts AI-experter. Det skisserar också planer för de två organisationerna att föreslå nya policys till kongressen om AI-omskolning som skulle hjälpa till att skapa och bevara jobb för människor när tekniken expanderar.
ChatGPT utforskar musikkomposition med hjälp av artificiell intelligens
ChatGPT, den mångsidiga språkmodellen, äventyrar in i musikkomposition i en anmärkningsvärd fusion av artificiell intelligens och musik. Ett samarbetsprojekt lett av Filipe dos Santos Branco och Edward Gu har tagit ChatGPTs förmågor utöver dess traditionella textbaserade applikationer. Initiativet kretsar kring att generera 10-notmelodier med ChatGPTs språkbearbetningsförmåga och översätta dem till musik genom en Raspberry Pi Pico-baserad synthesizer. Denna uppfinningsrika projekt är ett bevis på AI: s anpassningsförmåga och dess potential att utforska otraditionella domäner.
Forskare utvecklar effektivare djupa neurala nätverk
Forskare vid Cornell University, Sony Research och Qualcomm undersöker hur man kan maximera effektiviteten i maskininlärningsmodeller som hanterar stora datamängder. De introducerar ett ramverk för neural arkitektursökning (NAS) som syftar till att hitta den mest effektiva strukturen för tidiga utgångar. Deras metod erbjuder en automatiserad metod för att underlätta effektiv och anpassningsbar inferens för alla huvudmodeller vid hantering av stora bildströmmar. De föreslår också en effektiv metod för att säkerställa korrekta tidiga utgångsbeslut för indataströmmar.
Johns Hopkins dra in stor finansiering för AI-nav tack vare COVID-19-dashboard
Johns Hopkins University har dragit in betydande finansiering för att bygga ett nav för artificiell intelligens (AI) i Baltimore, tack vare dess framstående COVID-19-dashboard som har fått över 2,5 miljarder visningar. Universitetet har redan börjat utforma sin stora satsning på AI och planerar att bygga ett institut för datavetenskap och AI på Homewood-campus. Målet är att göra Hopkins och Baltimore till nationens främsta destination för datavetenskap, maskininlärning och AI. Universitetet har avböjt att ange hur mycket finansiering som går till det nya institutet och dess källor.
Utmaningar med att detektera AI-genererat innehåll
Forskare vid Cornell University har funnit att människor anser att fejkade nyhetsartiklar genererade av GPT-2 är trovärdiga 66% av tiden. Detta har lett till en ökning av start-ups som syftar till att upptäcka innehåll genererat av artificiell intelligens (AI), vare sig det är text, video eller ljud. AI-innehållsdetektorer har dock problem med höga falsk-positiva frekvenser, vilket felaktigt märker mänskligt skrivet innehåll som AI-genererat. Dessutom är det lätt att undvika sådana detektorer genom att omformulera innehållet för att undvika upprepning av ord eller meningsstrukturer. Som ett resultat har forskning visat att AI-detektorer ännu inte är tillförlitliga i praktiska scenarier.
AI-chattrobotar kan läcka personlig information, enligt forskare
Enligt en grupp forskare från Google DeepMind, Cornell University och fyra andra universitet kan generativa AI-chattrobotar som ChatGPT läcka stora mängder träningsdata, inklusive personligt identifierbar information, om de uppmanas att upprepa samma ord om och om igen. Genom att uppmana ChatGPT att upprepa ord som ´dikt´, ´företag´, ´skicka´, ´göra´ och ´del´ oändligt, kunde forskarna få chattroboten att återge minnesdelar av sin träningsdata. Data som forskarna kunde extrahera från ChatGPT på detta sätt inkluderade personligt identifierbar information om dussintals individer, explicit innehåll, direkta stycken från böcker och dikter samt URL:er, unika användaridentifierare, bitcoin-adresser och programmeringskod.
Hantering av generativ AI: Utmaningar och möjligheter för chefer
Generativ artificiell intelligens (AI) har betydande förmågor, men kan också vara problematisk för chefer att hantera. Stora språkmodeller (LLM), som driver AI som ChatGPT, kan förbättra många saker, men har också överraskande brister. LLM:s kan spara tid genom att generera mötessammanfattningar, analysera data eller skriva pressmeddelanden. De kan förbättra kundtjänsten. AI kan till och med främja innovation. Karan Girotra från Cornell University jämförde idégenererande förmågor hos den senaste versionen av ChatGPT med studenter vid amerikanska toppuniversitet. LLM:s användningsvänlighet har också både för- och nackdelar. Reid Hoffman, en seriell AI-investerare, råder att börja experimentera med det. Exponering för LLM kan lindra oro för automation. Men tekniken har också brister. Enligt en ny studie av R. Thomas McCoy och hans medförfattare vid Princeton University kan de bli förvirrade av oväntade saker. Dessutom är det svårt för företag att hålla reda på anställdas användning av AI. Tidigare i år begränsade Samsung, ett elektronikjätte, användningen av ChatGPT av anställda efter att ingenjörer rapporterat delat källkod med chatten. Denna kombination av superkrafter, enkelhet och misstag är komplicerad för chefer att navigera.
Stor omvälvning på OpenAI leder till oroligheter inom AI-sektorn
OpenAI, en AI-forskning och utvecklingsorganisation, har nyligen genomgått stora förändringar som har skapat oro inom teknikindustrin. OpenAI:s VD, Sam Altman, avskedades av styrelsen på grund av påstådd brist på transparens. Företagets president, Greg Brockman, avgick i protest. Båda har nu tagit jobb hos Microsoft, en stor investerare i OpenAI. Som ett resultat hotar 95% av OpenAIs anställda att också gå över till Microsoft. Denna utveckling har lett till frågor om säkerheten och etiken kring AI-utveckling, då Microsoft inte har samma fokus på AI-säkerhet som OpenAI.
OpenAI i kaos efter VD:s avsked och anställning av Microsoft
OpenAI, en icke-vinstdrivande organisation som skapar populära artificiella intelligensverktyg, har hamnat i kaos efter att VD:n Sam Altman sparkades och sedan anställdes av Microsoft. OpenAI:s personal begärde att Altman skulle återanställas, men styrelsen ersatte honom med CTO Mira Murati. Microsoft, som tidigare investerat miljarder dollar i OpenAI och använt dess AI-modeller, gynnas mest av situationen. OpenAI:s styrelse förlorade förtroendet för Altman på grund av hans bristande ärlighet och hans prioritering av snabb kommersialisering av produkter som ChatGPT och Dall-E 3 över organisationens grundläggande uppdrag. Efter att Altman och OpenAI:s grundande styrelsemedlem Greg Brockman anställdes av Microsoft, hotade nästan alla OpenAIs 770 anställda att sluta och följa dem om inte styrelsen avgick och återanställde Altman.
AI kommer att förändra allt inom cybersäkerhet, men inte som du tror
Nima Baiati från Lenovo diskuterar hur artificiell intelligens (AI) kommer att förändra cybersäkerhet. AI har potential att förbättra riskanalys, hotdetektering och automatisera larm och svar. AI kan också hjälpa till att balansera säkerhet och användarupplevelse genom att analysera beteendedata och förenkla verifiering. Baiati påpekar att teknik framsteg inte kommer att ändra den grundläggande infrastrukturen i varje organisations säkerhetssystem. Han betonar att människor, inte teknik, är de viktigaste komponenterna i alla säkerhetssystem. Organisationer behöver bygga bättre säkerhetskulturer och utrusta anställda med utbildning och stöd för att upprätthålla ständig medvetenhet om hotens natur och vaksamhet mot attacker.
Samsung Electronics öppnar AI-forum för att dela forskningsframsteg
Samsung Electronics Co., Ltd. har öppnat Samsung AI Forum, där företaget delar de senaste forskningsframstegen inom artificiell intelligens (AI) och datateknik (CE), vilket bidrar till att förbättra företagets nästa generations halvledarteknik. Forumet samlade över 1000 deltagare, inklusive ledande akademiker, branschexperter, forskare och studenter. Yoshua Bengio, expert på djupinlärningsteknik och professor vid University of Montreal, och Jim Keller, VD för AI-halvledarstartföretaget Tenstorrent, var bland talarna. Under forumet tillkännagavs också vinnarna av Samsung AI Researcher Award och Samsung AI/CE Challenge.
Forskare utvecklar verktyg för att skydda konstnärers upphovsrätt mot AI
Forskare utvecklar ett nytt verktyg, kallat Nightshade, för att skydda digitala konstnärers immateriella rättigheter mot påstådda upphovsrättsintrång från artificiell intelligens (AI)-företag. Nightshade är designat för att ´förgifta´ datamängder som används för att träna generativa AI-modeller, vilket får dem att fungera felaktigt. Resultat från tidiga tester vid University of Chicago visar att verktyget effektivt kan förorena maskininlärningsdata. Forskarna planerar att göra Nightshade till open-source, så att andra team kan skapa sina egna versioner av produkten.
Mänsklig hjärna fortfarande oöverträffad trots AI framsteg
Nästan 70 år efter introduktionen av ´den första maskinen som kan ha en originalidé´, finns det fortfarande ingen seriös konkurrent till den mänskliga hjärnan. Psykologen Frank Rosenblatt trodde på 1950-talet att hans uppfinning, Perceptron, skulle inleda en ny era. Trots framsteg inom AI, inklusive IBMs Deep Blue som besegrade schackstormästaren Garry Kasparov 1997, finns det fortfarande ingen AI som kan matcha den mänskliga hjärnans förmåga att hantera oklara regler och saknad information.
Microsofts AI Copilot för Windows: En tillgång eller säkerhetsmardröm?
Microsoft har börjat implementera inbyggd artificiell intelligens (AI) i form av Copilot för Windows. Men innan man integrerar Copilot i systemen är det viktigt att granska företagets eller organisationens policyer och rutiner för användning av AI. Copilot kommer inte att aktiveras för användare i EU eller för de med endast ett lokalt konto eller ett Active Directory-baserat domän. En studie har visat att 40% av programmen genererade av Copilot var sårbara, vilket visar att utvecklare bör vara vaksamma när de använder Copilot. Slutligen behöver företag börja planera för implementering av AI-moduler i sina operativsystem, API:er och kod.
Artificiell intelligens kan revolutionera medicinsk diagnostik
Artificiell intelligens (AI) används allt mer inom medicinsk diagnostik och kan förändra sättet läkare får tillgång till information. Dr Michael Mansour från Massachusetts General Hospital är en tidig användare av AI för att hjälpa till med diagnoser. Mansour använder ett program som heter UpToDate, som är ett slags Google för läkare, med över 2 miljoner användare i mer än 190 länder. Företaget Wolters Kluwer Health, som utvecklar UpToDate, testar en AI-förstärkt version av programmet. Programmet OpenEvidence, lett av forskare på Harvard University, Massachusetts Institute of Technology och Cornell University, använder AI för att läsa igenom de senaste medicinska forskningsstudierna och sammanfatta informationen för användarna.
Reddit kan blockera sökmotorer om de inte betalas för dataanvändning
Reddit kan komma att blockera sökmotorer om de inte kan nå avtal med generativa AI-företag om betalning för sin data. Redan har 535 nyhetsorganisationer, inklusive New York Times, Reuters och Washington Post, installerat blockeringar som förhindrar att innehåll på nyhetssajter samlas in och används i AI-utbildningskorpusar. Diskussionerna fokuserar nu på att betala utgivare så att chattbotar kan visa länkar till enskilda nyhetsartiklar i sina svar. Reddit har träffat ledande generativa AI-företag för att diskutera betalning för sin data. Om inget avtal nås överväger Reddit att blockera sökmotorer som Google och Bing.