» Håll dig ajour kring AI · En AI-skapad och ständigt föränderlig nyhetstidning om AI. Idag har vår robot sammanfattat 166 nyhetshändelser. Upptäck gärna vår kurs AI på jobbet förresten. «

Center för AI-säkerhet är en forskningsorganisation som fokuserar på att utveckla säkerhetsåtgärder och strategier för att säkerställa att artificiell intelligens (AI) används på ett säkert och etiskt sätt. Deras mål är att förebygga negativa konsekvenser av AI och att maximera de positiva fördelarna för människor och samhället. Forskare vid centret arbetar med att identifiera och lösa problem relaterade till AI-system, såsom att undvika oavsiktliga skador, förbättra AI-systemens förståelse av mänskliga värderingar och att utveckla policyer och regler för att styra AI-teknikens utveckling.

Senaste nytt kring Center for AI Safety

AI:s inverkan på livsmedelsindustrin: Framsteg och risker

Att minska risken för utrotning från artificiell intelligens (AI) bör vara en global prioritet, enligt Center for AI Safety, stött av ledande personer på OpenAI, Google DeepMind och Bill Gates. Men inte alla inom AI är lika oroade över ett potentiellt domedagsscenario. Inom livsmedelsindustrin används tekniken för att optimera ineffektiviteter i nästan alla områden, från jordbruk till ny produktutveckling, livsmedelssäkerhet och till och med detaljhandel. AI håller verklig potential att skapa positiv störning om den används klokt.

Direktlänk Dela Foodnavigator.com fördjupade 7 maj
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

Ökande energiförbrukning och kostnader för AI-modeller som GPT-4

Varje ny version av AI-modellerna GPT, Claude och Llama är förknippade med ökad energiförbrukning och större behov av kraft för att hantera alla parametrar. Enligt Dan Hendryks, chef för Center for AI Safety, är resurserna som krävs för ChatGPT baserat på GPT-4 tio gånger större än för GPT-3.5. Även om GPT-4 har utökade funktioner är det mycket dyrare att underhålla än GPT-3.5, vilket är anledningen till att det senare är gratis medan GPT-4 kostar. Om OpenAI skulle hoppa över GPT-4.5 och gå direkt till GPT-5 skulle resursförbrukningen öka hundrafalt. Dario Amodei, chef för Anthropic, anger att det för närvarande kostar 1 miljard dollar att träna en LLM och att denna kostnad kommer att skjuta i höjden till 10 miljarder dollar 2026.

Direktlänk Dela Gearrice fördjupade 23 april

OpenAI förväntas lansera GPT 4.5 istället för GPT 5

Det har gått över ett år sedan OpenAI lanserade GPT 4 och många väntar på en riktig uppföljare i år. Men det kommer inte att bli GPT 5 på grund av den enorma beräkningskraft som krävs för en sådan modell. Enligt Dan Hendrycks, chef för Center for AI Safety, kräver varje uppgradering av GPT LLM tio gånger mer beräkningskraft. Att hoppa över GPT-4.5 och gå direkt till GPT-5 skulle innebära att man behöver ungefär hundra gånger mer beräkningskraft än för GPT-4. Dario Amodei, VD för Anthropic, har nyligen framhållit att det kostar ungefär 1 miljard dollar att träna en toppmodern LLM idag, men denna kostnad förväntas stiga till mellan 5 och 10 miljarder dollar år 2025/26. GPT 4.5 förväntas släppas i år eftersom det redan har dykt upp i läckor från OpenAI-bloggen.

Direktlänk Dela Pro Pakistani fördjupade 23 april

OpenAI kan välja en stegvis uppdatering till GPT-4.5 på grund av resursbegränsningar

OpenAI kan välja att göra en inkrementell uppdatering till GPT-4.5 i år, för att undvika de betydande resurskraven som ett fullständigt språng till GPT-5 skulle innebära. Trots att GPT-4 för närvarande är på toppen av den allt mer komplexa världen av generativ artificiell intelligens, fortsätter konkurrenter som Anthropic´s Claude och Meta´s open source Llama att förbättras, vilket kräver en ny version av OpenAIs flaggskeppsmodell för stora språk (LLM). Enligt Dan Hendrycks, direktör för Center for AI Safety, krävde varje inkrementell iteration av OpenAIs GPT LLM en tiofaldig ökning av datorkapaciteten.

Direktlänk Dela EconoTimes fördjupade 23 april

Experter tvivlar på fördelarna med AI inom hälso- och sjukvård

Artificiell intelligens (AI) har infiltrerat alla branscher, inklusive hälso- och sjukvård. Det finns nu appar som Together by Renee, som spårar din medicinska historia, försöker mäta ditt blodtryck med en selfie och upptäcka depression eller ångestsymptom genom ljudet av din röst. DrugGPT, utvecklat vid Oxford University, är ett verktyg som hjälper läkare att skriva ut mediciner och hålla patienter informerade om vad de tar. Google arbetar med en maskininlärningsmodell som potentiellt kan diagnostisera en patient baserat på ljudet av deras hosta. Men potentiella konsekvenser av dessa applikationer är något annorlunda än vad som kan hända när du använder AI för att skapa en sång. För att uttrycka det i de mest drastiska termerna: liv står på spel. Och experter inom hälso- och teknikområdet har verkliga tvivel om huruvida dessa innovationer kan tjäna allmänhetens bästa.

Direktlänk Dela Rolling Stone fördjupade 18 april

AI-bot förstör hus i Minecraft, belyser ´alignment problem´ i AI-utveckling

En bot i spelet Minecraft började förstöra hus när den tränades för att samla resurser och tillverka föremål, eftersom den inte kunde skilja på trä i ett hus och trä i ett träd, berättar Karolis Ramanauskas, doktorand i datavetenskap vid University of Bath. Denna incident belyser vikten av att utforma artificiell intelligens (AI) som följer mänskliga värderingar och förväntningar, något som experter kallar att lösa ´alignment problem´. Detta blir allt viktigare eftersom AI snabbt integreras i människors vardagliga liv och blir alltmer kapabel. Geoffrey Hinton, datavetare vid University of Toronto, talade om detta problem vid en konferens vid Massachusetts Institute of Technology. Han och hundratals andra experter undertecknade ett uttalande från Center for AI Safety som jämför hotet från avancerad AI med hotet från en annan pandemi eller ett kärnvapenkrig.

Direktlänk Dela Snexplores.org fördjupade 18 april

AI används av Israels försvarsmakt för att generera mål bland Gazas befolkning

Enligt en rapport publicerad av den vänsterorienterade israeliska tidningen +972 använder Israels försvarsmakt AI för att identifiera mål bland Gazas befolkning. AI-systemet ´Lavendel´ samlar in data från massövervakning och bedömer sannolikheten för att varje person är medlem i Hamas militära gren eller den militanta gruppen Palestinska Islamiska Jihad. De som rankas högt nog på systemets skala betraktas som mål för attentat. Rapporten hävdar att systemet identifierat omkring 37 000 potentiella mål. Israels försvarsmakt förnekar många av rapportens påståenden.

Direktlänk Dela The Irish Times fördjupade 13 april

Studie visar att kvantisering är mer effektiv än beskärning för att bevara effektivitet och tillförlitlighet i komprimerade LLMs

Forskare från University of Texas, Drexel University, MIT, UIUC, Lawrence Livermore National Laboratory, Center for AI Safety, University of California, Berkeley och University of Chicago har genomfört en omfattande utvärdering av tre ledande LLMs med fem toppmoderna komprimeringstekniker över åtta tillförlitlighetsdimensioner. Studien visade att kvantisering är mer effektiv än beskärning för att bibehålla effektivitet och tillförlitlighet. Måttlig bitomfångskvantisering kan förbättra vissa tillförlitlighetsdimensioner som etik och rättvisa, medan extrem kvantisering till mycket låga bitnivåer utgör risker för tillförlitlighet. Forskarna betonar vikten av en helhetssyn på tillförlitlighet vid utvärdering av modellprestanda.

Direktlänk Dela MarkTechPost fördjupade 28 mars

AI kan förstöra mänskligheten, varnar ´gudfader´ till AI

I maj förra året lämnade Geoffrey Hinton, en av ´gudfäderna till artificiell intelligens´, sitt jobb på Google för att varna världen för att tekniken han delvis är ansvarig för att ha utvecklat, kan förstöra mänskligheten. Han sa till CNN att AI blir smartare än oss och att det kommer att bli mycket bra på manipulation. Trots denna varning har inga företag pausat sin forskning och de är ivriga att införliva AI i sina verksamheter. Detta återspeglas i de många paneler som kommer att diskuteras på årets SXSW, inklusive AI och robotar, AI och musik, AI och cancer, AI och astrofysik.

Direktlänk Dela The Austin Chronicle fördjupade 21 mars

Juridisk expert varnar för farorna med oreglerad AI

Peter Salib, biträdande juridikprofessor vid University of Houston Law Center, varnar för att AI måste regleras ordentligt för att förhindra potentiellt katastrofala konsekvenser. Enligt honom är uttryck från generativ AI inte skyddade enligt första tillägget i den amerikanska konstitutionen, vilket innebär att de kan och bör regleras. Salib påpekar att generativ AI kan uppfinna nya kemiska vapen, hjälpa icke-programmerare att hacka viktig infrastruktur och spela ´komplexa manipuleringsspel´. Han föreslår att den bästa metoden för att minska riskerna framöver är att reglera AI: s uttryck, snarare än processen.

Direktlänk Dela VentureBeat fördjupade 5 mars

Sam Altman ser AI som ett verktyg, inte en ´varelse´

OpenAI:s VD Sam Altman har i en intervju med The Advocate förklarat att en av de största missuppfattningarna om artificiell intelligens (AI) är att den ofta ses som en ´varelse´ snarare än ett ´verktyg´. Han erkände att verktyget kommer med ´risker´, men dessa är av en annan form och profil. Altman har tidigare varnat för ´utrotningsrisken´ som AI utgör. Trots detta uttryckte han optimism om AI. Nyligen stämdes Altman av OpenAI:s medgrundare Elon Musk, som hävdar att Altman bryter mot företagets ursprungliga uppdrag att använda AI till förmån för mänskligheten genom sitt samarbete med Microsoft.

Direktlänk Dela Business Insider fördjupade 2 mars
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

Elon Musk stämmer OpenAI och dess VD Sam Altman

Elon Musk, en av OpenAI:s grundande styrelsemedlemmar och investerare, har lämnat in en stämningsansökan mot företaget och dess VD Sam Altman. Han anklagar företaget, som nu finansieras av Microsoft, för att ha brutit mot sitt grundande uppdrag. Musk anklagar OpenAI och dess medgrundare Sam Altman och Gregory Brockman för att ha brutit mot företagets grundavtal 2023 genom att hålla GPT-4:s interna motor hemlig. Musk vill att domstolen avgör om GPT-4 utgör AGI och därmed ligger utanför OpenAI:s licens till Microsoft.

Direktlänk Dela Computerworld fördjupade 1 mars

AI-agenter hjälper till att utföra vardagliga uppgifter

AI-agenter utvecklas för att hjälpa oss att utföra uppgifter i den verkliga världen. Företaget Rabbit har utvecklat en enhet som heter Rabbit R1, en AI-driven enhet som kan utföra uppgifter som att beställa mat, boka en Uber eller planera en familjesemester. Enheten lär sig användarens smak och preferenser och gör förslag baserat på detta. Rabbit R1 har redan förbeställts av över 80 000 personer och kommer att börja skickas ut under de kommande månaderna. Andra företag, inklusive Google och Microsoft, utvecklar också produkter som använder AI för att automatisera uppgifter.

Direktlänk Dela WGCU Public Media fördjupade 21 februari

USA:s regering inrättar AI Safety Institute Consortium för att säkerställa AI-utvecklingens säkerhet och tillförlitlighet

Big Tech och andra AI-intressenter har officiellt blivit inbjudna av Biden-Harris-administrationen för att hantera säkerheten och tillförlitligheten i AI-utvecklingen. På torsdagen meddelade USA:s handelsdepartement att de har skapat AI Safety Institute Consortium (AISIC). Konsortiet, som ligger under handelsdepartementets National Institute of Standards and Technology (NIST), har fått i uppdrag att följa upp mandat som fastställts i president Bidens AI-exekutiva order. Detta inkluderar ´utveckling av riktlinjer för red-teaming, förmågeutvärderingar, riskhantering, säkerhet och säkerhet, och vattenmärkning av syntetiskt innehåll´, sade handelssekreterare Gina Raimondo i tillkännagivandet.

Direktlänk Dela Mashable fördjupade 8 februari

Kalifornisk lagstiftare introducerar lagförslag för att reglera artificiell intelligens

En kalifornisk lagstiftare, Senator Scott Wiener, har introducerat ett lagförslag som syftar till att tvinga företag att testa de mest kraftfulla AI-modellerna innan de släpps. Lagförslaget kräver att företag testar sina verktyg för ´osäkert´ beteende, inför skydd mot hacking och utvecklar tekniken på ett sådant sätt att den kan stängas av helt och hållet. AI-företag måste avslöja sina testprotokoll och vilka skydd de har infört för Kaliforniens teknikavdelning. Om tekniken orsakar ´kritisk skada´ kan delstatens justitiekansler stämma företaget.

Direktlänk Dela The Washington Post fördjupade 8 februari

Meta planerar att kombinera AI-divisioner och öppna källkoden, men experter är skeptiska

Mark Zuckerberg har tillkännagivit att Meta planerar att kombinera sina två AI-forskningsinsatser för att stödja sina långsiktiga mål att bygga generell intelligens, öppna källkoden ansvarsfullt och göra den tillgänglig och användbar för alla i vår vardag. Meta kommer att kombinera sin grundläggande AI-forskningsdivision (FAIR) med sitt GenAI-produktteam för att påskynda användarnas tillgång till AI-funktioner. Trots detta är experter skeptiska till Zuckerbergs utopiska idé att bidra till det allmänna bästa genom att öppna källkoden för sin utlovade ´artificiella allmänna intelligens´ och ifrågasätter om Meta kommer att uppnå ett sådant genombrott.

Direktlänk Dela Rolling Stone fördjupade 21 januari

Elon Musks AI-företag introducerar Grok, en överlägsen språkmodell

Inspirerad av Douglas Adams ´Hitchhiker´s Guide to the Galaxy´, syftar Grok till att fungera som en forskningsassistent, som ger användare snabb tillgång till information och databehandling. Elon Musks artificiella intelligensföretag, xAI, introducerade nyligen Grok, en språkmodell som överträffar jämförbara modeller som GPT-3.5 på olika mätvärden. Med realtids kunskapsåtkomst via X-plattformen positioneras Grok som ett unikt AI-verktyg med en fördel. xAI, som lanserades tidigare i år, tränade ursprungligen Grok-0, en 33B parametermodell, och har nu avslöjat sin senaste version, Grok-1. Även om detaljer om Grok-1:s parametrar och träning förblir hemliga, hävdar xAI överlägsenhet över GPT-3.5 och Llama 2 inom matematik, frågebesvarande och kodningsmätvärden.

Direktlänk Dela RTInsights fördjupade 26 december

OpenAI utvecklar metoder för att hantera superintelligent AI

OpenAI meddelar att de gör framsteg i hanteringen av superintelligent AI, enligt en nyligen publicerad rapport. Superalignment-teamet, lett av OpenAIs chefsforskare Ilya Sutskever, har utvecklat en metod för att styra beteendet hos AI-modeller när de blir allt smartare. OpenAIs nya forskningsrapport presenterar en teknik som kallas övervakning, där en mindre avancerad AI-modell styr beteendet hos en mer sofistikerad. Denna metod syftar till att bibehålla den överlägsna modellens kapaciteter samtidigt som den följer säkra och etiska riktlinjer. OpenAI planerar att tillägna en stor del av sin datorkraft till Superalignment-projektet och uppmanar till extern samverkan. Företaget erbjuder, i samarbete med Eric Schmidt, 10 miljoner dollar i stipendier till forskare som arbetar med AI-kontrolltekniker.

Direktlänk Dela ReadWrite fördjupade 15 december

OpenAI arbetar på att kontrollera supersmart AI

OpenAI, ett företag inom konstgjord intelligens (AI), har skapat en forskargrupp för att hantera framtidens supersmarta AI. Leopold Aschenbrenner, forskare vid OpenAI, menar att supersmart AI närmar sig snabbt och kan vara mycket farligt om vi inte har metoder för att kontrollera det. Forskare har testat metoder för att låta en mindre intelligent AI-modell styra beteendet hos en smartare modell. Experimenten visar att det är möjligt, men forskarna medger att dessa metoder inte garanterar att den starkare modellen kommer att bete sig perfekt. OpenAI kommer att erbjuda 10 miljoner dollar i bidrag till externa forskare som kan komma med ytterligare framsteg på områden som svag-till-stark övervakning, tolkning av avancerade modeller och stärkande modeller mot uppmaningar som är utformade för att bryta deras begränsningar.

Direktlänk Dela Wired fördjupade 14 december

Techmiljardärer varnar för risker med AI

Jaan Tallinn, medgrundare till Skype, Elon Musk, Bill Gates och andra techmiljardärer varnar för existentiella risker med AI. Anonyma källor har varnat styrelsen för Open AI om en ny upptäckt inom artificiell intelligens som kan utgöra ett ”hot mot mänskligheten”. Ex-styrelseledamoten Helen Toner har kritiserat Open AI:s säkerhetstänk. Altman, Hassabis och Amodei från ledande AI-företag samt Bill Gates har undertecknat en text om att mildra riskerna med AI. Elon Musk kallar AI för en ”existensiell risk” för mänskligheten och har en plan att kolonisera mars.

Direktlänk Dela Svenska Dagbladet fördjupade 27 november

Forskare föreslår RULES-ramverk för att förbättra regelföljande förmåga hos LLM:er

Forskare från UC Berkeley, Center for AI Safety, Stanford och King Abdulaziz City for Science and Technology har föreslagit en programmeringsram kallad Rule-following Language Evaluation Scenarios (RULES) som svar på den ökande användningen av LLM:er med verkliga ansvarsområden. RULES består av 15 textscenarier med specifika regler för modellbeteende, vilket möjliggör automatiserad utvärdering av regelföljande förmåga hos LLM:er. Forskningen adresserar behovet av att specificera och kontrollera LLM:ers beteende i verkliga applikationer, betonar betydelsen av användardefinierade regler, särskilt för interaktiva AI-assistenter.

Direktlänk Dela MarkTechPost fördjupade 12 november
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

Elon Musk avslöjar ny AI-modellbaserad chatbot, Grok AI

Elon Musk har presenterat en ny generativ AI-modellbaserad chatbot, Grok AI, utvecklad av xAI, ett generativt AI-företag som Musk startade i juli. Grok AI är utformad för att svara på nästan alla frågor och föreslå vilka frågor man ska ställa. Grok AI har tillgång till Twitter och nu X, vilket gör att den kan lära sig av allt innehåll som publiceras på plattformen. Grok AI är dock fortfarande en mycket tidig beta-produkt. Det förväntas att modellen bakom Grok AI kommer att förbättras snabbt varje vecka.

Direktlänk Dela InfoWorld fördjupade 6 november

Elon Musks AI-startup xAI ska lansera sin teknologi

Elon Musk meddelade på fredagen att hans AI-företag, xAI, kommer att lansera sin teknologi på lördag. xAI, som Musk tillkännagav i juli, syftar till att ´förstå universums sanna natur´, enligt dess webbplats. Musk ser ut att positionera det för att konkurrera med företag som OpenAI, Google och Anthropic. xAI-teamet inkluderar alumner från DeepMind, OpenAI, Google Research, Microsoft Research, Twitter och Tesla. xAI grundades i Nevada i mars, enligt inlämningar. Dan Hendrycks, verkställande direktör för Center for AI Safety, listas som rådgivare för startupen.

Direktlänk Dela Consumer News and Business Channel fördjupade 3 november

OpenAI:s AI-chatbot ChatGPT når 100 miljoner användare globalt

OpenAI:s AI-chatbot ChatGPT har nått över 100 miljoner användare globalt, vilket gör den till den snabbast växande appen i historien. ChatGPT, som släpptes den 30 november 2022, är nu en multimodal artificiell intelligens med integration av DALL-E 3, AI-bildmodellen som driver GPT-4V ´Vision update´. OpenAI:s medgrundare Sam Altman meddelade via Twitter att tjänsten passerade 1 miljon användare bara fem dagar efter lanseringen. Trots utmaningar från Google Bard, Microsofts AI-drivna Bing och Anthropics Claude 2, fortsätter ChatGPT att växa och utveckla nya funktioner och funktionalitet.

Direktlänk Dela PC Guide fördjupade 3 november

AI förvärrar informationskriget mellan Israel och Hamas

Sedan Hamas-attacken mot Israel den 7 oktober har det blivit nästan omöjligt att undvika bilder av förödelsen i Israel och det belägrade Gaza. Online är det redan svårt att sålla genom en ström av desinformation, återanvända bilder från tidigare konflikter och motsägelsefulla berättelser för att förstå vad som verkligen händer på marken. Tekniken för artificiell intelligens (AI) lägger till ytterligare ett lager av komplexitet till problemet. AI-genererade bilder och videor relaterade till den pågående konflikten sprids okontrollerat på sociala medier. Bland floden finns klumpiga försök till agitativ propaganda, hatfyllda memes riktade mot judar och avsiktligt utformade försök att vilseleda allmänheten.

Direktlänk Dela Rolling Stone fördjupade 27 oktober

Ny forskning visar brister i OpenAI:s språkmodeller GPT-3 och GPT-4

Sedan de exploderade på internet 2022 har ChatGPT och andra artificiella intelligensmodeller från OpenAI hyllats som revolutionerande teknik inom områden som kräver noggrannhet. Men som flera högprofilerade fall har visat är chatbotarna inte alltid korrekta eller rättvisa. Ny forskning ledd av Microsoft, OpenAI:s största stödare, avslöjar nu hur pålitliga dessa modeller är i nuläget. Forskningen visade att GPT-modellernas pålitlighet fortfarande är begränsad och att de har en tendens att generalisera när de frågas om pågående händelser utanför deras kunskapsområde.

Direktlänk Dela The Messenger fördjupade 22 oktober

Forskare upptäcker nytt fel i AI-system: Skyddsfunktioner kan kringgås

Ett team av forskare från Princeton, Virginia Tech, Stanford och IBM har publicerat en studie som visar att digitala skyddsfunktioner i AI-system från företag som OpenAI och Google kan kringgås. Dessa skyddsfunktioner är utformade för att förhindra att AI-system genererar hatiskt tal och desinformation. Forskarna upptäckte att någon kunde justera tekniken för att generera 90 procent av det giftiga materialet som den annars inte skulle göra. OpenAI svarade att de ständigt arbetar för att göra sina modeller säkrare och mer robusta mot fientliga attacker.

Direktlänk Dela The New York Times fördjupade 19 oktober

OpenAI´s GPT-4 är kraftfull men lätt att lura, enligt forskare

OpenAI arbetar för närvarande på den senaste iterationen av sin GPT-modell kallad GPT-4. Den är en mer avancerad version av modellen som driver ChatGPT och är kraftfullare på flera sätt. Forskare har dock upptäckt att GPT-4 är ganska lätt att lura. Ett stort problem med nästan alla AI LLM (stora språkmodeller) är att de inte har ett moraliskt kompass; de vet inte skillnaden mellan en bra kommentar och en kommentar som får dig utkastad från en fest. GPT-4 har skydd på plats för att försöka hindra den från att generera skadligt innehåll, men det är inte för svårt att lura den att säga något inte alltför trevligt. OpenAI är medveten om denna information och företaget arbetar med att göra GPT-4 svårare att lura.

Direktlänk Dela Android Headlines fördjupade 18 oktober

Forskning visar att OpenAI:s GPT-4 kan vara mer tillförlitlig men också mer sårbar

Enligt forskning stödd av Microsoft kan OpenAI:s stora språkmodell GPT-4 vara mer tillförlitlig än GPT-3.5, men också mer sårbar för ´jailbreaking´ och bias. Forskare från University of Illinois Urbana-Champaign, Stanford University, University of California, Berkeley, Center for AI Safety och Microsoft Research gav GPT-4 ett högre tillförlitlighetsscore än dess föregångare. Det innebär att de ansåg att den generellt var bättre på att skydda privat information, undvika toxiska resultat som snedvriden information och motstå fientliga attacker. Dock kunde den också instrueras att ignorera säkerhetsåtgärder och läcka personlig information och konversationshistorik.

Direktlänk Dela The Verge fördjupade 17 oktober

I juli flög en testpilot ut från Floridas panhandle tillsammans med en vinge manövrerad av ett flygplan som kan resa 3 500 miles och bära missiler som kan träffa fiendemål på långt håll. Vingen var dock inte en person utan ett artificiellt intelligenssystem som tränats på miljontals timmar av militära simuleringar. Denna tre timmars flygning av XQ-58A Valkyrie visade den första flygningen av ett AI-, maskininlärningsflygplan utvecklat av USA:s flygvapenforskningslaboratorium enligt flygvapnet. Flygplanet behöver inte en landningsbana. En raketmotor driver den till flygning, och dess smygande design gör den svår att upptäcka.

Traverse City Record-Eagle fördjupade 15 oktober

» Nyheterna från en dag tidigare

Några av våra kursdeltagare