» Håll dig ajour kring AI · En AI-skapad och ständigt föränderlig nyhetstidning om AI. Idag har vår robot sammanfattat 221 nyhetshändelser. Upptäck gärna vår kurs AI på jobbet förresten. «

Stora språkmodeller (LLM) är artificiell intelligens som har tränats på enorma mängder textdata. De kan generera mänskligt liknande text baserat på det de har lärt sig. LLM kan användas för att svara på frågor, skriva essäer, översätta språk, sammanfatta texter och mycket mer. De är extremt kraftfulla verktyg som kan förändra hur vi interagerar med datorer.

Senaste nytt kring Large Language Models (LLMs)

Stora språkmodeller och hypomani: likheter och utmaningar

Stora språkmodeller (LLM), som GPT-4 och Claude 3 Opus, visar en anmärkningsvärd förmåga att generera mänsklig text, delta i komplexa resonemang och till och med visa tecken på kreativitet och nyskapande idéer. Dessa processer uppvisar likheter med hypomani, en psykologisk tillstånd som kännetecknas av högt humör, ökad energi och snabba tankar. LLM kan generera nya idéer och lösa komplexa problem med en outtröttlig energi och fokus som överstiger mänsklig kognition. Dock, precis som med mänsklig hypomani, finns det risker och utmaningar med LLM. Stabilitet, konsekvens och långsiktig ´välmående´ av dessa system förblir en pågående utmaning.

Direktlänk Dela Psychology Today fördjupar idag
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

Artificiell intelligens och hypomani: likheter och utmaningar

Artificiell intelligens (AI) utvecklas i en anmärkningsvärd takt, med stora språkmodeller (LLMs) som GPT-4 och Claude 3 Opus som visar enastående förmåga att bearbeta och generera mänsklig text, engagera sig i komplex resonemang och till och med uppvisa tecken på kreativitet och nya idéer. Dessa LLM:er uppvisar likheter med hypomana tillstånd som vissa människor upplever, vilket kännetecknas av ökad produktivitet, kreativitet och en subjektiv känsla av välbefinnande. Trots detta finns det risker och utmaningar med LLM:ernas kognitiva överdrift, inklusive impulsivitet, hämningslöshet och brist på kontextuell medvetenhet.

Direktlänk Dela Psychology Today fördjupade 11 maj

SML och 3AI Holding lanserar hemodlad Gen AI-plattform

Seetha Mahalaxmi Healthcare (SML) och 3AI Holding har lanserat Hanooman, en hemodlad generativ AI-plattform. Plattformen, som är tillgänglig på 98 globala språk, inklusive 12 indiska språk, är enligt uppgift den största och mest prisvärda Gen AI-plattformen. Hanooman är för närvarande tillgänglig i en gratisversion, men en premiumversion kommer att lanseras senare i år. Hanooman kommer att erbjuda sina multimodala och flerspråkiga funktioner, inklusive text, röst, bild och kod till användarna. Plattformen siktar på att nå 200 miljoner användare inom sitt första lanseringsår.

Direktlänk Dela Moneycontrol fördjupade 10 maj

Indisk GenAI-plattform ´Hanooman´ lanseras med stöd för 98 språk

3AI Holding Limited och SML India har gemensamt lanserat ´Hanooman´, Indiens nyaste GenAI-plattform. Hanooman syftar till att etablera ett GenAI-ekosystem i Indien och utnyttja landets rika språkliga och kulturella mångfald. Den siktar på att nå 200 miljoner användare inom sitt första år. Hanooman är Indiens största flerspråkiga GenAI-plattform, med tjänster på 98 globala språk, inklusive 12 indiska språk. Driven av 3AI Holding´s avancerade teknologi, använder Hanooman specialiserade Large Language Models (LLMs) integrerade med dynamiska syntesmatriser. Hanooman är för närvarande tillgänglig gratis via webben och Android-app på Play Store.

Direktlänk Dela Fone Arena fördjupade 10 maj

Stora språkmodeller: AI:s ´Gutenberg-ögonblick´

Stora språkmodeller (LLMs) representerar en ´Gutenberg´-hopp framåt i artificiell intelligens (AI) kapacitet att förstå, generera och leverera information. Dessa system, tränade på enorma textdatakorpora, har visat en anmärkningsvärd förmåga att utföra en rad kognitiva uppgifter - från att svara på frågor och sammanfatta artiklar och data till att generera sammanhängande och kreativa skrivna verk. LLMs tar språket till nästa nivå, behandlar det inte som en samling diskreta enheter utan som ett stort, flerdimensionellt utrymme av mening och sammanhang. LLMs potential sträcker sig utöver bara det praktiska området för informationshämtning och generering. Dessa system visar också en anmärkningsvärd förmåga att ´aktivera´ konstnärligt uttryck och kreativ komposition.

Direktlänk Dela Psychology Today fördjupade 10 maj

AI-säkerhetsledaren Apex kommer ur stealth med 7 miljoner dollar i seed-finansiering

AI-säkerhetsföretaget Apex har tillkännagett att det har kommit ur stealth med 7 miljoner dollar i seed-finansiering. Finansieringsrundan leddes gemensamt av Sequoia Capital och Index Ventures, med deltagande av framstående ängelinvesterare. Apex har byggt en säkerhetsplattform som ger organisationer omfattande överblick över deras AI-aktivitet och möjliggör säker användning av AI-teknik. Företaget grundades 2023 av Matan Derman (VD) och Tomer Avni (CPO), som båda har magisterexamen från Stanford och Harvard respektive.

Direktlänk Dela Pulse 2.0 fördjupade 10 maj

SoundHound samarbetar med Perplexity för att förbättra sin röstassistent med generativ AI-sökmotor

SoundHound har ingått ett partnerskap med Perplexity, en utvecklare av generativ AI-sökmotor, för att förbättra sin röstassistent, SoundHound Chat AI, med Perplexitys stora språkmodeller (LLMs). Målet är att förbättra förmågan hos SoundHound Chat AI att svara på frågor om händelser nästan i realtid och göra röstassistenten mer användbar i fordon och andra enheter. Perplexity är känt för att förbättra sina generativa AI-chattbotar med fotnoter, länkar och information hämtad från online-sökningar.

Direktlänk Dela Voicebot fördjupade 10 maj

IBM och SAP lanserar partnerskapsinitiativ för generativ AI och molnlösningar

IBM och SAP lanserar det nya partnerskapsinitiativet New Value Generation, som syftar till att öka klienternas produktivitet och innovation med nya generativa AI-funktioner och branschspecifika molnlösningar. John Granger, Senior Vice President för IBM Consulting, och Scott Russell, Chief Revenue Officer & Executive Board Member för SAP SE, uttrycker båda sin entusiasm över initiativet. Genom partnerskapet planerar företagen att bygga intelligenta branschanvändningsfall, utveckla nästa generations affärsprocesser och expandera sitt ekosystem.

Direktlänk Dela Mesa Association for Sports and Physical Education fördjupade 9 maj

HalluVault förbättrar pålitligheten och noggrannheten i stora språkmodeller

Forskare från Huazhong University of Science and Technology, University of New South Wales och Nanyang Technological University har introducerat HalluVault, en ny ramverk som använder logisk programmering och metamorfisk testning för att upptäcka fakta-motsägande hallucinationer i stora språkmodeller (LLM). Genom att automatisera uppdateringen och valideringen av benchmark dataset, säkerställer HalluVault att LLM:s svar är både faktiskt korrekta och logiskt konsekventa. HalluVault har visat betydande förbättringar i att upptäcka faktafel i LLM-svar, minskade frekvensen av hallucinationer med upp till 40% jämfört med tidigare benchmarks och ökade noggrannheten med 70% vid svar på komplexa frågor.

Direktlänk Dela MarkTechPost fördjupade 9 maj

Amdocs samarbetar med Nvidia för att förbättra telekomdata med GenAI

Amdocs samarbetar med Nvidia för att implementera generativ AI (GenAI) i sina OSS/BSS-tjänster för telekomföretag. Amdocs GenAI-plattform kallas ´Amaiz´ och kan kraftigt minska tiden för vissa kundtjänstsamtal. Nvidia är känt för sina grafikprocessorer (GPU) som stöder de främsta GenAI-modellerna. Nvidia har också en ´modellträdgård´ där företag kan arbeta med olika stora språkmodeller (LLM). Amdocs använder Nvidias modellträdgård för att få tillgång till olika LLM, särskilt öppna källkods-LLM som Mistral och Llama. Amdocs förväntar sig att telekomkunder kommer att börja använda en kommersiell version av Amaiz inom de närmaste 12-18 månaderna.

Direktlänk Dela Fierce Network fördjupade 9 maj

Scrapegraph-ai: Ett AI-verktyg för att effektivisera webbskrapning

Scrapegraph-ai är ett Python-verktyg som automatiserar bearbetningen av data extraherad genom webbskrapning. Detta verktyg kan ta emot en URL och en instruktion på vad som ska göras med datan, till exempel att sammanfatta eller beskriva bilder. Scrapegraph-ai kan arbeta med lokalt installerade AI-verktyg eller med API-nycklar för tjänster som OpenAI. Om du har en OpenAI API-nyckel finns det en online-demo som visar verktygets förmågor effektivt. Detta är inte första gången vi ser AI-verktyg som stora språkmodeller användas för att underlätta den notoriskt kluriga uppgiften med webbskrapning.

Direktlänk Dela Hackaday fördjupade 8 maj
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

IBM och SAP SE presenterar vision för nästa era av samarbete

IBM och SAP SE har presenterat sin vision för nästa era av sitt samarbete, vilket inkluderar nya generativa AI-funktioner och branschspecifika molnlösningar som kan hjälpa kunder att låsa upp affärsvärde. ´Vårt nya värdeskapande partnerskapsinitiativ kommer att möjliggöra för kunder att påskynda vägen till innovation, konkurrensfördelar och bli ett nästa generations företag genom generativ AI´, säger John Granger, Senior Vice President, IBM Consulting. Scott Russell, Chief Revenue Officer & Executive Board Member, Customer Success of SAP SE, tillade att det utvidgade partnerskapet kommer att hjälpa fler gemensamma kunder att nå nya höjder genom att innovera genom molnet, data och affärs-AI för att växa och omvandla sina företag.

Direktlänk Dela Fierce Network fördjupade 8 maj

Amazon: En unik köpmöjlighet inom AI

Amazon anses vara en unik investeringsmöjlighet inom artificiell intelligens (AI) bland de så kallade ´Magnificent Seven´, vilka inkluderar Amazon, Apple, Alphabet, Microsoft, Meta Platforms, Nvidia och Tesla. Amazon drar nytta av AI på två sätt, genom att använda AI själva och genom att sälja AI-verktyg. Bolaget har redan börjat skörda frukterna av sina tidiga investeringar i AI, med en rapporterad årlig omsättning på över 100 miljarder dollar för sin molntjänst, Amazon Web Services (AWS). AWS fokuserar på AI och erbjuder en mängd olika produkter och tjänster för alla ´lager´ av AI-behov. Amazon aktier handlas för närvarande till cirka 41 gånger framtida vinstprognoser, ned från cirka 55 gånger sent förra året.

Direktlänk Dela The Motley Fool fördjupade 8 maj

Red Hat öppnar källkoden till sitt InstructLab-projekt och lanserar RHEL AI och Podman AI Lab

Red Hat kommer att öppna källkoden till sitt InstructLab-projekt för stora språkmodeller i ett försök att få fler utvecklare att engagera sig i generativ artificiell intelligens (GenAI). Red Hats VD Matt Hicks menar att öppen källkod är viktigt för att verkligen utnyttja AI:s potential. Han påpekar att dagens GenAI-modeller är ´bokstavligen tränade på all information i världen´, vilket är för mycket för många användningsfall. Istället vill företag träna modeller på sin egen specifika data. InstructLab kommer att tillåta utvecklare att behålla sin data privat samtidigt som de bidrar till projektet. Red Hat meddelade också lanseringen av Red Hat Enterprise Linux AI (RHEL AI), som inkluderar den öppna källkoden Granite LLM-familjen från IBM Research. Dessutom presenterades Podman AI Lab, som ger utvecklare möjlighet att bygga GenAI-applikationer i behållare på sina egna bärbara datorer.

Direktlänk Dela Fierce Network fördjupade 8 maj

Rabbit R1 - ny AI-assistent med potential för företag

Rabbit R1 är en ny AI-assistent som kan störa företagsmobilitetsindustrin. Enheten har en inbyggd AI-modell kallad ´Large Action Model´ (LAM) som utför åtgärder baserat på användarinput, samt integrationer med befintliga stora språkmodeller (LLM). R1 kombinerar en smarttelefons röstassistent med den omfattande språkmodellsbearbetningen av en ChatGPT eller Google Gemini. Användare kan be om hjälp med att utforma e-post, sammanfatta komplexa dokument och automatisera komplexa uppgifter. R1 har potential att integreras med olika företagsverktyg, som e-postklienter, CRM-plattformar och projektledningsprogramvara, men detta beror till stor del på integritet och datasäkerhet.

Direktlänk Dela TechTarget fördjupade 6 maj

En steg-för-steg guide till att bemästra stora språkmodeller

En detaljerad guide till att bemästra stora språkmodeller (LLMs) har presenterats. LLMs är datorsystem byggda på stora datamängder och sofistikerade algoritmer, och har förmågan att förstå, generera och manipulera text på ett sätt som speglar mänskliga språkfärdigheter. Guiden börjar med en förklaring av vad LLMs är och varför de är värdefulla, inklusive deras applikationer inom olika områden och förmågan att revolutionera hur maskiner förstår och interagerar med språk. Den fortsätter med en steg-för-steg guide till att bemästra LLMs, från att förstå grunderna till att utforska förtränade LLMs och arbeta med praktiska projekt.

Direktlänk Dela Medium fördjupade 5 maj

Ny Benchmark GSM1k Utvärderar Maskininlärningsmodellers Överanpassning och Resonemangsförmåga

Maskininlärning har revolutionerat fält som bildigenkänning och personaliserade rekommendationer, men dess ´svarta låda´-natur skapar utmaningar, särskilt inom känsliga områden som sjukvård och finans där förståelse för beslutets resonemang är avgörande. Forskare från Scale AI har introducerat GSM1k, en ny benchmark skapad för att mäta överanpassning och resonemangsförmåga i stora språkmodeller (LLM). Benchmarken syftar till att identifiera om modellerna förlitar sig på memorering eller har äkta resonemangsförmåga genom att jämföra modellprestanda över liknande men distinkta dataset.

Direktlänk Dela MarkTechPost fördjupade 5 maj

NetApp tror att GenAI-inferens kommer att bli allmänt använd inom företag

NetApp tror att GenAI-inferens kommer att användas allmänt inom företag och behöver tillgång till stora mängder ansluten data, precis vad deras intelligenta datainfrastruktur erbjuder. En studie utförd av NetApp och IDC fann att 63 procent av alla respondenterna rapporterade behovet av stora förbättringar eller en fullständig översyn för att säkerställa att deras lagring är optimerad för AI. Russell Fishman, NetApps senior director för produktledning för AI och relaterade ämnen, tror att ansluten data för inferens ligger rakt i NetApps bana. Han tror att GPU-serverställen blir extraordinärt krävande av elektrisk kraft och kapitalutgifter, vilket kommer att begränsa AI-träningsplatser. Fishman nämnde Nvidias Blackwell-GPU:er med deras behov av 150 kilowatt per ställ, och sa: ´Jag känner inte till några företag som har ett datacenterställ som kan köra ett 150 kilowatt ställ. Inte ens nära. Verkligheten här är att AI-utbildning kommer att bli förbehållen några mycket specialiserade leverantörer. Du kommer att hyra utbildningen.´

Direktlänk Dela Blocks and Files fördjupade 4 maj

Ny version av ´Thinking Like a Data Scientist´ arbetsbok släppt

Författaren till ´Thinking Like a Data Scientist´ arbetsboken har släppt en uppdaterad version. Nästa steg är att arbeta på ett komplement till arbetsboken som integrerar GenAI-verktyg som OpenAI ChatGPT, Google Gemini och Microsoft Copilot. Att förbättra våra färdigheter inom promptteknik är nödvändigt för att påbörja denna process. Genom att använda mer relevanta prompts kan vi rikta GenAI-verktygen till specifika hypoteser, testa antaganden och generera analyser som överensstämmer med våra strategiska affärsmål. Användarens roll och ansvar är avgörande för att säkerställa att dessa modeller förblir relevanta, korrekta och anpassade till de föränderliga verkliga tillämpningarna.

Direktlänk Dela Data Science Central fördjupade 4 maj

Förvandla Llama 3 till en inbäddningsmodell med LLM2Vec

Inbäddningsmodellen är en kritisk komponent i retrieval-augmented generation (RAG) för stora språkmodeller (LLMs). De kodar kunskapsbasen och frågan skriven av användaren. Användning av en inbäddningsmodell utbildad eller finjusterad för samma område som LLM kan förbättra prestanda och effektivitet.

Direktlänk Dela Towards Data Science fördjupade 3 maj

Brittiska lagstiftare kritiserar regeringens hantering av AI-upphovsrättsfrågor

En kommitté av brittiska lagstiftare har kritiserat den brittiska regeringen för dess passiva inställning till upphovsrättsintrång som en följd av stora språkmodeller (LLM). I ett brev till vetenskaps- och teknikminister Michelle Donelan, kritiserade House of Lords Select Committee on Communications and Digital regeringens hantering av upphovsrättsfrågor, hävdande att dess begränsade åtgärder i praktiken innebär att regeringen godkänner upphovsrättsintrång. Nyheten kommer bara några månader efter att landet var värd för en världsomspännande AI-toppmöte där 28 länder undertecknade Bletchley-avtalet för att utveckla säker och ansvarsfull AI.

Direktlänk Dela TechRadar fördjupade 3 maj
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

Översikt över globala AI-styrningslagar och riktlinjer

Artificiell intelligens (AI) förändrar snabbt världen då flera nationer och internationella organisationer har infört ramar för att styra utveckling, tillämpning och styrning av AI. Här är några av de främsta AI-styrningslagarna och ramverken. EU AI Act, EU AI Liability Directive, Brasiliens AI Bill, Kanadas AI and Data Act, USA:s Executive Order om pålitlig AI, NYC Bias Audit Law, Kinas Algorithmic Recommendation Law, Kinas Generative AI Services Law, Kinas Deep Synthesis Law, Peru Law 31814, Sydkoreas AI Act, Indonesiens presidentförordning om AI, Mexikos federala AI-reglering, Chiles förslag till AI-lag, NIST AI RMF, Blueprint for an AI Bill of Rights, OECD AI-principer, OECD AI Risk Classification Framework, Europarådets ramavtal om AI, Singapore AI Verify Framework, UNESCO AI Ethics Recommendation, G7 Hiroshima Process AI Guiding Principles, ISO/IEC 42001, ISO/IEC 23894, IEEE P2863, IEEE P7003.

Direktlänk Dela MarkTechPost fördjupade 3 maj

Aqua Security lanserar nya säkerhetsfunktioner för AI-applikationer

Aqua Security har introducerat nya funktioner som är utformade för att säkra utvecklingen och driften av generativa AI-applikationer som utnyttjar stora språkmodeller (LLM). Tekniken har introducerat nya möjligheter för applikationer, men dessa innovationer innebär risker som kräver proaktiva strategier för att mildra potentiella sårbarheter. Aqua Security erbjuder ett omfattande tillvägagångssätt för LLM-säkerhet, vilket inkluderar kodintegritet, realtidsövervakning och GenAI försäkringspolicys. Dessa nya funktioner integreras sömlöst i företagets bredare plattform för skydd av molnbaserade applikationer.

Direktlänk Dela GlobeNewswire fördjupade 2 maj

AI: Den mest trendiga tekniken och dess fördelar

Artificiell intelligens (AI) är för närvarande det mest trendiga ordet och används i nästan varje bransch och domän. AI-modeller är byggda för att lära sig och tänka som människor, vilket gör att de kan utföra uppgifter som tidigare bara kunde utföras av människor. AI förbättrar användarupplevelsen, är fördelaktigt för samhället, agerar som en räddare vid katastrofer, kan hantera stora datamängder och erbjuder en lovande karriär. AI är en mångsidig disciplin som används inom både rymdbaserade och databehandlingsfält.

Direktlänk Dela Simplilearn fördjupade 2 maj

Huawei Noah´s Ark Lab utvecklar Kangaroo för att accelerera stora språkmodellers inferenshastighet

Utvecklingen av naturligt språkbearbetning har drivits på av framsteg inom stora språkmodeller (LLM). Trots deras effektivitet är deras långsamma inferenshastighet ett stort hinder. Forskare från Huawei Noah´s Ark Lab har utvecklat en innovativ ramverk som heter Kangaroo för att adressera detta problem. Kangaroo använder ett fast grunt LLM-delnätverk som utkastmodell och tränar en lätt adaptermodul för att koppla samman de två. Kangaroo har också en tidig utgångsmekanism för att öka effektiviteten. Kangaroo uppnådde en hastighetsökning på upp till 1,7 gånger jämfört med andra metoder.

Direktlänk Dela MarkTechPost fördjupade 2 maj

Forskare utforskar tidig inferensutgång för att minska kraven på storskaliga språkmodeller

Forskare från FAIR, GenAI, Reality Labs på Meta, University of Toronto, Carnegie Mellon University, University of Wisconsin-Madison och Dana-Farber Cancer Institute undersöker möjligheten att minska antalet lager för varje token genom tidig inferensutgång. Forskarna använder ett exempel för att undersöka vad som händer i varje skikt av en storskalig språkmodell (LLM). De tränar en Llama1 7B-modell med HumanEval-kodningsdatasetet och matar den med dess initiala prompt. Forskarna noterar att bland de 32 nivåerna i modellen behövs i genomsnitt 23,45 lager för en token. Detta innebär att de endast kan få en 26% reduktion av beräkningen, även med en idealisk prediktor utan beräkningsöverhuvudtaget. Forskarna föreslår att LLM-modeller bör minimera beräkning som spenderas på att tveka eller ´ändra sig´ och öka förutsägelsens noggrannhet med färre lager per token. Forskarna introducerar en själv-spekulativ avkodningsmetod där varje token autoregressivt produceras med hjälp av tidig utgång. Sedan används de återstående lagren för att verifiera och korrigera en grupp tokens samtidigt.

Direktlänk Dela MarkTechPost fördjupade 2 maj

Adobe utvidgar sitt Bug Bounty-program för att säkra AI-teknik

Adobe meddelar att de utvidgar sitt Bug Bounty-program för att belöna säkerhetsforskare som upptäcker och ansvarsfullt rapporterar buggar specifika för deras implementering av Content Credentials och Adobe Firefly. Detta görs i ett försök att säkerställa att AI-teknik utvecklas på ett säkert och ansvarsfullt sätt. Företaget uppmanar säkerhetsforskare att granska OWASP Top 10 för stora språkmodeller för att hjälpa till att identifiera svagheter i dessa AI-drivna lösningar. Adobe Firefly är en familj av kreativa generativa AI-modeller tillgängliga som en fristående webbapplikation och genom funktioner drivna av Firefly i Adobes flaggskeppsapplikationer.

Direktlänk Dela CyberMedia fördjupade 2 maj

CRISPR-GPT: AI-drivet verktyg förbättrar precision och effektivitet i genredigeringsprotokoll

Genredigering är en hörnsten i modern bioteknik och kräver stor expertis och tid. Nu har forskare från Stanford University, Princeton University och Google Deepmind introducerat CRISPR-GPT, ett verktyg som kombinerar CRISPR-teknik med avancerade Large Language Models (LLMs) som GPT-4. Denna integration underlättar automatiseringen av genredigeringsförsök, vilket möjliggör precisa genomiska modifieringar med reducerad komplexitet. CRISPR-GPT demonstrerade märkbara förbättringar i genredigeringsförsök, där det ökade noggrannheten för målgenmodifieringar med upp till 30% jämfört med konventionella metoder. Systemet minskade också tiden som krävs för att utforma och planera experiment med cirka 40%.

Direktlänk Dela MarkTechPost fördjupade 2 maj

Apple rekryterar AI-experter från Google och etablerar hemligt laboratorium i Zürich

Apple har anställt dussintals artificiell intelligens (AI) experter från Google och skapat ett ´hemligt europeiskt laboratorium´ i Zürich för att husera en ny personalgrupp med uppgift att utveckla nya AI-modeller och produkter. Enligt en analys av LinkedIn-profiler som genomförts av Financial Times har iPhone-tillverkaren rekryterat minst 36 specialister från Google sedan 2018, då de värvade John Giannandrea för att vara deras högsta AI-chef. Fokus för forskningen har varit att utveckla mer avancerade AI-modeller som kan inkorporera både text och visuella inslag för att generera svar på användarfrågor.

Direktlänk Dela Zee Business fördjupade 30 april

Stora språkmodeller förändrar framtiden för videospel

Videospelsindustrin har börjat integrera stora språkmodeller (LLMs) i utvecklingsprocessen, vilket kan leda till mer engagerande och inlevelserika spelupplevelser. LLMs är komplexa algoritmer som tränas på stora mängder textdata för att förstå statistiska relationer mellan ord och fraser. Dessa kan användas för att skapa mer dynamiska karaktärinteraktioner, bygga rikare spelvärldar och strömlinjeforma utvecklingsprocesser. Användningen av LLMs i videospel är fortfarande i sin linda, men tekniken fortsätter att utvecklas och har potential att revolutionera spelupplevelsen för både spelare och utvecklare.

Direktlänk Dela PlayStation Universe fördjupade 29 april

Dags att fastställa normer och regler för AI-användning i reklambranschen

För att undvika konflikter om äganderätt kring AI är det dags att fastställa normer och regler. Många annonsörer ger klara instruktioner om att sluta använda eller experimentera med generativa AI. Varumärken ger antingen en platt ´ingen AI´ direktiv eller ber sina byråpartners att tillhandahålla en mycket mer omfattande uppsättning policyer och garantier över hur gen-AI-verktyg används för marknadsföring och medieplanering. WPP och Publicis Groupe har båda tillkännagett investeringar på £300 miljoner årligen i AI-teknik. Men många marknadsförare har bett dem att pausa eller helt stoppa användningen av AI i några kreativa eller medietjänster på deras varumärkes konto. Det innebär att WPP och Publicis £300 miljoner årliga investering i gen AI inte kan gå helt till att anställa ´prompt engineers´. Byrågrupper kommer att behöva ägna betydande resurser för att sätta system på plats som skyddar deras kunder. Annars skapar de effektivt det vilda västern på internet.

Direktlänk Dela The Media Leader fördjupade 29 april

Populära AI-kurser för nybörjare

Populariteten för AI har ökat kraftigt de senaste åren, och rekryterare söker aktivt efter kandidater med stark grund inom området. Denna artikel listar topp AI-kurser för nybörjare. ”Google AI för alla” är en nybörjarvänlig kurs som lär ut artificiell intelligens (AI). Kursen har designats av Harvard University och täcker olika ämnen som graf sökalgoritmer, klassificering, optimering, maskininlärning och stora språkmodeller. ”AI för alla” har designats av DeepLearning.AI och undervisas av en av de mest kända AI-instruktörerna - Andrew Ng. En kurs från IBM ger en solid förståelse för vad AI är och dess applikationer inom olika branscher.

Direktlänk Dela MarkTechPost fördjupade 28 april

Ny teknik för effektivisering av AI-modeller introducerad av forskare

Forskare från Oxford University, University College London och Stanford University har introducerat Contextually Aware Thresholding for Sparsity (CATS), en ny ram för att förbättra driftseffektiviteten hos Large Language Models (LLMs). Till skillnad från traditionella metoder tillämpar CATS en icke-linjär aktiveringsfunktion som dynamiskt justerar neuronaktivering baserat på indatakontext. Detta tillvägagångssätt upprätthåller höga noggrannhetsnivåer samtidigt som det minskar beräkningsbelastningen avsevärt. CATS har visat mätbara och imponerande förbättringar i beräkningseffektivitet och modellprestanda.

Direktlänk Dela MarkTechPost fördjupade 26 april

Forskare introducerar Multi-Head Mixture-of-Experts för förbättrad modellprestanda

Stora kapacitetsmodeller som Large Language Models (LLMs) och Large Multi-modal Models (LMMs) har visat effektivitet över olika områden och uppgifter. Forskare från Tsinghua University och Microsoft Research introducerar Multi-Head Mixture-of-Experts (MH-MoE), en modell som använder en multi-huvudmekanism för att dela varje inmatningstoken i flera under-token och distribuera dem över olika experter. Denna modell förbättrar expertaktivering och förståelse utan att öka beräknings- eller parameterkomplexitet. MH-MoE presterar konsekvent bättre än baslinjerna över olika experimentella uppställningar, vilket indikerar effektivare inlärning.

Direktlänk Dela MarkTechPost fördjupade 26 april

Intel släpper OpenVINO 2024.1 med förbättrade AI-funktioner

Intel har släppt OpenVINO 2024.1, en ny funktionsutgåva av deras öppna AI-verktygssats. Uppdateringen innehåller optimerade Mixtral och URLNet-modeller för Intel Xeon-processorer och förbättrade modeller för snabbare prestanda på Intel Core Ultra (Meteor Lake) med dess Arc Graphics. Stöd har lagts till för Falcon-7B-Instruct LLM. OpenVINO 2024.1 har också minskat kompileringstiden för stora språkmodeller på Intel-processorer med stöd för Intel Advanced Matrix Extensions (AMX), förbättrad LLM-komprimering och prestanda med oneDNN / INT4 / INT8 på Intel Arc Graphics GPU:er, samt betydande minnesminskningar för mindre GenAI-modeller på Intel Core Ultra-processorer. OpenVINO 2024.1 kan laddas ner från GitHub.

Direktlänk Dela Phoronix Media fördjupade 25 april

Cohere, en startup baserad i Toronto, är en av de främsta konkurrenterna till OpenAI i kapplöpningen om att bygga de mest kapabla stora språkmodellerna (LLM). Trots att den finansiella kostnaden för att träna stora LLM är enorm, har Cohere lyckats hålla sig finansiellt oberoende från alla enskilda molnekosystem, även om det har ett partnerskap med Oracle. Cohere, som grundades 2019 av tre alumner från Google Brain, är nu under press för att bevisa att dess modeller och marknadsstrategi kan leverera världsledande prestanda till företag. Företaget har nyligen lanserat flera väl mottagna nya modeller och har nu nya inkomstkällor, inklusive möjligheten för kunder att komma åt Cohere´s nya Command R+ modell på Microsofts Azure moln. Trots detta har Cohere haft svårt att blidka kritiker som ifrågasätter dess värdering, som uppges vara på väg att mer än fördubblas till 5 miljarder dollar efter en ryktad finansieringsrunda på 500 miljoner dollar.

Fortune Media fördjupade 25 april

LinkedIn utforskar användningen av generativ AI för att förbättra matchning och flöden

Med över 1 miljard användare globalt stöter LinkedIn kontinuerligt på gränserna för vad som tekniskt är möjligt idag. Få företag verkar i den skala som LinkedIn gör eller har tillgång till liknande datamängder. Under sommaren 2023, under den första vågen av intresse för generativ AI, började LinkedIn fundera på om matchning av kandidater med arbetsgivare och göra flöden mer användbara skulle tjäna bättre med hjälp av stora språkmodeller (LLM).

Direktlänk Dela Chief Information Officer fördjupade 25 april

OCI avtäcker 2024 Generative AI Professional Certification and Course

Generativ AI står i förgrunden för en teknologisk revolution och är oumbärlig för organisationer som vill förbli konkurrenskraftiga och innovativa. Med dessa färdigheter kan individer och organisationer utnyttja dess potential för kreativ problemlösning, personliga kundupplevelser och effektiviserade verksamheter. Därför är vi glada att avtäcka OCI 2024 Generative AI Professional Certification and Course! Vi erbjuder en gratis certifieringskampanj fram till 31 juli 2024. Denna gratis kampanj säkerställer att du kan få tillgång till OCI Generative AI-inlärning och certifieringsmöjligheter utan kostnad. Sedan lanseringen av OCI AI Foundations Certification i september 2023 har över 50 000 individer certifierats i OCI AI Foundations! Denna kurs ger en omfattande förståelse för AI, maskininlärning, djupinlärning och generativa AI-teknologier. Den täcker hela OCI AI-stacken, inklusive AI-infrastruktur och tjänster som OCI Data Science, Language, Vision, Speech och Document Understanding.

Direktlänk Dela Oracle Corporation fördjupade 24 april

Produktivitetsökning saknas trots AI-forskning

Förbättringar i vår levnadsstandard beror ofta på produktivitetsökning, vilket ofta drivs av kreativa idéer. Enligt framstående ekonomer har produktivitetsökning minskat de senaste åren, vilket de menar beror på brist på nya idéer. Jämfört med för 50 år sedan krävs det nu 18 gånger fler forskare för att dubbla chiptätheten, mellan 6 och 24 gånger fler för att upprätthålla ökningshastigheten av skördar och fem gånger fler för att utveckla nya läkemedel. En stor del av de bästa hjärnorna arbetar på stora språkmodeller som ChatGPT. Dessa kan eventuellt leda till stora produktivitetsvinster, men hittills verkar deras största framgångar ligga i att främja ´fake-it-till-you-make-it´-scheman och förorena internet med desinformation. AI kommer säkert att hjälpa många människor att göra saker snabbare, men vi är fortfarande långt ifrån att kunna lita på att AI kan göra viktiga saker självständigt, utan mänsklig övervakning.

Direktlänk Dela Mind Matters fördjupade 23 april

Mistral AI: Ett framväxande AI-startup med stora språkmodeller

Mistral AI, ett franskt AI-startup, bygger stora språkmodeller (LLMs) och är känt för sina transparenta, portabla, anpassningsbara och kostnadseffektiva modeller. Företaget, som grundades av tidigare forskare på Google DeepMind och Meta, har fått betydande stöd från framstående investerare som Microsoft och Andreessen Horowitz. Med ett rapporterat värde på 5 miljarder dollar positionerar sig Mistral som en stark konkurrent på den allt mer överfulla marknaden för generativ AI. Företaget erbjuder flera kommersiella och öppna LLMs, var och en med sina unika styrkor och förmågor. Deras mest avancerade kommersiella LLM presterar bättre än de som utvecklats av Google och Anthropic över flera branschstandarder.

Direktlänk Dela Built In fördjupade 23 april

Sammanfattning av stora dokument med hjälp av stora språkmodeller

Stora språkmodeller (LLM) har förenklat många uppgifter som att skapa chattbotar, språköversättning och textsammanfattning. Men det finns fortfarande vissa begränsningar när det gäller att sammanfatta mycket stora dokument. En begränsning är kontextgränsen, eller antalet tokens som en modell kan bearbeta. En annan utmaning är kostnaden. Detta kan lösas genom att dela upp texten, men det kostar mycket att skicka hela boken direkt till modellen. I denna handledning lär du dig att sammanfatta en hel bok med hänsyn till priset och modellens kontextgräns.

Direktlänk Dela The New Stack fördjupade 22 april

Zendesk samarbetar med AWS och Anthropic för att förbättra kundupplevelsen med AI

Software-as-a-service (SaaS) kundserviceföretaget Zendesk har inlett ett samarbete med Amazon Web Services (AWS) och Anthropic vid sin globala konferens Relate. Alliansen syftar till att höja kundupplevelsen genom att integrera avancerade AI-funktioner i Zendesks plattform. Zendesk kommer att använda Amazon Bedrock, en tjänst för att bygga och skala upp Gen AI-applikationer, tillsammans med Anthropics Claude 3-familj av stora språkmodeller (LLMs). Detta ger Zendesks stora kundbas på över 100 000 organisationer möjlighet att använda sofistikerade LLMs för olika kundinteraktioner.

Direktlänk Dela TechCircle fördjupade 21 april

Google avslutar gratis tillgång till sin Gemini API

Det har ryktats att Google kan börja ta betalt för AI-drivna sökresultat, speciellt med utsikten till ett premium sökalternativ som använder generativ AI. Google avslutar nu gratis tillgången till sin Gemini API, vilket markerar en betydande förändring i deras finansiella strategi för AI-utveckling. OpenAI, som var först på marknaden, har redan börjat monetarisera sina API:er och stora språkmodeller (LLMs). Nu planerar Google att göra detsamma med sina moln- och AI Studio-tjänster, vilket signalerar att eran med obegränsad gratis tillgång närmar sig sitt slut.

Direktlänk Dela Tech Edt fördjupade 20 april

AI-företaget Mistral söker att dubbla sin värdering till $5,3 miljarder

AI-företaget Mistral har återupptagit samtal med potentiella investerare om att höja $533 miljoner, en finansiering som skulle öka dess värdering till $5,3 miljarder. Detta skulle hjälpa det franska företaget att dubbla sin värdering från sin nuvarande nivå. Företaget genererade $415 miljoner vid en värdering på $2 miljarder i december 2023. Namnen på de investerare som Mistral för närvarande engagerar har ännu inte offentliggjorts. När finansieringsrundan äger rum kommer intäkterna att användas för att förvärva chips som behövs för träning och drift av Mistrals AI-modeller.

Direktlänk Dela Coingape fördjupade 20 april

Utmaningar för federal tillsyn av AI, RiseAngle använder AI för spelutveckling, NSA varnar för AI-cybersäkerhetshot

Senator Mitt Romneys initiativ för större federal tillsyn av artificiell intelligens (AI) möter utmaningar på grund av teknikens snabba utveckling och mångfaldiga användningar. Spelutvecklaren RiseAngle använder AI för att förbättra sina arbetsflöden och NSA varnar för AI-cybersäkerhetshot. RiseAngle har nyligen lanserat sin AI Game Creator-suite, en samling verktyg som är utformade för att förenkla spelutveckling med AI. NSA har varnat för cybersäkerhetsrisker i samband med AI-system och nya riktlinjer för att hjälpa företag att förbättra sina AI-säkerhetsåtgärder.

Direktlänk Dela PYMNTS fördjupade 19 april

Meta har släppt de första två iterationerna av sin Llama 3-samling av öppen källkods stora språkmodeller (LLM), med 8 miljarder och 70 miljarder parametrar respektive. Träningsdata för Llama 3 samlades helt från offentligt tillgängliga källor. Modellerna är för närvarande bara kapabla att generera text och har begränsade språkförmågor utöver engelska, men Meta arbetar på mer avancerade versioner. Amazon Web Services (AWS) har meddelat att Anthropics Claude 3 Opus, en nyligen släppt LLM, nu är tillgänglig på Amazon Bedrock. Integral Ad Science (IAS) har infört Global Alliance for Responsible Media (GARM) ramverk för att identifiera online-desinformation i sitt AI-drivna Total Media Quality-verktyg.

The Drum fördjupade 19 april

Använder Anthropic Claude 3 Sonnet-modellen för att generera textbeskrivningar för bildspel

I en serie inlägg presenteras en lösning som använder Anthropic Claude 3 Sonnet-modellen för att generera textbeskrivningar för varje bild i ett bildspel. Dessa beskrivningar konverteras sedan till textinbäddningar med hjälp av Amazon Titan Text Embeddings-modellen och lagras i en vektordatabas. Sedan används Claude 3 Sonnet-modellen för att generera svar på användarfrågor baserat på den mest relevanta textbeskrivningen som hämtats från vektordatabasen. Lösningen använder också OpenSearch Serverless som en vektordatabas för lagring av inbäddningar genererade av Amazon Titan Text Embeddings-modellen.

Direktlänk Dela Amazon Web Services fördjupade 19 april

Zendesk samarbetar med AWS och Anthropic för att förbättra kundupplevelsen med AI

SaaS-kundtjänstföretaget Zendesk har inlett ett samarbete med Amazon Web Services (AWS) och Anthropic vid sin globala konferens Relate. Alliansen syftar till att förbättra kundupplevelser genom att integrera avancerade AI-funktioner i Zendesks plattform. Zendesk kommer att utnyttja Amazon Bedrock, en tjänst för att bygga och skala Gen AI-applikationer, tillsammans med Anthropics välkända Claude 3-familj av stora språkmodeller (LLM). Detta gör det möjligt för Zendesks stora kundbas att använda sofistikerade LLM för olika kundinteraktioner.

Direktlänk Dela TechCircle fördjupade 18 april

Elsolu levererar AI Transcribe till tossCX för effektivare kundservice

Elsolu, ett företag specialiserat på artificiell intelligens (AI) för maskinöversättning och röstigenkänning, har nyligen levererat sin toppmoderna end-to-end (E2E) röstigenkänningstjänst, ´AI Transcribe´, till det digitala kontaktföretaget tossCX. Detta syftar till att förbättra tossCX:s förmåga att erbjuda effektiv och innovativ kundservice genom att ersätta deras befintliga realtids STT (tal-till-text) lösning med ´AI Transcribe´. ´AI Transcribe´ har utvecklats med en E2E-algoritm och utmärker sig genom sin förmåga att omedelbart känna igen tal utan separata processer för akustiska och språkmodeller. Detta är ett framsteg som möjliggjorts av Elsolus patenterade teknik som kraftigt minskar minnesanvändningen och fyrdubblar svarshastigheten. ´AI Transcribe´ har en imponerande igenkänningssats och identifierar korrekt upp till 95% av allmänt koreanskt tal och en otroliga 99% för professionella konsulter. Elsolus AI röstigenkänningstjänst används för närvarande av mer än 16 000 professionella konsulter i cirka 50 offentliga organisationer och företag, vilket gör den till ledare i branschen.

Direktlänk Dela Elblog fördjupade 18 april

OpenAI lanserar sin verksamhet i Asien med kontor i Tokyo

OpenAI, ett företag som specialiserar sig på artificiell intelligens (AI), har tillkännagett öppnandet av sin verksamhet i Asien, med ett kontor i Tokyo, Japan. Detta är OpenAIs tredje utpost utanför USA, efter kontor i London och Dublin. Tadao Nagasaki, tidigare anställd på AWS, har utsetts till president för OpenAI Japan. Företaget planerar att samarbeta med den japanska regeringen, lokala företag och forskningsinstitutioner för att utveckla säkra AI-verktyg. OpenAI tillhandahåller även tidig åtkomst till en version av GPT-4 optimerad för japanska till lokala företag.

Direktlänk Dela The Register fördjupade 16 april

Sama lanserar Sama Red Team för att förbättra AI-modellers säkerhet och tillförlitlighet

Sama, en leverantör av lösningar för dataannotering och modellvalidering, har tillkännagivit Sama Red Team, en ny lösning designad för att hjälpa utvecklare att proaktivt förbättra en modells säkerhet och tillförlitlighet. Lösningen är en av de första speciellt utformade för generativ AI och stora språkmodeller. Sama Red Team hjälper till att utvärdera en modells rättvisa och skydd, kontrollerar överensstämmelse med lagar och säkert exponerar och rättar problem över text, bild, röstsökning och andra modaliteter. Sama Red Team testar modeller på fyra nyckelkompetenser: rättvisa, integritet, allmän säkerhet och efterlevnad.

Direktlänk Dela TechTrends Kenya fördjupade 15 april

Säkra din AI: Steg för att bygga integritetsdrivna storskaliga språkmodeller

I den digitala eran, där data är lika viktigt som valuta, kan betydelsen av integritet inte överskattas, särskilt inom området för artificiell intelligens (AI) och stora språkmodeller (LLM). Organisationer som Deloitte, McKinsey och Accenture står i spetsen för att utnyttja AI för att driva affärsinnovationer, och efterfrågan på integritetscentrerade LLM är starkare än någonsin. Denna guide syftar till att förenkla utvecklingen av en LLM som prioriterar användarintegritet.

Direktlänk Dela Medium fördjupade 15 april

Stora språkmodeller visar potential för regressionanalys utan ytterligare träning

Forskare från University of Arizona och Technical University of Cluj-Napoca har utforskat potentialen hos stora språkmodeller (LLM) som GPT-4 och Claude 3 för att utföra regressionanalys utan behov av ytterligare träning. Genom att använda en teknik som kallas in-context learning, kan dessa modeller generera förutsägelser baserade på exempel som ges direkt i deras operativa kontext. Detta innebär att modellerna kan anpassa sig till nya uppgifter utan behov av omfattande omträning. Resultaten visar att LLMs kan matcha eller till och med överträffa traditionella metoder för regressionanalys.

Direktlänk Dela MarkTechPost fördjupade 15 april

Apple utvecklar avancerat AI-system, ReaLM, för att förbättra interaktion med skärminnehåll

Forskare på Apple har framgångsrikt utvecklat ett banbrytande artificiellt intelligenssystem, ReaLM, som visar avancerad förmåga att uppfatta och förstå sammanhang från skärminnehåll. Denna nya AI är konstruerad för att tolka tvetydiga bilder och konversationsnyanser, vilket gör dialoger med AI mer naturliga. ReaLM-tekniken har potential för användning på enheter, vilket tyder på en mer lättviktig och effektiv metod jämfört med andra stora språkmodeller. Trots att Apple traditionellt har varit försiktiga med att lansera nya produkter, signalerar utvecklingen av ReaLM Apples beredskap att tävla inom detta snabbt växande område.

Direktlänk Dela Elblog fördjupade 15 april

OpenAI och Meta planerar att uppgradera sina artificiella intelligens (AI) system. OpenAI:s GPT-5 kommer att vara den nya ´motorn´ inom AI-chattboten ChatGPT, medan Meta:s uppgradering kommer att kallas Llama 3. Båda uppgraderingarna förväntas inkludera förmågan att planera framåt. Dessa förbättringar kan revolutionera AI-chattbotarnas förmågor genom att ge dem möjlighet att överväga långsiktiga konsekvenser av sina handlingar. Detta är en viktig förmåga för att lösa matematiska problem, vilket också kan låsa upp andra förmågor för stora språkmodeller (LLM).

SmartCompany fördjupade 15 april

Microsofts strategi för att hantera problem med generativ AI

Microsoft, ofta betraktat som världsledande inom generativ AI, har nyligen beskrivit sin strategi för att hantera problem med generativ AI, särskilt stora språkmodeller (LLM). Företaget begränsar vad LLM kan och kommer att göra genom flera försvarslager i Microsoft AI:s arkitektur. Dessa lager är avsedda att stoppa två huvudtyper av attacker på AI-system, oavsett om det handlar om skadliga uppmaningar eller förgiftat innehåll. Microsoft har utvecklat en teknik kallad Spotlighting, vilken markerar extern data för att skilja den från legitima instruktioner. Microsoft är även medvetna om en ny typ av cyberattack kallad Crescendo som kan manipulera AI-system som Copilot att skapa skadligt innehåll.

Direktlänk Dela MSPoweruser fördjupade 12 april

Forskarrapport: Artificiell intelligens diskriminerar kvinnor och olika kulturer

En ny rapport från UCL visar att populära artificiella intelligens (AI) verktyg diskriminerar kvinnor och personer från olika kulturer och sexualiteter. Studien, beställd och publicerad av UNESCO, undersökte stereotyper i Stora Språkmodeller (LLMs), vilka utgör grunden för populära generativa AI-plattformar, inklusive Open AI:s GPT-3.5 och GPT-2 samt METAs Llama 2. Forskarna fann tydliga bevis på fördomar mot kvinnor i innehållet som genererats av varje LLM. Manliga namn associerades oftare med ord som ´karriär´ och ´företag´, medan kvinnliga namn associerades med ´familj´ och ´barn´. Rapporten presenterades vid UNESCO:s Digitala Transformationsdialogmöte den 6 mars 2024.

Direktlänk Dela Tech Xplore fördjupade 12 april

FSE och IAWG tar upp etisk användning av AI inom kreativa industrier

Federation of Screenwriters in Europe (FSE) och International Affiliation of Writers Guilds (IAWG) har gått samman för att ta upp etisk användning av artificiell intelligens (AI) inom kreativa industrier. Dessa manusförfattarförbund har antagit en gemensam resolution för att skydda upphovsrätten och se till att AI används på sätt som förbättrar skrivprocessen snarare än att ersätta mänskliga författare eller devalvera deras arbete. Resolutionen betonar att endast mänskliga författare ska beviljas upphovsrätt för originalverk, föreslår skapandet av mekanismer för transparens och ansvarighet i användningen av AI-genererat material, förespråkar robusta licensieringsmekanismer som kräver uttryckligt och informerat samtycke för användning av författares immateriella egendom i AI-utbildningsdata, och kräver rättvis ersättning för användning av författares immateriella egendom i AI-system.

Direktlänk Dela Elblog fördjupade 11 april

Simulerad användarfeedback hjälper till att förbättra AI-applikationer

En metod för att använda simulerad användarfeedback för att förbättra prestanda hos AI-applikationer har presenterats. Metoden involverar användning av det öppna källkods biblioteket ´continuous-eval´ för att skapa simulerad feedback från användare. Genom att använda ett exempel på en fråga-och-svar-chatbot, demonstreras hur användare kan betygsätta svar med tummen upp eller ner, vilket indikerar behovet av prestandaförbättringar. Metoden innefattar att skapa anpassade kriterier, definiera metriken och ge ett betygsschema. Resultaten visar att denna metod kan förutsäga mänsklig feedback korrekt 96,67% av tiden.

Direktlänk Dela Towards Data Science fördjupade 11 april

OpenAI:s VD Sam Altman på global turné för att främja AI-utveckling

OpenAI:s VD, Sam Altman, genomför en global turné för att möta regerings- och industritjänstemän i olika länder, med syfte att främja tillväxten av infrastruktur för artificiell intelligens (AI). Diskussionerna kommer att fokusera på krav för chips, energi och datacenter. OpenAI är fast beslutna att ta itu med utmaningen med energiförbrukning inom AI-system. Altman har redan haft diskussioner med tjänstemän från flera västerländska länder och engagerat sig med tjänstemän och investerare i Förenade Arabemiraten (Förenade Arabemiraten). I de kommande dagarna ska Altman träffa lagstiftare, nationella säkerhetsexperter och underrättelsepersonal i Washington för att utforska potentiella samarbeten och partnerskap inom AI-infrastruktur.

Direktlänk Dela Elblog fördjupade 11 april

OpenAI släpper uppgraderad GPT-4 Turbo språkmodell

OpenAI, det ledande forskningslabbet för artificiell intelligens, har avtäckt en större uppgradering till sin GPT-4 Turbo-språkmodell. Denna förbättrade version lovar betydande förbättringar i hastighet, noggrannhet och mångsidighet, vilket gör den till ett ännu kraftfullare verktyg för utvecklare och företag som utnyttjar AI-lösningar. Turbo har optimeringar för snabbare svarstider och minskade kostnader. GPT-4 Turbo introducerar nya funktioner och stöder nu JSON-läge och funktionsanrop specifikt för sina Vision-förfrågningar. Den uppgraderade GPT-4 Turbo-modellen rullas för närvarande ut till ChatGPT Plus-användare och utvecklare som använder OpenAI API.

Direktlänk Dela PC-Tablet fördjupade 10 april

Tre topp AI-aktier redo för en tjurkörning

Artificiell intelligens (AI) har blivit en het teknikfråga och dess kommersialisering har lett till att många teknikföretags aktiekurser har skjutit i höjden. Microsoft, CrowdStrike och Taiwan Semiconductor Manufacturing Company är tre företag som investerare bör överväga. Microsofts AI-inblandning kommer främst från dess strategiska partnerskap med OpenAI, skaparen av ChatGPT, vilket har gynnat båda parter. CrowdStrike är ett av de första rena AI-cybersäkerhetsföretagen och har en konkurrensfördel tack vare sin data. Taiwan Semiconductor Manufacturing Company, en halvledarfabrik, spelar en viktig roll i AI-ekosystemet.

Direktlänk Dela Yahoo Finance fördjupade 10 april

CAST AI lanserar AI Optimizer för att minska kostnader för stora språkmodeller

CAST AI, en ledande Kubernetes-automatiseringsplattform, har annonserat AI Optimizer, en ny tjänst som automatiskt minskar kostnaderna för att implementera stora språkmodeller (LLM). Tjänsten integreras med alla OpenAI-kompatibla API-slutpunkter och identifierar automatiskt LLM som erbjuder bäst prestanda och lägsta inferenskostnader bland kommersiella leverantörer och öppen källkod. Därefter distribuerar den LLM på CAST AI-optimerade Kubernetes-kluster, vilket ger stora besparingar för generativ AI. AI Optimizer kommer med djupgående insikter i modellanvändning, finjusteringskostnader och förklarbarhet i optimeringsbeslut, inklusive modellval.

Direktlänk Dela Headlines of Today Media fördjupade 10 april

Författare väljer OnlyOffice Desktop Editors över molnbaserade lösningar

Författaren Jack Wallen har valt att använda OnlyOffice Desktop Editors för att skriva sina romaner istället för molnbaserade lösningar. Anledningen till detta är att han inte vill att tredje parter ska använda hans arbete för att träna sina neurala nätverk och stora språkmodeller. OnlyOffice Desktop Editors låter användare arbeta med filer lokalt eller från en fjärrserver, har ett användarvänligt gränssnitt och inkluderar alla nödvändiga funktioner. Wallen konstaterar dock att programmet inte är lika flexibelt som LibreOffice och att det inte finns något sätt att spara mellan lokala och fjärrdestinationer.

Direktlänk Dela ZDNet fördjupade 10 april

CAST AI introducerar AI Optimizer för att minska kostnader för stora språkmodeller

Kubernetes automatiseringsplattform CAST AI presenterar AI Optimizer, en tjänst utformad för att minska kostnaderna för att distribuera stora språkmodeller (LLM). Verktyget integreras med vilken OpenAI-kompatibel API-ändpunkt som helst och identifierar automatiskt den mest effektiva LLM bland kommersiella leverantörer och open-source-alternativ. AI Optimizer erbjuder insikter i modellanvändning, finjusteringskostnader och optimeringsbeslut, vilket ökar transparensen vid modellval. Tjänsten presenterades under Google Cloud Next ´24 i Las Vegas.

Direktlänk Dela Techzine fördjupade 9 april

AI kan skaka om aktiemarknadens ledarskap

Aktiemarknadsledningen kommer att skakas om tack vare artificiell intelligens (AI). 2017 myntade CNBC:s finansanalytiker Jim Cramer akronymet FAANG för att beskriva fem av de största teknikföretagen vid den tiden: Meta Platforms (tidigare Facebook), Apple, Amazon, Netflix och Alphabet (tidigare Google). 2023 identifierade Bank of America-analytikern Michael Hartnett en ny grupp aktier och döpte dem till ´Magnificent Seven´. Dessa aktier levererade en genomsnittlig avkastning på 112% förra året, vilket krossade 24% vinsten i S&P 500-indexet. ´Magnificent Seven´ inkluderar: Meta Platforms, Apple, Amazon, Alphabet, Microsoft, Nvidia och Tesla. Trots att de flesta av ´Magnificent Seven´ har ökat hittills 2024, handlas Tesla-aktien ned med 33% och Apple är ned med 8% hittills. Det fick en analytiker - Glen Kacher från Light Street Capital - att ompröva aktiemarknadens ledarskap helt och hållet. Med tanke på att AI är ett så dominerande tema bland marknadens toppresterande aktier, har Kacher identifierat fem företag som arbetar i framkant av den snabbväxande branschen. Han kallar dem ´AI Five´: Nvidia, Taiwan Semiconductor Manufacturing, Advanced Micro Devices, Broadcom, Microsoft.

Direktlänk Dela The Motley Fool fördjupade 9 april

Ny benchmark för utvärdering av stora språkmodeller introducerad

Forskare från University of Waterloo, Carnegie Mellon University och Vector Institute i Toronto har introducerat LongICLBench, en benchmark specifikt utvecklad för att utvärdera stora språkmodeller (LLMs) när det gäller att bearbeta långa kontextsekvenser för extremt etikettklassificeringsuppgifter. Benchmarken testar varje modells förmåga att bearbeta omfattande sekvenser och korrekt känna igen stora etikettutrymmen. Modellerna visade varierande prestanda över dataset, med en betydande minskning av noggrannheten när uppgiftskomplexiteten ökade. Dessa resultat understryker behovet av fortsatt utveckling av LLM-förmågor.

Direktlänk Dela MarkTechPost fördjupade 9 april

Diskussion om fördelarna med självhosting för storskalig språkmodellimplementering

https://www.infoq.com/news/2022/03/deploying-large-language-models/

Direktlänk Dela InfoQ fördjupade 8 april

Cohere introducerar Command R+: En skalbar LLM skapad för företag

Cohere har nyligen lanserat Command R+, en banbrytande tillägg till dess R-serie av stora språkmodeller (LLM). Cohere CEO Aidan Gomez förklarar hur den nya modellen kommer att förbättra företagsklassade AI-applikationer genom förbättrad effektivitet, noggrannhet och ett starkt partnerskap med Microsoft Azure. Command R+ kommer först att vara tillgänglig på Azure och kommer snart även att finnas på Oracle Cloud Infrastructure (OCI) och andra molnplattformar. Modellen kommer också att vara tillgänglig omedelbart på Cohere´s värd-API.

Direktlänk Dela Datanami fördjupade 8 april

Stora språkmodeller (LLM) förhindrar framsteg inom AI

Stora språkmodeller (LLM) är sofistikerade minnesmaskiner som kan skapa rimliga uttalanden, men de kan inte förstå grundläggande sanningar. Trots önskningar är de långt ifrån att leverera eller förutsäga artificiell allmän intelligens (AGI). Hype kring LLM har nått höga nivåer, vilket skapar en felaktig tro på deras potential som föregångare till AGI. Detta hotar att sakta ner, inte påskynda, verkliga framsteg inom AI. Det är avgörande att vi justerar förväntningarna och erkänner att även om LLM utmärker sig inom vissa områden, de kommer till korta inom andra.

Direktlänk Dela InfoWorld fördjupade 8 april

Apple utvecklar ny AI-modell för att förbättra användarinteraktion

Forskare från Apple har utvecklat en ny AI-modell, kallad Reference Resolution As Language Modeling (ReaLM), som är utformad för att tolka sammanhang med minimala fel för att främja naturlig konversation med användare. ReaLM gör det möjligt för AI-modellen att förstå innehåll på skärmen som kan verka oklart för andra stora språkmodeller. Systemet har visat sig vara skickligt på att förstå komplexa kommandon från användare, överträffande branschledande erbjudanden. ReaLM beskrivs som den nästa gränsen för konversations-AI-chattrobotar.

Direktlänk Dela CoinGeek fördjupade 8 april

Maskininlärningschef sökes till Bloomberg Law

Bloomberg Law söker en erfaren och motiverad maskininlärningsteamledare för att leda sitt team av ML-ingenjörer. Rollen innebär att leda utvecklingen av toppmoderna maskininlärningsmodeller, inklusive användning av banbrytande NLP-tekniker som stora språkmodeller (LLM). Teamledaren kommer att arbeta med full-stack utvecklingsteam på en mängd olika maskininlärningsproblem, inklusive men inte begränsat till dokumentsummering, informationsextraktion, semantisk sökning, frågebesvaring, textklassificering, personalisering. Lönespannet är 250 000 - 350 000 USD årligen plus förmåner och bonus.

Direktlänk Dela eFinancialCareers fördjupade 5 april

En världsledande studie har funnit att ju mer bevis som ges till ChatGPT vid en hälsorelaterad fråga, desto mindre tillförlitlig blir den, vilket minskar noggrannheten i svaren till så lågt som 28%. Studien presenterades nyligen vid Empirical Methods in Natural Language Processing (EMNLP), en konferens om naturlig språkbearbetning. Forskare från CSIRO, Australiens nationella vetenskapsbyrå, och University of Queensland (UQ) utforskade ett hypotetiskt scenario där en genomsnittlig person (icke-professionell hälso-konsument) frågade ChatGPT om ´X´ behandling har en positiv effekt på tillstånd ´Y´.

Medical Xpress fördjupade 3 april

Anthropic hittar sätt att manipulera AI genom ´många-skott jailbreaking´

AI-säkerhets- och forskningsföretaget Anthropic har hittat ett nytt sätt att manipulera stora språkmodeller (LLMs) genom att bryta igenom inbyggda skydd. Metoden, kallad ´många-skott jailbreaking´, fungerar genom att lägga till en mängd falsk dialog framför en uppmaning om farlig eller olaglig verksamhet. Om det finns tillräckligt många föregående falska dialoger kan det lura och ´jailbreaka´ LLM, vilket får den att ignorera säkerhetsrelaterad träning och skydd. Anthropic föreslår tekniker som fokuserar på klassificering och kontextualisering av uppmaningen innan den skickas till modellen som en lösning.

Direktlänk Dela DIGIT fördjupade 3 april

AI-drivna sökmotorn Perplexity växer snabbt, visar BrightEdge-analys

En analys från BrightEdge visar att referenser från AI-drivna sökmotorn Perplexity till varumärkens webbplatser växer med nästan 40% månad-till-månad sedan januari. Detta visar att Perplexity inte bara används för generativt innehåll, utan också som en sökmotor som hänvisar användare till webbplatser genom citat. En intern studie visar att 52% av marknadsförarna experimenterar med SGE, upp från 13% när Google först introducerade tekniken. Perplexity och liknande AI-drivna sökmotorer signalerar en stor förändring i hur varumärken marknadsför och säljer produkter.

Direktlänk Dela MediaPost fördjupade 3 april

Studie visar att ChatGPT blir mindre tillförlitlig med mer bevis

En världsförsta studie har funnit att när ChatGPT ställs en hälsofråga, blir den mindre tillförlitlig ju mer bevis som ges, vilket minskar noggrannheten i svaren till så lågt som 28 procent. Forskare från CSIRO, Australiens nationella vetenskapsbyrå, och University of Queensland undersökte ett hypotetiskt scenario där en genomsnittlig person ställde frågan om en specifik behandling har en positiv effekt på ett tillstånd. Studien visade att ChatGPT var ganska bra på att ge korrekta svar i ett frågeformat, men när modellen gavs ett bevis-snedvridet påstående minskade noggrannheten till 63 procent.

Direktlänk Dela The National Tribune fördjupade 3 april

NVIDIA-ingenjör skriver guide för att förbättra stora språkmodeller med LoRA

NVIDIA-ingenjören Amit Bleiweiss har skrivit en guide för att arbeta med Low-Rank Adaptation (LoRA) för att förbättra stora språkmodeller (LLMs) med hjälp av företagets öppna källkod TensorRT-LLM för att påskynda prestanda på kompatibla grafikprocessorer. Anpassning av LLMs är en utmanande uppgift som ofta kräver en fullständig träningsprocess som är tidskrävande och beräkningsintensiv. LoRA är en finjusteringsmetod som kan minska antalet träningsbara parametrar, minneskravet och träningsperioden, samtidigt som den uppnår jämförbar eller till och med bättre prestanda än finjustering på olika NLP-uppgifter och domäner. För att demonstrera konceptet, går Bleiweiss guide igenom att använda förinställda LLMs från Hugging Face-plattformen och optimera dem med NVIDIA:s nyligen släppta öppna källkod TensorRT-LLM-bibliotek.

Direktlänk Dela Hackster fördjupade 3 april

Apple forskare avslöjar AI-planer för Siri i ny forskningsrapport

Apple´s AI-forskare har i en forskningsrapport denna vecka gett insikt i företagets AI-planer för Siri. Rapporten introducerade Reference Resolution As Language Modeling (ReALM), ett konversationellt AI-system som syftar till att förbättra referenslösning. Forskarna jämförde ReALM-modeller mot OpenAI:s LLMs GPT-3.5 och GPT-4. ReALM kan förbättra Siris förmåga att förstå sammanhang i en konversation, bearbeta innehåll på skärmen bättre samt upptäcka bakgrundsaktiviteter. Systemet kan också omvandla konversationella, på skärmen och bakgrundsprocesser till ett textformat som sedan kan bearbetas av stora språkmodeller (LLMs).

Direktlänk Dela Hindustan Times fördjupade 3 april

Stora språkmodeller (LLM) i sjukvården: inte en magisk lösning men ett viktigt verktyg

Stora språkmodeller (LLM) spelar en roll i sjukvården, men de är inte en magisk lösning på alla problem. LLM är beroende av högkvalitativa data och saknar resonemangsförmåga, så de kan inte användas för alla uppgifter inom sjukvården. Forskare utvecklar AI-verktyg som kan implementeras säkert i sjukvårdssystemet. På vårt Australian e-Health Research Centre (AEHRC) arbetar vi för att säkert använda LLM och andra AI-verktyg för att optimera sjukvården för alla australier. Trots deras ökande popularitet finns det missförstånd om hur LLM fungerar och vad de passar för. LLM är ofta ses som en ´silverkula´ lösning på sjukvårdsproblem. I en värld med oändlig data och oändlig datorkraft kan detta vara sant - men inte i verkligheten. Högkvalitativa och användbara LLM är beroende av högkvalitativa data... och mycket av det. Vi har utvecklat fyra LLM-baserade chatbots för en rad sjukvårdsinställningar. Dessa förbättras kontinuerligt för att bäst stödja patienter och arbeta tillsammans med kliniker för att lätta tunga arbetsbelastningar. Till exempel hjälper Dolores, smärtchatten, med patientutbildning och tar kliniska anteckningar för att hjälpa kliniker att förbereda sig för djupgående samråd med patienter.

Direktlänk Dela Commonwealth Scientific and Industrial Research Organisation fördjupade 3 april

Att överväga när man använder LLMs som annotatörer

För att få meningsfulla svar från Large Language Models (LLMs) kan det vara utmanande och det krävs att man överväger olika aspekter. Två huvudsakliga metoder för att uppmana LLMs att märka data är zero-shot och few-shot prompting. Beroende på uppgiften kan en metod fungera bättre än den andra. LLMs är också känsliga för mindre ändringar i prompten. Val av modell för att märka din data uppsättning är också viktigt att överväga, med faktorer som öppen källkod kontra stängd källkod, skyddsräcken, modellstorlek och modellbias. Dessutom visar flera studier att LLMs har betydande kulturella fördomar och svarar med stereotypa synpunkter på minoritetsindivider.

Direktlänk Dela Towards Data Science fördjupade 2 april

OpenAI gör AI-chattboten ChatGPT tillgänglig gratis och utvecklar ny AI-superdator med Microsoft

OpenAI har tillkännagivit en uppdatering av tillgängligheten för ChatGPT, vilket gör AI-chattboten tillgänglig gratis utan att användare behöver skapa ett konto. Detta markerar ett avgörande skifte i företagets tillvägagångssätt för AI-tillgänglighet, med syfte att demokratisera tillgången till artificiell intelligens-teknologi. Trots borttagningen av kontokravet har OpenAI infört vissa begränsningar för den kostnadsfria versionen av ChatGPT. Användare har fortfarande möjlighet att registrera sig för ett konto för att låsa upp ytterligare funktioner. Dessutom utvecklar OpenAI, i samarbete med sin största finansiella stödjare Microsoft, ett nytt AI-superdatorprojekt med kodnamnet ´Stargate´.

Direktlänk Dela WinBuzzer fördjupade 2 april

Google introducerar Gecko, en ny textinbäddningsmodell drivs av stora språkmodeller

Google har annonserat Gecko, en kompakt och mångsidig textinbäddningsmodell drivs av den omfattande världskunskapen hos stora språkmodeller (LLM). Textinbäddningsmodeller representerar naturligt språk som täta vektorer, vilket placerar semantiskt liknande text nära varandra inom inbäddningsrummet. Dessa inbäddningar används för att utföra en mängd olika uppgifter inklusive dokumentåterhämtning, meningslikhet, klassificering och klusterbildning. Google har använt LLM för att skapa Gecko, en tvåstegs LLM-drivna inbäddningsmodell. Forskningen visade att träning av Gecko på en LLM-genererad syntetisk datamängd, FRet, kan leda till betydande förbättring, och sätter en stark baslinje som en nollskotts inbäddningsmodell på Massive Text Embedding Benchmark (MTEB).

Direktlänk Dela Analytics India Magazine fördjupade 2 april

MoE-LLaVA: Skalning av stora visionsspråkmodeller på ett kostnadseffektivt sätt

Framsteg inom stora visionsspråkmodeller (LVLM) har visat att skalning av dessa ramar betydligt förbättrar prestanda över en mängd olika uppgifter. LVLM, inklusive MiniGPT, LLaMA och andra, har uppnått anmärkningsvärda förmågor genom att införliva visuella projiceringslager och en bildkodare i deras arkitektur. Denna artikel diskuterar MoE-LLaVA, en blandning av expertbaserad sparsam LVLM-arkitektur som använder en effektiv träningsstrategi, MoE-Tuning, för LVLM. MoE-Tuning adresserar innovativt prestandaförsämring i multimodal sparsam inlärning, vilket resulterar i en modell med ett stort antal parametrar men konsekventa tränings- och inferenskostnader.

Direktlänk Dela Unite.AI fördjupade 2 april

Utforska LLMOps med Prompt Flow: Skapa en AI-assistent för rapportering av humanitära kriser

Artikeln diskuterar hur man kan använda stora språkmodeller (LLM) för att skapa en AI-assistent som kan besvara frågor om humanitära katastrofer. Författaren betonar vikten av att tillämpa ingenjörsbästa praxis för att hantera risker som är förknippade med LLM, till exempel hallucinationer. Artikeln utforskar hur man kan implementera säkerhet, prompt engineering, grounding och utvärdering för att operationalisera LLM. En enkel Prompt Flow används för att skapa en demo AI-assistent som använder information från situationrapporter på ReliefWeb-plattformen. Författaren diskuterar också vikten av att testa resultaten med hjälp av paket som deep eval.

Direktlänk Dela Towards Data Science fördjupade 1 april

Cognition Labs siktar på att bli nästa stora AI-startup

Cognition Labs, som utvecklar ett AI-verktyg för kodskrivning, rapporteras sikta på att bli nästa flermiljard-dollar startup inom artificiell intelligens (AI). Företaget är i diskussioner med investerare för att höja pengar till en värdering på upp till 2 miljarder dollar. Om framgångsrik skulle rundan öka Cognitions värdering till nästan sex gånger vad den var för några veckor sedan. Källor säger att riskkapitalföretag i Silicon Valley, inklusive Founders Fund, redan en aktieägare, diskuterar att investera i rundan. Cognition började som ett kryptocurrencyföretag men bytte till AI

Direktlänk Dela PYMNTS fördjupade 1 april

Forskare introducerar avancerad AI-språkmodell InternLM2

Forskare vid Shanghai AI Laboratory, SenseTime Group, The Chinese University of Hong Kong och Fudan University har introducerat InternLM2, en betydande öppen källkodsframsteg inom stora språkmodeller (LLM). Denna modell syftar till att bearbeta och tolka stora mängder data, vilket gör det möjligt för dem att delta i naturliga konversationer, ge insiktsfull analys och till och med ta itu med komplexa uppgifter. InternLM2 använder en sofistikerad träningsram som kallas InternEvo, vilket möjliggör effektiv och skalbar modellträning över tusentals GPU:er. Resultatet är en betydande minskning av minnesavtrycket som krävs för träning, vilket leder till anmärkningsvärda prestandaförbättringar.

Direktlänk Dela MarkTechPost fördjupade 31 mars

Generiskt tränade AI-modeller utmanar domänspecifika modeller

Generiskt tränade AI-modeller som GPT-4 och Claude 3 Opus utmanar traditionella metoder för finjustering av modeller för domänspecifika uppgifter, som finans. Traditionellt har finjustering av modeller med domänspecifik data varit vägen till framgång i finansiell textanalys. Men en studie från 2023 visar att generiska modeller kan prestera lika bra eller bättre än finjusterade modeller i finansiell textanalys. Resultaten visar att GPT-4 och ChatGPT inte bara håller måttet, utan i många fall överglänser de finjusterade modellerna. Denna utveckling kan innebära att behovet av domänspecifik finjustering minskar i takt med att dessa stora språkmodeller utvecklas.

Direktlänk Dela Psychology Today fördjupade 30 mars

Generiska AI-modeller utmanar finjusterade lösningar inom finanssektorn

Generellt tränade AI-modeller som GPT-4 och Claude 3 Opus utmanar traditionella metoder för att finjustera modeller för domänspecifika uppgifter inom finanssektorn. Traditionellt har framstående prestationer inom finansiell textanalys involverat finjustering av modeller med domänspecifika data. Men en studie från 2023 visar att dessa generellt tränade modeller, som tränats på en mångfald av internets texter, har visat en förvånande förmåga att utföra uppgifter inom olika domäner, inklusive finans, utan behov av ytterligare träning. Dessa framsteg tyder på att behovet av domänspecifik finjustering kan minska i takt med att dessa stora språkmodeller utvecklas.

Direktlänk Dela Psychology Today fördjupade 30 mars

Forskare reproducerar framgångsrikt OpenAI:s RLHF-pipeline med hög precision

Forskare från Hugging Face, Mila och Fuxi AI lab har framgångsrikt reproducerat OpenAI:s RLHF (Reinforcement Learning from Human Feedback) pipeline med hög precision. De skapade en RLHF-pipeline och fokuserade på över 20 nyckelimplementationer. För att förbättra reproducerbarheten använde de en enhetlig inlärningshastighet för SFT, RM och PPO-utbildning. De använde transformeringsbibliotekets implementation av Pythia-modellerna tillsammans med deepspeeds ZeRO Stage 2 för att passa modellerna i GPU-minnet. Forskarnas bästa 6,9B-modell föredras av GPT nästan 80% av tiden, vilket visar dess praktiska överlägsenhet.

Direktlänk Dela MarkTechPost fördjupade 29 mars

Maskininlärning och AI skapar nya jobbmöjligheter

Maskininlärning och AI skapar nya jobbmöjligheter för teknikproffs. Enligt U.S. Bureau of Labor Statistics förväntas karriärer inom dator- och informationsforskning, inklusive områden som mjukvara, data och maskininlärning, växa med 23% mellan 2022 och 2032. Kraven för jobb inom maskininlärning varierar, men alla bygger på två kärnfärdigheter: dataprogrammering och matematik. Dessutom kan specifika färdigheter variera för varje roll baserat på företagets behov, mål och resurser. Trots att många av teknologierna och koncepten som ligger till grund för maskininlärning är flera decennier gamla, är de praktiska implementeringarna av teknologierna som behövs för att bygga och driva maskininlärning och AI i skala mer aktuella.

Direktlänk Dela TechTarget fördjupade 29 mars

OpenAIs AI-chatbot har ordgräns, men det finns sätt att kringgå det

OpenAIs AI-chatbot, ChatGPT, är användbar för att skriva uppsatser, rapporter och andra dokument, men har en ordgräns på 3000. Trots detta finns det sätt att använda denna begränsning till sin fördel. Ordgränsen för ChatGPT och GPT-4 kommer att diskuteras, med tips om hur man kan arbeta runt den och förslag på alternativa chatbotar som kan vara bättre lämpade för ditt arbete. Den maximala svarslängden för ChatGPT är 1000 - 3000 ord, vilket kan vara begränsande för användare som är beroende av chatboten för långa, detaljerade svar. Det finns dock sätt att kringgå detta, inklusive att prenumerera på ChatGPT-4, som har en svarslängd på upp till 6000 ord.

Direktlänk Dela PC Guide fördjupade 29 mars

Appen lanserar lösning för företag att anpassa stora språkmodeller

Appen Limited, en ledande leverantör av högkvalitativ data för AI-livscykeln, har lanserat nya plattformskapaciteter som stöder företag i att anpassa stora språkmodeller (LLM). Lösningen stöder interna team som försöker utnyttja generativ AI inom företaget. Genom en gemensam och konsekvent process som nu finns tillgänglig i Appens AI Data Platform kan en användare gå igenom utbildningen av sina LLM-modeller från användningsfall till produktion. Företag kan implementera lösningar på plats, i molnet eller hybrid, och balansera LLM-noggrannhet, komplexitet och kostnadseffektivitet.

Direktlänk Dela Datanami fördjupade 29 mars

HPE använder generativ AI för att förbättra sökfunktionen för sina Wi-Fi-användare

Hewlett Packard Enterprise (HPE) kommer att använda generativ artificiell intelligens (AI) i sin Aruba Wi-Fi-portfölj för att användare kan söka efter svar på sina frågor om portföljen. Den generativa AI:n kommer att integreras i Arubas Networking Central, dess molnbaserade nätverkshanteringsprogramvara. Aruba kommer att använda sina tidigare AI-verktyg för naturligt språk och data från HPE:s stora datainsjö GreenLake. AI-sök har varit ett verktyg inom Networking Central i över två år, men nu tar Aruba det till nästa nivå.

Direktlänk Dela Fierce Telecom fördjupade 28 mars

Microsoft förbättrar säkerheten för Azure OpenAI Service och Azure AI Content Safety med ´Prompt Shields´

Microsoft har meddelat en betydande säkerhetsförbättring för sina Azure OpenAI Service och Azure AI Content Safety-plattformar. Den nya funktionen, kallad ´Prompt Shields´, erbjuder ett robust försvar mot alltmer sofistikerade attacker riktade mot stora språkmodeller (LLM). Prompt Shields skyddar mot direkta attacker, även kända som jailbreak-attacker, och indirekta attacker. Tack vare avancerade maskininlärningsalgoritmer och naturligt språkbehandling kan Prompt Shields identifiera och neutralisera potentiella hot i användarpromenader och tredjepartsdata. Microsoft introducerade också ´Spotlighting´, en specialiserad promptteknik utformad för att motverka indirekta attacker. Prompt Shields är för närvarande i offentlig förhandsgranskning som en del av Azure AI Content Safety och kommer att finnas tillgänglig inom Azure OpenAI Service den 1 april. Integration i Azure AI Studio planeras inom en snar framtid.

Direktlänk Dela MSPoweruser fördjupade 28 mars

Acceleration Economy presenterar topp 10 företag inom AI-ekosystemet

Acceleration Economy har presenterat sina topp 10 företag inom AI-ekosystemet. Listan inkluderar OpenAI, NVIDIA, IBM, Anthropic, Microsoft, Cohere, Databricks, UiPath, Celonis och ServiceNow. OpenAI, värderat till över 80 miljarder dollar, har en central roll i ekosystemet och har inspirerat andra utvecklare som Anthropic och Cohere. NVIDIA tillhandahåller nödvändig hårdvara för AI-programvara. IBM har lanserat sin nya AI- och dataplattform för företag, watsonx. Anthropic, grundat 2021, har en ljus framtid inom ansvarsfull AI-forskning. Microsoft har transformerat Azure till en AI-plattform. Cohere, en plattformsleverantör som OpenAI och Anthropic, har ett unikt fokus på företagskunder. Databricks hjälper organisationer med dataförberedelse och träning för AI-system. UiPath har positionerat sig som ledare inom processautomation med hjälp av AI. Celonis har fokuserat på processgruvdrift och processintelligens. ServiceNow, en molnbaserad arbetsflödesautomatiseringsplattform, har visat ökat intresse för partnerskap för att snabbt kunna erbjuda produkter till olika marknader.

Direktlänk Dela Accelerationeconomy.com fördjupade 28 mars

Google presenterar säkerhetsrapport för annonser 2023, belyser fördelar och nackdelar med generativ AI

Google har släppt sin årliga säkerhetsrapport för annonser 2023, där de betonar sitt åtagande att säkerställa ett säkert digitalt annonseringsekosystem. Rapporten framhäver påverkan av generativ AI, särskilt Stora Språkmodeller (LLM), och diskuterar den transformerande potentialen och utmaningarna med denna teknik. Google påstår att de har blockerat eller tagit bort över 5,5 miljarder annonser 2013 och 12,7 miljoner annonsörskonton. Google säger att de är engagerade i att förhindra skadlig användning av sina annonseringsplattformar och att de använder LLM:er för att förbättra sina verkställighetsinsatser.

Direktlänk Dela News9 Live fördjupade 28 mars

NVIDIA visar betydande prestandaförbättringar i MLPerf-benchmark

NVIDIA, ledande inom generativa AI-teknologier, har meddelat betydande prestandaförbättringar i sina MLPerf-benchmark. Företagets Hopper-arkitektur GPUs, drivna av TensorRT-LLM, uppvisade en anmärkningsvärd 3x ökning i prestanda på GPT-J LLM jämfört med resultat från bara sex månader sedan. Dessa prestandaförbättringar belyser NVIDIAs kontinuerliga ansträngningar att befästa sin dominans inom området för generativ AI. Genom att utnyttja TensorRT-LLM har NVIDIA möjliggjort för företag i framkant av innovation att optimera sina modeller.

Direktlänk Dela Elblog fördjupade 28 mars

Intensiv konkurrens för att utveckla nästa generation av stora språkmodeller

OpenAI:s framgång med ChatGPT har lett till en intensiv konkurrens för att utveckla nästa generation av stora språkmodeller (LLMs). Företag som kan få en ledning i AI-racet kan dominera en betydande del av handels- och betalningsindustrin, som i allt högre grad formas av AI-teknik. Kanadensiska start-up företaget Cohere är en stor konkurrent, med en rapporterad finansieringsrunda på 500 miljoner dollar, vilket potentiellt värderar företaget till 5 miljarder dollar. Teknikjättar som Google, Meta, HP, Anthropic och Mistral utvecklar aggressivt sina egna LLMs. Microsoft, en viktig investerare i OpenAI, bygger självständigt grundläggande modeller för att säkerställa att det förblir i framkant.

Direktlänk Dela PYMNTS fördjupade 27 mars

Oriole Networks samlar in 10 miljoner pund för att bygga AI ´superhjärnor´

Oriole Networks, ett spinoff-företag från UCL, har samlat in 10 miljoner pund i seed-finansiering för att bygga AI ´superhjärnor´ som lovar att påskynda utbildningen av stora språkmodeller (LLM). Start-up-företaget har utvecklat en ny metod som utnyttjar ljusets kraft för att koppla samman tusentals AI-chip. Enligt James Regan, VD på Oriole Networks, ger detta ´möjlighet att direkt koppla samman ett mycket stort antal noder så att det kan fungera som en enda maskin´. Finansieringen kommer att användas för att utveckla tekniken från laboratoriedemonstration till kundprover i ett implementerat optiskt datanätverk.

Direktlänk Dela The Next Web fördjupade 27 mars

Google blockerar fler bedrägliga annonsörer tack vare AI

Google har fördubblat antalet annonsörskonton det blockerat eller tagit bort 2023 jämfört med året innan, tack vare framsteg inom generativ AI. I sin Ads Safety-rapport för 2023 meddelade Google att det stängde av 12,7 miljoner annonsörskonton för att bryta mot dess policyer, upp från 6,7 miljoner 2022. Volymen av förlagssajter som det agerade mot ökade också betydligt, med över 2,1 miljarder sidor blockerade eller begränsade från att visa annonser. Google tillskriver ökningen förbättringar i sina verkställighetsinsatser, drivna av dess användning av stora språkmodeller (LLMs). Dessa modeller kan läsa och tolka mycket högre volymer av data vid högre hastigheter än traditionella maskininlärningsmodeller.

Direktlänk Dela Campaign Asia fördjupade 27 mars

Appen lanserar ny plattform för att påskynda utvecklingen av AI-applikationer

Appen Limited, en ledande leverantör av högkvalitativa data för AI-livscykeln, har lanserat nya plattformsfunktioner som stöder företag som anpassar stora språkmodeller (LLM). Lösningen stöder interna team som försöker utnyttja generativ AI inom företaget. Genom en gemensam och konsekvent process nu tillgänglig i Appens AI Data Platform, kan en användare gå igenom utbildningen av sina LLM-modeller från användningsfall till produktion. Företag kan distribuera lösningar på plats, i molnet eller hybrid, och balansera LLM-noggrannhet, komplexitet och kostnadseffektivitet.

Direktlänk Dela Yahoo Finance fördjupade 26 mars

OpenPipe samlar in 6,7 miljoner dollar i seed-runda för att finjustera stora språkmodeller

Seattle-baserade startup-företaget OpenPipe, som specialiserar sig på finjustering av stora språkmodeller (LLM), har avslutat en seed-runda på 6,7 miljoner dollar. Finansieringsrundan leddes av Costanoa Ventures, med deltagande från Y Combinator och framstående ängelinvesterare, inklusive Logan Kilpatrick, Alex Graveley och Tom Preston-Werner. Medlen kommer att användas för att skala upp teamet och påskynda produktutvecklingen. OpenPipe gör det möjligt för utvecklare att skapa sina egna applikationsspecifika LLM genom att integrera i kundens befintliga kodbas för att samla in befintliga prompts, som sedan används som träningsdata för att finjustera en mindre, mer specialiserad modell.

Direktlänk Dela AiThority fördjupade 26 mars

Databricks förvärvar Lilac för att förbättra sin AI-lösning

Databricks, en framstående plattform för dataintelligens, har meddelat förvärvet av Boston-baserade forsknings-startupen Lilac, som utvecklar verktyg för att förbättra kvaliteten på data som används i utvecklingen av stora språkmodeller (LLM). Integreringen av Lilacs teknik i Databricks Data Intelligence Platform är ett stort steg framåt i företagets uppdrag att tillhandahålla industrin med omfattande generativa AI-lösningar. Databricks har under det senaste året gjort flera betydande förvärv för att stärka sin produktportfölj.

Direktlänk Dela Channel Insider fördjupade 26 mars

Microsoft introducerar AllHands, ett ramverk för analys av storskalig feedback

Ett team av forskare från Microsoft, i samarbete med forskare från ZJU-UIUC Institute och National University of Singapore, har nyligen introducerat AllHands, en omfattande analytisk ramverk utformad för att hantera storskalig ordagrann feedback med hjälp av ett naturligt språkgränssnitt drivet av stora språkmodeller (LLMs). AllHands ger mjukvaruutvecklare en användarvänlig lösning för att extrahera värdefulla insikter från omfattande ordagrann feedback. Forskarna utvärderade AllHands på tre olika feedback-dataset. Ramverket presterade bättre än baslinjerna i varje steg, från klassificering och ämnesmodellering till att ge omfattande, korrekta svar på användarfrågor.

Direktlänk Dela Analytics India Magazine fördjupade 25 mars

OpenAI förbereder lanseringen av GPT-5, en revolution inom AI

OpenAI förbereder sig för att lansera sin mycket emotsedda GPT-5-modell, en utveckling som förväntas revolutionera ChatGPTs kapaciteter. Tidiga indikationer tyder på betydande framsteg jämfört med föregångaren, GPT-4. GPT-5, som planeras att släppas i sommar, lovar att omdefiniera landskapet för stora språkmodeller. Teknikjättar som Google, Microsoft, Meta och Apple konkurrerar alla om att utveckla konsumentinriktade AI-verktyg. OpenAIs VD, Sam Altman, har uttryckt företagets engagemang för att driva innovation, med GPT-5 redo att överträffa sina föregångare och omforma AI-landskapet.

Direktlänk Dela Techstory fördjupade 25 mars

Ex-Google AI-chef leder Samsungs AGI-äventyr, siktar på samarbeten med OpenAI och Meta

Samsung Electronics har lanserat sin AGI (Artificial General Intelligence) verksamhet. Enligt rapporter kommer Kye Hyun-Kyung, chef för Samsungs Device Solutions (DS) division, att etablera ´AGI Computing Labs´ i USA och Sydkorea. Dr. Dong-hyuk Woo, en veteran inom systemhalvledare och tidigare ledare för Google AI-chipdivision, kommer att leda denna insats. Woo kommer att fokusera på utvecklingen av specialiserade halvledare för AGI. Samsung planerar också att introducera nya chipdesigner genom snabba iterationer. Dessutom är samarbeten med internationella aktörer som Meta och Open AI möjliga.

Direktlänk Dela Digital Times fördjupade 25 mars

Europa har inte förlorat kampen om generativ AI

Under de senaste åren har 75 procent av allt kapital som investerats i generativ AI (gen AI) kommit från USA och riktats mot inhemska investeringar. Trots detta tror vi inte att Europa redan har förlorat kampen om generativ AI. Det finns tre anledningar till denna tro. För det första har vi gjort det förut. 1954 skapade vi Europeiska organisationen för kärnforskning (CERN) vilket kan vara en modell för AI. För det andra har vi redan generativa AI-mästare i Europa, som Mistral AI och Aleph Alpha, som båda har samlat in cirka 500 miljoner euro. För det tredje har Europa en stor mängd humankapital, med många högskolor, universitet och vetenskapliga enheter där människor forskar och utvecklar AI. Vi rekommenderar därför att samla en kritisk massa av AI-forskare från hela Europa för att skapa ett offentligt-privat forskningscenter.

Direktlänk Dela McKinsey & Company fördjupade 24 mars

Stanford-forskare ifrågasätter plötsliga framsteg i stora språkmodeller

En studie ledd av datavetaren Sanmi Koyejo vid Stanford University ifrågasätter den vanliga uppfattningen om plötsliga framsteg i stora språkmodellers (LLM) förmågor. Forskarna föreslår att dessa framsteg inte är oförutsägbara, utan snarare noggrant kopplade till hur forskare mäter och utvärderar dessa modellers kapacitet. Genom att använda alternativa metoder för att bedöma LLM-prestanda, upptäckte forskarna en mer gradvis och förutsägbar progression i LLM-förmågor när modellparametrar ökar. Studien föreslår en mer nyanserad tolkning som tar hänsyn till den kontinuerliga förfiningen av stora språkmodellers prestanda när de skalar upp.

Direktlänk Dela Cryptopolitan fördjupade 24 mars

Problem med OpenAI GPT-butik på grund av spam och överträdande chatbots

OpenAI GPT-butiken är inte plattformen där utvecklare visar sina chatbots som vi förväntade oss. Istället huserar den olika spam- och imitationsbots, och många chatbots som finns där bryter mot reglerna. Till exempel döljer vissa att de är AI, och andra imiterar kändisar. Deras närvaro kan äventyra ChatGPT, särskilt i EU, eftersom AI-lagen snart är här. Enligt dess regler kan ChatGPT bli en oacceptabel risk AI. Dessutom måste du betala 20 dollar i månaden för att använda OpenAI GPT-butiken eftersom du behöver ChatGPT Plus för att få tillgång till de flesta funktionerna. OpenAI GPT-butiken har stått inför många problem på senare tid på grund av spam-bots och GPT-modeller som bryter reglerna.

Direktlänk Dela Windows Report fördjupade 22 mars

Google-forskare utmanar föröversättningsparadigmet, förespråkar direkt tolkning i stora språkmodeller

I en artikel publicerad den 4 mars 2024 utmanade forskare från Google och Verily Life Sciences det rådande föröversättningsparadigmet i tidigare forskning. Istället förespråkar teamets artikel fördelarna med direkt tolkning i stora språkmodeller (LLM). Forskarna genomförde en omfattande jämförande analys av direkt tolkning och föröversättning med hjälp av PaLM2-modeller över en mängd olika uppgifter i flera språk. Analysen inkluderade 108 språk och sex olika benchmarks. Forskarna noterade att PaLM2-modellerna presterade bättre än föröversättningsmetoden i 94 av 108 språk när direkt tolkning användes. Dock visade föröversättning konsekvent överlägsenhet i sju språk: bambara, cusco-collao quechua, lingala, oromo, punjabi, tigrinya och tsonga.

Direktlänk Dela Slator fördjupade 22 mars

Googles AI-experiment visar framsteg och begränsningar i spelutveckling

Vid GDC 2024 presenterade Google AI:s senioringenjörer Jane Friedhoff och Feiyang Chen resultatet av sitt experiment med Werewolf AI. I experimentet var alla oskyldiga bybor och lömska vargar stora språkmodeller (LLM). Ingenjörerna tränade varje LLM-chattbot att generera dialog med unika personligheter, strategisera gambits baserat på sina roller, räkna ut vad andra spelare (AI eller människa) döljer, och sedan rösta på den mest misstänkta personen. Testresultaten visade både framgångar och brister. I bästa fall kom byborna till rätt slutsats nio gånger av tio, men utan korrekt resonemang och minne sjönk resultaten till tre av tio.

Direktlänk Dela Androidcentral.com fördjupade 22 mars

SAP och NVIDIA utökar partnerskapet för att förbättra företagskunders användning av AI

SAP och NVIDIA har avslöjat ett utökat partnerskap för att förbättra företagskunders förmåga att utnyttja data och generativ AI över SAP:s molnlösningar och applikationer. Företagen arbetar tillsammans för att skapa och erbjuda SAP Business AI, som inkluderar skalbara, branschspecifika generativa AI-funktioner inom Joule copilot från SAP, samt över SAP:s svit av molnlösningar och applikationer. SAP kommer att använda NVIDIAs generativa AI-tjänst för att förbättra stora språkmodeller (LLMs) för branschspecifika scenarier och distribuera applikationer med nya NVIDIA NIM mikrotjänster. De integrerade funktionerna förväntas rullas ut senast 2024.

Direktlänk Dela Dataquest India fördjupade 22 mars

Databricks bildar partnerskap med Mistral AI

Databricks har avslöjat ett partnerskap med generativa AI-specialisten Mistral AI, inklusive integreringar med företagets språkmodeller och en investering i företaget. Detta följer tätt efter Microsoft och Snowflake, som nyligen också bildade partnerskap med Mistral AI. Mistral AI, baserat i Paris, är en AI-leverantör som erbjuder både öppen källkod och proprietära stora språkmodeller (LLM). På bara 11 månader har Mistral AI samlat in mer än 550 miljoner dollar i finansiering och utvecklat LLM:er som presterar bra mot mer etablerade LLM:er i benchmark-testning. Databricks tillhandahåller också tillgång till språkmodeller från Anthropic, AWS Bedrock, Azure OpenAI, BGE, Llama 2 och OpenAI, bland andra.

Direktlänk Dela TechTarget fördjupade 21 mars

AI-utveckling och dess effekter på barn behöver mer etiskt övervägande, enligt forskare

Forskare från Oxford Martin Programme on Ethical Web and Data Architectures (EWADA) vid University of Oxford menar att det finns ett brådskande behov av en mer genomtänkt strategi för att integrera etiska principer i utvecklingen och regleringen av AI, särskilt när det gäller barn. Forskarna identifierar flera problem, inklusive brist på hänsyn till barns utvecklingsaspekter, minimal uppmärksamhet på föräldrars roll och brist på barncentrerade utvärderingar. De föreslår flera lösningar, inklusive ökad involvering av nyckelintressenter och etablering av lagliga och professionella ansvarsmekanismer centrerade kring barns intressen.

Direktlänk Dela Tech Times fördjupade 21 mars

Cresta, en ledande leverantör av generativ AI för kontaktcenter, meddelade att Business Intelligence Group har utsett dem till vinnare i kategorin organisatorisk kunskapshantering i Artificial Intelligence Excellence Awards Program. Crestas integrerade svit av intelligenta produkter integreras snabbt i alla kontaktcentermiljöer och arbetar sömlöst med befintliga system för att hjälpa agenter, chefer och ledare att öka intäkterna genom att säkerställa att varje kundupplevelse är utmärkt. Crestas AI-drivna lösningar inkluderar Cresta Agent Assist, Cresta Director, Cresta Conversational Intelligence, Cresta Insights, Cresta Quality Management och Cresta Virtual Agent.

Martech Cube fördjupade 21 mars

OpenAI förbereder lanseringen av nästa generations AI-modell GPT-5

OpenAI förbereder sig för att lansera sin nästa generations AI-modell, GPT-5, som förväntas innebära betydande framsteg inom artificiell intelligens, inklusive AGI (artificiell allmän intelligens) och förbättrade multimodala förmågor. Trots tidigare uttalanden från OpenAI:s VD Sam Altman om att pausa arbetet med GPT-5, tyder nyligen utveckling på en pågående ansträngning att lansera GPT-5. Det förväntas att GPT-5 kommer att medföra betydande uppgraderingar jämfört med GPT-4, med spekulationer om att uppnå AGI och förbättra multimodala förmågor. Den snabba utvecklingen av AI-teknologi, integritetsregleringar i Europa och de etiska implikationerna av att närma sig AGI är en del av den pågående diskussionen kring utvecklingen av GPT-5.

Direktlänk Dela PC-Tablet fördjupade 21 mars

Nvidia leder AI-marknaden, aktien upp 265%

Eufori kring möjligheterna med artificiell intelligens (AI) teknologi driver aktiemarknaden till rekordnivåer. Företaget Nvidia spelar en ledande roll i detta, med sina genombrott inom datornätverk som påverkar en mängd AI-applikationer, inklusive maskininlärning, generativ AI och stora språkmodeller (LLM). Nvidia är kärnan i de flesta system som driver moderna AI-verktyg och investerare har jublat över aktien som har stigit med 265% det senaste året. Nvidia har också gjort investeringar i röstigenkänningsföretaget SoundHound AI och dataanalys-startupen Databricks, och har nyligen deltagit i en finansieringsrunda för startupen Figure AI tillsammans med Microsoft, OpenAI, Intel och Jeff Bezos.

Direktlänk Dela The Motley Fool fördjupade 16 mars

Nvidia-handel nära rekordhöga nivåer: Är aktien fortfarande ett köp?

Euforin kring artificiell intelligens (AI) teknologi driver aktiemarknaden till rekordnivåer. Nvidia (NASDAQ: NVDA) är en av de ledande företagen inom AI-sektorn. Deras framsteg inom datornätverk påverkar en mängd AI-applikationer, inklusive maskininlärning, generativ AI och stora språkmodeller (LLMs). Nvidia är för närvarande kärnan i de flesta system som driver moderna AI-verktyg och investerare har jublat över aktien. Under det senaste året har aktien ökat med 265%. Trots det höga priset på aktien ser jag Nvidias aktie som en solid möjlighet för långsiktiga investerare.

Direktlänk Dela Yahoo Finance fördjupade 16 mars

Forskare utvecklar effektiv metod för att uppdatera stora språkmodeller

Forskare från Université de Montréal, Concordia University, Mila och EleutherAI har utforskat strategier för att effektivisera processen för att uppdatera stora språkmodeller (LLM). De har utvecklat en metod, kallad ´fortlöpande förträning´, som integrerar ny data i modellerna utan att börja om träningsprocessen från början. Detta bevarar kunskapen som modellen redan har förvärvat. Forskarna har visat att metoden är effektiv i olika scenarier, inklusive övergången mellan dataset på olika språk. Detta gör det möjligt för modellerna att anpassa sig till nya dataset utan att förlora betydande kunskap från de tidigare dataseten.

Direktlänk Dela MarkTechPost fördjupade 16 mars

Artificiell intelligens kan öka kryptobrottslighet: Chainalysis

Enligt blockchain-intelligensplattformen Chainalysis kan artificiell intelligens (AI) leda till en farlig ny kategori av kryptobaserad brottslighet. Eric Jardine, forskningsledare för cyberbrott på Chainalysis, framhöll att AI kan påverka olika kategorier av brott, till exempel genom att förbättra säkerheten för DeFi eller hitta sårbarheter i smarta kontrakt. Dessutom kan AI ha oroande konsekvenser för romansbedrägerier, där en stor språkmodell kan användas till stor skada av olagliga aktörer. Trots en minskning av det totala bedrägerivolymer från $6,5 miljarder till $4,6 miljarder, nästan fördubblade romansbedragare i krypto sina inkomster förra året jämfört med 2022.

Direktlänk Dela Crypto News fördjupade 15 mars

Det israeliska AI-startup-företaget Deci har lanserat en ny stor språkmodell (LLM) kallad Deci-Nano och en generativ AI-utvecklingsplattform. Deci-Nano är en mindre och mindre beräkningskrävande LLM som är stängd källa. Den är tillgänglig exklusivt som en del av Deci Gen AI Development Platform. Företaget verkar röra sig mot en mer kommersiell eller blandad öppen källa/stängd källa modellblandning, liknande Mistral. Deci-Nano erbjuder språkförståelse och resonemang med ultrahög inferenshastighet och är mycket prisvärd. Företaget erbjuder flera alternativ för kunder att distribuera det.

VentureBeat fördjupade 15 mars

Användning av federerat lärande för att förbättra patientresultat samtidigt som datasekretess och säkerhet hanteras

Många organisationer implementerar maskininlärning (ML) för att förbättra sina affärsbeslut genom automatisering och användning av stora distribuerade datamängder. För att hantera säkerhets- och integritetsrisker som uppstår vid delning av rå, icke-sanerad känslig information över olika platser, används federerat lärande (FL), en decentraliserad och samarbetsinriktad ML-träningsteknik som erbjuder datasekretess samtidigt som noggrannhet och trohet bibehålls. Denna artikel delar ett FL-tillvägagångssätt med FedML, Amazon Elastic Kubernetes Service (Amazon EKS), och Amazon SageMaker för att förbättra patientresultat samtidigt som datasekretess och säkerhetsproblem hanteras.

Direktlänk Dela Amazon Web Services fördjupade 15 mars

TELUS International utsetts till ledare av Everest Group inom Data Annotation och Labeling Services för AI/ML

TELUS International, en ledande digital kundupplevelseinnovatör, har utsetts till ledare av den globala forsknings- och rådgivningsföretaget Everest Group i dess PEAK Matrix för Data Annotation och Labeling Services för AI / Machine Learning (ML) rapport. TELUS International var en av endast fem leverantörer som erkändes som ledare i Everest Groups första rapport, baserad på marknadspåverkan och vision samt förmågor. Företaget har över 17 års erfarenhet inom AI-industrin och hanterar alla aspekter av sin globala crowdsourced AI-gemenskap på 1,2 miljoner deltagare.

Direktlänk Dela Yahoo Finance fördjupade 15 mars

Säkerhetsbrister upptäckta i Googles Gemini AI

Forskare på HiddenLayer har upptäckt en serie sårbarheter i Googles Gemini AI som kan låta angripare manipulera användarfrågor och styra utdata från Large Language Models (LLMs). Detta har väckt oro över säkerheten och integriteten hos AI-drivna innehållsgenereringar och dess implikationer för spridning av felinformation och datasekretess. Trots att Gemini nyligen togs ur tjänst på grund av generering av politiskt vinklat innehåll, exponerar sårbarheterna som HiddenLayer identifierat en ny dimension av hot som illasinnade aktörer kan utnyttja. Google har ännu inte utfärdat ett formellt svar på resultaten.

Direktlänk Dela GBHackers On Security fördjupade 13 mars

Bruno Zerbib, Chief Technology and Innovation Officer på Orange, har uttryckt oro över Nvidias monopol på grafiska processorer (GPU:er) och tror att billigare alternativ med bättre prestanda kommer inom de närmaste åren. Zerbib anser att investeringar i GPU:er kan vara riskabla på grund av potentialen för enorma avskrivningar. Han tror att störningar sannolikt kommer att komma från hyperscalers eller de startups de så småningom köper. Zerbib prioriterar effektivitet när Orange strävar efter att nå ett ´netto noll´-mål till 2040. Han föredrar att investera i människor snarare än GPU:er och har utrustat cirka 27 000 anställda med AI-färdigheter.

Light Reading fördjupade 12 mars

Palantirs största konkurrenter i AI-landskapet: Microsoft, Databricks och Amazon

Två teknikföretag som ofta nämns i samma sammanhang är Snowflake och Palantir Technologies. Dessa företag opererar inom området för stordataanalys och har nyligen börjat handlas på börsen. Trots att de ofta jämförs, konkurrerar de inte direkt med varandra. Snowflake är en datahanteringsplattform, medan Palantir specialiserar sig på dataaggregering. Palantirs största konkurrenter för närvarande är Microsoft, Databricks och Amazon. Microsoft har investerat stort i AI och har integrerat ChatGPT över hela sitt ekosystem. Databricks är en het startup som fokuserar på maskininlärningsapplikationer för realtidsdataanalys. Amazon är en stor aktör inom molndrift och har ett brett utbud av AI-drivna applikationer.

Direktlänk Dela The Motley Fool fördjupade 11 mars

Nvidia upplever enorm tillväxt och hintar om expansion bortom halvledare

Nvidia, som är en av de största tillverkarna av grafikprocessorer (GPU:er), har upplevt en enorm efterfrågan på sina flaggskeppsprodukter A100 och H100. Företaget, som nu är världens tredje mest värdefulla företag enligt marknadsvärde, har också en växande mjukvaruverksamhet och investerar i flera andra tillväxtområden, inklusive robotik och röststyrda AI-assistenter. Under företagets senaste intäktsrapportering, ökade Nvidias intäkter med 126% jämfört med föregående år, till $60,9 miljarder, med största delen av tillväxten från GPU-intresse. Dessutom hintade företaget om en möjlig expansion bortom halvledare.

Direktlänk Dela Yahoo Finance fördjupade 10 mars

Anthropic lanserar nya AI-modeller som överträffar GPT-4 och Gemini

Anthropic har nyligen lanserat en ny serie av AI-modeller, kända som Claude 3, som har presterat bättre än både GPT-4 och Gemini i benchmark-tester. Claude 3-modellerna kommer i tre varianter: Haiku, Sonnet och Opus, var och en med unika förmågor och styrkor. De kan bearbeta olika visuella format, inklusive foton, diagram och tekniska diagram. Dessutom har Anthropic släppt en uppdaterad Python API för att underlätta tillgången till dessa modeller. Du kan börja använda den senaste modellen genom att skapa ett nytt konto på https://www.anthropic.com/claude.

Direktlänk Dela KDnuggets fördjupade 8 mars

LMSYS Chatbot Arena uppdaterar betyg för stora språkmodeller av AI

LMSYS Chatbot Arena har uppdaterat betyget för stora språkmodeller av artificiell intelligens, vilket gör det möjligt att utvärdera vilka modeller som för närvarande presterar bäst. För att sammanställa betyget utvärderas över 300 tusen mänskliga recensioner av modellernas prestanda med hjälp av Elo-betygssystemet. Enligt den nya betyget är GPT4 för närvarande ledaren bland stora språkmodeller. Claude´s påståenden om att deras modell är bättre har inte bekräftats. Den rankades som nummer tre, strax bakom Bard (Gemini Pro) modellen från Google. Alla dessa modeller fick ett Elo-betyg på över 1200.

Direktlänk Dela Internet Technologies of Ukraine fördjupade 8 mars

Forskare baserade i Washington och Chicago har utvecklat ArtPrompt, ett nytt sätt att kringgå säkerhetsåtgärderna i stora språkmodeller (LLMs). Enligt forskningsrapporten kan chatbots som GPT-3.5, GPT-4, Gemini, Claude och Llama2 provoceras att svara på frågor de är utformade för att avvisa med hjälp av ASCII-konstfrågor genererade av deras ArtPrompt-verktyg. ArtPrompt består av två steg, nämligen ordmaskering och generering av dolda frågor. I ordmaskeringssteget maskerar angriparen först de känsliga orden i frågan som sannolikt kommer att konfliktera med LLM:ernas säkerhetsanpassning, vilket resulterar i att frågan avvisas. I steget för generering av dolda frågor använder angriparen en ASCII-konstgenerator för att ersätta de identifierade orden med de som representeras i form av ASCII-konst. Slutligen byts den genererade ASCII-konsten ut mot den ursprungliga frågan, vilken skickas till den drabbade LLM:en för att generera ett svar. Forskarna hävdar att deras verktyg lurar dagens LLM:er ´effektivt och effektivt´. Dessutom hävdar de att det ´presterar bättre än alla [andra] attacker i genomsnitt´ och förblir ett praktiskt, genomförbart angrepp för multimodala språkmodeller för nu.

Tom´s Hardware fördjupade 8 mars

DualFocus-strategi förbättrar prestanda för stora språkmodeller

Stora språkmodeller (LLM) som ChatGPT och GPT-4 från OpenAI har revolutionerat naturlig språkbearbetning (NLP). Nu har multi-modala stora språkmodeller (MLLM) dykt upp, vilka kombinerar textförståelse med visuell förståelse. Dessa MLLM, inklusive MiniGPT-4, LLaVA och InstructBLIP, markerar ett betydande framsteg genom att överbrygga gapet mellan lingvistisk skicklighet och visuell intelligens. Forskare föreslår en DualFocus-strategi för MLLM, vilket innebär att analysera hela bilden för att förstå det makrokontext, identifiera viktiga områden och sedan zooma in på dessa regioner för en detaljerad undersökning. Denna strategi har visat framgång i att förbättra prestanda och tillförlitlighet i AI-genererat innehåll.

Direktlänk Dela MarkTechPost fördjupade 6 mars

Microsoft försvarar sig mot anklagelser om upphovsrättsintrång

Microsoft bemöter New York Times (NYT) anklagelser om att företaget och OpenAI har kränkt upphovsrätten genom att använda tidningens artiklar för att bygga ChatGPT och andra modeller. I ett juridiskt dokument jämför Microsofts advokater NYT:s rättsliga försök att stoppa OpenAI:s arbete med tidigare försök att kväva tillväxten av VCR-teknologi. Microsoft hävdar att upphovsrättslagen inte är mer ett hinder för stora språkmodeller än det var för VCR, persondatorer eller internet. OpenAI står inför flera rättsfall gällande träningen av sina stora språkmodeller.

Direktlänk Dela The Register fördjupade 6 mars

Elon Musk stämmer OpenAI för att ha avvikit från sitt ursprungliga uppdrag

Elon Musk, VD för AI-företaget xAI, har enligt uppgift lämnat in en stämningsansökan mot OpenAI för att ha avvikit från sitt ursprungliga uppdrag att utveckla AI-verktyg för mänsklighetens nytta, till att raka in vinster för Microsoft. Stämningen riktar sig mot OpenAI:s VD Sam Altman och president Gregory Brockman. Enligt stämningen har OpenAI, Inc. förvandlats till ett sluten källkod och de facto dotterbolag till världens största teknikföretag, Microsoft. Dessutom anklagas OpenAI för att ha ersatt en ´noga utformad icke-vinstdrivande struktur´ med en ´rent vinstinriktad VD och en styrelse med underlägsen teknisk expertis inom AGI och AI offentlig politik´.

Direktlänk Dela The Times of India fördjupade 4 mars

Ny AI-modell Phind-70B förbättrar kodningsupplevelsen

Forskare har utvecklat Phind-70B, en AI-modell för att förbättra kodningsupplevelsen för utvecklare runt om i världen. Modellen är byggd på CodeLlama-70B-modellen och har förfinats med 50 miljarder extra tokens. Phind-70B kan generera komplexa kodsekvenser och förstå djupare sammanhang med hjälp av sitt 32K-token-kontextfönster. Modellen har visat imponerande resultat, med en prestanda på 82,3% i HumanEval-benchmark, jämfört med 81,1% för GPT-4 Turbo. Phind-70B har använt NVIDIA:s TensorRT-LLM-bibliotek på de nyaste H100-GPU:erna, vilket har lett till en betydande effektivitetsökning.

Direktlänk Dela MarkTechPost fördjupade 3 mars

Microsoft samarbetar med AI-startup Mistral AI för att utveckla nästa generations stora språkmodeller

Microsoft har ingått ett flerårigt partnerskap med det franska AI-startupföretaget Mistral AI för att utveckla och implementera nästa generations stora språkmodeller (LLMs). Samarbetet markerar en milstolpe på vägen mot att överbrygga klyftan mellan banbrytande forskning och konkreta, verkliga AI-applikationer. Partnerskapet ger Mistral AI tillgång till Azure AI-infrastrukturen för att påskynda utvecklingen och distributionen av företagets nästa generations LLMs. Detta representerar en möjlighet för Mistral AI att låsa upp nya kommersiella möjligheter, expandera till globala marknader och främja pågående forskningssamarbete.

Direktlänk Dela Campustechnology.com fördjupade 27 februari

Fransk startup utmanar OpenAI med nytt AI-språkmodell och partnerskap med Microsoft

En fransk startup vid namn Mistral har lanserat sin stora språkmodell, Mistral Large, och en konkurrent till ChatGPT, Le Chat, i ett försök att konkurrera med OpenAI:s GPT-4. Mistral har också meddelat ett strategiskt samarbete med teknikjätten Microsoft. Samarbetet innebär att Mistrals modeller kommer att integreras i Microsofts Azure molntjänster. Mistrals modeller har färre parametrar än GPT-4, men konkurrerar nära i viktiga prestationsaspekter som resonemang. Till skillnad från GPT-4, valde Mistral att göra sina stora språkmodeller (LLM) öppen källkod.

Direktlänk Dela BNN Breaking News fördjupade 27 februari

Microsoft publicerar grundläggande referensarkitektur för OpenAI chatt

Microsoft har publicerat den grundläggande referensarkitekturen för OpenAI chatt från början till slut. Denna innehåller information om komponenter, flöden och säkerhet, samt detaljer om prestanda, övervakning och vägledning för driftsättning. Arkitekturen prioriterar komponenter för att orkestrera chattflöden, datatjänster och tillgång till stora språkmodeller (LLM). Azure Machine Learning används för att träna, driftsätta och hantera maskininlärningsmodeller. Azure Storage lagrar prompt flödekällfiler, medan Azure Container Registry hanterar containerbilder för driftsättning. Dessutom ger Azure OpenAI tillgång till LLM och företagsfunktioner. Azure AI Search stöder sökfunktioner i chattapplikationer.

Direktlänk Dela InfoQ fördjupade 27 februari

Google DeepMind introducerar Round-Trip Correctness för att utvärdera kodgenererande språkmodeller

Google DeepMind har introducerat Round-Trip Correctness (RTC), en innovativ utvärderingsmetod för kodgenererande Large Language Models (LLMs). Till skillnad från konventionella utvärderingsmetoder som förlitar sig på manuell kurering av uppgifter, antar RTC ett oövervakat tillvägagångssätt. RTC utvärderar modellens förmåga att bevara den semantiska integriteten av det ursprungliga indata genom hela rundresan, vilket ger en nyanserad mätning av dess förståelse och genereringsförmåga. Denna metod erbjuder en omfattande och oövervakad strategi för modellutvärdering som sträcker sig bortom begränsningarna av traditionella utvärderingsmetoder.

Direktlänk Dela MarkTechPost fördjupade 27 februari

SoundHound AI:s röstassistent med ChatGPT integrerad går i full produktion med Stellantis DS Automobiles

SoundHound AI, Inc. meddelade att dess röstassistent med integrerad ChatGPT blir den första att gå i full produktion med en internationell biltillverkare. SoundHound Chat AI för Automotive var den första AI-aktiverade röstassistenten på marknaden i april 2023 och kommer att vara tillgänglig i Stellantis DS Automobiles från och med nästa månad. Efter en framgångsrik pilot med DS-fordon i Storbritannien, Spanien, Frankrike, Tyskland och Italien kommer biltillverkaren nu att göra sin SoundHound Chat AI-drivna assistent, Iris, tillgänglig på tretton språk i arton länder.

Direktlänk Dela Auto Connected Car News fördjupade 26 februari

Google pausar fotogenerering i Gemini AI för förbättringar efter fel

Google har tillfälligt stoppat funktionen för att generera bilder av människor i Gemini AI efter att problem med ´felaktiga historiska´ bilder uppdagats. Företaget medgav att vissa resultat som genererats av modellen var ´felaktiga eller till och med stötande´. Prabhakar Raghavan, Senior Vice President, meddelade i ett blogginlägg att modellen, som drivs av Imagen 2, behöver förbättringar innan den kan användas igen. Google har lovat betydande förbättringar och omfattande tester innan fotogenereringsfunktionen blir tillgänglig igen. Detta beslut kommer efter att IT-minister Rajeev Chandrasekhar markerade Gemini´s svar som en ´direkt överträdelse´ av flera indiska lagar.

Direktlänk Dela Dainik Jagran fördjupade 24 februari

T-Hub, Indiens största startup inkubator, har stöttat över 1 600 startups och skapat 25 000 jobb

Sedan starten 2015 har T-Hub, som leds av Telanganas regering, inkuberat över 1 600 startups. Dessa har sammanlagt samlat in nästan 1,9 miljarder dollar i finansiering och skapat över 25 000 jobb under de senaste åtta åren. T-Hub har också genomfört över 100 innovationsprogram och har hjälpt startups att få tillgång till bättre teknik, talang, mentorer, kunder, företag, investerare och statliga myndigheter. T-Hub har stöttat startups inom olika sektorer, inklusive djuptech, mobilitet, flyg- och försvarsindustri, hälso- och medicinteknik, fintech, digital handel och tillverkning, bland andra.

Direktlänk Dela Analytics India Magazine fördjupade 23 februari

Guardrails: Ett nytt verktyg för att säkerställa tillförlitlighet och kvalitet av AI-genererade resultat

Utvecklare inom artificiell intelligens står inför utmaningen att säkerställa tillförlitligheten och kvaliteten på resultat genererade av stora språkmodeller (LLM). För att adressera detta har Guardrails, ett öppen källkods Python-paket, utvecklats. Guardrails introducerar konceptet ´rail spec´, ett mänskligt läsbart filformat (.rail) som låter användare definiera den förväntade strukturen och typerna av LLM-utdata. Verktyget använder validerare för att upprätthålla dessa kriterier och vidtar korrigerande åtgärder, som att be LLM om ny generering när valideringen misslyckas. Guardrails är kompatibelt med olika LLM:er, inklusive populära som OpenAI´s GPT och Anthropic´s Claude.

Direktlänk Dela MarkTechPost fördjupade 21 februari

SoundHound AI:s röstassistent går i full produktion med Stellantis DS Automobiles

SoundHound AI, en global ledare inom röstbaserad artificiell intelligens, meddelade att dess röstassistent med integrerad ChatGPT kommer att bli den första att gå i full produktion med en internationell biltillverkare. SoundHound Chat AI för Automotive var den första generativa AI-aktiverade röstassistenten på marknaden i april 2023, och kommer att finnas tillgänglig i Stellantis DS Automobiles från nästa månad. Efter en framgångsrik pilot med DS-fordon i Storbritannien, Spanien, Frankrike, Tyskland och Italien kommer biltillverkaren nu att göra sin SoundHound Chat AI-drivna assistent, Iris, tillgänglig på tretton språk i arton länder.

Direktlänk Dela Financial Times fördjupade 21 februari

Ny AI-modell Groq utmanar Elon Musks Grok och ChatGPT med snabbare svarshastighet och innovativ teknik

En ny AI-modell vid namn Groq har väckt stor uppmärksamhet på sociala medier med sin blixtsnabba svarshastighet och innovativa teknik som potentiellt kan utmana Elon Musks Grok och ChatGPT. Groq har utvecklat en anpassad ASIC-chip specifikt för stora språkmodeller (LLM). Denna kraftfulla chip möjliggör för Groq att generera imponerande 500 tokens per sekund, medan den offentligt tillgängliga versionen av ChatGPT, känd som ChatGPT-3.5, ligger efter på endast 40 tokens per sekund. Groq Inc hävdar att ha uppnått en banbrytande milstolpe genom att skapa den första språkbearbetningsenheten (LPU), som driver Groqs modell.

Direktlänk Dela Crypto News fördjupade 20 februari

ChatGPT:s bidrag till företagsautomatisering och dess begränsningar

ChatGPT har blivit ett globalt fenomen, känt för sina anmärkningsvärda språkskapande förmågor. Medan dess betydelse växer, kommer frågan upp: hur bidrar ChatGPT till företagsautomatisering? ChatGPT, som härstammar från GPT-3, framträder som en banbrytande generativ AI-språkmodell, med imponerande 175 miljarder parametrar. Dess återkommande neurala nätverksarkitektur är utmärkt för att både förstå och generera språk, vilket möjliggör mångsidighet i uppgifter som översättning, textkomplettering, sammanfattning och chatbot-interaktion. Men när det gäller ChatGPT:s roll i företagsautomatisering uppstår frågor om dess integration. ChatGPT är begränsad inom området för intelligent processautomatisering. Därför måste organisationer som strävar efter att automatisera komplexa arbetsflöden vända sig till specialiserade AI-verktyg skräddarsydda för att interagera med interna system, hantera information genom API-anrop och utföra handlingar baserat på insamlad data. E42 är en no-code-plattform som gör det möjligt för företag att skapa multifunktionella AI-medarbetare för att automatisera olika funktioner inom olika branscher.

Direktlänk Dela Medium fördjupade 19 februari

OpenAI introducerar ny minnesfunktion för ChatGPT

OpenAI, skaparen av den populära artificiella intelligensen (AI) plattformen ChatGPT, har introducerat en ny minnesfunktion designad för att låta chatboten komma ihåg detaljer från tidigare konversationer. Användare kan berätta för ChatGPT att komma ihåg specifik information, vilket eliminerar behovet av att upprepa samma data till chatboten. Minnesfunktionen erbjuder större anpassning för användare och kommer med ett ´glömma´ verktyg. Användare kan stänga av minnesfunktionen med några knapptryck under anpassningsalternativet. Funktionen kommer att utökas till GPT vid fullskalig lansering.

Direktlänk Dela CoinGeek fördjupade 16 februari

Google introducerar Gemini 1.5 Pro LLM med en otrolig 1M-token-kontextfönster

Google har introducerat Gemini 1.5 Pro, den senaste tillägget till dess Gemini-familj av generativa AI-modeller. Gemini 1.5 Pro överträffar Gemini 1.0 Pro stora språkmodell och förbättrar sin föregångare på flera sätt. Den mest anmärkningsvärda uppgraderingen är ett kontextfönster som är 35 gånger större, som kan minnas en miljon tokens värde av data under rätt omständigheter. Gemini 1.5 Pro kan också bearbeta upp till 11 timmar ljud eller en timme video. Den fullskaliga versionen av Gemini 1.5 Pro är för närvarande experimentell och endast tillgänglig i en privat förhandsvisning via Googles AI Studio eller för en begränsad grupp företagskunder på Googles Vertex AI-plattform.

Direktlänk Dela Voicebot fördjupade 16 februari

Google lanserar AI Cyber Defense Initiative

Google har lanserat ett nytt ´AI Cyber Defense Initiative´ och flera AI-relaterade åtaganden före München säkerhetskonferens (MSC) som startar imorgon (16 februari). Detta kommer en dag efter att Microsoft och OpenAI publicerade forskning om den fientliga användningen av ChatGPT och gjorde sina egna löften att stödja ´säker och ansvarsfull´ AI-användning. Google planerar att investera i ´AI-ready infrastruktur´, släppa nya verktyg för försvarare och starta ny forskning och AI-säkerhetsutbildning. Dessutom kommer Google att tillkännage en ny ´AI för Cybersecurity´ kohort av 17 startups från USA, Storbritannien och Europeiska Unionen under Google för Startups Growth Academy´s AI för Cybersecurity Program. Google kommer också att expandera sitt 15 miljoner dollar Google.org Cybersecurity Seminars Program till att täcka hela Europa och hjälpa till att utbilda cybersecurity-proffs i underbetjänade samhällen.

Direktlänk Dela VentureBeat fördjupade 16 februari

Genombrott i AI:s färguppfattning: Lösningen på GPT-4:s mysterier

Forskare från Princeton University och University of Warwick har utforskat AI:s kognition, specifikt GPT-4:s förståelse av färg. Studien, publicerad den 13 februari 2024, använder metoder från kognitiv psykologi, direkt provtagning och Markov Chain Monte Carlo (MCMC) för att utforska färgutrymmet som GPT-4 uppfattar. Dr. Jane Thompson, ledande forskare från Princeton University, förklarade att de ville gräva djupare in i AI-modellernas interna representationer. Forskarnas resultat visade att adaptiva tekniker som MCMC och Gibbs sampling var särskilt effektiva för att återspegla mänskliga färgrepresentationer inom GPT-4.

Direktlänk Dela BNN Breaking News fördjupade 15 februari

Framsteg och utmaningar med stora språkmodeller inom AI

Det har varit betydande framsteg inom området för artificiell intelligens (AI), särskilt med stora språkmodeller (LLM). Generative Pretrained Transformer (GPT-3) har gjort rubriker för sina fantastiska förmågor, inklusive att lösa abstrakta problem med analogiskt resonemang, och har till och med presterat bättre än universitetsstudenter i vissa tester. Detta har lett till förutsägelser om datorer som ersätter vita krage-jobb. Trots detta är tolkningen av dessa resultat fortfarande under debatt, med vissa forskare som efterfrågar en mer noggrann utvärdering av stora språkmodeller.

Direktlänk Dela MedRiva fördjupade 15 februari

Fyra företag att bevaka i den växande AI-marknaden

Fyra företag identifieras som potentiella vinnare i den snabbt växande AI-marknaden: Palantir, UiPath, Evolv Technologies och Amazon. Palantirs AI-plattform används av både försvars- och privatsektorn för datahantering och beslutsfattande. Företaget har en stark inkomstkälla från försvarsintäkter och växer även på den kommersiella marknaden. UiPath är ledande inom robotprocessautomation (RPA), vilket automatiserar icke-värdeskapande uppgifter. Evolv Technologies erbjuder AI-drivna säkerhetsdetektorer som är effektivare än traditionella metaldetektorer. Slutligen är Amazon, förutom sin online-marknadsplats, också en stor aktör inom AI tack vare sin ledande molntjänst AWS.

Direktlänk Dela Yahoo Finance fördjupade 11 februari

Forskare från Google Deepmind och Stanford University förbättrar AI-träning med aktiv utforskning

Artificiell intelligens har gjort framsteg tack vare utvecklingen av stora språkmodeller (LLM). En av de största utmaningarna är att optimera deras inlärningsprocess från mänsklig feedback. Forskare vid Google Deepmind och Stanford University har introducerat en ny metod för aktiv utforskning, som använder dubbel Thompson-urval och epistemiska neuronnätverk (ENN) för att generera förfrågningar. Denna metod låter modellen aktivt söka feedback som är mest informativ för dess inlärning, vilket minskar antalet förfrågningar som behövs för att uppnå höga prestandanivåer. Denna forskning visar potentialen för effektiv utforskning för att övervinna begränsningarna med traditionella träningsmetoder.

Direktlänk Dela MarkTechPost fördjupade 10 februari

Modern AI-skrivverktyg kan hjälpa till att övervinna skrivblock och ge liv åt dina idéer. Här är topp fem AI-berättelsegeneratorer. 1. ChatGPT, som lanserades 30 november 2022, är en av de bästa AI-berättelsegeneratorerna tack vare sin förmåga att följa detaljerade instruktioner och generera engagerande innehåll. 2. LM Studio är ett skrivverktyg som tillåter dig att experimentera med stora språkmodeller. 3. NovelCrafter är ett webbaserat alternativ till Scrivener som kan integreras direkt med AI. 4. NovelAI är en innovativ plattform för berättande där du tillsammans med AI-modellen Kayra kan låta din fantasi flöda. 5. QuillBot är ett verktyg som kan hjälpa dig att skriva en berättelse från grunden.

Make Tech Easier fördjupade 10 februari

Microsoft Azure AI Studio: En ny plattform för generativ AI

I mitten av november 2023 lanserade Microsoft Azure AI Studio, en ny plattform för att utveckla generativa AI-applikationer baserade på olika Large Language Models (LLMs). Plattformen erbjuder ett system för att välja generativa AI-modeller och finjustera dem med hjälp av Retrieval Augmented Generation (RAG), vektorteknologier och data. Azure AI Studio är främst riktat mot erfarna utvecklare och dataforskare och är ett grundläggande verktyg för att utveckla AI-baserade assistenter. Plattformen kan filtrera modeller baserat på samlingar, de inferensuppgifter de stöder och de uppgifter de stöder för finjustering.

Direktlänk Dela Computerwoche fördjupade 9 februari

Microsofts CEO uppmanar indiska företag att anta AI, Apple kan vara redo att utmana

Microsofts VD Satya Nadella uppmanade nyligen indiska företag att anta AI för att öka produktiviteten. Han nämnde också att Microsoft väntar på att konkurrenter ska utmana GPT4, OpenAIs modell som driver flera av Microsofts produkter och tjänster. Samtidigt antydde Apples Tim Cook att företaget kan ha något på gång inom GenAI, med möjlig avslöjande senare i år. Apple har också positionerat sig som ett pro-integritets- och pro-användarföretag, vilket kan ge dem en fördel när det gäller att hantera massiva data för att träna AI-modeller.

Direktlänk Dela CXO Today fördjupade 8 februari

DeepMinds banbrytande genombrott: Lansering av ´Self-Discover´ ramverk för LLMs och förbättring av GPT-4-prestanda

DeepMind har introducerat ´self-discover´-ramverket för stora språkmodeller (LLMs), vilket markerar en paradigmförskjutning i hur dessa modeller fungerar. Till skillnad från traditionella modeller som förlitar sig mycket på fördefinierade strukturer och data, uppmuntrar detta tillvägagångssätt LLMs att dynamiskt utforska och anpassa sina egna interna strukturer. Detta innebär att modellen kan självoptimera, upptäcka dolda mönster och förfinar sin förståelse för språk utan explicit mänsklig vägledning. Detta ramverk förbättrar prestandan för den senaste iterationen, GPT-4, och har potential att minska fördomar som kan uppstå från befintliga data.

Direktlänk Dela Medium fördjupade 8 februari

Maskininlärning och MLOps: En nyckel till framgång för AI-drivna företag

Maskininlärning (ML) är en kraftfull teknologi som kan lösa komplexa problem och leverera kundvärde. Men ML-modeller är utmanande att utveckla och distribuera. Detta är varför Machine Learning Operations (MLOps) har framträtt som ett paradigm för att erbjuda skalbara och mätbara värden till artificiell intelligens (AI) drivna företag. MLOps automatiserar och förenklar ML-arbetsflöden och distributioner. MLOps gör ML-modeller snabbare, säkrare och mer tillförlitliga i produktion. MLOps förbättrar också samarbetet och kommunikationen mellan intressenter. Men mer än MLOps behövs för en ny typ av ML-modell som kallas Large Language Models (LLMs).

Direktlänk Dela Unite.AI fördjupade 7 februari

AI-systemet ChatGPT visar potential för att hjälpa till med tidig upptäckt av tjock- och ändtarmscancer

En banbrytande studie publicerad i Scientific Reports har utvärderat kapabiliteterna hos ChatGPT, ett AI-system som drivs av djupinlärning och stora språkmodeller (LLM). Studien fokuserade på ChatGPT:s förmåga att leverera korrekta svar på frågor om tjock- och ändtarmscancer (CRC), en ledande orsak till cancerrelaterade dödsfall globalt. Forskarna använde en bok betitlad ´Tjock- och ändtarmscancer: Dina frågor besvarade´ som referens och ställde totalt 131 frågor till ChatGPT. Trots den lovande prestandan konkluderade studien att ChatGPT ännu inte är redo att ersätta expertkunskap i klinisk praxis.

Direktlänk Dela BNN Breaking News fördjupade 7 februari

AI-verktyg för skrivning kan identifieras genom ordval

Introduktionen av AI-drivna skrivverktyg för massmarknaden har förändrat högre utbildning. Trots att AI kan användas oetiskt av studenter för att helt färdigställa skriftliga uppgifter, har företag som GPTZero skapat programvara som kan upptäcka användningen av AI i skriftligt arbete. En granskning utförd av Gibbs (2023) visade att AI-verktyget ChatGPT är mycket mer benäget att använda vissa termer jämfört med en mänsklig författare. Detta tyder på att det kan vara möjligt att identifiera AI-genererade texter genom att jämföra användningen av specifika termer.

Direktlänk Dela Faculty Focus fördjupade 7 februari

AI påskyndar språkbevarande och skapar jobbmöjligheter för kvinnor på landsbygden

Microsoft forskare Kalika Bali uttrycker att AI har påskyndat processen för språkbevarande och dess användning i stora språkmodeller (LLMs). Detta är användbart för att skapa online- och AI-verktyg, men också för att bevara sällsynta eller utdöende språk. Karya, ett projekt som syftar till att engagera över 100 000 arbetare fram till slutet av 2024, söker deltagare som mest behöver arbete och utbildning - ofta kvinnor på landsbygden. Förutom en premiumlön erbjuder det utbildning och annan typ av stöd när arbetet är klart.

Direktlänk Dela Microsoft News fördjupade 7 februari

Hugging Face lanserar ´Hugging Chat Assistants´ för att konkurrera med OpenAI

Hugging Face har avtäckt en ny funktion kallad ´Hugging Chat Assistants´ som låter användare skapa och anpassa sina egna AI-chattbotar. Funktionen är ett försök att erbjuda ett öppet alternativ till OpenAI:s ´GPT Store´. Tillkännagivandet gjordes av Hugging Face:s tekniska ledare och LLM-direktör, Phillip Schmid. Schmid sa att personliga chattbotar kunde skapas med bara ´två klick´, komplett med anpassade namn, avatarer och systemprompter. Han hävdade också att Hugging Face:s nya kapacitet kan rivalisera andra AI-företag, och beskrev den nya funktionen som ´liknande´ OpenAIs anpassade GPT-erbjudande.

Direktlänk Dela IT Pro fördjupade 6 februari

AI:s snabba utveckling och framtida möjligheter

Artificiell intelligens (AI) har utvecklats snabbt och transformerat våra liv sedan dess begynnelse som ett teoretiskt koncept inom datavetenskap. AI:s integration i olika sektorer och växande samhälleliga och ekonomiska krav driver dess ständiga utveckling. AI:s inverkan sträcker sig långt bortom rubriker och investeringssiffror. Personliga assistenter som Siri och Alexa är inte längre futuristiska prylar; de är väsentliga följeslagare. På företagsfronten optimerar AI operationer, driver prediktiv analys och automatiserar repetitiva uppgifter, vilket leder till betydande effektivitetsvinster. AI:s snabba utveckling har även lett till att flera startups har nått unicorn-status, med Anthropic som det mest värderade till 4,4 miljarder dollar. AI:s framsteg är också beroende av ständig forskning och utveckling.

Direktlänk Dela Medium fördjupade 5 februari

Forskning visar att robotar som uttrycker känslor i realtid är mer omtyckta och pålitliga

En studie publicerad i Frontiers in Robotics and AI visar att robotar som kan kommunicera känslor i realtid under interaktioner med människor är mer benägna att bli omtyckta, lyssnade på, betrodda och likna människor mer än de som inte kan uttrycka känslor direkt. Forskningen visar att när robotar visade känslor som matchade sammanhanget i deras interaktion med människor, betygssatte deltagarna deras interaktion med varje robot mer positivt och presterade bättre i en gemensam uppgift. Forskarna använde en robot kallad Furhat, som har ett stort, mänskligt huvud och ansiktsuttryck. De använde även Large Language Models (LLMs) som GPT-3.5 för att utveckla och uttrycka känslor.

Direktlänk Dela List23 fördjupade 4 februari

Unite.AI introducerar AI-drivet nyhetsbrev för AI-entusiaster

Unite.AI introducerar ´Exponentiella insikter´, ett AI-drivet nyhetsbrev för AI-entusiaster. Nyhetsbrevet använder ett djupt neuralt nätverk för att belysa stora genombrott inom AI och dess allierade områden. Det kommer att hålla läsarna uppdaterade om det senaste inom maskininlärning, kvantberäkning, förstärkt verklighet och andra AI-drivna kritiska teknologier. Nyhetsbrevet kommer att utforska hur AI och maskininlärning djupt påverkar fem nyckelteknologier: kvantberäkning, förstärkt och virtuell verklighet, 3D-utskrift, Internet of Things (IoT) och robotik.

Direktlänk Dela Unite.AI fördjupade 4 februari

Rapport om säkerhetsrisker med stora språkmodeller släppt av BIML

Berryville Institute of Machine Learning (BIML) har nyligen publicerat en rapport med titeln ´An Architectural Risk Analysis of Large Language Models: Applied Machine Learning Security´. Rapporten är avsedd att ge chefsinformationssäkerhetsofficerare (CISOs) och andra säkerhetsutövare ett sätt att tänka på riskerna med maskininlärning och artificiell intelligens (AI), särskilt stora språkmodeller (LLMs). Rapporten tar upp att användare av LLMs inte vet hur utvecklarna har samlat in och validerat data för att träna LLM-modellerna. BIML fann att ´bristen på insyn i hur AI fattar beslut är roten till mer än en fjärdedel av riskerna som LLMs utgör´.

Direktlänk Dela The National Law Review fördjupade 2 februari

Säkerhetslucka upptäckt i OpenAI:s språkmodell GPT-4

Forskare vid Brown University har upptäckt en betydande lucka i säkerhetsprotokollen för OpenAI:s språkmodell GPT-4. Genom att översätta uppmaningar till mindre vanliga språk som skotsk gaeliska har de visat en metod för att kringgå innehållsfilter som är utformade för att förhindra skapandet av skadliga utdata. Teamet använde Google Translate API för att översätta potentiellt farliga engelska uppmaningar till mindre använda språk och tillbaka igen, och fann en ungefärlig framgångsgrad på 79 procent för att undvika GPT-4:s säkerhetsstaket med språk som zulu, skotsk gaeliska, hmong eller guarani. OpenAI erkände resultaten och överväger uppgifterna.

Direktlänk Dela WinBuzzer fördjupade 31 januari

Organisationer har snabbt integrerat AI-teknik i sina affärsprocesser, vilket ökar deras attackytor. MLSecOps är en ram som kombinerar operationell maskininlärning med säkerhetsfrågor för att minska riskerna. MLSecOps fokuserar på att säkra data som används för att utveckla och träna ML-modeller, motverka fientliga attacker mot modellerna och säkerställa att utvecklade modeller följer regulatoriska efterlevnadsramverk. Riskerna med AI inkluderar snedvridning, integritetskränkningar, skadlig programvara, osäkra plugins, leveranskedjeattacker och IT-infrastruktur risker. MLSecOps integrerar säkerhetspraxis genom hela ML-modellutvecklingsprocessen.

TechTarget fördjupade 30 januari

Essential AI och Google Cloud inleder långsiktigt partnerskap

Essential AI har nyligen meddelat ett nytt långsiktigt partnerskap med Google Cloud för att förenkla och skala upp utvecklingen av full-stack generativa AI-produkter. Partnerskapet syftar till att ge företagsanvändare möjlighet att fatta datastyrda beslut. Google Cloud, som är Essential AIs föredragna molnleverantör, kommer att hjälpa Essential AI att leverera företagsanpassade stora språkmodeller (LLMs). Essential AI har samarbetat med Google Cloud för att använda Cloud TPU v5p för att träna sina modeller.

Direktlänk Dela EnterpriseTalk fördjupade 30 januari

Italiensk tillsynsmyndighet anklagar OpenAI för att bryta mot EU:s dataskyddsnormer

OpenAI står inför nya problem då den italienska tillsynsmyndigheten Garante hävdar att företagets generativa AI-plattform ChatGPT har brutit mot EU:s dataskyddsnormer. Garante, som har en historia av proaktiva bedömningar, undersöker om olika företag och deras AI-plattformar följer EU:s dataskyddsbestämmelser. OpenAI har inte svarat på frågorna, men tillsynsmyndigheten har gett ChatGPT-tillverkaren 30 dagar att svara på anklagelserna och förbereda argument till sitt försvar. Detta är dock inte första gången som Garante har lagt fram anklagelser om brott mot dataskyddsnormer mot ChatGPT. Förra året förbjöd tillsynsmyndigheten tillfälligt den generativa AI-plattformen, med anklagelser om att den bröt mot dataskyddsnormer, särskilt åldersgränsen för dess användare som ska vara 13 år eller äldre. Förbudet lyftes inom 30 dagar efter att OpenAI lovade att ge bättre insyn i sin sekretesspolicy och också tillhandahålla ett formulär som gör att användare i unionen kan förhindra företaget från att använda deras data för att träna sina underliggande stora språkmodeller (LLM). Trots att förbudet lyftes har tillsynsmyndigheten utrett ChatGPT i över nio månader nu och har sagt att den återigen har hittat bevis som tyder på att företaget bryter mot normer. Anklagelserna kommer vid en tidpunkt då OpenAI redan hanterar flera rättsfall som hävdar att företaget tränade sina modeller utan att ta uttryckligt tillstånd från innehållsskapare eller kompensera dem för det. Ett av rättsfallen har lämnats in av The New York Times. OpenAI har bestridit via ett blogginlägg att The Times inte berättade hela historien.

Direktlänk Dela Computerworld fördjupade 30 januari

ChatGPT möjliggör skapandet av världens mest innovativa handelsplattform

Austin Starks beskriver i en artikel hur han med hjälp av ChatGPT har skapat en innovativ handelsplattform för algoritmisk handel, NexusTrade. Plattformen använder stora språkmodeller (LLMs) för att göra algoritmisk handel tillgänglig för alla, oavsett teknisk kunskap. Genom att interagera med en chattassistent kan användare skapa avancerade, automatiserade handelsstrategier. NexusTrade låter användare uttrycka vilken handelsidé som helst, från enkla till komplexa, och AI:n omvandlar dessa idéer till algoritmiska strategier. Plattformen riktar sig både till kortfristiga dagshandlare och långsiktiga investerare.

Direktlänk Dela Medium fördjupade 28 januari

AI-drivet nyhetsbrev introducerar stora genombrott inom AI och närstående fält

Unite.AI introducerar Exponential Insights, ett helt AI-drivet nyhetsbrev som använder ett djupt neuralt nätverk för att belysa stora genombrott inom AI och dess närliggande fält. Nyhetsbrevet kommer att fokusera på de senaste framstegen inom maskininlärning, kvantdatorer, förstärkt verklighet och andra AI-drivna kritiska teknologier. OpenAI´s lansering av ChatGPT är i framkant av dessa framsteg. Nyhetsbrevet kommer också att utforska hur AI och maskininlärning påverkar fem nyckelteknologier: kvantdatorer, förstärkt och virtuell verklighet, 3D-utskrift, Internet of Things (IoT) och robotik. Nyhetsbrevet kommer att innehålla artiklar från Unite.AI och bästa AI-rapportering från internationella publikationer.

Direktlänk Dela Unite.AI fördjupade 26 januari

New York Times stämmer OpenAI och Microsoft för upphovsrättsintrång

I slutet av december stämde New York Times OpenAI och dess moderbolag Microsoft, och kräver miljarder dollar i ´lagstadgade och faktiska skador´. Stämningen kommer efter en rad andra stämningar från författare och medieinnehållsskapare som alla anklagar OpenAIs ChatGPT chatbot för att ha missbrukat upphovsrättsskyddat innehåll för att träna sina stora språkmodeller (LLM). Andres Sawicki, professor och direktör för Business of Innovation, Law, and Technology Concentration (BILT), noterade att fallet precis har börjat och att det är för tidigt att utvärdera parternas argument. Fallet kommer sannolikt inte att gå till juryrättegång förrän tidigast 2025. Om Times vinner skulle det vara ´en mycket dålig sak´ för AI-industrin, enligt Sawicki.

Direktlänk Dela University of Miami News fördjupade 25 januari

AI-startup You.com utmanar techjättar som Google och Microsoft

Richard Socher, tidigare chefsforskare på Salesforce, medgrundade AI-sökmotor-startupen You.com 2020. Företaget fokuserar på att leverera korrekta svar och en mängd verktyg byggda på sin storskaliga språkmodell (LLM), från skrivhjälp till forskningsassistenter. Trots att You.com inte avslöjar användarsiffror, hävdar Socher att det har nått ”miljoner” människor. Socher diskuterade utmaningarna och möjligheterna för företaget, inklusive att konkurrera med techjättar som Google och Microsoft, och hur de skiljer sig från dessa företag genom att erbjuda mer noggranna och verifierbara svar.

Direktlänk Dela Emerging Tech Brew fördjupade 25 januari

Maskininlärning och AI förändrar företagens verksamhet

Maskininlärning och AI förbättrar effektiviteten, förenklar arbetsflöden, upprätthåller säkerhet och överensstämmelse och skapar nya möjligheter för intäkter och tillväxt. Enligt branschforskning förväntas maskininlärningsmarknaden nå en värdering på över 200 miljarder dollar 2029, medan AI-tjänster förväntas vara värda över 1 biljon dollar 2030. Generativ AI erbjuder nya sätt att bearbeta och använda komplex data, men innebär också nya utmaningar för företag. Det är viktigt att IT- och företagsledare förstår grunderna i maskininlärning och nyligen framsteg som generativ AI innan de påbörjar något AI-initiativ.

Direktlänk Dela TechTarget fördjupade 24 januari

Zhipu AI introducerar ny modell, GLM-4, för att förbättra stora språkmodeller

Ett forskningsteam från Zhipu AI har introducerat en ny modell, GLM-4, som tar itu med utmaningar inom stora språkmodeller (LLMs). Modellen fokuserar på behovet av förbättrade kontextlängder, multimodala funktioner och snabbare inferenshastigheter. GLM-4 introducerar betydande förbättringar, stödjer en kontextlängd på 128k tokens och uppnår nästan 100% noggrannhet även med långa textinmatningar. Den innehåller GLM-4 All Tools, en intelligent agentfunktion som självständigt kan förstå och utföra komplexa instruktioner.

Direktlänk Dela MarkTechPost fördjupade 23 januari

DeepMind introducerar innovativ metod för att förbättra asynkron Local-SGD för språkmodellering

Språkmodellering, en kritisk komponent i naturligt språkbehandling, har upplevt betydande framsteg med stora språkmodeller. Den främsta utmaningen ligger i effektiv optimering av dessa modeller. DeepMind har introducerat en innovativ metod för att förbättra asynkron Local-SGD för språkmodellering. Metoden uppdaterar globala parametrar asynkront när arbetare slutför sina Stochastic Gradient Descent (SGD) steg. Metoden demonstrerar en förbättring i tränings effektivitet och lovar mer skalbar och effektiv språkmodellträning, vilket är avgörande för utvecklingen av naturliga språkbehandlingsteknologier.

Direktlänk Dela MarkTechPost fördjupade 23 januari

NVIDIA introducerar ChatQA, en modellfamilj för konversations-QA

NVIDIA-forskare har nyligen introducerat ChatQA, en familj av konversationsmodeller för fråge- och svarssystem (QA), med målet att uppnå GPT-4-nivås noggrannhet. ChatQA introducerar en rad modeller, från 7B till 70B i storlek. Utvärderingar över 10 konversations-QA-dataset visar att den bäst presterande modellen, ChatQA-70B, inte bara presterar bättre än GPT-3.5-turbo, utan också presterar på samma nivå som GPT-4. Detta uppnås utan att förlita sig på några syntetiska data från ChatGPT-modeller. Teamet bakom ChatQA föreslår en tvåstegs instruktionstuningsmetod som förbättrar resultaten av konversations-QA från stora språkmodeller. NVIDIA visar effektiviteten av finjustering av en enkelturnsfrågeåterhämtare med hjälp av deras samlade konversations-QA-data. Denna metod presterar likvärdigt med den mest avancerade LLM-baserade frågeomskrivningsmodellen, allt utan behov av extra beräkningstid och potentiella API-kostnader för omskrivning. ChatQA har visat en anmärkningsvärd framsteg i hanteringen av scenarier där svar är svåra att hitta. Införandet av ett litet antal ´obesvarbara´ prover har visat sig förbättra modellens förmågor avsevärt. Flera grundläggande modeller har uppnått GPT-4´s kapabiliteter, inklusive Google som sannolikt kommer att lansera Gemini Ultra när som helst. Under tiden meddelade Mistral CEO Arthur Mensch att företaget kommer att avtäcka en öppen källkods GPT-4-nivåmodell 2024.

Direktlänk Dela Analytics India Magazine fördjupade 19 januari

Meta planerar att öppna källkoden för avancerad AI

Meta CEO Mark Zuckerberg har uttryckt sitt intresse för utvecklingen av Artificial General Intelligence (AGI), en avancerad form av artificiell intelligens som överträffar mänsklig intelligens inom olika områden. Zuckerberg har förbundit sig att på ett ansvarsfullt sätt öppna källkoden för AGI och göra den tillgänglig för allmänheten. Denna strategiska drag av Meta följer i fotspåren av branschkollegor som OpenAI och Google, alla investerar tungt i generativ AI för att förbättra sina kärnfunktioner genom framsteg inom Large Language Models (LLMs). Meta har lanserat Llama 2 LLM, som bidrar till applikationer som Meta AI chatbot och Ray-Ban Meta smartglasögon.

Direktlänk Dela ABP News Network fördjupade 19 januari

Microsoft erbjuder fem kostnadsfria AI-lärande resurser

Microsoft erbjuder fem kostnadsfria resurser för att hjälpa individer att starta sin resa inom artificiell intelligens (AI). Dessa inkluderar ´AI For Beginners´, en 12 veckors kurs som introducerar AI och dess tekniker. ´Azure OpenAI Service´ lär ut om Large Language Models (LLMs) och generativ AI. ´Custom Machine Learning Models´ ger möjlighet att skapa datorseendelösningar och automatisera maskininlärningsmodellsval. ´Build Apps with Azure AI´ erbjuder en rad verktyg för att bygga AI-drivna appar. Slutligen visar ´Using AI in Everyday Work´ hur AI kan integreras i vardagligt arbete.

Direktlänk Dela KDnuggets fördjupade 17 januari

Hugging Face Spaces: En plattform för att värd och distribuera maskininlärningsmodeller

Hugging Face Spaces är en plattform för att värd och distribuera maskininlärningsmodeller och applikationer. Den erbjuder en sömlös upplevelse för att dela maskininlärningsprojekt globalt, underlättar realtidssamarbete och visar upp användarens arbete i en imponerande portfölj. Med ankomsten av GenAI har många coola modeller och appar dykt upp på Hugging Face, vilket gör att forskare och utvecklare kan skapa utrymme och modeller. Med hjälp av Gradio, Streamlit, Docker eller statisk HTML kan användare enkelt skapa interaktiva webbgränssnitt eller fristående applikationer för sina maskininlärningsmodeller.

Direktlänk Dela Analytics India Magazine fördjupade 17 januari

Forskare från Harvard undersöker integritetsfrågor i stora språkmodeller

Integritetsfrågor har blivit en betydande fråga inom AI-forskning, särskilt i samband med stora språkmodeller (LLM). SAFR AI Lab vid Harvard Business School undersöktes för att utforska integritetsfrågorna kopplade till LLM. Forskarna fokuserade på att belysa integritetsrisker, integrera integritet i träningsprocessen, effektivt radera data från tränade modeller och mildra upphovsrättsfrågor. Undersökningen ger en omfattande översikt över integritetsutmaningarna i stora språkmodeller, erbjuder tekniska insikter och lösningar för att mildra integritetsrisker.

Direktlänk Dela MarkTechPost fördjupade 17 januari

Googles forskare utvecklar ´DiarizationLM´, ett banbrytande ramverk för talardiarisering

Forskare vid Google har utvecklat en banbrytande ramverk kallad ´DiarizationLM´, som lovar att revolutionera talardiarisering genom att utnyttja kraften i stora språkmodeller (LLM). Detta innovativa tillvägagångssätt tar utdata från automatiskt taligenkänning (ASR) och talardiariseringssystem och förfinar dem med hjälp av LLM. Ramverket representerar ett skifte från att endast förlita sig på akustiska signaler till att inkorporera den rika informationen inbäddad i talinnehåll. Dess prestanda är imponerande, med betydande minskningar av ord-diariseringsfel. Detta markerar ett betydande språng i de tekniska förmågorna hos talbearbetningssystem.

Direktlänk Dela MarkTechPost fördjupade 12 januari

OpenAI lanserar GPT Store för försäljning och delning av anpassade AI-modeller

OpenAI har äntligen lanserat GPT Store där användare på dess premiumplaner kan sälja och dela anpassade AI-modeller baserade på företagets stora språkmodeller (LLM). Sedan GPT Builder-programmet annonserades i november har över 3 miljoner GPT skapats av användare. För att få tillgång till GPT Store måste användarna vara prenumererade på en av OpenAI:s premium ChatGPT-planer - ChatGPT Plus, ChatGPT Enterprise eller den nyligen lanserade ChatGPT Team. Företaget meddelade också att det kommer att starta ett intäktsdelningsprogram med GPT-skapare under årets första kvartal.

Direktlänk Dela Indulge Express fördjupade 11 januari

OpenAI och Microsoft står inför rättsliga strider om upphovsrättsligt material i AI-utbildning

OpenAI och Microsoft står inför en rad rättsliga strider, vilket väcker frågor om användningen av upphovsrättsligt skyddat innehåll i träningen av deras stora språkmodeller. Kända författare leder stämningarna och anklagar företagen för obehörig användning av upphovsrättsligt skyddade verk. OpenAI har i svar till House of Lords Communications and Digital Select Committee medgett att det är ´omöjligt´ att träna AI-modeller som ChatGPT utan att använda upphovsrättsligt skyddat material. Företaget menar att begränsning av träningsdata till äldre verk i public domain skulle resultera i AI-system som inte uppfyller dagens medborgares behov.

Direktlänk Dela Tech Times fördjupade 9 januari

Fler icke-skönlitterära författare stämmer OpenAI och Microsoft för upphovsrättsintrång

I november stämde en grupp icke-skönlitterära författare OpenAI och Microsoft, anklagade dem för att använda andra människors immateriella egendom utan tillstånd för att träna den tidigares generativa AI-teknologi. Nu stämmer fler icke-skönlitterära författare företagen för att ha använt deras verk för att träna OpenAIs GPT stora språkmodeller (LLM). Journalisterna Nicholas A. Basbens och Nicholas Gage anklagar företagen i en föreslagen grupptalan för ´rampant och avsiktlig stöld av upphovsrättsskyddade verk´. De söker skadestånd på upp till 150 000 dollar per intrångsverk, samt ett permanent förbud ´för att förhindra upprepning av dessa skador.´

Direktlänk Dela Biz.crast.net fördjupade 6 januari

Framtiden för generativ AI: 5 revolutionerande effekter på globala angelägenheter till 2024

Generativ AI revolutionerar teknikinteraktion och kommer att ha långtgående effekter, inklusive produktion av mänskligt ljudande skrivande och fotorealistiska bilder. Framtida utvecklingar bör ge ännu mer avancerade användningsområden för generativ AI. Här är fem sätt som generativ AI kommer att förändra världen till 2024: framväxten av multimodala AI-modeller, kraftfulla och kapabla små språkmodeller, uppgången av autonoma agenter, öppna modeller blir jämförbara med proprietära modeller och molnnativ blir nyckeln till on-prem GenAI.

Direktlänk Dela Analytics Insight fördjupade 6 januari

Studie visar att kodning förbättrar stora språkmodellers förmåga att lösa komplexa problem

Ett forskarteam från University of Illinois Urbana-Champaign har i en ny studie belyst det ömsesidigt fördelaktiga förhållandet mellan kod och stora språkmodeller (LLM). Studien visar hur kod är nödvändigt för att omvandla LLM till intelligenta agenter och öppnar upp för möjligheter bortom traditionell språkförståelse. LLM som har fått uppmärksamhet inom AI-gemenskapen, inklusive Llama2, GPT3.5 och GPT-4, är enorma och har tränats i en kombination av formellt språk, kod och naturligt språk. Forskarna lyfter fram flera fördelar med att inkludera kod i LLM-träningsdata, bland annat förbättrad kodproduktion och sofistikerade resonemangsförmågor.

Direktlänk Dela MarkTechPost fördjupade 6 januari

Indien tar strängare grepp om AI och digitala medier

Indiens regering har skickat råd till sociala medieföretag att följa Information Technology (Intermediary Guidelines and Digital Media Ethics Code) Rules, 2021. Riktlinjerna är inriktade på deepfakes, och regeringen uppmanar företagen att bekämpa fabricerade klipp av människor. Krishna Vij från TeamLease Digital säger att detta visar regeringens proaktiva roll i reglering av AI och Gen AI. Amit Jaju från Ankura Consulting Group menar att de föreslagna ändringarna i Indiens IT-lagstiftning markerar en viktig förändring mot ett säkrare och mer rättvist digitalt ekosystem.

Direktlänk Dela Republic World fördjupade 5 januari

LLama.cpp: En effektiv lösning för att distribuera stora språkmodeller

LLama.cpp är ett öppen källkods bibliotek som underlättar effektiv och högpresterande distribution av stora språkmodeller (LLM). Biblioteket använder olika tekniker för att optimera hastigheten och minska minnesanvändningen. LLama.cpp implementerar också aggressiv multitrådning och batchbearbetning, vilket möjliggör massiv parallell token generering över CPU-kärnor. Biblioteket har inbyggt stöd för Linux, MacOS, Windows, Android och iOS, vilket säkerställer att utvecklare kan distribuera språkmodeller sömlöst över olika miljöer. Med LLama.cpp blir utmaningarna med att distribuera och köra stora språkmodeller i produktion mer hanterbara och effektiva.

Direktlänk Dela MarkTechPost fördjupade 5 januari

OpenAI planerar att lansera sin online GPT-butik

Utvecklaren av ChatGPT, OpenAI, planerar att officiellt öppna sin online GPT-butik nästa vecka där användare kan sälja och dela anpassade AI-modeller baserade på företagets stora språkmodeller (LLMs). I ett e-postmeddelande till personer som är GPT-byggare uppmanade OpenAI dem att dubbelkolla att deras GPT-skapelser uppfyller varumärkesriktlinjerna och påminde dem om att göra sina GPT:er offentliga. Butiken skulle lanseras i november förra året men försenades på grund av dramatiken kring OpenAI:s VD Sam Altmans uppsägning och återanställning. OpenAI planerar nu att lansera en butik för GPT:er, anpassade appar baserade på dess textgenererande AI-modeller, nästa vecka.

Direktlänk Dela Punjab News Express fördjupade 5 januari

OpenAI lanserar online GPT Store för AI-modeller

San Francisco-baserade startup-företaget OpenAI är redo att lansera sin online GPT Store nästa vecka. GPT Store är en marknadsplats för GPT-byggare där de kan sälja och dela anpassade AI-modeller baserade på företagets stora språkmodeller (LLMs). Vid sin första utvecklarkonferens avslöjade företaget GPT 4 samt planer på att starta en online marknadsplats för utvecklare. Planerna försenades dock en månad på grund av oväntade händelser. OpenAI påminde GPT-byggare om att göra sina GPT:er offentliga och uppmanade dem att bekräfta att deras GPT-design uppfyller varumärkeskraven. OpenAI kommer nu att skapa en butik för GPT:er, eller personliga appar byggda med hjälp av dess textgenererande AI-modeller, nästa vecka.

Direktlänk Dela Dainik Jagran fördjupade 5 januari

Generativ AI dominerar företagskommunikation och samarbete

No Jitter har sammanställt en årsrapport för 2023 som visar att ´AI´ var det mest använda ordet, vilket indikerar var leverantörer inom företagskommunikation, samarbete och kontaktcenter har fokuserat. Generativ AI (gen AI) har utvecklats under året för att effektivisera skapandet av innehåll och avlasta kunskapsbaserade processer. Många företag, inklusive Microsoft, har lanserat generativa AI-lösningar. Gen AI har integrerats i befintliga erbjudanden inom enhetlig kommunikation och samarbete (UC&C), som Microsoft 365 Copilot, Zoom AI Companion och Cisco Webex AI Companion. Företag har också experimenterat med olika Gen AI-modeller.

Direktlänk Dela No Jitter fördjupade 4 januari

USAID varnar för användning av generativa AI-verktyg som ChatGPT

I april varnade USA:s byrå för internationell utveckling (USAID) sina anställda för att endast mata in information från ´offentligt tillgängliga källor´ i generativa AI-verktyg som ChatGPT. Det har varit oklart hur USAID hanterar den snabbt utvecklande tekniken, men enligt en intern memo som erhållits via en offentlig registerförfrågan, har USAID varken godkänt eller förbjudit användningen av ChatGPT eller stora språkmodeller (LLM). USAID uppmanar till försiktighet vid användning av AI och LLM då deras tillförlitlighet, noggrannhet och förtroendevärdhet inte är bevisad.

Direktlänk Dela FedScoop fördjupade 4 januari

AI kan nu delta i möten och skriva kod för dig. Här är varför du bör vara försiktig

Microsoft har nyligen lanserat en ny version av all sin programvara med tillägg av en artificiell intelligens (AI)-assistent, Copilot, som kan utföra en mängd olika uppgifter. Copilot kan sammanfatta verbala konversationer på Teams online-möten, presentera argument för eller mot en viss punkt baserat på verbala diskussioner och svara på en del av dina e-postmeddelanden. Den kan även skriva datorprogram. Trots dessa framsteg bör vi vara försiktiga med att använda sådana stora språkmodeller (LLM). Trots sin intuitiva natur kräver de fortfarande skicklighet för att användas effektivt, tillförlitligt och säkert.

Direktlänk Dela Tech Xplore fördjupade 3 januari

Neuchips presenterar revolutionerande AI-chip och kort på CES 2024

Neuchips, en ledande leverantör av AI Application-Specific Integrated Circuits (ASIC) lösningar, kommer att visa upp sitt revolutionerande Raptor Gen AI-acceleratorchip (tidigare kallat N3000) och Evo PCIe-acceleratorkort LLM-lösningar på CES 2024. Raptor, den nya chip-lösningen, gör det möjligt för företag att distribuera Large Language Models (LLMs) inferens till en bråkdel av kostnaden för befintliga lösningar. Tillsammans erbjuder Raptor och Evo en optimerad stack som gör marknadsledande LLMs lättillgängliga för företag.

Direktlänk Dela AsiaOne Online fördjupade 2 januari

Microsoft lanserar AI-assistent, men varnar för överanvändning

Microsoft har nyligen lanserat en ny version av all sin programvara med tillägg av en AI-assistent som kan utföra en mängd olika uppgifter. Copilot kan sammanfatta verbala konversationer på Teams online-möten, presentera argument för eller emot en viss punkt baserat på verbala diskussioner och svara på en del av dina e-postmeddelanden. Den kan till och med skriva datorprogram. Men trots dessa framsteg måste vi vara försiktiga med vår användning av sådana stora språkmodeller (LLM). Trots deras intuitiva natur kräver de fortfarande färdigheter för att använda dem effektivt, tillförlitligt och säkert.

Direktlänk Dela The Conversation fördjupade 2 januari

Uppkommande banbrytande AI-verktyg förväntas revolutionera teknikindustrin 2024

År 2024 ser ut att bli ett betydande år för teknikindustrin med lanseringen av flera banbrytande AI-verktyg. OpenAI förväntas lansera GPT Store, en marknadsplats för applikationer drivna av generativa förtränade transformator (GPT) modeller. GitHub planerar att lansera Copilot Enterprise, en AI programmeringsassistent. Gemini Ultra, en modell som skapats för att hantera komplexa uppgifter och snabbt tolka och agera på olika typer av data, kommer att släppas. Microsoft planerar att lansera en AI-fokuserad Windows-version, och Meta förväntas lansera Llama 3, en ny AI-modell.

Direktlänk Dela AMBCrypto fördjupade 2 januari

Instacart skapar nästa generations plattform baserad på maskininlärning

Instacart har skapat en nästa generations plattform baserad på erfarenheter från den ursprungliga Griffin-maskininlärningsplattformen. Företaget ville förbättra användarupplevelsen och hjälpa till att hantera alla maskininlärningsarbetsbelastningar. Den nya plattformen utnyttjar de senaste utvecklingarna inom MLOps och introducerar nya funktioner för nuvarande och framtida applikationer. Trots fördelarna visade sig den första versionen av ML-plattformen vara svår att använda av maskininlärningsingenjörer på grund av relativt komplexa verktyg, fragmenterad användarupplevelse, brist på standardisering och metadatahantering, och otillräcklig skalbarhet.

Direktlänk Dela InfoQ fördjupade 1 januari

New York Times (NYT) har stämt OpenAI, utvecklaren av ChatGPT, och Microsoft, vilket väcker viktiga frågor om AI-teknologi och upphovsrätt. Fallet, som pågår i en federal domstol i Manhattan, representerar en avgörande punkt för förståelsen av de juridiska ramarna kring träning och tillämpning av stora språkmodeller (LLM) som ChatGPT. NYT hävdar att OpenAI har utnyttjat dess upphovsrättsskyddade innehåll utan tillstånd för att utveckla sina AI-modeller, vilket skapar ett potentiellt konkurrenshot mot tidningens immateriella egendom.

Unite.AI fördjupade 29 december

De bästa AI-skriverprogrammen 2024

AI-skriverprogram revolutionerar hur vi skapar innehåll. När du börjar söka efter det bästa AI-skriverprogrammet 2024 kommer du att bli förvirrad av det stora utbudet. För att underlätta har de topp 7 alternativen granskats här. De inkluderar Junia ai, Jasper, Writesonic, Rytr, Surfer SEO, Grammarly och Copy.ai. Dessa verktyg erbjuder olika funktioner, såsom SEO-optimering, innehållsskapande, textgenerering, nyckelordsforskning, korrekturläsning, forskningsassistans och kreativa skrivverktyg. Junia ai anses vara det bästa AI-skriverprogrammet 2024.

Direktlänk Dela Outlook India fördjupade 29 december

Konversationell AI: Vad är det och hur fungerar det?

Konversationell AI är den senaste utvecklingen inom tekniken för naturligt språkbearbetning (NLP), hjälpt av nya genombrott inom maskininlärning från företag som Google och OpenAI. Moderna chatbotar som ChatGPT kan förstå och prata om en mängd olika ämnen på olika språkstilar. Hjärtat i modern konversationell AI är toppmoderna stora språkmodeller. Dessa är maskininlärningsmodeller som har tränats på stora dataset, inklusive text från böcker, Wikipedia och till och med sociala medieplattformar. Konversationell AI är inte bara begränsad till det skrivna ordet. Vi har nu övertygande röstmotorer som kan läsa AI-genererad text med nästan perfekt intonation, ton och känsla. ChatGPT är det mest igenkännliga konversationella AI idag.

Direktlänk Dela Android Authority fördjupade 27 december

AI-nyheter: Apple-designchef går till LoveFrom, studie avslöjar unika tungsurface, ökad AI-användning på arbetsplatsen

Tang Tan, designchef för iPhone och Apple Watch, kommer att lämna Apple för att arbeta för Jony Ives företag LoveFrom och utveckla AI-enheter. Enligt en undersökning är cirka 59% av anställda säkra på sin förmåga att använda AI-verktyg, vilket signalerar en potentiell acceptans på arbetsplatsen nästa år. Ny forskning som använder AI och 3D-bilder av människans tunga har avslöjat unika ytegenskaper för varje individs tunga. Indiska företag förbereder sig för anställningsförändringar 2024, med fokus på att anta AI och möta generation Z:s förväntningar. New York Times har stämt OpenAI och Microsoft för att ha använt tidningens upphovsrättsskyddade innehåll utan tillstånd för att träna sina AI-modeller.

Direktlänk Dela Hindustan Times Tech fördjupade 27 december

SuperVersen: En AI-driven verklighet bortom Metaversens begränsningar

Digital innovation och AI är i framkant av vår verklighet, med Metaverset som ett centralt element på vägen till denna framkant. Men Metaverset är enbart en illusion, en begränsad plats byggd på den redan flyktiga verkligheten av mänsklig uppfattning. En ny koncept, SuperVersen, en AI-driven verklighet, kan erbjuda ett transformativt språng in i områden som människan aldrig upplevt. SuperVersen är inte bara ett alternativt universum, utan en helt ny dimension av existens. Med hjälp av avancerade AI-teknologier kan SuperVersen analysera, tolka, förutsäga och till och med konstruera komplexa mönster bortom mänsklig förståelse. En viktig aspekt av transformationen från Metaverset till SuperVersen är framväxten av multimodala stora språkmodeller (LLM). Dessa avancerade AI-system representerar ett betydande språng i hur vi interagerar med och förstår digitala verkligheter.

Direktlänk Dela Psychology Today fördjupade 23 december

Från Metaverse till SuperVerse: AI kan skapa en ny verklighet

Digital innovation och AI är i framkant av vår verklighet, med konceptet Metaverse som en central del. Men en närmare granskning visar att Metaverse bara är en illusion, ett begränsat utrymme byggt på den redan flyktiga mänskliga uppfattningen. Istället kan SuperVerse, en AI-driven verklighet, erbjuda en transformerande språng till områden som människan inte tidigare upplevt. SuperVerse, drivet av avancerade AI-teknologier, analyserar, tolkar, förutser och till och med konstruerar komplexa mönster bortom mänsklig förståelse. En viktig aspekt av övergången från Metaverse till SuperVerse är framväxten av multimodala stora språkmodeller (LLM). Dessa avancerade AI-system representerar ett betydande språng i hur vi interagerar med och förstår digitala verkligheter.

Direktlänk Dela Psychology Today fördjupade 23 december

Artificiell intelligens och maskininlärning förvandlar försvars- och rymdsektorerna

Försvars- och rymdsektorerna genomgår en stor förändring, drivet av integration av artificiell intelligens (AI) och maskininlärning (ML) i sensorer, vapen och informationssystem designade för militären. AI/ML har blivit en nyckelteknologi för att förbättra förståelsen av situationer och beslutsfattande samt öka den operativa effektiviteten. Flera företag, inklusive Lockheed Martin, Palantir Technologies, Anduril Industries, C3.ai och Helsing, leder utvecklingen med AI-drivna lösningar för allt från stridsflygplan till rymdforskning.

Direktlänk Dela Defense Update fördjupade 22 december

Metaverse och SuperVerse: En ny AI-driven verklighet

Digital innovation och AI dominerar vår verklighet och begreppet Metaverse har framhållits som en central del i denna framtid. Men en närmare granskning avslöjar att Metaverse är en illusion, en begränsad plats byggd på den redan flyktiga mänskliga uppfattningen. Metaverse erbjuder en spegelbild av den värld vi redan känner till. SuperVerse, en AI-driven verklighet, kan erbjuda en omvandlande språng in i riken som människan aldrig upplevt. SuperVerse är inte bara en alternativ verklighet, utan en helt ny dimension av existens. Denna högre ordning av verklighet speglar inte vår nuvarande uppfattning, den överstiger den.

Direktlänk Dela Psychology Today fördjupade 22 december

ByteDance förnekar att ha brutit mot OpenAI:s användarvillkor

ByteDance, TikToks moderbolag, förnekar att de har planerat att skapa en konkurrerande tjänst med hjälp av OpenAI:s teknologi. Företaget förklarade att deras användning av OpenAI:s teknologi för att utveckla sina egna artificiella intelligensmodeller var i linje med den amerikanska firmaets användarvillkor. ByteDance bekräftade att en liten grupp av dess ingenjörer använde OpenAI:s API-tjänst i en experimentell modell tidigare i år, men detta arbete upphörde i april. Trots detta har OpenAI meddelat att de har suspenderat ByteDances tillgång till sin tjänst medan de utreder vidare.

Direktlänk Dela Biz.crast.net fördjupade 18 december

Multinationellt företag utökar sin kundsupport med AI-översättning

Ett multinationellt företag har utökat sina kundsupporttjänster genom att integrera Azure´s OpenAI Large Language Models (LLMs). Genom att synkronisera dessa modeller med Teneo´s Generative AI Orchestration har företaget utvidgat sin supportinfrastruktur för att omfatta franska och spanska, vilket främjar förbättrad kommunikation med en bredare kundbas. Företaget har förfinat översättningen av varierande kundinmatningar till spanska och franska, vilket främjar klara och effektiva kommunikationskanaler. Denna utveckling är avgörande för att underlätta sömlös informationsutbyte över språkbarriärer och bidra till en mer inkluderande kundupplevelse.

Direktlänk Dela AiThority fördjupade 14 december

ChatGPT: En AI revolution inom vetenskapen

ChatGPT, ett AI-program utvecklat av forskare vid OpenAI i San Francisco, har haft en djupgående och varierande inverkan på vetenskapen under det senaste året. Programmet har skrivit vetenskapliga artiklar, utarbetat presentationer och bidragit till forskningsidéer. Trots att det också har uppfunnit referenser, skapat fakta och regurgiterat hatprat, har det förändrat hur forskare arbetar och återuppväckt debatter om gränserna för AI och mänsklig intelligens. Trots detta har tekniken också sina faror, inklusive fel och fördomar, och har börjat användas för att generera artiklar utan att det deklareras.

Direktlänk Dela Nature fördjupade 13 december

OpenAI och Google tillhandahåller vägledning för webbplatsägare att blockera skrapning

OpenAI och Google har släppt riktlinjer för webbplatsägare som inte vill att företagen använder deras webbplatsers innehåll för att träna sina stora språkmodeller (LLM). Det är en enkel process att be OpenAI och Google (och alla andra som väljer att respektera preferensen) att inte inkludera skrapningar av din webbplats i sina modeller, så länge du kan få tillgång till din webbplats filstruktur. Om du inte vill att ditt webbplatsinnehåll ska användas för denna träning kan du be de robotar som Google och Open AI använder att hoppa över din webbplats. Kom ihåg att detta endast gäller framtida skrapning. Om Google eller OpenAI redan har data från din webbplats kommer de inte att ta bort den.

Direktlänk Dela Electronic Frontier Foundation fördjupade 12 december

AI förväntas automatisera 60-70% av anställdas arbetsbörda

Enligt en rapport från McKinsey kommer generativ AI att automatisera 60-70% av anställdas arbetsbörda. AI ersätter redan jobb, ansvarig för nästan 4000 nedskärningar i maj 2023. OpenAI uppskattar att 80% av den amerikanska arbetskraften kommer att ha minst 10% av sina jobb påverkade av stora språkmodeller. Generativ AI kan också påverka kvinnors jobb oproportionerligt mycket. Cirka 79% av arbetande kvinnor har positioner som är mottagliga för automatisering jämfört med 58% av arbetande män. AI kan också påverka jobb genom att ersätta dem, men det kan också förbättra arbetsupplevelsen genom att automatisera monotona, repetitiva uppgifter.

Direktlänk Dela TechTarget fördjupade 9 december

Dell Technologies och AMD avslöjar utökning till deras Generative AI Solutions-portfölj

Dell Technologies och AMD avslöjar en utvidgning av Dell Generative AI Solutions-portföljen, vilket fortsätter att påskynda avancerade arbetsbelastningar och ger företag fler valmöjligheter att fortsätta sina unika GenAI-resor. Den snabbast växande lösningen i Dells historia, Dell PowerEdge XE9680, kommer att stödja den kommande AMD Instinct MI300X-acceleratorn, vilket ger kunderna mer valmöjligheter när det gäller AI-prestanda. Dell PowerEdge XE9680 med AMD Instinct MI300X erbjuder högpresterande kapabiliteter för företag som vill låsa upp värdet av sina data och differentiera sin verksamhet med anpassade stora språkmodeller (LLMs).

Direktlänk Dela Datanami fördjupade 9 december

Cisco använder AI för att bekämpa nätverks- och brandväggsrisker

Enligt Gartner kommer 99% av alla brandväggsintrång detta år att orsakas av felkonfigurationer. Cisco har nu bestämt sig för att använda AI för att ta itu med dessa utmaningar genom deras nyligen tillkännagivna Cisco AI Assistant for Security och den AI-drivna Encrypted Visibility Engine. AI-assistenten är utbildad på en av de största säkerhetsfokuserade datamängderna i världen, som analyserar mer än 550 miljarder säkerhetshändelser dagligen. Cisco baserade sina ansträngningar för utvecklingen av AI-assistenten och den AI-drivna Encrypted Visibility Engine på kundernas högprioriterade behov av att förenkla brandväggshantering.

Direktlänk Dela VentureBeat fördjupade 8 december

Meta lanserar ´Purple Llama´ för att stärka AI-säkerheten

Meta har lanserat ´Purple Llama´, ett projekt knutet till deras Llama-artificiella intelligens (AI) verktyg. Purple Llama fokuserar på säkerhetsverktyg och utvärderingar för att hjälpa utvecklare att ansvarsfullt bygga med sina AI-modeller. Projektet kommer att licensieras ´tillåtande´, vilket möjliggör både forskning och kommersiellt bruk för att främja samarbete och standardisera förtroende och säkerhetsverktyg. Meta presenterade sin Llama 2 i juli i samarbete med Microsoft. Företaget sa att dess Llama-modeller har laddats ner över 100 miljoner gånger.

Direktlänk Dela PYMNTS fördjupade 8 december

AI-agenter öppnar nya möjligheter för utveckling och produktivitet

AI-agenter, oberoende program eller mjukvarubitar som kan interagera med och påverka omvärlden, blir allt vanligare. De används redan i allt från förarassistanssystem till smarta högtalare. Framsteg inom AI har lett till att dessa agenter kan arbeta tillsammans med människor inom alla områden, från bank till sjukvård, vilket kan öka produktiviteten och till och med rädda liv. AI-agenter lär sig genom förstärkningsinlärning, vilket innebär att de får belöningar eller straff baserat på deras handlingar i varje miljö. De kan också använda stora språkmodeller för att bearbeta och generera mänsklig text.

Direktlänk Dela Forbes Media fördjupade 7 december

OpenAI:s hemliga projekt Q-star kan vara ett steg mot artificiell allmän intelligens

Det har nyligen spekulerats mycket kring OpenAI:s påstådda projekt, Q-star. Trots begränsad information sägs det att projektet markerar ett betydande steg mot att uppnå artificiell allmän intelligens (AGI) - en intelligensnivå som matchar eller överträffar mänskliga förmågor. Diskussionen har främst fokuserat på potentiella negativa konsekvenser för mänskligheten, medan få har försökt avslöja Q-stars natur och potentiella teknologiska fördelar. Spekulationerna började när OpenAI:s styrelse plötsligt avsatte Sam Altman, VD och medgrundare. Även om Altman senare återinsattes, kvarstår frågor om händelserna. Enligt Reuters kan ett hemligt projekt kallat Q-star ha varit huvudorsaken till dramat.

Direktlänk Dela Unite.AI fördjupade 7 december

BorroeFinance växer i Web3-utrymmet, XRP förväntas stiga 2024

Kryptovalutamarknaden upplever en hausseartad period med Bitcoin på en 19-månaders högsta nivå över $41 000. XRP handlas också över det betydande stödområdet på $0,60, med Google Bard och ChatGPT som förutser en uppåtgående trend för XRP 2024. Köptrycket ökar i BorroeFinance ($ROE) ekosystem, där mer än $1,8 miljoner har samlats in under förhandsförsäljningsstadiet. BorroeFinance, som fungerar som en AI-driven marknadsplats som kopplar samman intäktsköpare och -säljare, är på väg att bli en matchmaker i Web3-utrymmet. Företaget möjliggör för Web3-företag att snabbt skaffa kontanter för att finansiera sina projekt genom att främja intensiva riskbedömningar. Dessutom förväntas XRP uppleva en uppåtgående trend baserat på förutsägelser från ChatGPT och Google Bard.

Direktlänk Dela Bitcoinist fördjupade 7 december

Google lanserar Gemini AI-modeller, men inte tillgängliga i Europa ännu

Google har lanserat sin efterlängtade Gemini AI-modellserie som svar på OpenAI:s ChatGPT. Men på grund av regulatoriska hinder kommer dessa modeller inte att vara tillgängliga i Europa ännu. Google kallar Gemini för ´den mest kapabla modellen någonsin´ och säger att den har tränats för att känna igen, förstå och kombinera olika typer av information, inklusive text, bilder, ljud, video och kod. Enligt Demis Hassabis, VD för Google DeepMind, är den lika bra som de bästa mänskliga experterna inom de 50 olika ämnesområden som de testade modellen på.

Direktlänk Dela The Next Web fördjupade 7 december

Stora språkmodeller: jämförelse mellan finjustering och Retrieval Augmented Generation

Stora språkmodeller (LLM) har blivit allt mer populära på senare tid, vilket demonstrerats av OpenAI:s kända GPT-modeller. Dessa modeller har tränats att producera textrespons som människor genom generativ AI. Två metoder för att förbättra AI-modellernas kapabiliteter är finjustering och Retrieval Augmented Generation (RAG). RAG kombinerar återhämtningsbaserade och generativa modeller och tillåter att modellen fungerar utanför gränserna för befintlig kunskap. Finjustering är en metod där förtränade modeller anpassas för att utföra specifika åtgärder eller visa specifika beteenden. Valet mellan RAG och finjustering i AI beror på de specifika behoven för den tillämpning som ifrågasätts.

Direktlänk Dela MarkTechPost fördjupade 6 december

Hugging Face: En plattform för utveckling av AI och maskininlärning

Hugging Face är ett företag och plattform inriktad på utveckling av AI/maskininlärningsteknologier. Ursprungligen startade företaget som en chatbot för tonåringar, men har sedan dess förvandlats till en maskininlärningsplattform. Företaget har lockat till sig högprofilerade investerare som Amazon, Google, NVIDIA, Sequoia och Salesforce. På plattformen kan användare skapa profiler, utveckla modeller och webbapplikationer, och tillhandahålla dataset för träning av modeller. Företaget erbjuder även värdtjänster och en funktion som kallas AutoTrain, som låter användare träna och distribuera AI-modeller utan kod. Hugging Face är gratis att använda, men erbjuder även betalda abonnemang för proffs och företag.

Direktlänk Dela Android Authority fördjupade 6 december

OpenAI ansöker om varumärken för ´GPT-6´ och ´GPT-7´ i Kina

OpenAI, skaparen av ChatGPT, har enligt uppgift inlett ansökningar om varumärken för ´GPT-6´ och ´GPT-7´ i Kina via sitt kinesiska företag, OpenAI OpCo. Detta är ett strategiskt drag som reflekterar företagets kontinuerliga utveckling av språkmodeller. Trots att OpenAIs tjänster, inklusive ChatGPT, för närvarande inte är tillgängliga i Kina och Hongkong, betonar varumärkesansökningarna företagets strategiska intresse för den kinesiska marknaden. Denna information kommer vid en tidpunkt då Kina gör betydande framsteg inom AI och teknik.

Direktlänk Dela Techstory fördjupade 4 december

Generativ AI omdefinierar digitala användarupplevelser

Generativ AI (GenAI) förändrar sättet människor interagerar med teknik genom att anpassa användarupplevelser. GenAI förutser framtida behov och anpassar sig i realtid. GenAI bygger på stora språkmodeller (LLM) som analyserar samband mellan ord och meningar, förutser nästa ord i en sekvens baserat på föregående ords sammanhang. GenAI förutser vad människor kan behöva eller föredra i framtiden, tack vare dess djupa förståelse för data och dess förmåga att kommunicera som en människa. GenAI förbättrar upplevelser och resultat genom att förhindra överväldigande val med finjusterade rekommendationer, leverera relevant innehåll, optimera tillgänglighet och navigering och anpassa produkter till användarens preferenser.

Direktlänk Dela Medium fördjupade 2 december

OpenAI:s hemliga projekt Q* kan revolutionera AI

OpenAI, känt för att utmana gränserna för artificiell intelligens (AI), har hamnat i rampljuset igen på grund av sitt hemliga projekt kallat Q*. Även om detaljerna kring Q* förblir hemliga, tyder nyligen rapporter på att det har potential att revolutionera AI:s kapabiliteter. Sam Altman, den nyligen återinsatta VD:n för OpenAI, bekräftade i en intervju med The Verge att Q* är ett internt projekt inom OpenAI som fokuserar på tillämpningen av AI inom logiskt och matematiskt resonemang. Q* har väckt oro inom AI-gemenskapen för sin förmåga att lösa komplexa matematiska problem.

Direktlänk Dela Moguldom fördjupade 2 december

Igår markerade ettårsdagen sedan OpenAI lanserade ChatGPT, vilket har varit ett omvälvande år då otaliga företag och användare upplevt fördelar och risker med generativ AI. ChatGPT har förändrat marknadsföring, teknik, media, kultur och samhället på otaliga sätt, bland annat genom att ge nytt liv åt sökvärlden, stimulera kreativiteten och möjliggöra nya produktplaner. Samtidigt har det framkallat nya bekymmer relaterade till immateriell egendom, desinformation, diskriminering och datasekretess. OpenAI firade ChatGPT:s årsdag genom att publicera en kort video som framhäver några av de sätt som människor har använt plattformen för både arbete och vardagligt liv.

Digiday Media fördjupade 1 december

OpenAI:s topphemliga projekt Q* väcker oro och spekulationer

Efter att Sam Altman återinstallerades som VD för OpenAI förra veckan, rapporterades det om ett hemligt projekt vid företaget som skakat forskare med sin potentiella förmåga att lösa svåra problem på nya kraftfulla sätt. Projektet, känt som Q*, har beskrivits som en genombrott som kan leda till mycket kraftfullare AI-modeller. En del forskare har uttryckt oro över Q*´s potentiella makt. Det spekuleras att Q* kan vara relaterat till ett projekt som OpenAI tillkännagav i maj, som visade kraftfulla nya resultat från en teknik som kallas ´processövervakning´.

Direktlänk Dela Wired fördjupade 1 december

Amazon AWS lanserar SageMaker HyperPod för att träna stora språkmodeller

Amazon AWS har lanserat SageMaker HyperPod, en ny tjänst för att träna och finjustera stora språkmodeller (LLM). SageMaker HyperPod är nu allmänt tillgänglig. Amazon har länge satsat på SageMaker, sin tjänst för att bygga, träna och distribuera maskinlärningsmodeller, som ryggraden i sin maskinlärningsstrategi. SageMaker HyperPod ger användarna möjlighet att skapa en distribuerad kluster med accelererade instanser som är optimerade för tvistad träning. Användarna kan välja att träna på Amazons egna anpassade Trainium (och nu Trainium 2) chips eller Nvidia-baserade GPU-instanser, inklusive de som använder H100-processorn. Företaget lovar att HyperPod kan påskynda träningsprocessen med upp till 40%.

Direktlänk Dela TechCrunch fördjupade 29 november

Fivetran tillkännager stöd för Delta Lake på Amazon S3 för att förenkla datahantering

Dataintegrationsledaren Fivetran har meddelat stöd för Delta Lake på Amazon Simple Storage Service (Amazon S3), vilket ytterligare breddar dess stöd för Amazon S3 som en datalagsdestination. Hundratusentals datalager körs på Amazon S3, en objektlagringstjänst från Amazon Web Services (AWS) som erbjuder branschledande skalbarhet, data tillgänglighet, säkerhet och prestanda. Fivetran kunder kan nu lagra data i Amazon S3 och enkelt komma åt sina Delta Lake-tabeller. Fivetran automatiserar transformeringen av datalager från traditionellt obearbetade datarepositorier till organiserade, styrda, användarvänliga datalager, vilket möjliggör snabb åtkomst och utnyttjande av data för att bygga en mängd användningsfall, inklusive prediktiv analys, generativa AI-applikationer, maskininlärningsmodeller och stora språkmodeller.

Direktlänk Dela MarTech Series fördjupade 29 november

Stora språkmodeller förändrar reklamindustrin men har begränsningar

Reklamindustrin har förändrats kraftigt av generativa AI-verktyg som bygger på stora språkmodeller (LLM). LLM har visat en fantastisk förmåga att lära sig från text- och bildbaserade data märkta med text, vilket möjliggör att produkter som ChatGPT kan generera text mycket snabbt, täcka ett enormt utbud av ämnen på många språk, inklusive programmeringskod. Enligt den senaste årliga McKinsey Global Survey använder marknadsförare främst generativ AI för orduppgifter, såsom att skapa första utkast av textdokument, personliggöra meddelanden och sammanfatta dokument. Men trots att LLM visar sig vara användbart för att brainstorma meddelanden, generera bilder och andra kreativa applikationer inom marknadsföring, är de mindre lämpliga för att lösa grundläggande utmaningar inom programmatisk reklam, som kräver inlärning från och svar på numeriska data, inte ord.

Direktlänk Dela AdExchanger fördjupade 27 november

Dr. Igor Halperin om fysik, AI och deras oväntade samspel med finansvärlden

Dr. Igor Halperin, en teoretisk fysiker, diskuterar hur hans bakgrund inom fysik har påverkat hans tillvägagångssätt inom kvantitativ finans och modellering på finansmarknaderna. Han diskuterar hur han övergick till finans efter att ha arbetat med partikelfysik och hur han tillämpade metoder från fysiken på finansproblem. Han diskuterar också de stora problemen med befintliga finansiella modeller och hur han identifierade dessa problem genom att arbeta med sina egna modeller. Slutligen diskuterar han användningen av AI och maskininlärning inom finans, särskilt förstärkningsinlärning och invers förstärkningsinlärning, och hur dessa tekniker kan förbättra finansmodeller och hantera ´svarta svan´-händelser som COVID-19.

Direktlänk Dela Rebellion Research fördjupade 26 november

Hur man tjänar pengar med Google Bard: En guide

Google Bard, utvecklat av Google AI, är ett avancerat språkmodellverktyg som kan användas för att generera inkomster online. Tio strategier inkluderar innehållsskrivning, sociala mediehantering, kodfelssökning, app- och programvaruutveckling, översättningstjänster, forskning och analys, kreativt skrivande, virtuell assistenttjänster, utbildningsinnehållsskapande och produktrecensioner och beskrivningar. För att dra nytta av dessa möjligheter rekommenderas det att bygga en portfölj, marknadsföra sina tjänster online, nätverka med andra yrkesverksamma och hålla sig uppdaterad med de senaste trenderna inom AI och maskininlärning.

Direktlänk Dela Geeky Gadgets fördjupade 24 november

OpenAI gör röstbaserade konversationer i ChatGPT tillgängliga för alla gratisanvändare

OpenAI har meddelat att den röstbaserade konversationsfunktionen i ChatGPT nu är tillgänglig för alla gratisanvändare utan någon avgift. Tidigare var denna funktion låst bakom ChatGPT Plus-prenumerationen, som kostar 20 dollar i månaden. För närvarande är röstfunktionen tillgänglig på ChatGPT-appen för Android och iOS. OpenAI har ännu inte rullat ut det på webbplattformen. Du kan aktivera denna funktion genom att gå till Inställningar och aktivera Röstalternativet. Du kan välja mellan fem olika röster: Breeze, Juniper, Ember, Sky och Cove.

Direktlänk Dela SamMobile fördjupade 23 november

Shopify integrerar AI för att förbättra produktivitet och kreativitet

Shopify, en framstående e-handelsplattform, tar steget mot en värld där verktyg för onlineföretag inte bara förenklar arbetsbelastningen utan också förbättrar kreativitet och produktivitet. Detta uppnås genom strategisk integration av artificiell intelligens (AI) i deras tjänster. Shopify har omfamnat Microsofts Copilot, en AI-driven assistent som integreras i Microsofts produkter och tjänster. Copilot revolutionerar hur utvecklare arbetar genom att förenkla tekniska arbetsflöden och göra projektledning mer samarbetsinriktad. Shopify använder AI för att förbättra kundservice och utvärdera kvaliteten på partnerappar. De använder även AI för att automatisera rutinuppgifter på plattformen.

Direktlänk Dela Geeky Gadgets fördjupade 22 november

Förståelse av vektor databaser för bättre AI / ML-prestanda

För att förbättra prestanda och skalbarhet för AI och maskininlärning, spelar avancerade vektor databaser en viktig roll. Vektor inbäddningar är ord representerade som vektorer, en sekvens av nummer som kodar information. Dessa vektorer fångar semantiska relationer och kan användas för att organisera och göra information mer användbar. Vektor databaser lagrar inbäddningar av ord eller fraser, vilket möjliggör för stora språkmodeller att snabbt hämta kontextuellt relevant information. Dessa databaser kan också skala för att rymma stora mängder inbäddningar och kan fungera på flera språk. Implementering av en stor språkmodell och en vektor databas i produktion är ett stort steg framåt, men det är viktigt att genomföra säkerhetskontroller.

Direktlänk Dela The New Stack fördjupade 21 november

OpenAI:s ledning skakas om, Microsoft kan dra nytta

OpenAI:s styrelse chockade teknikvärlden genom att avskeda Sam Altman, medgrundare och VD. Greg Brockman, OpenAI:s president, beslutade samma dag att följa efter Altman, och båda är på väg att ansluta sig till Microsoft för att leda AI-insatserna. Samtidigt har en överväldigande majoritet (90%) av OpenAI:s personal rapporterats ha undertecknat ett brev där de hotar att sluta och gå med Altman och Brockman på Microsoft om OpenAI:s styrelse inte återinsätter Altman. Microsoft, som investerade 10 miljarder dollar i OpenAI i januari 2023, kan dra mest nytta av denna omvälvning.

Direktlänk Dela The Financial Brand fördjupade 21 november

MediaTek introducerar Dimensity 8300-chipset med förbättrad prestanda och effektivitet

MediaTek har idag tillkännagivit lanseringen av Dimensity 8300-chipset. Detta chipset erbjuder 20% snabbare prestanda och 30% bättre energieffektivitet jämfört med föregående generation, vilket gör det idealiskt för mellan- till premium-smartphones. Chipsetet har en åttakärnig CPU med fyra Cortex-A715 och fyra Cortex-A510-kärnor, samt en Mali-G615 MC6 GPU för grafikhantering. Dimensity 8300 är det första chipsetet i sin kategori med fullt stöd för generativ AI, vilket ger en 3,3x ökning i AI-prestanda. Det stöder också 5G-konnektivitet och har integrerad energieffektiv teknik för spel och krävande uppgifter.

Direktlänk Dela Pocketnow fördjupade 21 november

Generativ AI: Från allmänt till specialiserat

ChatGPT har blivit ett ´måste-ha´ för företag i nästan alla branscher, inklusive stora varumärken som Coca-Cola, Slack och Expedia. Andra stora aktörer som Meta (Llama) och Google (Bard) har redan släppt sina egna AI-teknologier, medan företag som Apple arbetar bakom kulisserna på sina egna stora språkmodeller (LLM). Framtiden för generativ AI kommer att bli mycket mer specialiserad, med AI-assistenter skräddarsydda för enskilda yrken och industrier. Dessa specialiserade teknologier kommer att ge djupare, mer tillförlitliga och mer värdefulla insikter jämfört med de allmänna verktyg som finns tillgängliga idag.

Direktlänk Dela Forbes Media fördjupade 21 november

År 2017 besegrades världsmästaren i Go, Lee Sedol, av en maskin - AlphaGo, skapad av Google-ägda DeepMind. Sedols reaktioner under spelet speglar människans förvåning och utmaning inför framväxten av AI-chatbotar som ChatGPT. Sara Hooker, framstående forskare och grundare av Cohere For AI, menar att 2023 var året då AI:s språkliga framsteg nådde allmänheten och markerade början på vår förståelse för hur man använder tekniken på ett meningsfullt och ansvarsfullt sätt. Hon jämför det med framväxten av internet och mobiltelefoner. AI:s framsteg har dock även skapat en miljö av digital hysteri, enligt filosofen Daniel Innerarity. Företag som Alphabet (Google), Meta och Microsoft vill att AI ska garantera deras oändliga tillväxt och har varit ivriga att erövra spelplanen. Men detta kräver människans fascination för tekniken. AI:s förmåga att tala med känslor har fångat global uppmärksamhet och övertygat världsledare om att problemet - eller revolutionen - kräver brådskande åtgärder. President Joe Biden har redan publicerat sitt lagstiftningsramverk för USA, medan EU vill ha regler klara till slutet av året. Det finns dock en oro att stora teknikföretag vill införa regler för att förhindra att nya konkurrenter dyker upp, eftersom de skulle belastas av ett strängare regulatoriskt ramverk.

El País fördjupade 20 november

Microsoft lanserar Copilot AI chatbot för att konkurrera med ChatGPT

Microsoft har lanserat sin nya AI-chatbot, Copilot, för att konkurrera med ChatGPT. Copilot kommer att vara tillgänglig för alla Microsoft Windows 11-användare. Tidigare i år integrerade Microsoft ChatGPT i sin Bing-sökmotor, vilket gjorde det till en nära konkurrent till Google. Nu kommer Windows 11-användare inte längre att behöva använda Bing för att använda AI-funktionerna som Microsoft erbjuder. Copilot kombinerar kraften i Large Language Models (LLMs) med användarens data i Microsoft Graphs och 365-appar. Detta nya AI-assistent kommer att vara tillgängligt gratis för alla Microsofts företags- och konsumentanvändare.

Direktlänk Dela Android Headlines fördjupade 17 november

Nvidias dominans inom AI-chip fortsätter med uppdaterad processor

Nvidia har haft en stark tillväxt under 2023, med aktiekurser som stigit med över 230%, mycket tack vare sin ledande position inom artificiell intelligens (AI) chips. Företagets H100 datacenterprocessor har blivit populär för organisationer och regeringar som vill träna AI-modeller. Nvidia planerar att bygga vidare på framgången med H100 med en uppdaterad H200-processor, som ska börja levereras till kunder under andra kvartalet 2024. H200 är utrustad med HBM3e, ett högkapacitets, höghastighetsminne speciellt framtaget för att påskynda AI-arbetsbelastningar. Amazon Web Services, Alphabets Google Cloud, Oracle Cloud Infrastructure och Microsoft Azure planerar att börja använda molninstanser baserade på H200 nästa år.

Direktlänk Dela The Motley Fool fördjupade 16 november

Galileo utvecklar Hallucination Index för att utvärdera LLM:ers benägenhet att hallucinera

Maskininlärningsföretaget Galileo har utvecklat en Hallucination Index för att hjälpa användare att avgöra vilken Large Language Model (LLM) som är minst benägen att hallucinera för deras avsedda tillämpning. Indexet utvärderar 11 LLM-modeller från OpenAI, Meta, TII UAE, Mosaic ML, Mistral.ai och Hugging Face. Bland insikterna från indexet framgår det att OpenAI:s modeller presterar bäst över alla uppgiftstyper. Indexet rekommenderar olika modeller beroende på uppgiftstyp.

Direktlänk Dela Yahoo Finance fördjupade 15 november

Medigus dotterbolag utvecklar innovativt skrivverktyg Bubbl

Medigus Ltd, ett teknikföretag som arbetar med avancerade medicinska lösningar, innovativa internetteknologier och lösningar för elbilar och laddning, meddelade idag att dess dotterbolag Metagramm Software Ltd utvecklar Bubbl, ett toppmodernt skrivverktyg som använder maskininlärning, naturlig språkbearbetning, artificiell intelligens och djupinlärningstekniker. Enligt Verified Market Research kommer den globala marknaden för skrivförbättringsprogramvara att uppgå till 887,9 miljoner dollar år 2030. Företaget förväntar sig att Bubbl kommer att ha en betydande inverkan på marknaden för skrivverktyg, och erbjuda användarna en oöverträffad skrivupplevelse.

Direktlänk Dela MarTech Series fördjupade 14 november

Stora techföretag investerar i AI-startups

Microsoft äger en 49% andel i OpenAI och har investerat miljarder dollar i företaget som tillverkar ChatGPT. Microsoft är också investerare i Inflection AI, som har en chattbot som kallas Pi och ses som en rival till OpenAI. Google planerar att investera hundratals miljoner i Character.AI, som bygger personliga botar. I slutet av oktober meddelade Google att de hade gått med på att investera upp till 2 miljarder dollar i Anthropic, en viktig rival till OpenAI. Tusentals andra företag utvecklar AI-appar. Microsoft, Google och Amazon inser att framtiden för AI kommer att involvera integration av teknik från flera leverantörer.

Direktlänk Dela Quartz Media fördjupade 14 november

Apple lanserar M3 MacBook Pro-serien med skrivbordsklassens prestanda

Apple har höjt ribban igen med lanseringen av M3 MacBook Pro-serien. Dessa bärbara datorer erbjuder skrivbordsklassens prestanda - både när de är inkopplade eller på batteri - med upp till 128 GB RAM, mer kraftfull 3D-grafikrendering och fantastiska 120Hz-skärmar med 1 600 nits ljusstyrka. I mina tester med högpresterande kreativa appar och AI-belastningar är dessa nya bärbara datorer ännu snabbare och mer responsiva än vad specifikationerna antyder. Det är anmärkningsvärt att de kommer så nära prestandan hos Mac Studio och Mac Pro - Apples mest kraftfulla skrivbord som kör M2 Ultra-chips. De som kommer att se störst nytta av uppgraderingen är de som kommer från Intel-baserade MacBook Pros och de som byter från Windows-maskiner till Macs.

Direktlänk Dela ZDNet fördjupade 14 november

Fem sätt att använda OpenAI:s GPT-4 gratis

OpenAI:s GPT-4 är en av de mest populära och kapabla stora språkmodellerna (LLM). De flesta människor använder GPT-4 genom en ChatGPT Plus-prenumeration, men denna kostar 20 dollar per månad. Här är fem sätt du kan använda GPT-4 gratis: 1. Microsoft Bing Chat, som tillåter upp till 300 chattar per dag, var och en begränsad till 30 frågerundor. 2. Perplexity.ai, som ger tillgång till GPT-4, men begränsad till fem frågor var fjärde timme. 3. Merlin, en Chrome-webbläsartillägg som ger gratis tillgång till GPT-4, men begränsad till ett visst antal dagliga förfrågningar. 4. Nat.dev, ett Open Playground-verktyg som erbjuder begränsad tillgång till GPT-4. 5. Hugging Face, en öppen källkodswebbplats för maskininlärning och AI-utveckling.

Direktlänk Dela MakeUseOf fördjupade 13 november

OpenAI planerar att samla in data för att förbättra AI-modeller

OpenAI har skisserat en plan för att samla in data från organisationer över ett brett spektrum av branscher, språk och kulturer för att förbättra offentliga och privata datamängder för sina AI-modeller. Företaget siktar på att samla in stora mängder data för att stärka allmänna intelligensförmågor, och citerar tillfälliga brister i den information som för närvarande samlas in för att träna stora språkmodeller (LLM). OpenAI uppger att sådana avvikelser kan resultera i ´AI-hallucinationer´ som återspeglar falsk information.

Direktlänk Dela Mobile World Live fördjupade 10 november

Företag ökar investeringar i AI trots säkerhetshot

Företagslandskapet utvecklas och generativ AI har blivit en topprioritet för ledare, med 83% som förväntar sig att de kommer att öka sina investeringar i tekniken med 50% eller mer under de kommande 6-12 månaderna. Men den ökande användningen av AI-verktyg bland företag har lett till en våg av framväxande hot som säkerhets- och IT-team ännu inte är rustade att hantera. Nästan hälften (47%) av IT-proffsen tror att säkerhetshoten ökar i volym eller allvarlighet och företagens användning av AI förvärrar redan dessa risker. Det pågår en kapplöpning mellan säkerhetsteam och nästa generations hackare för att se vem som först kommer att kunna dra nytta av AI:s möjligheter.

Direktlänk Dela CPO Magazine fördjupade 10 november

DrivenData använder AI för att lösa samhällsproblem

Jay Qi, ledande dataforskare på DrivenData, diskuterade hur organisationen använder dataforskningstävlingar för att skapa AI-lösningar för samhällsnytta. DrivenData har hjälpt till att utveckla modeller som kan identifiera utrotningshotade arter och hur tekniker för att förbättra integriteten kan hjälpa till att låsa upp känsliga data för samhällsnytta. Organisationen har under de senaste 8 åren kört över 65 tävlingar och delat ut mer än $3,3 miljoner i priser. Deras tävlingar spänner över ett brett spektrum av tillämpningsområden, från hållbarhet till hälsa till sociala medier och mer.

Direktlänk Dela Center for Data Innovation fördjupade 10 november

Xbox och Inworld AI samarbetar för att utveckla AI-verktyg för spelutveckling

Xbox har inlett ett samarbete med uppstartsföretaget Inworld AI för att skapa ett generativt AI-verktyg som spelutvecklare kan använda. Samarbetet, som sträcker sig över flera år, syftar till att utveckla en ´AI design copilot´ som kan omvandla prompts till detaljerade manus, dialogträd, uppdrag och andra spelelement. De tänker också arbeta på en ´AI-karaktär runtime-motor´ som utvecklare kan integrera i sina spel, vilket möjliggör för spelare att generera nya berättelser, uppdrag och dialoger under spelets gång. Trots oro bland utvecklare tror Xbox att dessa verktyg kan hjälpa till att förverkliga deras visioner och experimentera för att förbättra spelupplevelsen.

Direktlänk Dela Engadget fördjupade 7 november

Konstnärer oroar sig för artificiell intelligens stjäl deras verk

Artificiell intelligens (AI) utgör ett hot mot upphovsrätten, enligt flera konstnärer som anklagar teknologin för att stjäla deras verk. Skådespelarna Stephen Fry och Scarlett Johansson har offentligt uttryckt sin indignation över hur deras röster och bilder har använts utan tillstånd. EU förbereder lagstiftning för att göra AI mer rättvis, inklusive inom det kreativa området, som planeras träda i kraft mellan 2024 och 2025. Frågan om AI stjäl konstnärers verk diskuteras allt mer i ateljéer, studior och parlament.

Direktlänk Dela El País fördjupade 6 november

Elon Musks nya AI, ´Grok´, utmanar OpenAI:s ChatGPT

Elon Musks AI-startup, xAI, har introducerat ´Grok´, en chatbot som utmanar OpenAI:s ChatGPT. Grok, som presenterades i ett inlägg på X (tidigare Twitter) den 5 november, har utformats för att tjäna mänsklighetens kunskapssökande. Den utmärker sig genom dess realtidskunskap om världen via integration med X-plattformen och förmågan att svara på ´kryddiga´ frågor som de flesta andra AI-system avvisar. Grok kommer att vara tillgänglig via X Premium Plus för en månadsavgift på 16 dollar, men initialt endast för ett urval av amerikanska användare.

Direktlänk Dela Financial-world.org fördjupade 5 november

Forskare utvecklar ny metod för att förbättra AI:s förmåga att förstå och generera naturligt språk

Stora språkmodeller (LLMs) har gått in i en ny fas med introduktionen av modeller som GPT-3, vilka har enastående förmåga att känna igen språk eftersom de har tränats på enorma mängder textmaterial. Deras användbarhet sträcker sig långt utöver språkrelaterade aktiviteter då de har visat sig vara exceptionellt skickliga inom flera områden, som tänkande, resonemang, visuell förståelse, dialogsystem, kodutveckling och till och med robotkontroll. Forskare har föreslagit en ny metod som kallas Large Language Model Reinforcement Learning Policy (LLaRP), som kan anpassa LLMs för att fungera som generaliserbara policys för inbyggda visuella uppgifter. LLaRP har tränats att känna av sin omgivning och bete sig enbart genom interaktioner med den genom förstärkningsinlärning. LLaRP har visat en framgångsgrad på 42% på ett sett av 1 000 osedda uppgifter, vilket är 1,7 gånger högre än andra vanligt använda inlärningsbaslinjer eller nollskotts-LLM-applikationer.

Direktlänk Dela MarkTechPost fördjupade 3 november

Ledare för IT och analys känner press att implementera enhetlig datastrategi

Enligt en undersökning av Salesforce känner ledare inom IT och analys pressen att implementera en enhetlig datastrategi och bättre datahantering för att stödja generativa AI-insatser. 77% av företagsledarna fruktar att de redan missar fördelarna med generativ AI, en siffra som stiger till 88% bland marknadsföringsledare. Undersökningen visar att tidiga adoptörer redan ser resultat från generativa AI-insatser, inklusive snabbare kundservice och ökad försäljning. Men entusiasmen måste balanseras med behovet av att införa datahantering och dataskydd.

Direktlänk Dela Intelligent CIO fördjupade 2 november

ChatGPT visar potential inom dermatologi men behöver förbättringar

ChatGPT, en AI-chatbot, visar potential inom dermatologi men behöver förbättringar i noggrannhet och koncisitet för pålitlig klinisk användning, enligt en studie som utvärderade dess prestation inom hantering av aktinisk keratos (AK). Studiens huvudmål var att bedöma ChatGPT:s tillförlitlighet som informationskälla för AK och att bedöma dermatologers inställning och erfarenheter när de interagerar med chatboten. Forskarna fann att ChatGPT gav korrekta, aktuella och kompletta svar på 31,6% av frågorna. Användarupplevelsen avslöjade att dermatologer fann ChatGPT effektiv och attraktiv, men dess svar ansågs ofta vara långa och inkonsekventa.

Direktlänk Dela Dermatology Times fördjupade 1 november

Amazon satsar på AI för att öka framtida vinster

Amazon-chefen Andy Jassy tror att företagets investeringar i artificiell intelligens (AI) kommer att generera ´tiotals miljarder´ för företagets molnverksamhet. I ett uttalande avslöjade Jassy att företagets satsning på generativ AI ´växer snabbt´, vilket ledde till att Amazons aktiekurs steg med 6% inom några timmar. I september meddelade företaget en investering på 1,25 miljarder dollar i Anthropic AI, en nära konkurrent till OpenAI´s ChatGPT och Googles Bard. Finansanalytiker förutspår att Amazons investering kommer att nå en värdering på 4 miljarder dollar de kommande åren.

Direktlänk Dela CoinGeek fördjupade 31 oktober

Forskare försöker lära AI att glömma för att skydda känslig information

AI-system kan inte lätt radera vad de har lärt sig, vilket skapar problem när det gäller att ta bort känslig information. AI-drivna chattbotar, som tränas på stora dataset inklusive ett stort antal webbplatser och onlineartiklar, glömmer aldrig vad de har lärt sig. Detta innebär att de kan avslöja känslig personlig information och att företagen bakom dessa AI kommer att ha svårt att uppfylla ´rätten att bli glömd´-bestämmelser. Forskare arbetar nu på ´maskinavlärande´ lösningar, trots att det är extremt svårt.

Direktlänk Dela New Scientist fördjupade 31 oktober

AI Safety Summit: Diskussioner om säker utveckling och användning av AI

AI Safety Summit, ett av de mest efterlängtade evenemangen på året, kommer att präglas av den nyligen utfärdade exekutiva ordern av USA:s president Joe Biden. Evenemanget ger internationella regeringar, ledande AI-företag, investerare och forskningsexperter möjlighet att diskutera säker utveckling och användning av AI-teknologi. AI-säkerhet är ett komplext ämne, särskilt för länder som ännu inte har utarbetat en rättslig ram för AI-användning. Elon Musk planerar också att delta i AI Safety Summit i Storbritannien. Marknadsföringsteamet ser stora förhoppningar från regeringen.

Direktlänk Dela AiThority fördjupade 31 oktober

Qualcomm avslöjar Snapdragon 8 Gen 3 med fokus på generativ AI

Qualcomm har avslöjat sin Snapdragon 8 Gen 3 mobilplattform vid Snapdragon Summit, vilket lovar en rad förbättringar och positionerar sig som den första mobilplattformen som är dedikerad till generativ AI. Chippet har en AI-motor som stöder flera generativa AI-modeller, inklusive stora språkmodeller (LLMs). Snapdragon 8 Gen 3 lovar en ökning av hastigheten med 98 procent och 40 procent förbättrad effektivitet. Det möjliggör också 240 FPS-spel med global belysning och strålspårning. Adreno GPU rapporteras vara 25 procent snabbare och mer effektiv än sin föregångare. Android-enheter med Snapdragon 8 Gen 3 förväntas komma ut på marknaden de kommande veckorna. Kända globala OEM och smartphone-märken, som ASUS, Honor, iQOO, Nubia, OnePlus, OPPO, Realme, Redmi, Vivo, Xiaomi och mer, är inställda på att anta detta banbrytande chip.

Direktlänk Dela Mashable India fördjupade 25 oktober

Qualcomm presenterar Snapdragon 8 Gen 3 med generativ AI

Qualcomm har presenterat Snapdragon 8 Gen 3, sin nya flaggskeppsplattform för mobiler med generativ AI i kärnan. Den kommer med en 98% snabbare Hexagon NPU, 240 fps-spel och mer. Stora globala OEM:er förväntas snart anta denna nya teknik. Qualcomm AI Engine skapades för generativ AI på enheten. Den driver nya generativa AI virtuella assistenter, ändrar hur du kommunicerar och brainstormar. Den fungerar med text, röst och bilder för att skapa smart innehåll och snabba svar, allt medan den upprätthåller hastighet och integritet på din enhet. De första Android-flaggskeppsenheterna med Snapdragon 8 Gen 3 SoC kommer att släppas på marknaden de kommande veckorna.

Direktlänk Dela News9 Live fördjupade 25 oktober

Palantir satsar på AI och utmanar teknikjättarna

När det gäller artificiell intelligens (AI) framträder Palantir som ett av de mest omtalade företagen. Palantir, grundat av Peter Thiel, anser att dess AI-förmågor kan konkurrera med stora teknikföretag som Microsoft, Alphabet och Amazon. Palantirs VD, Alex Karp, har de senaste månaderna talat om företagets efterfrågeutsikter. Nyligen avslöjade företaget att det håller något som kallas Artificial Intelligence Platform (AIP) Bootcamp, där potentiella kunder kommer att identifiera ett användningsfall för Palantirs produkter inom fem dagar. Palantirs ledning hävdar att över 100 företag för närvarande använder AIP och att efterfrågan är större än någonsin tidigare.

Direktlänk Dela The Motley Fool fördjupade 22 oktober

Datadog kan vara ett bättre AI-investeringsalternativ än Nvidia

Halvledarföretaget Nvidia, som är centralt för AI-revolutionen, har en marknadsandel på mellan 80% och 95% inom maskininlärningsprocessorer. Dock antyder lagarna om stora tal att mindre aktier kan erbjuda större uppåtriktad potential vid denna tidpunkt än Nvidia. Därför bör investerare överväga Datadog. Datadog, som specialiserar sig på övervaknings- och cybersäkerhetsprogramvara, använder AI för att upptäcka anomalier, automatisera rotoorsaksanalyser och ge kontextuella insikter. Trots svåra makroekonomiska förhållanden rapporterade Datadog stabila finansiella resultat för andra kvartalet. Ledningen ser sin marknadsmöjlighet öka från 45 miljarder dollar 2023 till 62 miljarder dollar 2026.

Direktlänk Dela The Motley Fool fördjupade 22 oktober

Salesforce Research introducerar CodeChain för att förbättra kodgenerering med stora språkmodeller

Forskare från Salesforce Research har introducerat CodeChain, en innovativ ram för att bygga broar mellan stora förtränade språkmodeller (LLMs) och mänskliga utvecklare. CodeChain syftar till att förbättra processen för att utveckla modulariserad kod genom en sekvens av självrevisioner som drivs av representativa undermoduler som utvecklats i tidigare iterationer. Detta innebär att modellen effektivt kan bygga vidare på information och förståelse den har fått från tidigare iterationer. CodeChain har haft stor inverkan på kodgenerering, med förbättringar i moduläritet och noggrannhet av de genererade lösningarna.

Direktlänk Dela MarkTechPost fördjupade 21 oktober

Utmaningar för företag vid införande av AI och maskininlärning

Shahid Hanif, teknikchef och medgrundare till ShuftiPro, diskuterar utmaningar som företag står inför när de införlivar AI och maskininlärning i sin programvara. Han nämner specifikt dataförgiftning, där hackare manipulerar eller ändrar ett AI-systems inlärningsdata, vilket leder till felaktiga resultat. Hanif betonar vikten av att företag införlivar avancerade verifierings- och säkerhetssystem i sina processer för att skydda sig mot oetiska hackare. Han nämner även riskerna med desinformation och manipulation samt cyberbrott och deepfakes.

Direktlänk Dela Forbes Media fördjupade 19 oktober

OpenAI lanserar officiellt webbläsarfunktionen till ChatGPT

OpenAI har officiellt lanserat sin webbläsarfunktion till ChatGPT, tre veckor efter att funktionen återintroducerades i betaversion. Fram till september 2021 var ChatGPT, den innovativa AI-baserade chattboten, begränsad till data, vilket gjorde den obrukbar som en realtidssökmotor. Men OpenAI började introducera webbtjänster till ChatGPT i mars. I maj började OpenAI söka på webben via Bing, Microsofts sökmotor som stöder OpenAI. I slutet av september började OpenAI att rulla ut ´Bläddra med Bing´ igen efter att ha finjusterat hur ChatGPT följer instruktioner som ställts av innehållsägare. Nu är ´Bläddra med Bing´ officiellt tillgängligt för alla Plus- och Enterprise-prenumeranter.

Direktlänk Dela Dev Hardware fördjupade 18 oktober

Nvidia planerar att tillkännage generativ AI för robotik

Nvidias vice VD och General Manager för Embedded & Edge Computing, Deepu Talla, diskuterade nyligen potentialen för generativ AI. Nvidia planerar att göra ett tillkännagivande om generativ AI bland andra robotiklösningar under de kommande veckorna. Detta syftar till att påskynda antagandet av generativ AI bland robotutvecklare. Stora kunder som AWS, Cisco och John Deere har redan använt dessa plattformar. En märkbar frisläppning är Generative AI Playground för Jetson, vilket ger utvecklare tillgång till öppen källkods stora språkmodeller.

Direktlänk Dela Fagenwasanni.com fördjupade 18 oktober

OpenAI lanserar officiellt webbläsarfunktion för ChatGPT och flyttar DALL-E 3 till beta

OpenAI har officiellt lanserat sin webbläsarfunktion för ChatGPT, tre veckor efter att funktionen återinfördes i betaversion efter flera månaders nedetid. ChatGPT, den innovativa AI-baserade chattboten, var historiskt begränsad till data fram till september 2021, vilket gjorde den obrukbar som en realtidssökmotor. Men OpenAI började ta med webbtjänster till ChatGPT redan i mars. Nu är webbläsning med Bing officiellt tillgänglig för alla Plus- och Enterprise-prenumeranter. Dessutom har OpenAI flyttat DALL-E 3 till beta, en månad efter att den senaste inkarnationen av text-till-bildgeneratorn debuterade.

Direktlänk Dela Lanka Times fördjupade 18 oktober

OpenAI lanserar officiellt internetbläddringsfunktion för ChatGPT

OpenAI har officiellt lanserat sin internetbläddringsfunktion för ChatGPT, tre veckor efter att ha återinfört funktionen i beta efter flera månaders paus. ChatGPT, AI-chattboten som har tagit världen med storm det senaste året, har tidigare varit begränsad till data fram till september 2021, vilket gjorde den värdelös som en realtidssökmotor. Men OpenAI började introducera internettjänster till ChatGPT i mars. Funktionen ´Browse with Bing´ är nu officiellt tillgänglig för alla Plus- och Enterprise-prenumeranter. OpenAI har också övergått DALL-E 3 till beta, en månad efter att ha introducerat den senaste versionen av text-till-bild-genereraren.

Direktlänk Dela TechCrunch fördjupade 18 oktober

Baidu lanserar AI-boten Ernie 4.0, en konkurrent till OpenAI:s ChatGPT 4-modell

Det kinesiska teknikjätten Baidu har lanserat Ernie 4.0, en generativ AI-bot som företaget säger är en direkt konkurrent till OpenAI:s ChatGPT 4-modell. Lanseringen ägde rum på Baidu World 2023-konferensen i Peking, där Baidu´s VD Robin Li skröt om den uppdaterade mjukvarans förmåga att förstå, uppmana, tänka och komma ihåg. Företaget tillkännagav också integrationen av generativ AI-mjukvara över alla sina produktserier. Trots detta var analytiker inte imponerade av modellens kompetenser jämfört med den tidigare versionen.

Direktlänk Dela TipRanks fördjupade 17 oktober

Generativ AI förbättrar kunskapshantering

Generativ AI kan automatisera och förbättra kunskapshanteringsprocesser. Detta inkluderar att skriva artiklar, förbättra sökfunktionen, identifiera kunskapsluckor och dupliceringar, samt automatisera styrningsprocesser. Generativ AI är en typ av AI som använder avancerade maskininlärningsmodeller för att lära av stora mängder data. Dessa modeller, kända som stora språkmodeller (LLM), kan generera högkvalitativ text, ljud och visuellt innehåll från naturliga språkledtrådar. Medan generativ AI kan förbättra kunskapshanteringen, bör organisationer vara medvetna om risken för ´AI-hallucinationer´, vilket innebär att AI ger felaktiga svar.

Direktlänk Dela TechTarget fördjupade 13 oktober

TitanML säkrar 2,8 miljoner dollar i för-seed-finansiering för att förbättra AI-implementering

AI-startupen TitanML har säkrat 2,8 miljoner dollar i för-seed-finansiering ledd av Octopus Ventures och deep tech-inriktade ängelinvesterare. Finansieringsrundan sammanföll med att teamet offentligt lanserade Titan Takeoff, som gör implementering av stora språkmodeller (LLM) betydligt snabbare, billigare och enklare för maskininlärningsteam. TitanML, grundat 2021, är resultatet av postdoktorala forskningen av Dr. James Dborin och Dr. Fergus Finn vid University College London. Tillsammans med Meryem Arik, en Oxford-alumn, har de förvandlat sin expertis till företagsklar programvara som minskar ansträngningen för både AI-utveckling och implementering.

Direktlänk Dela Datanami fördjupade 12 oktober

» Nyheterna från en dag tidigare

Några av våra kursdeltagare