» Håll dig ajour kring AI · En AI-skapad och ständigt föränderlig nyhetstidning om AI. Idag har vår robot sammanfattat 212 nyhetshändelser. Upptäck gärna vår kurs AI på jobbet förresten. «

Lager är ett begrepp som används för att beskriva olika nivåer eller skikt av något, vanligtvis inom teknik, arkitektur, design eller konst. Det kan referera till separata delar som är staplade ovanpå varandra, eller komponenter som är sammanflätade för att skapa en mer komplex struktur. Inom digitala medier används lager för att organisera och hantera olika element i en bild eller design, vilket gör det enklare att redigera och manipulera dem. Inom programmering och nätverk kan lager också referera till abstraktionsnivåer som används för att dela upp och strukturera kod eller kommunikationssystem.

Senaste nytt kring Layer

AI-chatbot Claude 3 lanseras som iPhone-app

AI-verktyget Claude 3, känt för sina mänsklika svar och imponerande förmåga att resonera kring komplexa idéer, lanseras nu som en iPhone-app av Anthropic. Appen Claude 3 Sonnet kommer med sju prompts som fungerar med den kostnadsfria versionen av chatboten. Dessa prompts kan användas för att starta samtal och täcker allt från ´what if´-koncept till att förbättra ditt musikkunskap. Varje prompt är utformad för att vara en startpunkt i ett samtal med AI, där du kan ställa uppföljningsfrågor eller be om mer detaljer.

Direktlänk Dela Yahoo News Singapore fördjupade 9 maj
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

Multimodal generativ AI: Framtidens teknik för kreativitet

Multimodal generativ AI är en teknik där AI inte bara förstår utan också integrerar och genererar innehåll över flera dataformer, vilket öppnar för oändliga möjligheter för innovation. Denna teknik kan förstå och generera output över flera typer av data eller lägen, som text, bilder, ljud och video. Systemen är utformade för att bearbeta och integrera information från dessa olika modaliteter för att utföra uppgifter som kräver en helhetssyn på flera inputformer. Tekniken kan tolka och relatera information över olika modaliteter, skapa eller generera nytt innehåll och har många tillämpningar, inklusive innehållsskapande, pedagogiska verktyg, tillgänglighetstekniker, underhållning och mer.

Direktlänk Dela Simplilearn fördjupade 8 maj

OpenAI kan köra på AI-baserad sökmotor

OpenAI kan fungera på en artificiell intelligens (AI)-baserad sökmotor baserad på ChatGPT. Enligt inlägg på forum kan AI-företaget redan ha genererat webbplatsens domän och Secure Sockets Layer (SSL)-certifikat som behövs för att autentisera webbplatsen. Om detta är sant, skulle OpenAI vara i direkt konkurrens med stora spelare i branschen som Google.

Direktlänk Dela Udaipur Kiran fördjupade 8 maj

Användning av simulerade och verkliga dataset för att utvärdera svårighetsmetriker

Forskare har använt simulerade och verkliga dataset för att utvärdera metriker för fallsvårigheter. De simulerade dataseten designades för att ha olika former, och innehöll varierande mängder klassöverlapp. Verkliga dataset valdes från tre olika områden: hälsa, telekommunikation och marknadsföring. Forskarna utvecklade och undersökte tre svårighetsmetriker: CDmc (modellkomplexitet), CDdm (dubbelt modell) och CDpu (prediktiv osäkerhet). Dessa metriker utvärderades visuellt och genom att beräkna Pearson- och Spearman-korrelationer mellan svårighetsmåtten från deras metriker och befintliga metriker i litteraturen.

Direktlänk Dela Nature fördjupade 7 maj

Forskare utvecklar djupinlärningsmetod för att övervaka smältbassänger i additiv tillverkning

Forskare från Carnegie Mellon Universitys ingenjörshögskola har utvecklat en djupinlärningsmetod för att fånga och karakterisera smältbassänger i laserstrålepulverbäddsfusion (PBF-LB) additiv tillverkning med hjälp av luftburna eller termiska utsläpp. Metoden gör det möjligt för tillverkare att förvärva viktiga smältbassänggeometrier och förutsäga smältbassängens variabilitet nästan omedelbart. Forskarna genomförde en serie PBF-LB-experiment för att utforska olika utskriftsparametrar för titanlegeringen Ti-6Al-4V (Ti-64).

Direktlänk Dela Metal Additive Manufacturing fördjupade 7 maj

Nya arkitekturen Orchid förbättrar sekvensmodellering i djupinlärning

Forskare vid University of Waterloo har utvecklat en ny arkitektur kallad Orchid för att hantera utmaningarna med sekvensmodellering, särskilt kvadratisk komplexitet. Orchid integrerar en datadriven konvolutionsmekanism för att övervinna begränsningarna hos traditionella uppmärksamhetsbaserade modeller. Genom att använda ett nytt datadrivet konvolutionslager kan Orchid dynamiskt justera sin kärna baserat på indatadata med hjälp av ett konditionerande neuralt nätverk, vilket gör det möjligt att effektivt hantera sekvenslängder upp till 131K. Orchid presterar bättre än traditionella uppmärksamhetsbaserade modeller, som BERT och Vision Transformers, över domäner med mindre modellstorlekar.

Direktlänk Dela MarkTechPost fördjupade 5 maj

Mysten Labs, skaparna av Sui-protokollet, siktar på att förändra blockchain-tekniken

Mysten Labs, skaparen av Layer 1 Sui-protokollet, har haft ett intensivt år med lansering på mainnet och nya partnerskap med TikToks moderbolag ByteDance och Google. Mysten Labs har nyligen meddelat ´ekosystempartnerskap´ med både Alibaba Cloud och Google Cloud, fokuserade på att stärka säkerhet och skalbarhet. BytePlus, den tekniska divisionen av TikToks moderbolag ByteDance, har också nyligen ingått partnerskap med Chengs företag för att utveckla en rad initiativ som inkluderar web3-spel, SocialFi, rekommendationslösningar och produkter för förstärkt verklighet. Mysten Labs tror att blockchain-tekniken är på väg att förändras.

Direktlänk Dela The Block Crypto fördjupade 4 maj

NetApp tror att GenAI-inferens kommer att bli allmänt använd inom företag

NetApp tror att GenAI-inferens kommer att användas allmänt inom företag och behöver tillgång till stora mängder ansluten data, precis vad deras intelligenta datainfrastruktur erbjuder. En studie utförd av NetApp och IDC fann att 63 procent av alla respondenterna rapporterade behovet av stora förbättringar eller en fullständig översyn för att säkerställa att deras lagring är optimerad för AI. Russell Fishman, NetApps senior director för produktledning för AI och relaterade ämnen, tror att ansluten data för inferens ligger rakt i NetApps bana. Han tror att GPU-serverställen blir extraordinärt krävande av elektrisk kraft och kapitalutgifter, vilket kommer att begränsa AI-träningsplatser. Fishman nämnde Nvidias Blackwell-GPU:er med deras behov av 150 kilowatt per ställ, och sa: ´Jag känner inte till några företag som har ett datacenterställ som kan köra ett 150 kilowatt ställ. Inte ens nära. Verkligheten här är att AI-utbildning kommer att bli förbehållen några mycket specialiserade leverantörer. Du kommer att hyra utbildningen.´

Direktlänk Dela Blocks and Files fördjupade 4 maj

Använda AI-chatboten Claude 3 för att skapa ordlekar och quiz

AI-chatboten Claude 3, som erbjuds både i betal- och gratisversion, kan användas för att skapa olika typer av ordlekar och quiz. Claude 3 har mänsklika svar och förmågan att resonera kring komplexa idéer. Anthropic har lanserat sin första iPhone-app för Claude 3, vilket har lett till skapandet av sju prompts som fungerar med den kostnadsfria versionen av chatboten, Claude 3 Sonnet. Dessa prompts täcker allt från ´what if´-koncept till förbättring av musikkunskap.

Direktlänk Dela Tom´s Guide fördjupade 4 maj

Meta lanserar LlaMA 3, en stor språkmodell med förbättrad prestanda

Meta har lanserat LlaMA 3, en stor språkmodell som påstår sig göra ett stort språng framåt över LlaMA 2. Modellen släpptes i 8B och 70B parameterstorlekar. Enligt Meta var det fyra huvudpunkter vid byggandet av LlaMA 3: modellarkitekturen, förträningsdata, skalning upp förträning och instruktionsfinjustering. Detta leder oss att fundera över hur vi kan dra nytta av denna mycket kompetenta modell. För att hjälpa till att utforska svaren på några av dessa frågor samarbetade jag med Edurado Ordax, generativ AI-ledare på AWS och professor Tom Yeh, CS-professor vid University of Colorado, Boulder.

Direktlänk Dela Towards Data Science fördjupade 4 maj

Ny modell för naturlig språkbehandling förbättrar förståelsen av långa textsekvenser

Forskare från Beijing Academy of Artificial Intelligence och Renmin University of China har introducerat en ny modell för naturlig språkbehandling (NLP), Llama-3-8B-Instruct-80K-QLoRA, som förlänger kontextlängden från 8K till 80K tokens. Modellen är utformad för att bevara kontextuell förståelse över långa textsekvenser samtidigt som den minskar beräkningskraven. Dess unika metod använder förbättrade uppmärksamhetsmekanismer och innovativa träningsstrategier, vilket gör det möjligt att hantera längre sammanhang effektivare än tidigare modeller. Modellens prestanda över benchmarks som LongBench och InfBench visade dess förmåga att hantera omfattande textsekvenser korrekt.

Direktlänk Dela MarkTechPost fördjupade 3 maj
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

Forskare utforskar tidig inferensutgång för att minska kraven på storskaliga språkmodeller

Forskare från FAIR, GenAI, Reality Labs på Meta, University of Toronto, Carnegie Mellon University, University of Wisconsin-Madison och Dana-Farber Cancer Institute undersöker möjligheten att minska antalet lager för varje token genom tidig inferensutgång. Forskarna använder ett exempel för att undersöka vad som händer i varje skikt av en storskalig språkmodell (LLM). De tränar en Llama1 7B-modell med HumanEval-kodningsdatasetet och matar den med dess initiala prompt. Forskarna noterar att bland de 32 nivåerna i modellen behövs i genomsnitt 23,45 lager för en token. Detta innebär att de endast kan få en 26% reduktion av beräkningen, även med en idealisk prediktor utan beräkningsöverhuvudtaget. Forskarna föreslår att LLM-modeller bör minimera beräkning som spenderas på att tveka eller ´ändra sig´ och öka förutsägelsens noggrannhet med färre lager per token. Forskarna introducerar en själv-spekulativ avkodningsmetod där varje token autoregressivt produceras med hjälp av tidig utgång. Sedan används de återstående lagren för att verifiera och korrigera en grupp tokens samtidigt.

Direktlänk Dela MarkTechPost fördjupade 2 maj

Decentraliserad AI är avgörande för att skapa säkrare och opartiska algoritmer

Decentraliserad artificiell intelligens (AI) är avgörande för att skapa säkrare och opartiska AI-algoritmer, enligt Calanthia Mei, medgrundare till Masa Network. Decentraliserad AI försöker att ta itu med de grundläggande bristerna i AI, vilket säkerställer en mer opartisk och säkrare AI. Fördelarna med blockchain-baserad decentraliserad AI inkluderar mer transparent beslutsfattande, förbättrad datasekretess och användarägda modeller som gör det möjligt för människor att bidra med sina data eller datorkraft i utbyte mot token-incitament. Masa Network är bland de största decentraliserade AI-data och stora språkmodellsprotokollen som syftar till att erbjuda mer tillförlitliga data till AI-applikationer.

Direktlänk Dela Cointelegraph fördjupade 25 april

AIOS: Ett operativsystem för stora språkmodeller

Under de senaste sex decennierna har operativsystem utvecklats från grundläggande system till komplexa och interaktiva system som driver dagens enheter. Nyligen har stora språkmodeller (LLM) integrerats och revolutionerat olika branscher genom att låsa upp nya möjligheter. AIOS är ett operativsystem för LLM-agenter utformat för att integrera stora språkmodeller som ´hjärnan´ i operativsystemet, vilket effektivt ger det en ´själ´. AIOS-ramverket syftar till att underlätta kontextväxling över agenter, optimera resursallokering, tillhandahålla verktygstjänster för agenter, upprätthålla åtkomstkontroll och möjliggöra samtidig exekvering av agenter.

Direktlänk Dela Unite.AI fördjupade 25 april

AtScale avtäcker ny version av sin semantiska lagerplattform

AtScale har avtäckt den senaste versionen av sin semantiska lagerplattform som syftar till att möjliggöra snabbare beslutsfattande och samarbete. Plattformen inkluderar stöd för både traditionell AI och stora språkmodeller. AtScale avtäckte också en gratisversion av sin plattform för att introducera nya användare till företagets semantiska lagerfunktioner. Företaget presenterade Developer Community Edition och den övergripande plattformsuppdateringen under Semantic Layer Summit, AtScales årliga användarkonferens i Boston. Båda är nu tillgängliga för allmän granskning.

Direktlänk Dela TechTarget fördjupade 25 april

Forskare utvecklar djupinlärningsalternativ för att övervaka lasersmältbäddsfusion

Forskare vid Carnegie Mellon Universitys ingenjörscollege har utvecklat en djupinlärningsmetod för att övervaka och karaktärisera smältbassänger under additiv tillverkning (AM) av metall. Den traditionella metoden, som använder höghastighetskameror, är dyr och tidskrävande. Den nya metoden använder ljud- eller värmesignaler för att fånga och karaktärisera smältbassänger. Forskarna menar att deras metod kan identifiera defekter nästan omedelbart, vilket kan förbättra tillverkningsprocessen. Forskningen har publicerats i Journal of Additive Manufacturing.

Direktlänk Dela Tech Xplore fördjupade 24 april

Google lanserar banbrytande AI-plattform Gemini

Google har lanserat Gemini, en banbrytande AI-plattform, som revolutionerar hur organisationer använder AI för effektivitet, kreativitet och tillväxt. Plattformen presenterades på TechSparks Mumbai 2024 av Naren Kachroo, chef för GTM AI, Google Cloud India, och Anirudh Murali, kundingenjör, Google Cloud, India. Gemini representerar en ny generation av generativ AI, designad med tre kärnprinciper: multimodalitet, hög optimering och ansvarsfull AI. Plattformen kan känna igen specifikt och lokaliserat innehåll, extrahera data och förstå olika konversationella innehåll. Dessutom kan den förstå videoinnehåll och erbjuda passande konversation.

Direktlänk Dela YourStory Media fördjupade 22 april

AI-aktier: Datafokuserade mjukvaruföretag står inför konkurrens och möjligheter

Efterfrågan på högpresterande chipp har gjort Nvidia till ledande inom AI-aktier, men nu breddar Wall Street fokus till företag som MongoDB, Confluent och Elastic, som förväntas dra nytta av en enorm ökning av mjukvaruutgifterna. Företag strävar efter att bygga AI-drivna verktyg, vilket öppnar upp möjligheter för datafokuserade mjukvaruföretag. Dessa företag står inför konkurrens från mjukvarujättar som Microsoft och Oracle, samt Nvidia själv när chippjätten gör framsteg inom mjukvara. Trots detta förväntas globala IT-utgifter öka med 8% 2024, till över 5,06 biljoner dollar.

Direktlänk Dela Investor´s Business Daily fördjupade 19 april

OpenAI öppnar sitt första asiatiska kontor i Tokyo, presenterar ny GPT-4-modell anpassad för japanska

OpenAI har officiellt öppnat sitt första asiatiska kontor i Tokyo, Japan, vilket markerar en betydande internationell expansion för företaget. För att markera tillfället meddelade AI-utvecklaren lanseringen av en ny anpassad GPT-4-modell optimerad för japanska. Denna modell kan hjälpa företaget att få en roll på Japans blomstrande AI-marknad. Japan har redan lockat betydande AI-investeringar, inklusive Microsofts avsikt att investera 2,9 miljarder dollar i landets AI och molninfrastruktur de kommande två åren.

Direktlänk Dela CryptoCoinNews fördjupade 15 april

AI Game Assets Generator-marknaden växer, drivs av ökat konsumentintresse och tekniska framsteg

Enligt en rapport i Orbisresearch.coms databas växer AI Game Assets Generator-marknaden, med varumärken som utökar sin räckvidd genom strategiska initiativ som robusta marknadsföringskampanjer, partnerskap med återförsäljare och utnyttjande av digitala plattformar för ökad synlighet. Konsumenternas ökade intresse för AI Game Assets Generator driver marknaden, vilket är drivet av faktorer som ökad medvetenhet om fördelarna, förändrade livsstilspreferenser och ökande disponibla inkomster. Marknaden uppvisar varierande trender och dynamik över olika länder, med hög efterfrågan på premiumprodukter i utvecklade ekonomier som USA och Västeuropa, medan tillväxtmarknader i Asien och Latinamerika upplever snabb tillväxt.

Direktlänk Dela Amore Nigeria fördjupade 15 april

OpenAI uppgraderar ChatGPT med GPT-4-Turbo

OpenAI har uppgraderat sin AI-chatbot, ChatGPT, med GPT-4-Turbo, vilket förbättrar dess resonemangs- och konversationsförmågor. OpenAI lovar att den kommer att vara mindre långdragen och mer stilistisk i sitt skrivande i framtiden. Även om detta endast är tillgängligt för ChatGPT Plus-prenumeranter, har en serie roliga uppmaningar att testa med ChatGPT samlats, vilka fungerar med både den fria och betalda versionen.

Direktlänk Dela Tom´s Guide fördjupade 13 april
3 000+ kursdeltagare från svenska företag och offentliga verksamheter
har gått vår kurs "AI på jobbet".

Studie inkluderar ett stort antal pCO2-observationer för att träna avancerade ML-modeller

Denna studie inkluderar ett betydande antal observationer av öppet och kustnära havs pCO2 och tillhörande variabler som reglerar pCO2-variabiliteten i BoB för att skapa en databas som kan hjälpa till att träna avancerade ML-modeller. Forskare antar att havsytans pCO2 är en funktion av havsytans temperatur (SST), havsytans salthalt (SSS), blandat lagers djup (MLD), atmosfärisk CO2-molfraktion (xCO2) och klorofyll-a (CHL). Studien testar fyra avancerade ML-algoritmer för att skapa havsytans pCO2-kartor för BoB.

Direktlänk Dela Nature fördjupade 13 april

Solana integrerar AI för att vända nedåtgående trend

Solana, en Layer 1-blockchain som är känd för sina snabba och billiga transaktioner, tar sig an den framväxande världen av artificiell intelligens (AI) i ett försök att vända sin långvariga nedåtgående trend och öka antagandet. Solana lanserade på tisdagen en ChatGPT-plugin som låter användare köpa NFT:er, överföra tokens och analysera on-chain-data. Anatoly Yakovenko, VD för Solana Labs, förväntar sig att framtida versioner av pluginen kommer att kunna skriva smarta kontrakt och distribuera dem on-chain. Solana har också meddelat en tiofaldig ökning av finansieringen till sitt AI-acceleratorbidragsprogram till 10 miljoner dollar.

Direktlänk Dela The Defiant fördjupade 12 april

Salesforce, en omfattande CRM-lösning, har nyligen nått nya höjder med generativ AI och AI-drivna funktioner, möjligt genom Einstein. Salesforce har länge erbjudit toppmodern molnteknik för kundrelationshantering. Med Salesforce kan specifika moln ställas in så att dina team kan hantera marknadsföring, försäljning, kundservice, e-handel och mer med resurser som är specialbyggda för både kundupplevelse och kraftfull data- och analys för att stödja interna beslut. Salesforce Einstein är en uppsättning specialbyggda, infödda AI-teknik och funktioner för Salesforce CRM. Det är integrerat i enskilda Salesforce Cloud-appar, inklusive Sales Cloud, Marketing Cloud, Service Cloud och Commerce Cloud, samt mer generellt genom stödverktyg som Einstein Copilot. Salesforce Einstein är flerhyresgäst och inkluderar flera automatiserade maskininlärningsfunktioner, vilket hjälper den att bättre förena en organisations data med utveckling, AI och allmänna AI CRM-funktioner.

eWEEK fördjupade 10 april

Covalent migrerar sina staking-operationer tillbaka till Ethereum

Covalent (CQT), en ledande onchain data layer av Web3, har meddelat att de kommer att migrera sina staking-operationer från Moonbeam tillbaka till Ethereum. Detta är det första steget i Covalents resa mot Ethereum Wayback Machine (EWM), en långsiktig data tillgänglighetslösning för Ethereum och alla blockchains byggda med Ethereum Virtual Machine (EVM). Covalent planerar också att utöka sin operatörsbas för att organisera, standardisera och säkert lagra historiska data onchain för Ethereum EVM state execution och data blobs. Covalent introducerar även en ny operatörsroll senare under året som är utformad för att demokratisera deltagande och ge en bredare gemenskap av operatörer möjlighet att bidra till nätverkets säkerhet och tillväxt.

Direktlänk Dela CoinCodex fördjupade 9 april

Skyflow samlar in 30 miljoner dollar för att skydda personuppgifter i AI-modeller

Skyflow, ett företag som specialiserat sig på att skydda personligt identifierbar information (PII), har samlat in 30 miljoner dollar i en finansieringsrunda ledd av Khosla Ventures. Företaget använder polymorfism tillsammans med kryptering och tokenisering för att skydda PII och annan konfidentiell information. Skyflows teknik är särskilt användbar för stora språkmodeller (LLM), eftersom dessa saknar de traditionella strukturer som skyddsmekanismer kan fästa på. Skyflows API fungerar som ett dataskyddslager, lagrar original-PII i sin sekretessvalv och exponerar bara så mycket som behövs för varje steg i en applikation.

Direktlänk Dela Diginomica fördjupade 5 april

Salesforce släpper beta-version av Einstein Copilot för Tableau

Salesforce har släppt en beta-version av Einstein Copilot för Tableau, ett AI-verktyg som fungerar som en personlig dataforskare. Einstein Copilot kan förstå data, skapa relevanta frågor för företagsanalys och automatisera datakurering. Verktyget kan även fylla i data luckor med syntetiska dataset, generera icke-spårbar dataanalys och upptäcka dolda korrelationer mellan data. Salesforce planerar att släppa fullständiga versionen under sommaren. Salesforce strävar efter att bli ett AI-först-företag och integrera AI i alla aspekter av sin verksamhet.

Direktlänk Dela Windows Report fördjupade 4 april

Amazon investerar i AI-startup Anthropic för att accelerera framsteg inom artificiell intelligens

Amazon har gjort den sista betalningen på sin överenskomna investering på 4 miljarder dollar i ledande AI-startup Anthropic. Affären kommer att påskynda Amazons framsteg på både hårdvaru- och mjukvarusidan. Amazon Web Services (AWS) är den största molntjänstplattformen i världen och erbjuder hundratals lösningar för att hjälpa företag att lagra data, driva digitala försäljningskanaler, utveckla programvara och bygga AI-applikationer. Amazon strävar efter att AWS ska dominera de tre primära lagren av AI. Amazon och Anthropic tillkännagav ett strategiskt partnerskap i september 2023, där Amazon skulle investera 4 miljarder dollar i startupen.

Direktlänk Dela Yahoo Finance fördjupade 2 april

MoE-LLaVA: Skalning av stora visionsspråkmodeller på ett kostnadseffektivt sätt

Framsteg inom stora visionsspråkmodeller (LVLM) har visat att skalning av dessa ramar betydligt förbättrar prestanda över en mängd olika uppgifter. LVLM, inklusive MiniGPT, LLaMA och andra, har uppnått anmärkningsvärda förmågor genom att införliva visuella projiceringslager och en bildkodare i deras arkitektur. Denna artikel diskuterar MoE-LLaVA, en blandning av expertbaserad sparsam LVLM-arkitektur som använder en effektiv träningsstrategi, MoE-Tuning, för LVLM. MoE-Tuning adresserar innovativt prestandaförsämring i multimodal sparsam inlärning, vilket resulterar i en modell med ett stort antal parametrar men konsekventa tränings- och inferenskostnader.

Direktlänk Dela Unite.AI fördjupade 2 april

CreativePro erbjuder AI-drivna Photoshop-effekter för medlemmar

CreativePro erbjuder nedladdningsbara fördelar exklusivt för sina medlemmar. En artikel av Rob de Winter i CreativePro Magazine beskriver en teknik för att skapa akvarelleffekter i Photoshop genom att använda Generative Fill på ett delvis valt lager. För att underlätta processen har CreativePro skapat ett paket med tio åtgärder för att automatiskt skapa effekter som akvarellmålning, korsstygn, oljemålning, kritritning, färgpennsritning, pastellritning, psykedelisk 60-talsposter, anime-tecknad, pixelkonst och impressionistisk målning. Nedladdningspaketet innehåller instruktioner för installation, användning och anpassning av åtgärderna.

Direktlänk Dela CreativePro Network fördjupade 1 april

UCLA forskare skapar självdriven plåster som översätter tyst tal till talat tal

Bioingenjörsforskare vid UCLA har skapat en självdriven plåster som översätter larinkelmuskelrörelser under tyst tal till talat tal med hjälp av maskininlärning. Denna bärbara teknik kan möjliggöra för människor med talproblem på grund av sjukdom, skada eller stämbandsstörningar att tala även när de är stumma med hjälp av talsenssystemet. Forskarna skapade en klisterplåster som kan känna rörelsen av strupmusklerna. När en person försöker tala med den 7,2 gram tunna plåstret på, rör sig musklerna och plåstret böjer sig, vilket genererar en liten elektrisk signal som plockas upp av sensormodulen. Signalen bearbetas, sedan skickas till maskininlärningsmodulen som analyserar signalen och tolkar vad talaren försöker säga från en uppsättning av fem meningar som används för att träna systemet. Inom 40 ms talar datorn den avsedda meningen med en noggrannhet på 94,68 procent.

Direktlänk Dela Notebookcheck fördjupade 30 mars

Photoshop 24 introducerar AI-verktyg för att förbättra arbetsflödet

Photoshop 24 är den första versionen av appen som inkluderar alla AI-verktyg ur beta och de bör definitivt utnyttjas. Från att expandera, lägga till, ta bort eller välja, tar Photoshop bort alla tidskrävande uppgifter som är involverade i bildredigering och låter dig spendera mer tid på att realisera ditt slutmål. Denna handledning ger en kort genomgång av de viktigaste AI-verktygen och förklarar hur du får ut det mesta av dem. Från generativ expandering till generativ fyllning och ämnesval samt lins oskärpefilter finns det mycket att förbättra ditt arbetsflöde här.

Direktlänk Dela Creative Bloq fördjupade 29 mars

Kemiska språkmodeller tränade på ChEMBL och GDB-13 databaser

Experiment utfördes för att träna kemiska språkmodeller på slumpmässiga urval av molekyler från ChEMBL-databasen. Databasen bearbetades för att ta bort dubbletter, salt och lösningsmedel, samt laddade molekyler neutraliserades. Molekyler med atomer annat än Br, C, Cl, F, H, I, N, O, P eller S togs bort och molekyler konverterades till sina kanoniska SMILES-representationer. Slumpmässiga urval av mellan 30 000 och 300 000 molekyler drogs sedan från de förbehandlade SMILES. Separat utvärderades effekten av den kemiska mångfalden i träningsuppsättningen på modellprestanda genom att sampling av träningsuppsättningar med minskande kemisk mångfald. Totalt tränades 180 modeller som skilde sig enligt slumpmässigt frö, storleken på träningsdatasetet, den kemiska mångfalden, graden av SMILES/SELFIES-förstärkning och ingångsdatabasen (ChEMBL kontra GDB-13).

Direktlänk Dela Nature fördjupade 29 mars

Framsteg inom kvantprickstillväxt med maskininlärning

Forskare har utvecklat en metod för att kontrollera tillväxten av kvantprickar (QD) med hjälp av maskininlärningsmodeller. Metoden bygger på en databas över tillväxtparametrar och motsvarande QD-karakteristik, vilket hjälper forskarna att bestämma de nödvändiga tillväxtparametrarna för att uppnå en önskad densitet av QD. Varje QD-tillväxt upprepades i genomsnitt fyra gånger, vilket resulterade i 120 RHEED-videor. Proverna som växte utan QD hade platta ytor bestämda av en atomkraftmikroskop (AFM). Forskarna kunde identifiera övergången från att ha både streck och prickar till endast prickar, vilket motsvarar en densitet av 1 x 10^10 cm^-2 i AFM-bilder.

Direktlänk Dela Nature fördjupade 29 mars

Analytiker diskuterar LLM-observabilitet och dess betydelse för systeminsikter

Janikiram MSV, en oberoende analytiker och frekvent bidragsgivare, har diskuterat LLM-observabilitet, ett nytt ekosystem som har utvecklats under det senaste året. LLM-stacken omfattar stora språkmodeller, vektordatabaser, inbäddade modeller, hämtningsystem och läsankarmodeller. Målet med LLM-observabilitet är att övervaka de gyllene signalerna som kommer från denna nya stack och säkerställa att systemet ger de önskade resultaten. MSV detaljerade kritiska aspekter av LLM-observabilitet, inklusive GPU, CPU, lagring och vektordatabas, modelltjänst, modellanvändning och ändringar i applikationens agenter. Han betonade vikten av att övervaka infrastrukturresurser, hålla vektordatabasen tillgänglig och säkerställa att modellkatalogen är synkroniserad med en extern modellleverantör som Hugging Face.

Direktlänk Dela The New Stack fördjupade 29 mars

Förfining av stora språkmodeller: En djupgående guide

Stora språkmodeller (LLM) som GPT-4, LaMDA och PaLM har visat enastående förmåga att förstå och generera människoliknande texter på en mängd olika ämnen. Dessa modeller förtränas på enorma dataset som består av miljarder ord från internet, böcker och andra källor. Trots deras otroliga bredd saknar dessa förtränade LLM specialiserad expertis för specifika domäner eller uppgifter. Det är här finjustering kommer in - processen att anpassa en förtränad LLM för att utmärka sig i en specifik tillämpning eller användningsfall. Genom att ytterligare träna modellen på ett mindre, uppgiftsspecifikt dataset kan vi justera dess förmågor för att överensstämma med nyanserna och kraven i den domänen.

Direktlänk Dela Unite.AI fördjupade 26 mars

AI-artisten Thaeyne presenterar 50 ovanliga ord för att generera unika bilder

En guide presenterar en lista över 50 ovanliga ord som används som prompts i Midjourney för att generera unika bilder. Dessa ord, som inte typiskt används i vardagligt språk, valdes av den framstående AI-artisten Thaeyne för att utforska deras visuella tolkning när de används som första ord i olika prompts. Orden valdes för deras sällsynthet och det faktum att de inte tidigare använts av författaren i detta sammanhang. Listan är organiserad av författarens preferens baserat på dragningskraften av de resulterande bilderna.

Direktlänk Dela Geeky Gadgets fördjupade 25 mars

BlastUP kan bli nästa stora sak inom kryptorummet

Bitcoin tenderar att öka i värde efter varje halveringsevenemang. Experter tror att det kan gå upp mycket nästa gång. Denna boost kan sprida sig till andra digitala mynt också. Vissa altcoins, valda av AI, är redo att vinna i nästa stora uppgång på kryptomarknaden. BlastUP, en unik lanseringsplattform baserad på Blast, en legendarisk Layer 2-blockchain, har redan lyckats samla in över $2,5 miljoner på bara några veckor. Dessutom är försäljningen av BlastUP-tokens igång, och investering i dem kan liknas vid att köpa Ethereum för några dollar tillbaka 2017. Kort sagt, BlastUP förbereder sig för att bli nästa stora sak inom kryptorummet.

Direktlänk Dela Cryptodaily.co.uk fördjupade 23 mars

Salesforce lanserar AI-verktyg för fälttjänstpersonal

Salesforce-användare kan nu använda generativa AI-verktyg för uppgifter som besökssammanfattningar och insamling av bakgrundsinformation. Einstein 1 Field Service Edition, släppt tidigare denna månad, lägger till verktyg som ofta behövs inom vertikala industrier som bygg, hemvård, verktyg och telekommunikation. Teknikerna får de mest effektiva AI-verktygen, inklusive fallsummeringar för att snabba upp dem inför ett samtal och automatgenererade besökssammanfattningar. Det erbjuder också Einstein Copilot för mobila arbetare, vilket gör det möjligt för arbetare att ställa frågor specifika för ett kundproblem eller reparationsjobb och få GenAI-sammanfattade svar.

Direktlänk Dela TechTarget fördjupade 22 mars

Farorna med Artificiell Intelligens: Ett Globalt Hot mot Mänskligheten

Artificiell intelligens (AI) har potential att revolutionera flera sektorer, men dess faror kan inte ignoreras. AI kan överskugga sina fördelar med katastrofala konsekvenser, inklusive mänsklighetens utrotning. AI används redan inom finans, krigföring, medicin och jordbruk. Oreglerad AI kan utgöra ett ´utrotningshot´ för mänskligheten, enligt en studie finansierad av USA:s utrikesdepartement. För att stoppa vidare användning och utveckling av denna teknik skulle det krävas ett globalt fördrag. Om en rörelse för att förbjuda AI skulle lyckas, kan det bryta vår kollektiva feberdröm om nyliberal kapitalism så att människor och deras regeringar äntligen inser behovet av att sätta gränser.

Direktlänk Dela Resilience fördjupade 21 mars

Ny metod för att stjäla information från språkmodeller upptäckt

Forskare har presenterat en ny metod för att angripa stora språkmodeller, såsom GPT-4, Claude 2 och Gemini, genom att utnyttja modellernas API. Denna metod, som är utformad för att återvinna en transformerande språkmodells kompletta inbäddningsprojektionslager, skiljer sig från tidigare metoder genom att den arbetar uppifrån och ned, direkt extraherar modellens slutliga lager. Trots att den endast återvinner en del av hela modellen, väcker metoden oro för framtida, mer omfattande attacker. Efter ansvarsfull rapportering har både Google´s PaLM-2 och OpenAI´s GPT-4 implementerat försvar för att mildra eller öka kostnaden för attacken.

Direktlänk Dela MarkTechPost fördjupade 14 mars

Ny maskinlärningsmodell kan förbättra språkförståelse genom att ´glömma´

Ett team av datavetenskapare har skapat en mer smidig och flexibel typ av maskinlärningsmodell. Tricket: den måste periodvis glömma vad den vet. Denna nya metod kommer inte att ersätta de stora modeller som stödjer de största appar, men den kan avslöja mer om hur dessa program förstår språk. AI språkmotorer som används idag drivs mestadels av artificiella neurala nätverk. Forskarna tränade ett neuralt nätverk i ett språk, raderade sedan det den visste om ordens byggstenar, kallade tokens. De lämnade alla andra lager av modellen ensamma. Efter att ha raderat tokens för det första språket, tränade de om modellen på det andra språket, vilket fyllde inbäddningslagret med nya tokens från det språket. Trots att modellen innehöll felaktig information, fungerade omskolningen: Modellen kunde lära sig och bearbeta det nya språket.

Direktlänk Dela Wired fördjupade 10 mars

Fetch.ai är ett projekt som syftar till att verka i skärningspunkten mellan blockchain-teknologi och artificiell intelligens (AI). Fetch.ai är ett AI-labb grundat 2017 och debuterade via en Initial Exchange Offering (IEO) på Binance i mars 2019. Målet är att skapa ett öppet, decentraliserat maskininlärningsnätverk med en kryptoekonomi. Fetch.ai demokratiserar tillgången till AI-teknologi genom att möjliggöra autonom AI att utföra uppgifter som utnyttjar dess omfattande globala datanätverk. Detta skapar användningsfall som optimering av DeFi-handelstjänster, smarta energinät, parkering och mikromobilitet i transportnätverk och resor.

Coingape fördjupade 10 mars

Macy´s stänger butiker medan Nvidia blomstrar, signalerar förändring i ekonomin

Macy´s, en gång en detaljhandelspelare, meddelade i slutet av februari att de kommer att stänga 150 butiker på grund av krympande försäljning och intäkter. Samtidigt har Nvidia, en tillverkare av artificiell intelligens (AI) chips, blivit ett av de första börsnoterade företagen att nå en marknadsvärdering på 2 biljoner dollar. Medan Nvidia skapar chips som driver AI, kämpar Macy´s för att hänga med i de förändrade förväntningarna hos kunder som vill ha något annat än varuhuset från förr. Macy´s planerar att öka antalet mindre butiker och luta sig mer mot lyxsegmentet genom att öppna cirka 15 nya Bloomingdale´s-platser och lansera eller renovera cirka 60 Bluemercury-butiker som fokuserar på hudvård och skönhet under de närmaste tre åren.

Direktlänk Dela USA Today fördjupade 8 mars

AI Game Assets Generator-marknaden förväntas expandera snabbt

AI Game Assets Generator-marknadsrapporten är en noggrann undersökning av den globala marknaden för AI Game Assets Generator. Rapporten ger tillväxthastigheter och marknadsvärdering baserat på marknadsdynamik och potentiella drivkrafter. Rapporten illustrerar marknadens olika komponenter och data med hjälp av siffror, stapeldiagram, pajdiagram och andra grafiska verktyg. Det förväntas att AI Game Assets Generator-marknaden kommer att expandera snabbt. Nyckelmarknadssegmentering: Marknadstyper: 2D, 3D AI Game Assets Generator Marknadsapplikationer: Spelutveckling, Spelunderhåll. De främsta spelarna nämnda på AI Game Assets Generator-marknaden: AI Texture Generator Artbreeder Dall-E 2 DreamStudio Hotpot Layer Leonardo Ludo AI Midjourney Neural Love NightCafe PixelVibe Promethean Runway ML Scenario Sloyd.

Direktlänk Dela Amore Nigeria fördjupade 7 mars

Hackathon utforskar maskininlärningsmodeller för SWR-detektering

En hackathon organiserades i Madrid i oktober 2021 för att utforska olika maskininlärningsmodeller för problemet med SWR-detektering. Evenemanget riktade sig specifikt till personer som inte är bekanta med SWR-studier och kunde tillhandahålla opartiska lösningar på utmaningen. Totalt deltog 116 personer, fördelade på 36 lag, och de representerade en blandning av studenter och icke-akademiska arbetare. Deltagarna utformade och tränade en ML-algoritm för att upptäcka SWR under en helg. Deras lösningar var föremål för efterföljande undersökning och modifiering.

Direktlänk Dela Nature fördjupade 4 mars

Kryptovaluta: Prisprognoser för XRP, BlastUP och Cardano

Bitcoin ETF:er har gjort stort avtryck på Wall Street och skakat om kryptovalutamarknaden. I det här sammanhanget har ChatGPT:s prisprognoser för XRP, BlastUP och Cardano fått stor uppmärksamhet. BlastUP, baserat på Layer 2-blockchainen Blast, har nyligen lanserats och nått en TVL på 1 miljard dollar på bara en månad. XRP:s värde kan påverkas av SEC:s överklagande mot Ripple, vilket kan leda till prisförändringar. Cardano har potential för solid tillväxt givet Charles Hoskinsons engagemang för att bygga ett robust ADA-ekosystem.

Direktlänk Dela Cryptodaily.co.uk fördjupade 2 mars

Teknologi behöver samhällelig förståelse för att vara effektiv

Teknologi behöver inte bara teknisk kompetens för att vara effektiv, utan också populär förståelse, goda vanor och acceptans av delat ansvar för dess konsekvenser. Ett exempel på detta är mRNA-vaccinerna som skapades under COVID-19-epidemin, som, trots att de var en fantastisk medicinsk prestation, inte landade så bra som de kunde ha gjort på grund av generell missförståelse. Detta gäller även för teknik som artificiell intelligens (AI), där missförståelse och felaktiga föreställningar kan leda till ineffektiv användning och potentiellt negativa konsekvenser.

Direktlänk Dela The New Yorker fördjupade 1 mars

Grundläggande och vanliga varianter av neurala nätverk

Neurala nätverk är grunden för modern maskininlärning och AI, och de är avgörande för att förstå vad AI är och hur det fungerar. I denna artikel diskuteras grunderna i neurala nätverk och några av de vanligaste varianterna, inklusive framåtriktade och återkommande nätverk, som driver allt från stora språkmodeller som ChatGPT och Bard till bildgenerering med stabil diffusion. Artikeln förklarar också hur neurala nätverk och den mänskliga hjärnan skiljer sig åt, och hur neurala nätverk kan användas för att lösa problem genom att reduceras till en uppsättning in- och utdata med en förlustfunktion.

Direktlänk Dela InfoWorld fördjupade 28 februari

Google stoppar text-till-bild-funktionen i AI-modellen Gemini efter historiska felaktigheter

Google har tillfälligt stoppat tillgängligheten av text-till-bild-funktionen i sin nyligen lanserade AI-modell Gemini, efter att den misslyckats med att korrekt representera vita européer och amerikaner i specifika historiska sammanhang. Detta blev uppenbart när Gemini bads producera bilder av en tysk soldat från 1943 och programvaran genererade en etniskt diversifierad grupp som inte korrekt representerade Wehrmacht vid den tiden. Användare påpekade också modellens oförmåga att korrekt avbilda Amerikas grundlagsfäder. Google medgav att Gemini ger felaktigheter i vissa historiska bildgenereringar och arbetar för att förbättra dessa avbildningar.

Direktlänk Dela The Register fördjupade 23 februari

Microsoft Paint förbättrat i Windows 11 med AI-verktyget Cocreator och lagerfunktioner

Microsoft Paint har alltid varit ett enkelt grafikredigeringsprogram, men programmet har förstärkts i Windows 11. Med ett inbyggt generativt AI-verktyg som kallas Cocreator kan du be Paint att skapa en specifik typ av bild baserad på din beskrivning. Och med Lager kan du lägga till olika nivåer till dina bilder för att bygga och redigera dem lättare. För att få de nya funktionerna behöver du Windows 11; Paint i Windows 10 inkluderar inte de nya funktionerna. Microsoft rullade ut detta i september 2023.

Direktlänk Dela PC Magazine UK fördjupade 21 februari

OpenAI utvecklar sökmotor för att utmana Google

Det rapporteras att OpenAI arbetar med en sökmotor som skulle utmana Google direkt. Rapporten publicerad på The Information förklarar att OpenAI utvecklar en webbsökprodukt som kommer att konkurrera direkt med Google. En viktig detalj i rapporten är att den delvis kommer att drivas av Bing, Microsofts sökmotor. Det finns dock inga andra detaljer, inklusive om det kommer att vara en fristående sökmotor eller integreras inom ChatGPT. OpenAI sägs använda Bing-sökning som en del av den ryktade sökmotorn, en kombination av en GPT-4 med Bing Search, plus något i mitten för att samordna mellan de två. Trots att ChatGPT är den snabbast växande appen genom tiderna, med cirka 180 miljoner användare, är Googles ledning en brant kulle för OpenAI att klättra. OpenAI saknar expertis inom informationshämtning och det finns inga tecken på att de utvecklar en sökmotor. Det finns betydande bevis på att Microsoft forskar intensivt om hur man använder LLM som en del av en sökmotor.

Direktlänk Dela Search Engine Journal fördjupade 20 februari

Cardano-grundare kritiserar Bitcoin, förutspår ljus framtid för ADA

Charles Hoskinson, grundaren av Cardano [ADA], har nyligen uttryckt skepsis mot Bitcoins förmåga att anpassa sig till Layer 2-lösningar, vilket har lett till diskussioner om framtiden för stora blockchain-nätverk. ADA går utöver att vara en digital valuta och symboliserar säker utbyte av värde utan mellanhänder. Dessutom bidrar ADA-ägare aktivt till Cardano-ekosystemet. Cardano Foundation, EMURGO och IOHK spelar viktiga roller i detta ekosystem. ChatGPT förutspår att ADA kommer att bli en av de bäst presterande kryptovalutorna, med en potentiell 25-faldig ökning till $10 fram till slutet av 2024.

Direktlänk Dela Crypto News Bytes fördjupade 13 februari

Stark köprekommendation för ASM International på grund av förväntad tillväxt inom halvledarteknik

ASM International NV, marknadsledare inom Atomic Layer Deposition (ALD), väntas dra nytta av en ökning i CAPEX-utgifterna från 2024 och framåt, drivet av efterfrågan på mer avancerade logikkretsar och minnen. Bolaget har över 55% marknadsandel inom ALD, som är avgörande för tillverkning av högkvalitativa chips. ASM äger 25% av ASM Pacific, ett företag inom halvledarindustrin. Konkurrenter inkluderar Tokyo Electron och Applied Materials. ASM förväntas dra nytta av övergången till mer avancerade transistorer och halvledarteknik, vilket gör aktien till ett starkt köp.

Direktlänk Dela Seeking Alpha fördjupade 13 februari

AI:s snabba utveckling och framtida möjligheter

Artificiell intelligens (AI) har utvecklats snabbt och transformerat våra liv sedan dess begynnelse som ett teoretiskt koncept inom datavetenskap. AI:s integration i olika sektorer och växande samhälleliga och ekonomiska krav driver dess ständiga utveckling. AI:s inverkan sträcker sig långt bortom rubriker och investeringssiffror. Personliga assistenter som Siri och Alexa är inte längre futuristiska prylar; de är väsentliga följeslagare. På företagsfronten optimerar AI operationer, driver prediktiv analys och automatiserar repetitiva uppgifter, vilket leder till betydande effektivitetsvinster. AI:s snabba utveckling har även lett till att flera startups har nått unicorn-status, med Anthropic som det mest värderade till 4,4 miljarder dollar. AI:s framsteg är också beroende av ständig forskning och utveckling.

Direktlänk Dela Medium fördjupade 5 februari

Avmystifierar Mixture of Experts (MoE): En guide för nybörjare

Mixture of Experts (MoE) har nyligen blivit ett hett ämne inom artificiell intelligens, särskilt med lanseringen av Mixtral 8x7B. MoE kombinerar styrkorna hos flera experter, var och en hanterar olika delar av data. MoE använder en grupp av ´neurala nätverksexperter´ för att förbättra sin totala prestanda. MoE tillåter modeller att förtränas snabbare med mindre beräkningsinsats. Trots att MoE har många parametrar används endast en delmängd, vilket leder till snabbare förutsägelser. Utmaningar som finjustering och minneskrav kräver noggrant övervägande.

Direktlänk Dela Medium fördjupade 4 februari

EAGLE: En ny algoritm för att förbättra effektiviteten hos språkmodeller

Enligt studier från Peking University, Microsoft Research, University of Waterloo och Vector Institute presenterar EAGLE (Extrapolation Algorithm for Greater Language-model Efficiency) en ny metod för att förbättra effektiviteten hos språkmodeller. EAGLE är en ram som avviker från direkt token-prediktion och utför auto-regressiva operationer på funktionsnivå, vilket är lättare att hantera än token-nivå auto-regression. EAGLE undviker osäkerheten i funktionsnivå auto-regression genom att använda en token-sekvens som drivs av ett engångssteg. EAGLE ger en 3x acceleration för Vicuna-13B och LLaMA2-Chat 13B, 70B, vilket är teoretiskt säkert för att bevara den ursprungliga LLM: s textdistribution och är omedelbart användbar.

Direktlänk Dela MarkTechPost fördjupade 2 februari

Vad är grafiska neurala nätverk (GNNs) och vad används de till?

Grafiska neurala nätverk (GNNs) är en typ av neural nätverksarkitektur och djupinlärningsmetod som kan hjälpa användare att analysera grafer. De kan göra förutsägelser baserade på data beskrivna av en grafs noder och kanter. GNNs är utformade för att bearbeta grafdata, speciellt strukturell och relationell data. De är flexibla och kan förstå komplexa datarelationer, vilket traditionell ML, djupinlärning och neurala nätverk inte kan göra. GNNs kan användas i olika vetenskaps-, industri- och forskningsområden som lagrar data i grafiska databaser.

Direktlänk Dela TechTarget fördjupade 2 februari

Kommer GenAI bryta din datainfrastruktur? En branschdiskussion

I den fjärde delen av Pure Leadership Series diskuteras vikten av förhållandet mellan GenAI och lagringseffektivitet ur ett AI-ingenjörsperspektiv. Diskussionen utforskar hur framsteg inom lagringsteknik, särskilt flashlagring, erbjuder AI-team ett bättre tillvägagångssätt för att driva AI-utbildning och köra AI-modeller i skala. Dessutom granskas den växande beroendet av nya GenAI-paradigm på ett effektivt och hållbart lagringslager. Det är avgörande att inleda samtal mellan lagrings-/infrastruktur- och GenAI-team nu.

Direktlänk Dela CDOTrends fördjupade 1 februari

Ny AI-modell designar proteiner för att leverera genterapi

Forskare vid University of Toronto har använt ett AI-ramverk för att omforma ett avgörande protein inom genterapileverans. Studien, publicerad i Nature Machine Intelligence, beskriver nytt arbete med att optimera proteiner för att mildra immunreaktioner, vilket förbättrar effektiviteten av genterapi och minskar biverkningar. Forskarna använde AI för att skräddarsy varianter av hexoner som är distinkta från naturliga sekvenser. Traditionella metoder för att designa nya proteiner innebär ofta omfattande försök och fel samt stigande kostnader. Med AI-baserad metod kan forskare uppnå en högre grad av variation, minska kostnaderna och snabbt generera simuleringsscenarier innan de fokuserar på en specifik delmängd av mål för experimentell testning.

Direktlänk Dela Phys.org fördjupade 30 januari

Sei Network öppnar upp potentialen för NFT-konstnärer och projekt

Sei Network utmärker sig snabbt inom NFT-landskapet, där de utnyttjar sin specialiserade blockchain-teknologi för att revolutionera digital tillgångsutbyte. Sei Network, en öppen källkods Layer 1 blockchain, skiljer sig ut med sin exceptionella hastighet och effektivitet. Det är en idealisk plattform för en mängd olika tillämpningar, särskilt NFT-marknadsplatser. Med fokus på hastighet, skalbarhet och gemenskap blir Sei Network snabbt en hubb för NFT-konstnärer som söker ett dynamiskt, skalbart och gemenskapsdrivet utrymme för sina digitala skapelser.

Direktlänk Dela NFT Culture fördjupade 27 januari

Oro över AI:s dominans som utvecklingsverktyg i spelindustrin

Telescope Labs Toby Smith uttryckte oro över generativ AI:s plötsliga dominans som utvecklingsverktyg inom spelindustrin under PGC London 2024. Diskussionen inkluderade Pieter Kooyman från Half Moon Studios, Tom Pigott från Ludo.ai, Louis Fischer från InWorld och representanter från Layer AI och X&Immersion. Panelen spekulerade kring vilka verktyg utvecklare kommer att använda om fem år och hur AI kan förändras med regleringar. Detta inkluderade nuvarande och framtida fördelar för indieutvecklare, den troliga långsamma upptagningen av Triple A-utvecklare och den potentiella risken för arbetsmarknaden som ett resultat av AI-teknik.

Direktlänk Dela Pocket Gamer fördjupade 22 januari

AI-startupen ElevenLabs blir enhörning efter senaste finansieringsrundan

AI-startupen ElevenLabs har uppnått enhörningsstatus efter sin senaste finansieringsrunda, enligt en källa med insyn i ärendet. ElevenLabs meddelade på måndagen att de hade samlat in 80 miljoner dollar i en serie B-finansiering ledd av riskkapitalisten Andreessen Horowitz tillsammans med entreprenörerna Nat Friedman och Daniel Gross, med deltagande från Sequoia Capital bland andra. Företaget, som är baserat i London, har utvecklat AI-modeller och verktyg för att skapa AI-genererade röster med olika språk, accenter och känslor. Dess verktyg inkluderar AI Speech Classifier, som hjälper till att identifiera AI-genererat ljudinnehåll.

Direktlänk Dela Moneycontrol fördjupade 22 januari

Forskning visar att maskininlärningsmodeller kan förutsäga svårighetsgraden av COVID-19

Forskare har utbildat och testat flera maskin- och djupinlärningsklassificerare för att förutsäga svårighetsgraden av COVID-19. De använde olika tekniker för urval av funktioner och fann att de mest framgångsrika modellerna nådde en precision på 94%. Dessutom fann de att vissa algoritmer, såsom fladdermus- och blommapollineringsalgoritmer, presterade väl. Djupinlärningsmodellerna jämfördes sedan med maskininlärningsmodellerna, och det visade sig att maskininlärningsalgoritmerna presterade bättre i denna studie. Forskarna använde också fem olika förklarbara AI-metoder för att göra modellerna mer tolkningsbara.

Direktlänk Dela Nature fördjupade 20 januari

Syntes av ZnTiO3 Nanostrukturer och Förberedelse av dess Komposit

Företagen ROYALEX och Merck har levererat precursors för syntesen av ZnTiO3 nanostrukturer. Syntesprocessen innefattade användning av TiCl4 och Zn(CH3COO)2.2H2O, blandning av lösningar och bestrålning med mikrovågor. Den resulterande nanopulvret behandlades sedan vid en temperatur av 700°C i två timmar. En p-typ Si-wafer användes som substrat i forskningen. För att förbereda PVP: ZnTiO3-gränsskikts polymerlager, spriddes 10 mg av ZnTiO3-nanostrukturer med ultraljudsteknik. UV-Vis-spektroskopi utfördes för att bestämma absorbansen och transmittansen av ZnTiO3-nanokompositen. Resultaten bekräftade närvaron av ZnTiO3-nanostruktur i den förberedda PVP: ZnTiO3-nanokompositen.

Direktlänk Dela Nature fördjupade 18 januari

SatoshiVM förenar Bitcoin och Ethereum med innovativa lösningar

SatoshiVM förenar Bitcoin och Ethereum och introducerar ZK EVM och ZK Rollups för förbättrad säkerhet och effektivitet. SatoshiVM fungerar som en Layer 2-lösning som bro mellan Bitcoin och Ethereum ekosystem. Detta innovativa tekniken utnyttjar Bitcoins robusta säkerhet och Ethereums flexibla smarta kontraktsmöjligheter. SatoshiVM tillåter användare att skapa digitala tillgångar och decentraliserade applikationer (DApps) direkt på Bitcoin-blockchain, med hjälp av Ethereums utvecklingsverktyg. SatoshiVM använder även ZK Rollup-teknik för att konsolidera flera transaktioner till en enda batch, vilket optimerar effektiviteten samtidigt som Bitcoins säkerhetsstandarder upprätthålls.

Direktlänk Dela Crypto News Bytes fördjupade 17 januari

Stratio BD:s genetiska AI-verktyg visar 99% noggrannhet i företagsbeslutsfattande

Ett nyligen genomfört test av Stratio BD, en specialist på generativ AI och data, visar att generativa AI-verktyg är 99% korrekta. Forskningen visade att dessa verktyg kan lita på av företag för att informera beslutsfattande när de paras ihop med Stratio Business Semantic Data Layer. Upptäckten är en branschförst, med Stratio BD som fann att ChatGPT-4 kunde besvara datafrågor som körts på stora datamängder pålitligt. Dessa resultat representerar ett betydande framsteg i tillämpningen av generativa AI-verktyg för företagsanvändning, förutsatt att data av god kvalitet är tillgängliga.

Direktlänk Dela Itbrief.com.au fördjupade 17 januari

Stratio BD:s generativa AI-verktyg levererar 99% noggrannhet i företagsbeslut

Stratio BD, en ledande specialist på generativ AI och data, meddelar att deras generativa AI-verktyg är 99% korrekta när de används med Stratio Business Semantic Data Layer. Detta följer efter ett banbrytande test. Resultatet innebär att anställda med vilken teknisk expertis som helst kan använda generativa AI-verktyg för att köra komplexa datafrågor och omedelbart få korrekta svar, förutsatt att Stratio´s Business Semantic Data Layer också används. Testet replikerade en tidigare benchmark utförd av data.world, som fann att ChatGPT-4:s noggrannhet ökade trefaldigt när den anslöts till ett kunskapsgraf.

Direktlänk Dela PR Newswire fördjupade 15 januari

Forskning föreslår att kombinera MoE med SSM för att förbättra skalbarheten

State Space Models (SSMs) och Transformers har framträtt som centrala komponenter i sekventiell modellering. Forskning har föreslagit att förbättra skalbarheten hos SSM genom att föreslå en fusion med en Mixture of Experts (MoE). Mamba, en förlängning av SSM, introducerar linjär-tidsinferens och hårdvaru-medveten design, och minskar inverkan av sekventiell återkomst. Ett forskarteam har föreslagit att kombinera MoE med SSM för att låsa upp SSM:s potential för skalning uppåt. Den utvecklade modellen, MoE-Mamba, kombinerar Mamba med ett MoE-lager och uppnår enastående prestanda, överträffar både Mamba och Transformer-MoE.

Direktlänk Dela MarkTechPost fördjupade 13 januari

Artificiell intelligens kommer att förändra våra liv fundamentalt, varnar VD för riskkapitalföretag

David J. Lynch, global ekonomikorrespondent, intervjuade Hemant Taneja, VD för riskkapitalföretaget General Catalyst, om artificiell intelligens (AI). Taneja anser att AI kommer att påverka människors dagliga liv mycket de kommande fem till tio åren. Han tror att AI kommer att förändra arbetslivet fundamentalt och ta det till en helt ny nivå. Taneja uttrycker dock oro över att AI-teknologin kan utvecklas på ett sätt som automatiserar arbete utanför arbetsplatsen, vilket kan påverka människors syfte och potential. Han varnar för att om vi inte är försiktiga kan problemen vi har haft med sociala medier och den första fasen av digitaliseringen av samhället bli mycket värre.

Direktlänk Dela The Washington Post fördjupade 9 januari

NVIDIA Studio presenterar kraftfulla uppgraderingar för innehållsskapande

NVIDIA Studio presenterar kraftfulla nya mjuk- och hårdvaruuppgraderingar för att förbättra innehållsskapande. Det inkluderar släppet av nya NVIDIA Studio-bärbara och stationära datorer från Acer, ASUS, Dell, HP, Lenovo, MSI och Samsung, samt lanseringen av de nya GeForce RTX 40 SUPER-seriens GPU:er. Generative AI från iStock från Getty Images är ett nytt generativt AI-verktyg utbildat av NVIDIA Picasso som använder licensierad konst och NVIDIA Edify-arkitekturmodellen för att säkerställa att genererade tillgångar är kommersiellt säkra. RTX Video HDR förvandlar standard dynamiska videor som spelas upp i internetwebbläsare till fantastisk HDR. Twitch, OBS och NVIDIA förbättrar livestreaming-tekniken med den nya Twitch Enhanced Broadcasting-beta, som drivs av GeForce RTX GPU:er.

Direktlänk Dela NVIDIA Corporation fördjupade 8 januari

Felfelsdiagnos med hjälp av EfficientnetV2-nätverk och överföringsinlärning

Ett forskningspapper från Sydostuniversitetet presenterar användningen av ett EfficientnetV2-nätverk integrerat med LECA för felanalys. Datasetet, som erhölls från en drivtränssimulator, användes för att träna modellen. Varje feltyp består av 800 prover, uppdelade i en träningsuppsättning och en valideringsuppsättning i en 4:1-förhållande. Vågtransform används för att bearbeta vibrationssignaler, kartlägga den ursprungliga signalen till 2D-utrymme. Experimentet utfördes under Ubuntu 18.04 operativsystem, med hjälp av Python 3.8 och Pytorch 1.8 ramverk. Det kördes på en dator med en Intel Xeon Gold 6330-processor och en NVIDIA GeForce RTX 3090 GPU. Resultaten visar att LECA-EfficientNetV2 har den bästa diagnostiska prestandan jämfört med andra metoder. Dessutom visar resultaten att överföringsinlärning kan uppnå hög noggrann felanalys för ostränade små prover.

Direktlänk Dela Nature fördjupade 7 januari

AI-genererat innehåll i spelmarknaden förväntas växa till 23,85 miljarder dollar år 2032

Den senaste forskningen om ´AI-genererat innehåll i spelrapport 2023´ från MRA ger en omfattande undersökning av den geografiska landskapet, branschens storlek och företagets intäktsuppskattning. Rapporten belyser även de utmaningar som hindrar marknadstillväxten och de expansionsstrategier som ledande företag använder. Den globala marknaden för AI-genererat innehåll i spel uppskattades till 12,90 miljarder dollar 2022 och förväntas växa med en sammanlagd årlig tillväxttakt på 8,0% från 2023 till 2032.

Direktlänk Dela Roughcutreviews.com fördjupade 4 januari

Djupinlärning: Utforskning av neurala nätverkens mysterier

Djupinlärning, en underkategori av maskininlärning, har blivit centralt i teknologiska framsteg, särskilt inom artificiell intelligens. Kärnan i detta är neurala nätverk, komplexa system inspirerade av den mänskliga hjärnan. Djupinlärning innebär att träna artificiella neurala nätverk på stora mängder data för att de ska kunna fatta beslut och göra förutsägelser. Till skillnad från traditionella maskininlärningsalgoritmer är djupinlärning utmärkt på att hantera ostrukturerade data, till exempel bilder, ljud och text. Djupinlärning har revolutionerat bild- och taligenkänning, vilket möjliggör att system kan identifiera objekt i bilder eller transkribera talade ord med anmärkningsvärd noggrannhet.

Direktlänk Dela Medium fördjupade 2 januari

Att förstå neurala nätverk: Ryggraden i artificiell intelligens

Artificiell intelligens (AI) har snabbt utvecklats, efterliknar mänsklig intelligens genom komplexa algoritmer och modeller. Neurala nätverk, den digitala motsvarigheten till den mänskliga hjärnan, ligger i hjärtat av denna tekniska underverk. Neurala nätverk består av lager av noder, eller artificiella neuroner, varje lager bidrar till den övergripande inlärningsprocessen. De är kraftverket bakom bildigenkänning, naturlig språkbearbetning och andra komplexa uppgifter som en gång var den exklusiva domänen för mänsklig intelligens.

Direktlänk Dela TechBullion fördjupade 30 december

Varför du bör sluta använda dropout i CNN

Dropout är en populär regulariseringsmetod för helt anslutna lager, men den presterar ofta sämre för konvolutionslager. Genom att tillämpa en organiserad typ av dropout, kallad DropBlock, kan man förbättra regulariseringen av konvolutionsnätverk. Till skillnad från dropout, som tar bort slumpmässiga oberoende enheter, tar DropBlock bort sammanhängande regioner från ett lagers egenskapskarta. DropBlock kan vara särskilt användbart i scenarier där rumslig information spelar roll, som i datorseendesuppgifter. Det hjälper till att förhindra att nätverket blir överdrivet beroende av specifika funktioner eller mönster.

Direktlänk Dela Medium fördjupade 30 december

Forskning om förståelighet av maskininlärningsmetoder

Forskare har utvärderat förståeligheten av prototypbaserade maskininlärningsmetoder genom att mäta mänsklig uppfattning om de enskilda egenskaperna som krävs för en förståelig metod. För att säkerställa kvaliteten på svaren rekryterades mänskliga annotatörer via Amazon Mechanical Turk. Tre dataset användes för experimenten: CUB-200-2011, Stanford Cars och en delmängd av ImageNet-datasetet. Alla dataset förstärktes på samma sätt som beskrivs i arbetet av Chen et al. Sju metoder tränades totalt, inklusive sex prototypbaserade klassificeringsmetoder och en oövervakad metod.

Direktlänk Dela Nature fördjupade 28 december

Under 2023 har artificiell intelligens (AI) dominerat elektronik- och halvledarindustrin. På CES 2023 förklarade Dr. Lisa Su, ordförande och VD för AMD, att AI är den avgörande megatrenden inom teknik. AMD lanserade branschens första x86-processor med dedikerad AI-hårdvara. Intel lanserade sina 5:e generationens Xeon-processorer och Core Ultra mobila processorer, båda med inbyggd AI-acceleration. Flera andra företag, inklusive Nvidia, Microsoft och Qualcomm, har också lanserat AI-lösningar. AI har även blivit en stor del av verktyg för PCB-design, IC-design och inbyggd utveckling.

All About Circuits fördjupade 28 december

Utforska den banbrytande världen av Deep Learning

Deep Learning är en revolutionerande del av artificiell intelligens, där neurala nätverk och algoritmer efterliknar den mänskliga hjärnans förmåga att lära sig och fatta beslut. Deep Learning används för att avkoda komplexa mönster i stora datamängder och förvandlar industrier med banbrytande framsteg. Tekniken används i bildigenkänning, naturligt språkbehandling och mer. Deep Learning kräver dock en stor mängd data för att utnyttjas fullt ut och stora resurser som tid och bearbetningskraft. Dessutom kan Deep Learning-system bara analyseras baserat på deras in- och utdata, utan att avslöja deras grundläggande mekanismer.

Direktlänk Dela Sify Technologies fördjupade 27 december

Konvolutionella neurala nätverk förbättrar bildigenkänning

I en serie artiklar om neurala nätverk diskuteras komplexa arkitekturer och hur man hanterar vanliga problem inom djupinlärning. Ett område där neurala nätverk har gjort betydande framsteg är datorseende, som AI för självkörande bilar och ansiktsigenkänning. Men det vanliga fullt anslutna neurala nätverket är inte lämpligt för många verkliga bildigenkänningstasker. Det fungerar på det berömda MNIST-datasetet, men det har små bilder av 28x28 pixlar. HD-bilder har 1280x720 pixlar. Detta skulle innebära 1 000 000 neuroner i ingångsskiktet. Inte att nämna de miljoner vikter som krävs för de dolda lagren, vilket gör vanliga neurala nätverk olämpliga på grund av den dimensionella komplexiteten. Istället används konvolutionella neurala nätverk (CNN), som är guldstandarden för de flesta datorseendeuppgifter idag.

Direktlänk Dela Towards Data Science fördjupade 27 december

Googles AI förutspår 2x tillväxt för Shiba Inu och 100x tillväxt för Galaxy Fox 2024

Googles AI-orakel Bard har gjort förutsägelser för Shiba Inu ($SHIB) utsikter 2024. Bard ser en potentiell 2x tillväxt för Shiba Inu, med scenarier som sträcker sig från en 205% ökning till en mer optimistisk 433,29% ökning. Bards förutsägelser ökar om Bitcoin når $250 000, med det mest optimistiska scenariot förutspår en 1 233% ökning för Shiba Inu. En annan kryptovaluta som genererar uppmärksamhet är Galaxy Fox, som har potential för en 100x tillväxt. Galaxy Fox kombinerar spel och blockkedjeteknik och spelare kan tjäna $GFOX tokens. Galaxy Fox har nått en milstolpe på $1 miljon i sin förhandsförsäljning.

Direktlänk Dela Analytics Insight fördjupade 21 december

Förbättring av AI-svar med Retrieval Augmented Generation (RAG)

Generativ artificiell intelligens förvandlar publicering, marknadsföring och kundservice genom att erbjuda personaliserade svar på användarfrågor. En stor utmaning är dock att säkerställa att svaren är korrekta och varumärkesanpassade. Ett effektivt sätt att förbättra noggrannheten är att använda en metod som kallas ´RAG´, vilket står för Retrieval Augmented Generation. RAG gör det möjligt för LLM (Large Language Models) att få tillgång till aktuell, varumärkesspecifik information för att generera högkvalitativa svar. I en tidig forskningsrapport fann människor att RAG-baserade svar var nästan 43% mer korrekta än svar skapade av en LLM som förlitade sig på finjustering.

Direktlänk Dela CMSWire fördjupade 18 december

Komplexa värderade neurala nätverk kan vara framtiden för djupinlärning

Komplexa värderade neurala nätverk (CVNN) kan vara framtiden för djupinlärning, med potential att påskynda AI-användningen inom många högavkastningsområden. De erbjuder många fördelar jämfört med traditionella realvärderade neurala nät (RVNN). Den uppskattade marknadsstorleken är 2,3 miljarder dollar under de närmaste 3-5 åren och 13 miljarder dollar under det kommande decenniet. Tidsramen är 2-4 år för den första stora genombrottet, 3-8 år för en större produkt. Områden där de kan implementeras mest snabbt är signalöverföring, hälso- och sjukvård, djupfalsk detektering och akustisk analys för industriunderhåll och expansion.

Direktlänk Dela Medium fördjupade 18 december

Stanford forskare introducerar PLATO, en ny maskininlärningsmodell

Forskare från Stanford University har introducerat en ny maskininlärningsmodell kallad PLATO, som använder en kunskapsgraf (KG) för att tillhandahålla kompletterande domäninformation. PLATO reglerar en flerlagers perceptron (MLP) genom att införa en induktiv bias som säkerställer att liknande noder i KG har motsvarande viktvektorer i MLP:ns första lager. Denna metod löser utmaningen med att maskininlärningsmodeller behöver hjälp med tabellära dataset som har många dimensioner jämfört med prover. PLATO överträffar 13 toppmoderna baslinjer med upp till 10,19% över sex dataset.

Direktlänk Dela MarkTechPost fördjupade 16 december

Forskare introducerar EAGLE, en ny metod för effektiv LLM-avkodning

Stora språkmodeller (LLM) som ChatGPT har revolutionerat naturlig språkbehandling, men kämpar med en kritisk fråga - den autoregressiva avkodningsprocessen. Ett team av forskare från Vector Institute, University of Waterloo och Peking University introducerade EAGLE (Extrapolation Algorithm for Greater Language-Model Efficiency) för att bekämpa utmaningarna med LLM-avkodning. EAGLE tar en distinkt approach genom att fokusera på extrapolering av andra toppskikts kontextuella funktionvektorer. EAGLE strävar efter att förutsäga efterföljande funktionvektorer effektivt, vilket erbjuder ett genombrott som påtagligt påskyndar textgenerering. EAGLE kan utbildas och testas på standard GPU:er, vilket gör det tillgängligt för en bredare användarbas.

Direktlänk Dela MarkTechPost fördjupade 13 december

Skillnad mellan maskininlärning och artificiell intelligens

Maskininlärning (ML) och artificiell intelligens (AI) är två nära besläktade koncept som ofta används omväxlande. AI handlar om att skapa maskiner som kan utföra uppgifter som vanligtvis kräver mänsklig intelligens. Det omfattar ett brett utbud av tekniker och metoder för att replikera eller simulera mänskligt tänkande, resonemang och beslutsfattande. ML å andra sidan är en delmängd av AI som fokuserar på algoritmer och modeller som gör det möjligt för maskiner att lära sig av data och förbättra sin prestanda över tid utan att explicit programmeras. ML-tekniker och algoritmer är byggstenarna i AI-system, vilket gör det möjligt för dem att lära sig och anpassa sig.

Direktlänk Dela Citizenside.com fördjupade 12 december

Historien om och funktionen av Perceptroner

Perceptroner är grundläggande enheter inom området artificiella neurala nätverk, som är modeller inspirerade av strukturen och funktionen hos den mänskliga hjärnan. De utvecklades på sena 1950- och tidiga 1960-talet av Frank Rosenblatt och markerade betydande framsteg inom maskininlärning. Rosenblatts arbete influerades starkt av konceptet artificiell neuron föreslaget av Warren McCulloch och Walter Pitts på 1940-talet. Perceptroner designades som en förenklad modell för hur en biologisk neuron fungerar. De syftade till att replikera processen för databehandling och beslutsfattande i den mänskliga hjärnan.

Direktlänk Dela Citizenside.com fördjupade 10 december

Utveckla en maskininlärningsmodell i Python: En steg-för-steg-guide

Vid utveckling av en maskininlärningsmodell i Python är valet av algoritm avgörande. Algoritmen styr hur modellen lär sig från data och gör prognoser. Det finns dock många algoritmer att välja mellan. Några viktiga faktorer att överväga är typen av problem som ska lösas, storleken på din datamängd och tillgängliga beräkningsresurser. Dessutom är det viktigt att förbereda och bearbeta data innan modellen byggs. Detta innebär att hantera saknade värden, hantera utstickare och standardisera data. Efter att datan har rengjorts är det viktigt att utföra en explorativ dataanalys för att få insikt i datauppsättningens egenskaper. Funktionsteknik är en viktig del av datatillverkningen. Det innebär att skapa nya funktioner från befintliga för att förbättra modellens prestanda. Slutligen är det viktigt att dela upp din data i tränings- och testuppsättningar. Träningsuppsättningen används för att träna modellen medan testuppsättningen används för att utvärdera dess prestanda.

Direktlänk Dela Citizenside.com fördjupade 10 december

NVIDIA introducerar DiffiT: En ny modell för generering av högupplösta bilder

NVIDIA har introducerat en ny modell kallad Diffusion Vision Transformers (DiffiT) för att förbättra effektiviteten av visionstransformatorer i generativt lärande baserat på diffusion. Modellen kombinerar en hybrid hierarkisk arkitektur med en U-formad kodare och avkodare. DiffiT skiljer sig från tidigare modeller genom att använda tidsberoende självuppmärksamhet istället för skift och skala för konditionering. Denna innovation har resulterat i toppmodern prestanda över dataset för bild- och latenta rymdgenereringsuppgifter. DiffiT har uppnått ett nytt rekord i Fréchet Inception Distance (FID) -poäng, med en imponerande 1,73 på ImageNet-256-datasetet, vilket indikerar dess förmåga att generera högupplösta bilder med exceptionell trohet.

Direktlänk Dela MarkTechPost fördjupade 8 december

AWS Clean Rooms introducerar nya funktioner för delning av maskininlärningsmodeller

Amazon Web Services (AWS) har presenterat nya funktioner som gör det möjligt för kunder att dela maskininlärningsmodeller eller få tillgång till en molnbaserad branschmodell via AWS Clean Rooms. Clean Rooms ML är en förhandsversion tillgänglig i USA (öst och väst), Asien och Europa. AWS planerar också att släppa en hälsovårdsmodell - den första av många modeller som stöds 2024. Nuvarande kunder till Clean Rooms ML inkluderar dataföretaget Experian, The Weather Company, marknadsföringsplattformen Bridge och leverantören av konsumentköpinsikter Affinity Solutions.

Direktlänk Dela Spiceworks fördjupade 8 december

Microsoft uppgraderar Paint med AI-funktioner i Windows 11

Microsoft uppgraderar sin Paint-applikation i Windows 11 med moderna bildredigeringsverktyg och AI-funktioner. Användare kommer att kunna använda OpenAI-LLM Dall-E direkt i Paint. Nya funktioner inkluderar ”Cocreator” och ”Layers”. Cocreator skapar AI-bilder medan Layers fungerar som i Adobe Photoshop, vilket gör att användaren kan dela upp bilden i lager. Uppdateringar av Paint kan installeras via App Store. Trots uppgraderingarna kommer Paint inte att vara en omfattande konkurrent till andra bildredigeringsverktyg som Adobe Photoshop eller Gimp.

Direktlänk Dela PC World fördjupade 5 december

Ökad användning av AI-verktyg inom utbildning kan leda till förändringar i undervisningsmetoder

Sedan lanseringen av ChatGPT den 30 november 2022 har användningen av generativa AI och stora språkmodeller i utbildning ökat. Vissa undersökningar hävdar att mellan 30-90% av studenterna använder dessa verktyg för sina uppgifter. Vissa pedagoger anser nu att skolor och universitet bör erbjuda mer än bara lektioner och rikta in sig på omvårdnad och välbefinnande. Professor Michael Grove vid University of Birmingham berättade att när studenter vid Brown University fick tillåtelse att använda ChatGPT i en modul, minskade deras användning märkbart efter den första veckan eller två. Cerys Evans, president för Students’ Union vid Lancaster University, betonade att det inte finns någon anledning till oro över användningen av LLMs och generativa AI-verktyg.

Direktlänk Dela Diginomica fördjupade 30 november

Adam Selipsky, VD för Amazon Web Services Inc (AWS), menar att anpassningsförmåga är nyckeln till framgång inom generativ artificiell intelligens (AI). AWS står inför en betydande utmaning och transformation inom molnbaserad databehandling. Företaget har haft en omfattande dialog om den generativa AI:ns påverkan på affärer, teknikstackens utveckling och konkurrenslandskapet. Selipsky betonade vikten av att företag har tillgång till en mängd olika modeller och att ingen enskild modell eller leverantör ska dominera. AWS har förespråkat och implementerat dessa principer i över 17 år.

SiliconANGLE fördjupade 27 november

AI-verktyg kan förbättra projektledningens effektivitet

Artificiell intelligens (AI) kan avsevärt underlätta arbetet för projektledare genom att öka effektiviteten, hålla reda på projektets milstolpar och deadlines, och tillåta mer kreativitet med resurserna. Det finns många AI-verktyg tillgängliga, men det är viktigt att välja ett som passar för den specifika typen av arbete och som ligger inom budget. Några av de AI-verktyg som kan användas för projektledning inkluderar Ayanza, Stepsize, Zapier, Trello, Kuki Chatbot, Notion, Taskade och Fellow.

Direktlänk Dela Forbes Media fördjupade 22 november

Microsoft Ignite 2023 presenterar Copilots och AI-innovationer

Microsoft Ignite 2023 presenterade en rad tekniska innovationer och tillkännagav tillgängligheten för tidigare annonserade produkter. Copilots, som lovar en historisk ökning av programvaruledd produktivitet, var i fokus under evenemanget. Detta inkluderar AI-copilot-stacken som förväntas driva nästa våg av innovation. Det fanns också flera tillkännagivanden om allmän tillgänglighet, inklusive Azure boost, Fabric, Copilots för 365 och Studio. Nvidia Corp. CEO Jensen Huang diskuterade Nvidia-superdator-kluster som byggts tillsammans med Microsoft. Microsofts VD, Satya Nadella, betonade företagets ledande position inom AI. Samtidigt noterades frånvaron av Sam Altman, CEO för OpenAI, som nyligen avsattes från sin position.

Direktlänk Dela SiliconANGLE fördjupade 18 november

Microsoft blir ´Copilot-företaget´, satsar stort på generativ AI

Microsoft är nu Copilot-företaget, förklarade VD Satya Nadella på företagets Ignite-konferens, där han inte bara sprider generativ AI över sina produkter utan också tillkännager sina första AI-processor-designer. Generativ AI införs i allt högre grad i varje företagsmjukvaruföretags produkter. Men det kan fortfarande ta ett tag innan det blir lika utbrett i företagen själva, tack vare en rad utmaningar med att implementera det effektivt och säkert. Generativ AI ger också en skjuts åt superdatorer, som vi upptäckte på SC23-konferensen.

Direktlänk Dela SiliconANGLE fördjupade 17 november

Fem trender att hålla koll på inom programvarusäkerhet 2024

I 2023 har mycket fokus lagts på strategier, regler och teknologier för att förbättra programvarusäkerheten. Denna trend förväntas fortsätta och expandera 2024. Fem trender att hålla koll på är: 1. AI-driven applikationssäkerhet kommer att öka. AI kan hjälpa till att upptäcka och till och med åtgärda sårbarheter i koden. 2. Skadlig OS-kod kommer att fortsätta öka. Det har varit en oroande ökning av skadlig öppen källkods kod som utvecklas för illvilliga ändamål. 3. CISO-rollen kommer att utvecklas. CISO:er kan inte längre ignorera applikationsskiktet. 4. SBOMs kommer att bli mer användbara som ett verktyg för att förbättra säkerheten. 5. Lagstiftningsåtgärder kommer att expandera globalt. Programvarusäkerhet har blivit en het fråga bland regeringar över hela världen.

Direktlänk Dela Forbes Media fördjupade 17 november

Djupa neurala nätverk (DNN) är en central komponent i maskininlärning och spelar en avgörande roll i lösningen av komplexa problem. DNN är artificiella neurala nätverk med flera lager av sammankopplade noder, designade för att efterlikna mänskliga hjärnans beteende. DNN är effektiva i olika områden som bildigenkänning, naturligt språkbehandling, taligenkänning och rekommendationssystem. De har bidragit till tekniker som självkörande bilar, virtuella assistenter och anpassad reklam. Trots sina fördelar medför DNN också utmaningar, inklusive behovet av enorma mängder märkta data för effektiv träning och betydande beräkningsresurser och tid.

Robots.net fördjupade 17 november

Dimensionalitetsreduktion: En kritisk teknik i maskininlärning

Dimensionalitetsreduktion är en viktig teknik inom maskininlärning som spelar en stor roll i dataförbehandling och analys. I en datastyrd värld genereras stora mängder information varje sekund, vilket leder till datamängder med ett högt antal egenskaper eller dimensioner. Dimensionalitetsreduktion syftar till att minska komplexiteten och storleken på datamängderna samtidigt som så mycket relevant information som möjligt behålls. Genom att minska antalet egenskaper blir det lättare att visualisera data, upptäcka mönster och göra exakta förutsägelser. Tekniker för dimensionalitetsreduktion används i stor utsträckning inom olika områden som datorvision, naturligt språkbehandling och finans.

Direktlänk Dela Robots.net fördjupade 17 november

Förståelse för Multi-Layer Perceptron (MLP) i maskininlärning

Multi-Layer Perceptron (MLP) är en artificiell neural nätverksalgoritm som har blivit populär inom maskininlärning. MLP, som är en övervakad inlärningsalgoritm, kan användas för både regressions- och klassificeringsuppgifter. Den simulerar funktionen av en biologisk neuron och kan effektivt lära sig mönster och göra precisa förutsägelser. MLP består av flera lager av sammankopplade noder, kända som neuroner, och varje neuron i nätverket tar emot indata, utför beräkningar med hjälp av en aktiveringsfunktion och skickar resultatet till nästa lager. Även om MLP erbjuder många fördelar, som förmågan att lära sig komplexa relationer och anpassa sig till stora data, har det också vissa nackdelar, som känslighet för datakvalitet och behovet av tillräckligt med träningsdata.

Direktlänk Dela Robots.net fördjupade 17 november

En introduktion till maskininlärning

Maskininlärning är en gren av artificiell intelligens som fokuserar på att utveckla algoritmer och statistiska modeller som gör att datorer kan lära sig och göra förutsägelser eller beslut utan att vara explicit programmerade. Det finns flera typer av maskininlärning, inklusive övervakad inlärning, oövervakad inlärning, semi-övervakad inlärning, förstärkningsinlärning och djupinlärning. Varje typ är lämplig för olika uppgifter och datatyper, vilket möjliggör ett brett spektrum av tillämpningar inom olika branscher. Maskininlärning har revolutionerat många områden, från personliga rekommendationer på streamingplattformar till självkörande bilar.

Direktlänk Dela Robots.net fördjupade 17 november

Forskare utvecklar teknik för att förbättra anpassningen av AI-modeller på enheter

Forskare från MIT, MIT-IBM Watson AI Lab och andra ställen har utvecklat en teknik som gör det möjligt för djupinlärningsmodeller att effektivt anpassa sig till nya sensordata direkt på en enhet vid kanten av nätverket. Deras metod för träning på enheten, kallad PockEngine, bestämmer vilka delar av en stor maskininlärningsmodell som behöver uppdateras för att förbättra noggrannheten, och lagrar och beräknar endast med de specifika delarna. PockEngine utför större delen av dessa beräkningar medan modellen förbereds, före drift, vilket minimerar beräkningskostnaden och ökar hastigheten på finjusteringsprocessen. PockEngine accelererade betydligt träningen på enheten, upp till 15 gånger snabbare på vissa hårdvaruplattformar, utan att modellernas noggrannhet minskade.

Direktlänk Dela MIT News fördjupade 16 november

AI kan påverka barns sociala och emotionella utveckling

Artificiell intelligens (AI) kommer sannolikt att påverka hur barn utvecklar sin självbild och interagerar med andra. Detta innebär att undervisningen av sociala färdigheter kan behöva uppdateras, säger experter. AI kan radikalt förändra våra relationer, inklusive vem eller vad vi skapar dem med. AI-verktyg som chatbots kan utgöra problem för utvecklingen av elevers sociala och emotionella färdigheter. Elever vänder sig redan till AI-drivna chatbots för att ställa frågor om hur de ska hantera sina relationer. Vissa tonåringar och vuxna utvecklar till och med romantiska relationer med chatbots som är utformade för att erbjuda sällskap. Men det finns mycket vi inte vet om hur dessa chatbots är utbildade och vilken information de är utbildade på. AI kan också hjälpa till att förbättra barns sociala och emotionella utveckling. Till exempel kan en chatbot hjälpa barn att övervinna social ångest genom att ge dem möjlighet att öva på hur man interagerar med människor.

Direktlänk Dela Education Week fördjupade 14 november

Använda TensorFlow för generativ programmering

Artificiell intelligens har stor kreativ potential, särskilt inom generativ programmering. Ett populärt bibliotek för detta är TensorFlow, ett kraftfullt maskininlärningsramverk utvecklat av Google. TensorFlow är ett öppen källkods-maskininlärningsbibliotek som utvecklats av Google Brain-teamet. Det är flexibelt, effektivt och användarvänligt, vilket gör det till ett utmärkt val för en mängd olika maskininlärningsuppgifter, inklusive generativ programmering. Artikeln introducerar TensorFlow och visar hur man kan använda dess kapacitet för avancerad generativ programmering i Python.

Direktlänk Dela Medium fördjupade 9 november

Niantic expanderar användningen av maskininlärning och utforskar generativa AI-modeller

Niantic har nyligen släppt information om hur de har expanderat sin användning av maskininlärning (ML) inom företaget, utöver deras befintliga kapacitet inom datorseende och förstärkt verklighet (AR). Noterbart är att Niantic har gjort betydande framsteg i Wayfarer-recensioner. Företaget använder maskininlärning för att identifiera lågkvalitativa Wayfarer-nomineringar eller redigeringar av sina kartor, flagga för dubbletter av Wayfarer-punkter och upptäcka missbrukande beteende för vidare granskning och utredning av Niantics team. Dessa ML-modeller har en betydande inverkan, minskar antalet ogiltiga nomineringar eller redigeringar. Detta gynnar inte bara Niantic, men också Wayfarer-gemenskapen på två nyckelsätt: Wayfarers befrias från att granska ogiltiga nomineringar eller redigeringar, vilket gör att de kan fokusera på mer intressanta och kreativa Wayfarer-punkter snarare än att spendera tid på uppenbara problem som vattenmärkta eller olämpliga bilder. Vändtiden för Wayfarer Explorers förkortas, eftersom modellerna hanterar lågkvalitativa inskickningar. Detta innebär att Wayfarers kan granska och potentiellt godkänna giltiga inskickningar snabbare, vilket resulterar i en trefaldig minskning av vändtiden. Niantic är också i framkant av banbrytande teknik och utforskar aktivt tillämpningen av generativa AI-modeller. Tidigare i år introducerade de Wol, en GenAI-driven blandad verklighetskaraktär med omfattande kunskap om Redwood-skogarna i norra Kalifornien.

Direktlänk Dela Pokemon GO Hub fördjupade 9 november

OpenAI står inför hård konkurrens och press för att leverera framgångar

OpenAI, tillverkaren av ChatGPT, står inför hård konkurrens, en växande öppen källkods-rörelse och press för att leverera framgångar inom ett oförutsägbart område. OpenAI:s GPT-4 är fortfarande den bästa stora språkmodellen, men välfinansierade imitationer dyker upp överallt. Kostnaden för att använda stora språkmodeller kommer att sjunka när flera jämförbara erbjudanden träffar marknaden. OpenAI kommer att behöva omvandla sig från att vara ett företag som bygger på andras genombrott till ett som producerar sina egna. OpenAI:s GPT-4 är enorm och allmänt ändamålsenlig, men många företag kan vilja ha mindre, specialiserade modeller för att möta deras behov.

Direktlänk Dela CMSWire fördjupade 9 november

MIT skapar SecureLoop för att förbättra prestanda och säkerhet för AI

MIT har skapat SecureLoop, ett sökverktyg för att identifiera effektiva och säkra designlösningar för djupa neurala nätverksacceleratorer. Verktyget integrerar kryptering och autentisering i designprocessen, vilket resulterar i acceleratorer som presterar bättre och använder mindre energi. SecureLoop ifrågasätter industrins tro att säkerhetsfunktioner endast minimalt påverkar acceleratorns design. Verktyget kan effektivt identifiera säkra designlösningar för hårdvara som kan förbättra prestanda för komplexa AI-uppgifter, samtidigt som det kräver mindre energi.

Direktlänk Dela SciTechDaily fördjupade 8 november

OpenAI står inför hård konkurrens och växande hot från open source-rörelsen

Trots en framgångsrik period med glansiga profiler, lovord och miljarder i ny finansiering, står OpenAI inför hård konkurrens, ett växande open source-rörelse och press att leverera i en oförutsägbar disciplin. OpenAI har populariserat generativ AI genom att bygga produkter på andras innovationer, men nu när hela världen är inriktad på AI, kommer konkurrensen bara att öka. Dessutom är AI-modeller på väg att bli handelsvaror. OpenAI:s GPT-4 är fortfarande den bäst presterande stora språkmodellen, men välfinansierade imitationer finns överallt. Dessutom kan OpenAI:s beroende av Microsoft begränsa dess förmåga att arbeta med Google och Amazon och deras molnplattformar.

Direktlänk Dela Slate Magazine fördjupade 7 november

Forskare utvecklar DEJAVU för att förutsäga kontextuell sparsamhet och påskynda LLM-införandet

Forskare har utvecklat DEJAVU, ett system som använder en lågkostnadsalgoritm för att förutsäga kontextuell sparsamhet i realtid med indata till varje lager, tillsammans med en asynkron och hårdvaruimplementering som påskyndar LLM-införandet. De har verifierat existensen av sådan sparsamhet med en enkel strategi. DEJAVU använder framåtblickande prognoser för att sidostega prognoskostnader. Forskarna upptäckte att DEJAVU uppnår över två gånger minskning i token-genereringslatens jämfört med den mest avancerade FasterTransformer och över sex gånger jämfört med Hugging Face utan förlust av noggrannhet.

Direktlänk Dela MarkTechPost fördjupade 4 november

Accelererande AI-uppgifter samtidigt som datasäkerheten bevaras

Forskare vid MIT har utvecklat SecureLoop, en sökmotor som kan identifiera en optimal design för en djup neuralnätverksaccelerator som bevarar datasäkerheten samtidigt som den förbättrar energieffektiviteten och prestandan. Detta kan möjliggöra för tillverkare att öka hastigheten på krävande AI-applikationer, samtidigt som känslig data skyddas från angripare. SecureLoop kan förbättra prestandan för acceleratorns design samtidigt som data skyddas. Forskningen kommer att presenteras vid IEEE/ACM International Symposium on Microarchitecture den 28 oktober till 1 november.

Direktlänk Dela Tech Xplore fördjupade 30 oktober

Forskare vid MIT har utvecklat SecureLoop, en sökmotor som effektivt kan identifiera optimala designer för djup neuralnätverksacceleratorer, samtidigt som den bevarar datasäkerheten. SecureLoop är utformad för att överväga hur tillägg av datakryptering och autentiseringsåtgärder kommer att påverka prestanda och energianvändning av acceleratorchipet. Verktyget kan hjälpa till att förbättra hastighet och prestanda för krävande AI-applikationer, samtidigt som känslig användardata skyddas. Forskningen kommer att presenteras vid IEEE/ACM International Symposium on Microarchitecture.

MIT News fördjupade 30 oktober

Frank Rosenblatt och Alan Turing: Pionjärer inom artificiell intelligens

Vintern 1958 avslöjade psykologen Frank Rosenblatt sin uppfinning Perceptron, ett program inspirerat av mänskliga neuroner och det första neuronnätverket. Han kallade det ´den första maskinen som kan ha en original idé´. Trots att det har gått nästan 70 år sedan Rosenblatt avslöjade sin uppfinning, finns det fortfarande ingen seriös rival till den mänskliga hjärnan. Alan Turing, krigstidens kodknäckare på Bletchley Park och grundare av datavetenskap, anses vara en av AI:s fäder. Han var en av de första personerna att ta idén om att datorer kunde tänka på allvar. I dag är maskininlärning, belöningar och modifiering grundläggande koncept inom AI.

Direktlänk Dela The Guardian fördjupade 28 oktober

Ny parallell hybridnätverk ger bättre prestanda genom kvant-klassiskt samarbete

Effektiva kvantneurala nätverk är ett lovande forskningsområde inom kvantdatorer och maskininlärning. Ett team vid Terra Quantum AG har utformat ett parallellt hybrid kvantneuralt nätverk och visat att deras modell är ett kraftfullt verktyg för kvantmaskininlärning. Dessa hybridnätverk består vanligtvis av både ett kvantlager och ett klassiskt lager. Parallella nätverk kan undvika informationsflaskhalsar som ofta påverkar sekventiella nätverk. Träningsresultaten visar att författarnas parallella hybridnätverk kan överträffa antingen dess kvantlager eller dess klassiska lager. Forskarna diskuterade också hur bidragsförhållandet mellan varje lager påverkar hybridmodellens prestanda.

Direktlänk Dela Tech Xplore fördjupade 27 oktober

Säkerhetsrisker med AI-verktyg i arbetslivet

Under det senaste året har AI blivit ett verktyg för produktivitetsomvandling, med potential att revolutionera industrier över hela linjen. AI-applikationer som ChatGPT och Google Bard blir allt vanligare verktyg inom företagsområdet för att effektivisera verksamheten och förbättra beslutsfattandet. Emellertid medför AI:s snabba ökning i popularitet en ny uppsättning säkerhetsrisker som organisationer måste hantera för att undvika kostsamma dataintrång. Enligt Netskopes senaste Cloud and Threat Report ökar AI-appanvändningen exponentiellt inom företag över hela världen, med en tillväxt på 22,5% under maj och juni 2023. På denna nuvarande tillväxthastighet kommer populariteten för dessa applikationer att fördubblas till 2024. Enligt en online-undersökning av Reuters och Ipsos har så många som 28% av arbetstagarna omfamnat generativa AI-verktyg och använder ChatGPT regelbundet under arbetsdagen. Dessvärre har ChatGPT, efter att ha bevisat sig som ett smidigt verktyg för korrekturläsning av dokument och kontroll av kodfel, blivit en exponeringspunkt för känslig information när anställda klipper ut och klistrar in konfidentiellt företagsinnehåll på plattformen. Enligt en nyligen genomförd studie av Layer X av 10 000 anställda anses en fjärdedel av all information som delas till ChatGPT vara känslig. Med 1,43 miljarder människor som loggar in på ChatGPT i augusti är det inte förvånande att dess hype och popularitet är attraktivt för illvilliga aktörer, som söker utnyttja LLM för att uppnå sina egna illvilliga mål och även utnyttja hypen kring LLM för att rikta in sig på sina offer. Företagsledare kämpar för att hitta ett sätt att använda tredjeparts AI-appar på ett säkert och säkert sätt. Tidigare i år blockerade JPMorgan tillgången till ChatGPT, med hänvisning till dess brist på överensstämmelse med företagspolicy, och Apple tog samma väg efter att ha avslöjat planer på att skapa sin egen modell. Andra företag som Microsoft har helt enkelt rått personalen att inte dela konfidentiell information med plattformen. Det finns ännu ingen stark reglerande rekommendation eller bästa praxis för användning av generativ AI, med den mest oroande konsekvensen att 25% av amerikanska arbetstagare inte har någon aning om deras företag tillåter ChatGPT eller inte.

Direktlänk Dela TechRadar fördjupade 27 oktober

AI djupinlärningsmodell utvecklad för att förutsäga COVID-19 fall

Forskare har utvecklat och tränat en artificiell intelligens (AI) djupinlärningsmodell för att förutsäga antalet COVID-19 fall 14 dagar framåt. Modellen använder en kombination av dagligen bekräftade fall, regionsspecifik regeringspolitik, reproduktionssiffror och flyguppgifter från de senaste 30 dagarna för att exakt förutsäga framtida COVID-19 utbrott. Validering av modellen med COVID-19-data från 190 länder visar att modellen har felmarginaler så låga som 33%, vilket förbättrar noggrannheten för länder med flera COVID-19 vågor. Djupinlärningsmodeller som denna kan hjälpa oss att skydda oss mot framtida pandemier genom att ge beslutsfattare den bästa informationen för att utnyttja sina tillgängliga resurser.

Direktlänk Dela AZoM.com fördjupade 24 oktober

Användning av AI-verktyget ChatGPT för att skapa en Makefile för inbäddade system

AI-verktyget ChatGPT används för att skapa och förbättra en Makefile för att hantera en simulerings- och debugmål. För att verifiera byggmiljön skapas en enkel ´Hello World´-applikation. ChatGPT används också för att definiera projektstrukturen och skapa en simuleringsmål. Trots att Makefile som genereras av ChatGPT behöver justeras och inte är perfekt, kan den användas för att kompilera och köra en ´Hello World´-applikation inom Docker.

Direktlänk Dela Embedded Systems Design fördjupade 22 oktober

Maskinlärning och neuronnätverk: likheter och skillnader

Maskinlärning och neuronnätverk är båda former av AI, men neuronnätverk är en specifik typ av maskinlärningsalgoritm. Maskinlärning är en undergrupp av AI. ML använder en algoritm, känd som en modell, för att bearbeta data. Den datan används för att träna, eller lära, ML-modellen hur man fattar beslut eller drar slutsatser. Djupinlärning är en variant av ML som stöder smalare men mer detaljerad inlärning. Neuronnätverk, en typ av ML-algoritm, är oftast grunden för algoritmer som används i djupinlärningsmodeller. Nyckelskillnader mellan maskinlärning och neuronnätverk inkluderar att ML-algoritmer tar emot, lär sig av och fattar beslut baserat på data, ofta med mänsklig vägledning. Neuronnätverk fattar precisa beslut med en hög grad av autonomi och kan generellt lära sig av erfarenhet och tidigare fel.

Direktlänk Dela TechTarget fördjupade 19 oktober

IBM utvecklar AI-chip som förbättrar bildigenkänning och minskar energiförbrukning

Forskare vid IBM i San Jose, Kalifornien, har utvecklat en datorchip inspirerad av hjärnan som kan förbättra artificiell intelligens (AI) genom att arbeta snabbare med mycket mindre ström. Den nya NorthPole-processorchipen eliminerar behovet av att ofta komma åt externt minne, vilket gör att uppgifter som bildigenkänning kan utföras snabbare och med mycket mindre ström än befintliga arkitekturer. Chipet, som består av 256 beräkningsenheter eller kärnor, var och en med sitt eget minne, har visat sig slå befintliga AI-maskiner med en betydande marginal i standardbenchmarktester för bildigenkänning.

Direktlänk Dela Nature fördjupade 19 oktober

Forskare föreslår nytt ramverk för att utvärdera risker med AI-system

I en ny studie föreslås ett tredelat ramverk för att utvärdera de sociala och etiska riskerna med AI-system. Ramverket inkluderar utvärderingar av AI-systemets kapacitet, mänsklig interaktion och systemiska påverkan. Forskarna kartlägger även nuvarande säkerhetsutvärderingar och identifierar tre huvudluckor: sammanhang, specifika risker och multimodalitet. För att stänga dessa luckor uppmanar de till att omvandla befintliga utvärderingsmetoder för generativ AI och till att implementera en omfattande utvärderingsmetod, som i deras fallstudie om desinformation.

Direktlänk Dela DeepMind Technologies fördjupade 19 oktober

Företag anställer för AI-talanger för att dra nytta av generativ AI-hype

Företag anställer AI-talanger för att dra nytta av hypen kring generativ AI. Stora företag som Amazon, Meta och Netflix anställer anställda för sina AI-initiativ och erbjuder sexsiffriga löner. Det är dock inte bara teknikföretag som söker AI-talanger, arbetsgivare inom en rad sektorer, från juridik till utbildning till hälso- och sjukvård, har letat efter arbetstagare som är bekanta med verktyg som ChatGPT. Insider talade med fyra anställningsledare vid IBM, Nvidia, Hugging Face och Jasper för deras råd om hur man får ett AI-relaterat jobb på deras respektive företag.

Direktlänk Dela Business Insider fördjupade 19 oktober

Venturekapitalister diskuterar framtidens AI-startups

Startups inom AI står inför utmaningar och möjligheter när det gäller att hitta fotfäste på marknaden. Flera venturekapitalister har diskuterat hur startups bör närma sig byggandet av verktyg för AI-teknik och hur de bör ta betalt för AI-drivna verktyg. Rick Grinnell, grundare och chefspartner på Glasswing Ventures, påpekade att de bästa tillämpningarna kommer att bygga specialiserade mellanlagerverktyg och blanda dem med lämpliga grundläggande modeller. Edward Tsai, chefspartner på Alumni Ventures, föreslog att fokus bör ligga på produkter som levererar betydande värde och hastighet till marknaden.

Direktlänk Dela TechCrunch fördjupade 13 oktober

» Nyheterna från en dag tidigare

Några av våra kursdeltagare