Jag använde Visuell intelligens varje dag i en vecka och även om det inte är Gemini Live, är det min nya favoritfunktion i Apple Intelligence
Det finns en grund här för Apple att bygga vidare på.

Ursprunglig artikel skriven av vår kollega Axel Metz;
Du vet med största sannolikhet redan om att Apple Intelligence har haft en skakig start. Inte nog med att Apple försenade sitt AI-verktygspaket till efter lanseringen av den påstått AI-fyllda iPhone 16-serien i september, de Apple Intelligence-funktioner som sedan dess har dykt upp på de bästa iPhone-modellerna är, i stort sett, snarare gimmicks än funktioner som verkligen gör skillnad.
”Jag trodde på Apple Intelligence, men Apple gjorde mig besviken”, skrev TechRadars skribent John-Anthony Disotto i en artikel som sammanfattade Apples problem. Som långvarig iPhone-användare har jag också känt av besvikelsen över att se mitt favoritmärke hamna på efterkälken jämfört med Google och Samsung i den stora AI-kapplöpningen.
Men allt är inte förlorat. Trots alla brister finns det ljuspunkter i Apple Intelligence, särskilt i hur Apples AI-verktyg presenteras och nås. De kanske inte är de mest kraftfulla funktionerna, men de fungerar faktiskt riktigt smidigt, och efter att ha använt Apple Intelligence varje dag i en vecka under en semester på Madeira, Portugal, har jag insett att Visuell intelligens i synnerhet är ett riktigt användbart tillskott till de bästa iPhone-modellerna.
Ute på fältet
Apples variant av Google Lens lanserades med iOS 18.2 i december – hela tre månader efter att iPhone 16 lanserades, för övrigt – och även om jag lekte lite med Visuell intelligens då, hittade jag aldrig riktigt någon anledning att använda det dagligen hemma i London.
På Madeira däremot bestämde jag mig för att verkligen testa Visuell intelligens ordentligt, inte minst för att det är en plats med unik naturskönhet, exotiska djur och kulturspecifika traditioner.
Visuell intelligens aktiveras med ett långt tryck på Kamera-kontroll-reglaget på alla iPhone 16-modeller och via Åtgärdsknappen, Låsskärmen eller Kontrollcenter på iPhone 16e, iPhone 15 Pro och iPhone 15 Pro Max. Det använder iPhone-kameran för att identifiera, tolka och agera på visuell information, och är integrerat med både ChatGPT och Google Sök.
Få daglig insikt, inspiration och erbjudanden i din inkorg
Registrera dig för senaste nyheter, recensioner, åsikter, toppteknologiska erbjudanden och mer.
Som användare av iPhone 16 Pro aktiverar jag alltid Visuell intelligens via Kamera-kontroll och det har verkligen fått mig att uppskatta just den funktionen på nytt.
Jag använder nästan aldrig Kamera-kontrollen för att ta bilder, men Apples kombination av fysisk och haptisk knapp har visat sig vara perfekt för att starta Visuell intelligens. Motsvarande funktioner på Samsung- och Pixel-telefoner kan aktiveras genom att trycka på sidoknappen respektive strömknappen, men jag gillar att min iPhone 16 Pro har vad jag nu ser som en dedikerad knapp för Visuell intelligens.
@techradar ♬ coffee chat - choppy.wav
Och hur svarade då Visuell intelligens på mina visuella frågor på Madeira? Det levererade användbar och korrekt information varje gång. Visst, funktionen förlitade sig mestadels på ChatGPT, men jag ser inte det som något problem så länge ChatGPT förblir gratis och är sömlöst integrerat i Visuell intelligens. Det kanske inte är ett Apple-verktyg i grunden, men det är definitivt ett iPhone-verktyg.
Som du kan se i TikTok-videon ovan kunde Visuell intelligens avgöra min plats baserat på en ganska anonym dal och till och med en ännu mer okänd botanisk trädgård. Det översatte både portugisisk och latinsk text korrekt, och förklarade att ödlan jag stötte på var en vanlig murödla (Podarcis muralis). Det identifierade ett traditionellt portugisiskt kryddkärl och berättade till och med var jag kunde köpa utsökt Madeiravin.
Även i fall där Visuell intelligens inte kunde avgöra exakt var jag befann mig eller bestämma ursprunget till den grillade fisken på min tallrik, fick jag ändå användbar information. Till exempel: ”Det här är ett fantastiskt vattenfall som forsar nerför en frodig, grön klippa, omgivet av tät vegetation. Platsen verkar vara ett populärt utflyktsmål, där besökare njuter av den natursköna miljön, fotograferar och kopplar av vid vattenfallet.” Allt korrekt, även om det inte kunde identifiera vattenfallet som Madeiras 25 Fontes.
Poängen är: Visuell intelligens fungerar och det borde inte avfärdas som en meningslös gimmick av dem som bara har provat några av de mer överflödiga funktionerna i Apple Intelligence.
Större och bättre konkurrens
Naturligtvis är den olyckliga situationen för Apple att många av de bästa Android-telefonerna erbjuder jämförbara eller bättre versioner av samma verktyg. Gemini Live är Visuell intelligens på steroider, och när Googles AI-assistent hjälper dig att laga en trerättersmiddag eller deltar i ett samtal om den lokala musikscenen, känns det verkligen som att man interagerar med framtiden.
Ironiskt nog finns Gemini Live nu gratis tillgängligt för iOS såväl som för Android, och den hårda verkligheten för Apple är att det just nu egentligen inte finns någon anledning för iPhone-användare att välja Visuell intelligens framför Gemini Live. AI-utvecklingen går så fort att Apples lösning redan känns föråldrad – Apple Intelligence är inte den mest intelligenta mjukvaran på iPhone.
Men jag är övertygad om att Apple faktiskt har en fungerande AI-plattform att bygga vidare på under nästa veckas WWDC 2025. Ja, Apple Intelligence ligger långt efter konkurrenterna, men funktioner som Visuell intelligens visar att det finns verklig nytta i det Apple har utvecklat hittills. Apple är fortfarande kung när det gäller användargränssnitt och design, och jag hoppas att vi snart får se ett Apple Intelligence som inte är så beroende av tredjepartsplattformar för att vara användbart.
Läs vidare

Axel is TechRadar's UK-based Phones Editor, reporting on everything from the latest Apple developments to newest AI breakthroughs as part of the site's Mobile Computing vertical. Having previously written for publications including Esquire and FourFourTwo, Axel is well-versed in the applications of technology beyond the desktop, and his coverage extends from general reporting and analysis to in-depth interviews and opinion. Axel studied for a degree in English Literature at the University of Warwick before joining TechRadar in 2020, where he then earned an NCTJ qualification as part of the company’s inaugural digital training scheme.
- Amanda WestbergChefsredaktör TechRadar Norden