n
Oversett tekster med Google-linse Det har blitt en av de raskeste og mest praktiske måtene å forstå alt du ser på et annet språk.Enten det er på telefonskjermen, et skilt på gaten eller en restaurantmeny mens du er på reise, betyr kombinasjonen av kamera, tekstgjenkjenning og kunstig intelligens at du ikke trenger å kopiere og lime inn fraser i en oversetter, noe som blir et skikkelig ork i hverdagen.
Problemet er at opplevelsen ikke er den samme for alle eller i alle situasjoner.det er ikke det samme oversett et nettsted fra ChromeDet fungerer nesten av seg selv, men det er ikke så enkelt som å prøve å forstå et apps grensesnitt på et språk du ikke snakker, eller å prøve å oversette en meny når du ikke har internettforbindelse. I denne artikkelen skal vi gå gjennom hvordan du bruker Google Lens til å oversette tekst i hvert av disse scenariene, hvilke begrensninger det har avhengig av telefonen du bruker, og hvordan du får mest mulig ut av mindre kjente funksjoner, for eksempel offline-oversettelser eller AI-drevet videoanalyse.
Slik oversetter du tekst fra virkeligheten med Google Lens
På en datamaskin er oversettelse vanligvis veldig enkelt: du merker teksten, høyreklikker, og det er alt.Men på mobil er ting ganske annerledes. Mange apper lar deg ikke velge tekst, andre blokkerer kopiering av sikkerhetshensyn, og generelt sett blir det en kjedelig oppgave å kopiere og lime inn i en oversetter, spesielt hvis du bruker apper på språk du bare delvis forstår.
Det er her Google Lens kommer inn i bildet, som kombinerer kamera og optisk tegngjenkjenning (OCR) for å oppdage teksten den ser. og lar deg oversette det på farten. Du peker kameraet ditt eller laster opp et bilde, så identifiserer Lens teksten på originalspråket og transformerer den til språket du ønsker, og legger oversettelsen over selve bildet slik at du ser alt «som om det var skrevet» på ditt språk.
Dette systemet er spesielt nyttig når du står overfor restaurantmenyer, skilt, transportkart eller skjemaer som du ikke forstår.Fordi du ikke trenger å skrive noe: bare ram inn teksten og la AI-en gjøre jobben. I tillegg integrerer Lens den samme oversettelsesmotoren som Google, den vi allerede kjenner fra Google Translate, så kvaliteten er vanligvis ganske god for de fleste språk.
Den store fordelen med Lens fremfor en tradisjonell oversetter er at den ikke bare fungerer med ren tekst, men med bilder, videoer og det som vises på skjermen. (i hvert fall på noen enheter), så det passer mye bedre til hvordan vi bruker telefonene våre i dag. Du kan til og med oversette trykt tekst, notater, gateskilt eller turistbrosjyrer på sekunder.
Men, og her kommer den mindre hyggelige delen, måten å få tilgang til denne funksjonen er ikke like enkel for alle.Avhengig av telefonen din og hvordan Google har bestemt seg for å integrere Lens, vil du få en smidig og nesten magisk opplevelse ... eller en prosess med flere trinn, skjermbilder overalt og følelsen av at alt kunne vært mye bedre.
Oversettelse av apper på Android: den lange veien for de fleste mobile enheter
Hvis du vil oversette tekst skrevet i en app som ikke lar deg velge noe, blir ting komplisert.Bestill en taxi på en app som er utelukkende på thai, prøv å bestille mat på en lokal app, eller naviger i en tjeneste på et språk du ikke forstår, og du vil se at kopier og lim inn ikke alltid er mulig.
På mange Android-telefoner innebærer trikset for å oversette teksten som vises i et hvilket som helst program å bruke Google Lens med skjermbilder.Fordi Lens, med få unntak, ikke kan analysere det som er på skjermen direkte i sanntid, er den typiske prosessen i praksis vanligvis følgende:
- Ta et skjermbilde av appen der teksten du vil oversette befinner seg..
- Trykk på dele-knappen som vises når du tar skjermbildet, før miniatyrbildet forsvinner.
- Velg Google Lens fra menyen over applikasjoner du kan dele bildet med.
- Når Lens åpnes med skjermbildet, trykker du på Oversett-alternativet for å se teksten på ditt språk.
Når du først har blitt vant til prosessen, tar det ikke så lang tid, men det er fortsatt en unødvendig omvei.Videre ender du opp med å fylle telefonens galleri med skjermbilder som du bare brukte til å oversette noe spesifikt, og så må du slette dem hvis du ikke vil at de skal bli et rot.
Den gode nyheten er at når du først er inne i Google Lens, fungerer oversettelsen vanligvis utmerket.Selv om den opprinnelige teksten er i svært forskjellige alfabeter (som thai, russisk eller arabisk) eller i menyer med uvanlige fonter, er Lens’ OCR ganske robust, og det endelige resultatet er tydelig nok til at du kan navigere i utenlandske apper uten for mye problemer.
Det åpenbare problemet oppstår når innholdet du vil oversette ikke får plass på én skjerm, og du må gjenta prosessen flere ganger.Ta bilde, del, bruk Lens, oversett … Dermed blir det å be om en enkel meny eller konfigurere en app på et annet språk en sekvens av trinn som kunne vært mye bedre integrert i Android.
Alt dette står i kontrast til skrivebordsopplevelsen, hvor det er nok å bruke nettleserens innebygde oversetter eller utvidelser som oversetter hele sider med ett klikk.På mobilen bærer oversettelsesapper fortsatt med seg den følelsen av å «klare seg» som har vedvart i årevis, og som for øyeblikket bare delvis er løst med noen spesifikke mobiltelefoner.
Den forvirrende utviklingen av Google Nå på trykk, Hva er på skjermen min? og Søk på skjermen
Det mest ironiske er at Google allerede hadde en ganske elegant løsning for å analysere hva som dukket opp på mobiltelefonskjermen.lenge før Lens ble så populært. Tilbake i dagene med Google Now on Tap, rundt 2015–2016, kunne du trykke og holde inne hjemknappen, og systemet ville analysere skjerminnholdet, identifisere tekst, lenker og kontekst, og tilby deg tilleggsinformasjon.
At Google Now on Tap blant annet tillot valg av tidligere urørlig tekst og bruk av den til søking eller oversettelse.Noe som, sett i ettertid, var svært avansert for sin tid. Senere bestemte Google seg for å «gjenoppfinne» systemet og omdannet det til Assistent-kommandoen kalt «Hva er på skjermen min?», og det var der problemene begynte.
Den berømte «Hva er på skjermen min?»-funksjonen fungerte aldri konsekvent for mange brukere.Noen ganger returnerte den irrelevante resultater, andre ganger sa den at det ikke var noe å analysere, og som kronen på verket nådde det et punkt der det virket som om assistenten selv glemte kommandoen, som om den aldri hadde eksistert.
Over tid valgte Google å fjerne denne funksjonen, justere den og gjenopplive den under et annet navn: SkjermsøkDenne funksjonen, som nå vises som et foreslått alternativ i assistenten på noen enheter, skal teoretisk sett analysere det du ser på skjermen, gjenkjenne innholdet og tillate ting som tekstoversettelse uten å kreve skjermbilder.
Det store «men»-et er at skjermsøk i praksis nesten utelukkende er begrenset til Google Pixel-telefoner.På disse telefonene kan du be assistenten om å undersøke hva som vises og bruke Google Lens i bakgrunnen for å oppdage tekst, lenker og informasjon, noe som gir en mye mer integrert og naturlig opplevelse.
På de fleste Android-enheter som ikke er Pixel, vises det bare en snarvei til Google Lens-ikonet fra assistenten.Men Lens oppfører seg som alltid: den kan bare analysere hva kameraet ser eller hva som er i et lagret bilde, ikke selve skjermen. Med andre ord må du fortsatt ta et skjermbilde og dele det for å oversette det du ser i en hvilken som helst app.
Selv om du prøver å snakke med assistenten med kommandoer som «skann skjermen min» eller «hva er på skjermen min», fungerer det ofte ikke som det skal på mange telefoner som ikke er Pixel.I beste fall åpner den Lens, men uten å kunne analysere grensesnittet direkte, så resultatet blir nøyaktig det samme som om du åpnet appen på egenhånd.
Denne situasjonen skaper følelsen av at Google famler med funksjoner som, når de endelig blir virkelig nyttige, ender opp med å være eksklusive for deres egne telefoner.Mens resten av brukerne fortsetter å stole på mindre direkte løsninger. For noe så hverdagslig som å oversette tekst på en mobilskjerm, er kontrasten mellom Pixel-modellene og resten ganske tydelig.
Slik bruker du oversettelsesfunksjonen i Google Lens trinn for trinn

Utover forskjellene mellom enhetene, er grunnlaget for oversettelse med Google Lens alltid det samme.Du velger oversettelsesmodus, peker på teksten eller åpner et bilde, og velger kilde- og målspråk. Det spiller ingen rolle om du vil oversette en fysisk meny, et skilt på en t-banestasjon eller et bilde av et dokument noen har sendt deg.
Når du åpner Google Lens-appen, ser du en rekke hovedmoduser nederst på skjermen.Disse er vanligvis organisert som faner eller ikoner: Oversett, Søk, Tekst, Lekser, Shopping osv. (dette kan variere noe avhengig av versjonen). Alternativet vi er interessert i for oversettelse er selvfølgelig Oversett.
Når du trykker på Oversett, aktiverer Lens en spesifikk modus designet for tekstoversettelse.I denne modusen fokuserer appen på å oppdage bokstaver, ord og uttrykk i området som er innrammet av kameraet, eller i innholdet i bildet du har lastet opp fra galleriet.
Øverst på skjermen ser du to språk: språket du vil oversette fra og språket du vil oversette til.De vises vanligvis som «Oppdag språk» for hovedspråket ditt, men du kan endre dem manuelt ved å trykke på navnene for å justere dem til det du trenger til enhver tid.
Når språkparet er konfigurert, rammer du bare inn teksten du vil oversette og venter et øyeblikk.Lens gjenkjenner originalteksten, konverterer den til digitale tegn og legger oversettelsen over selve bildet, slik at det ser ut som om skiltet, menyen eller mobilskjermen er direkte på ditt språk.
Mange av de mest brukte språkene støttes av Google Lens-oversettelse., som spansk, engelsk, tysk, fransk, italiensk, russisk, arabisk, thai, tsjekkisk, dansk, slovensk, hviterussisk og en god del tilleggsspråk, som Google gradvis legger til støtte for.
Denne måten å bruke den på er ideell når du reiser utenlands og trenger å oversette elementer av det fysiske miljøet i sanntid.Restaurantmenyer, museumsskilt, informasjonstavler, billetter, kart over offentlig transport eller annen trykt tekst på et språk du ikke snakker. Du slipper å måtte spørre noen andre om oversettelser og trenger bare et par trykk på telefonen.
Oversettelser uten nett: Last ned språkpakker i Google Lens
En av de mest interessante funksjonene som Google Lens har innlemmet nylig, er muligheten til å oversett offlineDenne funksjonen, som har vært tilgjengelig i Google Translate i årevis, blir nå integrert i Lens-økosystemet når du ikke har data eller befinner deg i et område med dårlig dekning.
For å bruke offline oversettelse må du først laste ned språkpakkene du trenger.Prosessen gjøres fra selve Lens-appen, og når du har konfigurert den én gang, kan du fortsette å bruke disse språkene selv med flymodus aktivert eller uten WiFi eller mobildata.
Det første trinnet er å åpne Google Lens og gå inn i oversettelsesmodus fra den nederste linjen.Når du er i denne modusen, se øverst, der de to språkene oversettelsen skal gjøres mellom vises (for eksempel «Oppdag språk → spansk»).
Trykk på språkdelen for å åpne hele listen over tilgjengelige språk.Du vil se en liste der det er et nedlastingsikon ved siden av navnene på mange språk. Dette ikonet indikerer at du kan laste ned den tilhørende pakken for bruk uten nett.
For å laste ned et språk, klikk på nedlastingsikonet til høyre for navnet.I det øyeblikket vil et popup-vindu dukke opp som angir den omtrentlige størrelsen på pakken (vanligvis noen få megabyte) og spør om du vil fortsette nedlastingen.
Hvis du har nok plass på mobilenheten din og er interessert i det språket, bekrefter du ved å trykke på Last ned.Språket lastes ned til enhetens minne, og fra det øyeblikket kan du bruke det som både kilde- og målspråk, uten å måtte være koblet til.
Ikke alle språk har ennå tilgjengelige språkpakker for offline bruk.Men listen vokser gradvis. De vanligste språkene (engelsk, spansk, fransk, tysk og andre mye brukte) er nesten alltid tilgjengelige, mens andre, mindre vanlige språk legges til over tid.
Når du har lastet ned favorittspråkene dine, trenger du ikke å gjøre noe spesielt for å aktivere frakoblet modus.Hvis du mister internettforbindelsen din på noe tidspunkt, vil Lens automatisk bruke de installerte pakkene til å fortsette å tilby oversettelser, men med noen begrensninger sammenlignet med online-moduser (spesielt i nyanser eller veldig spesifikke uttrykk).
Denne funksjonen er spesielt nyttig når du reiser utenlands, når du slår av data for å unngå overraskelser på regningen, eller når du er i områder med upålitelig dekning.Med et par språkpakker installert kan du fortsatt forstå menyer, skilt og dokumenter uten å være avhengig av nettverket.
Andre kraftige funksjoner i Google Lens utover å oversette tekst
Selv om oversettelse er en av Google Lens sine flaggskipfunksjoner, går appen langt utover det.I virkeligheten er Lens en slags sveitsisk lommekniv som kombinerer bildegjenkjenning, visuelt søk og AI-assistanse for hverdagsoppgaver.
Alternativet søk (eller Lens' hovedmodus) lar deg identifisere objekter, steder, klær, produkter og praktisk talt alt du retter kameraet mot.Hvis du ser et par joggesko du liker, men ikke kjenner merket, kan du ta et bilde av dem med Lens, og systemet vil prøve å finne lignende modeller på nettet, med lenker til butikker og relatert innhold.
Denne funksjonen blir også svært nyttig for å oppdage informasjon om monumenter, bygninger eller severdigheter når du besøker en ny by.Du peker på en kirke, et museum eller et torg, og Lens tilbyr deg kontekstuelle data hentet fra Googles søkemotor, anmeldelser, åpningstider eller offisielle sider.
Lens inkluderer også en studie- og leksemodus, designet for å hjelpe elever med øvelser og problemer.Bare fokuser på et spørsmål, en påstand eller en matematisk ligning, slik at AI-en kan forsøke å gjenkjenne innholdet og tilby forklaringer, mellomtrinn og mulige løsninger.
I tilfelle av matematiske operasjonerGoogle Lens viser ikke bare det endelige svaretI stedet bryter den vanligvis ned prosedyren og viser trinnene som er nødvendige for å komme frem til resultatet. Dette er veldig nyttig for å forstå resonnementet bak løsningen, ikke bare for å kopiere det endelige tallet.
Sammen med disse hovedfunksjonene lar Lens deg også kopiere tekst fra den fysiske verden til mobilenheten din.Du kan fotografere et avsnitt fra en bok og deretter velge den oppdagede teksten for å lime den inn i et notat, en e-post eller et dokument. Det samme gjelder telefonnumre, adresser eller lenker som er trykt i brosjyrer.
Videoanalyse og taleforespørsler: den nyeste vrien fra Google Lens
I det siste har Google begynt å ta Lens et skritt videre, og har inkludert muligheten til å tolke videoer og svar på spørsmål høytI stedet for å være begrenset til et statisk bilde, kan den nå analysere utdrag av en video du spiller inn og generere rikere responser takket være generativ AI.
Denne funksjonen er utformet slik at du kan ta opp en scene i bevegelse, snakke mens du tar opp og be om informasjon om hva du ser.For eksempel kan du gå nedover en gate i en ukjent by, ta opp med Lens og spørre hvilke butikker som er der, hvilke monumenter du kan se, eller hvilke interessante steder som er i nærheten.
For å bruke denne videoanalysemodusen må du registrere deg i Googles Search Labs-program.som grupperer eksperimentelle funksjoner relatert til søk og kunstig intelligens. I Søkelaboratorier må du aktivere alternativer som «AI-sammendrag og mer», alltid fra Google-appen.
Aktivering gjøres ved å trykke på Søk i laboratorier-ikonet (representert av en kolbe) i Google-appen.Derfra kan du registrere deg for de eksperimentelle funksjonene som er tilgjengelige i din region og på ditt språk. Bare noen brukere, og foreløpig hovedsakelig på engelsk, har tilgang til alle de nye funksjonene.
Når den er aktivert, kan du begynne å spille inn med Google Lens og stille spørsmålene dine høyt mens videoen spilles inn.Lens vil identifisere de mest relevante rammene knyttet til spørringen din og bruke dem som grunnlag for å generere et AI-drevet svar, med detaljerte forklaringer og ytterligere kontekst.
Denne videoanalysemetoden kan brukes i mange hverdagsscenarioer: utforske nabolag og turistattraksjoner, gå på shopping og lær mer om produktene du ser, identifiser verk i museer eller gjenkjenn naturelementer, som planter eller dyr, mens du filmer dem.
I byutforskning kan du for eksempel spille inn en gate full av butikker og spørre hvilke restauranter i nærheten som har de beste vurderingene.Når du handler, kan du fokusere på flere produkter i en hylle og spørre om detaljer om merker, priser eller funksjoner.
Når du er på museum, kan det å rette kameraet mot et kunstverk mens du spør hvem kunstneren er eller hvilken bevegelse det tilhører, spare deg for å lete etter små skilt eller trykte brosjyrer.Og i naturlige miljøer kan det å registrere en sti og spørre om planteartene som dukker opp bli en underholdende måte å lære på mens du går.
Det er verdt å merke seg at denne videoanalysefunksjonen per i dag fortsatt er eksperimentell og noe begrenset når det gjelder språk og regioner.Det peker imidlertid tydelig mot en fremtid der Lens ikke bare gjenkjenner det den ser, men forstår det dypere og engasjerer seg i dialog med deg om det.
Fordeler og begrensninger ved å oversette tekster med Google Lens i dag
Når man ser på helheten, tilbyr Google Lens en svært kraftig og fleksibel måte å oversette tekst på., både i fysiske miljøer og i selve mobilenheten, og med stadig flere komplementære AI-baserte verktøy. For reiser, studier eller daglig bruk har det blitt nærmest uunnværlig.
Blant de viktigste fordelene er hvor raskt du kan gå fra å se en uforståelig tekst til å forstå den.Uten å skrive noe og uten mellomtrinn, bare ved å peke kameraet eller åpne et bilde. Den direkte overlappingen av oversettelsen over bildet gjør det veldig intuitivt å identifisere hvilken del av teksten hver oversatte frase tilsvarer.
En annen viktig styrke er det brede utvalget av språk og alfabeter den støtter.Dette lar deg navigere i land med språk som er svært forskjellige fra ditt eget, og bruke menyer, skilt og grunnleggende dokumenter uten å trenge ekstern hjelp. Og med frakoblede pakker er du ikke engang avhengig av nettverksdekning.
Imidlertid er ikke alt perfekt, og fragmentering mellom enheter er fortsatt en betydelig ulempe.Selv om Pixel-telefoner har funksjoner som Search Screen som er godt integrert i assistenten, er mange andre brukere tvunget til å fortsette å ty til skjermbilder for å oversette det som vises i appene deres.
Denne forskjellsbehandlingen skaper en ulik opplevelse av noe så grunnleggende som å forstå teksten du ser på din egen mobiltelefon.I dag kunne Google ha standardisert en enkel og universell måte å analysere skjermen med Lens på alle Android-enheter, men foreløpig er denne bekvemmeligheten i stor grad knyttet til Pixel-økosystemet.
Det bør også bemerkes at kvaliteten på oversettelsen, selv om den er god, ikke er perfekt.I svært tekniske tekster, juridiske dokumenter eller svært lokale uttrykk i dagliglivet kan Lens gjøre feil, utelate nyanser eller foreslå noe uvanlige formuleringer. Det er tilstrekkelig for å forstå den generelle betydningen, men det erstatter ikke en profesjonell oversettelse når nøyaktighet er avgjørende.
Til tross for disse nyansene, er realiteten at Google Lens har blitt et nesten uunnværlig verktøy for alle som reiser, studerer eller jobber omgitt av andre språk enn sitt eget.I motsetning til de tidlige årene, da det var lite mer enn en kuriositet, er det i dag integrert i den daglige flyten av mobiltelefonbruk og utgjør en klar forskjell sammenlignet med å ikke ha det.
Når man ser på alt vi har sett, er det tydelig at Google Lens har gått fra å være et enkelt bildegjenkjenningsverktøy til å bli en komplett visuell assistent.Den kan oversette tekster, hjelpe deg med lekser, identifisere produkter, tolke videoer og gi kontekst til omgivelsene dine, selv om den fortsatt har tvilsomme avgjørelser, som å reservere noen avanserte funksjoner kun for Pixel-telefoner.
