poLight. "Eyes of AI"
Starter en tråd her der Londonmannen har skrevet et eminent innlegg på Discord:
"AI er på alles lepper i disse dager og det kan se ut som AI vil være springbrettet for Polight også. Bruk av AI setter krav til helt andre reaksjoner enn det tidligere former for AF har kunnet tilby. Med TLens har megaaktørene innen utvikling av ny teknologi basert på AI, funnet the missing link, so to say. Her har de en linse som fokuserer like raskt som det menneskelige øyet, linsen sin funksjonalitet påvirkes ikke av gravitasjonskrefter, tåler store temperatursvingninger og har et svært bredt spekter av bruksmuligheter. NårPolight i tillegg kan tilby TWedge, da har Polight satt seg i en posisjon ingen av gigantene innen utvikling av ny teknologi som krever optiske løsninger kan overse. Denne posisjonen mener jeg er betydelig forsterket når man i tillegg kombinerer dette med AI. For da blir TLens og TWedge nøkkelkomponenter for å få til et optimalt samspill mellom AI og det man skal se.
Det er nok derfor ØI uten blygsel kan hevde at når det gjelder AF i AR/MR vertikalen, så har Polight The SOLUTION. Et utsagn som trolig blir enda mer korrekt dersom man også tar inn over seg AI sin inntreden i denne vertikalen.
Når vi da begynner å se hvor raskt utviklingen med AI skjer, og hvor inngripende AI vil bli i årene som kommer, så kan man jo begynne å undre seg på hvor stor Polight har potensiale til å bli. For å si det litt flåsete; tror vi at han/de som fant opp hjulet kunne skjønne hvilken betydning det skulle få? Neppe. Men at Polight høyst sannsynlig sitter med essensen av toneangivende disruptive teknologi, det burde markedsaktørene snart ta inn over seg.
Ønsker dere alle en riktig god helg."
"AI er på alles lepper i disse dager og det kan se ut som AI vil være springbrettet for Polight også. Bruk av AI setter krav til helt andre reaksjoner enn det tidligere former for AF har kunnet tilby. Med TLens har megaaktørene innen utvikling av ny teknologi basert på AI, funnet the missing link, so to say. Her har de en linse som fokuserer like raskt som det menneskelige øyet, linsen sin funksjonalitet påvirkes ikke av gravitasjonskrefter, tåler store temperatursvingninger og har et svært bredt spekter av bruksmuligheter. NårPolight i tillegg kan tilby TWedge, da har Polight satt seg i en posisjon ingen av gigantene innen utvikling av ny teknologi som krever optiske løsninger kan overse. Denne posisjonen mener jeg er betydelig forsterket når man i tillegg kombinerer dette med AI. For da blir TLens og TWedge nøkkelkomponenter for å få til et optimalt samspill mellom AI og det man skal se.
Det er nok derfor ØI uten blygsel kan hevde at når det gjelder AF i AR/MR vertikalen, så har Polight The SOLUTION. Et utsagn som trolig blir enda mer korrekt dersom man også tar inn over seg AI sin inntreden i denne vertikalen.
Når vi da begynner å se hvor raskt utviklingen med AI skjer, og hvor inngripende AI vil bli i årene som kommer, så kan man jo begynne å undre seg på hvor stor Polight har potensiale til å bli. For å si det litt flåsete; tror vi at han/de som fant opp hjulet kunne skjønne hvilken betydning det skulle få? Neppe. Men at Polight høyst sannsynlig sitter med essensen av toneangivende disruptive teknologi, det burde markedsaktørene snart ta inn over seg.
Ønsker dere alle en riktig god helg."
Redigert 14.09.2024 kl 11:36
Du må logge inn for å svare
VantageVolante
14.09.2024 kl 11:14
12742
Grunnen for å lage en ny tråd, er at jeg tror mange ikke ser linken mellom AI og PLT. Alle er velkommen til å diskutere dette videre, men vi prøver å holde det til temaet kunstig intelligens i sammenheng med AR og Tlens/Twedge/LBS.
VantageVolante
14.09.2024 kl 11:27
12690
Kan begynne med å si et uttrykket "Eyes of AI" kommer fra SHARP. De har utviklet kameramoduler for både TLF og AR med Tlens. Det er denne modulen (korriger meg om jeg tar feil) de pr nu selger inn vha også sitt slagord nevnt over.
Det bemerkes at denne teknologien UTELUKKENDE er avhengig av en oppfinnelse opprinnelig utsprunget fra gamle NTH i Trondheim , "T-Lens". Videreutviklet av poLight i Horten.
Det bemerkes at denne teknologien UTELUKKENDE er avhengig av en oppfinnelse opprinnelig utsprunget fra gamle NTH i Trondheim , "T-Lens". Videreutviklet av poLight i Horten.
Eqnrqec
14.09.2024 kl 12:15
12540
Det ser fantastisk lovende ut, det må være lov å si, om vi kommer seirende ut av denne kampen vil tiden vise! Sitter med en følelse at storordrene kommer tikkende inn om ikke alt for lenge, polight virker eksplosiv ut om dagen!
Eqnrqec
14.09.2024 kl 17:21
11897
Neste år ja, da blir det flere! Lurt å komme seg inn tidlig, fortsatt grisebillig aksje.
Tigana
15.09.2024 kl 10:19
10489
Eyes of AI er selvsagt helt avhengig av at brukerens øye/pupill ser sømløst. Her kommmer et nytt patent på LBS (laser beam scanning som sitter i brillestengene) fra Bosch som viser hvordan det kan bli enda bedre. Delt først av Sofys på Discord i dag. Og som nevnt flere ganger poLight er helt sentral for å få til dette og det sier de selv også.
https://patents.google.com/patent/WO2024153397A1/en
https://patents.google.com/patent/WO2024153397A1/en
Redigert 15.09.2024 kl 10:20
Du må logge inn for å svare
klaesp
15.09.2024 kl 11:54
10272
Takk for deling, Tigana.
Mange spennende patenter med Tlens.
2025/26 blir Polight gjennombrudd i stor skala 👍
Mange spennende patenter med Tlens.
2025/26 blir Polight gjennombrudd i stor skala 👍
CatchTrader
15.09.2024 kl 12:10
10227
Hva tenker folk om oppkjøp her? Noen grunn til at det ikke skal komme et bud på Polight i denne fasen, hvor brikkene faller på plass
Tigana
15.09.2024 kl 13:53
10022
Det har vært stilt spørsmål om det opp gjennom årene. Apple har jeg forstått prøvde seg for mange år siden. Korriger meg noen om jeg tar feil.
Siden teknologien er så sentral for optiske løsninger i fremtiden så er det gunstig at det er et lite firma i Norge som har den og ikke et i Asia eller USA.
Siden teknologien er så sentral for optiske løsninger i fremtiden så er det gunstig at det er et lite firma i Norge som har den og ikke et i Asia eller USA.
VantageVolante
15.09.2024 kl 14:47
9898
Takk for alle bidrag hittil. Tror flere vil kommentere omkring linken mellom AI og PLT når de ser denne tråden. Selv, så ser jeg delvis sammenhengen, men evner dessverre ikke å forklare godt nok. Komplekse saker dette.
CatchTrader
15.09.2024 kl 14:57
9870
Jeg forstår sammenhengen og jeg tror også markedet kan ha evne til se sammenhengen, og det kan det fort bli en fomo av fremover - akkurat det vi ønsker før bekreftelsen(e) blir annonsert. Kan bli en perfekt storm, med stor vekt av investorer som fortsatt sitter på gjerde og venter på en mulighet, nettopp som denne. Spennende tid, indeed.. ;)
Blygen
16.09.2024 kl 15:36
8211
Har skrevet det før.....kun et tidsspørsmål før kursen kommer over 10nok....og det er kun starten på eventyret:)
Londonmannen
17.09.2024 kl 07:55
7299
10-tallet burde være realistisk før nyttår. Skulle det komme melding om TLens benyttes i AR vertikalen til en av de virkelig store, internasjonale tech-aktørene, da tror jeg at kr 10,- fort kan vise seg å være et for konservativt anslag. Vi befinner oss i en særdeles spennende tid. Men så må vi være såpass nøkterne at PoLight har befunnet seg på randen av et gjennombrudd i flere år nå. At det hittil ikke har blitt et gjennombrudd i smarttelefonmarkedet skyldes nok timing mer enn teknologien de kunne tilby. Akkurat det ser ut til å være fundamentalt annerledes i tilfellet AR/MR vertikalen. Men det har også skjedd positive ting vedrørende teknologien, ikke minst med tanke på tilpassning til masseproduksjon.
Redigert 17.09.2024 kl 08:00
Du må logge inn for å svare
Myrabakk
17.09.2024 kl 08:59
7077
Hvilken betydning har AI (Kunstig Intelligens) for poLight???
Dette er et superinteressant spørsmål!
Dette er et spørsmål som egentlig krever et enormt langt svar om man skal dekke det godt. Jeg tar en kortversjon, og skal forsøke å få med det viktigste.
Først til en av de vanligste oppfatninger jeg opplever mange har av AI og poLight:
"AI er SoftWare (SW) det har ikke noe med poLight å gjøre. poLight driver med linser, og det er HardWare (HW)."
Her må jeg si at den som påstår at AI er SW egentlig har rett i den digitale betydningen av ordet. AI handler om digital behandling av informasjon. Men, AI er ingenting uten input av informasjon. Det er eksisterende informasjon som ligger på det store internettet i dag som gjør at AI ala ChatGPT kan komme med veldig mye god databehandling i dag. ChatGPT tar altså i bruk eksisterende informasjon og "tolker og foreslår" et svar, en anbefaling, et sammendrag eller annet, basert på hvor presist svar du stiller. Dette er ren SW-behandling av allerede eksisterende informasjon. Denne informasjonen som ligger på nett kan være både kvalitetssikret og den kan være mangelfull. Dette bringer oss til kjernen, essensen i hva AI er HELT avhengig av: GOD NOK KVALITET PÅ INN-DATA. Det mest kjente prinsippet kan banalt enkelt kalles for "Shit in - Shit out". Altså, mater man inn dårlig data til AI-behandling så får du dårlig verdi i det som kommer ut i andre enden.
Et annet prinsipp som alle som har jobbet litt med koding kjenner til er også sentralt her. Det handler om nøyaktighet i selve kodingen. Slurver du i kildekoden når du programmerer så får du dårlig resultat ut. Et enkelt eksempel på dette er Excel regneark. Legger du inn en feil i en kode der du ber en celle om å regne ut noen verdier for deg så får du feil ut-data. En pluss i stedet for en minus i en formel vil ha fatal konsekvens for ut-data i Excel-arket ditt, og gir null pålitelighet uansett hvor gode inndata man har. AI er ofte selvlærende og forbedrende (les: sjakk-bot 1.0 som spiller mot sjakk-bot 2.0 taper gjerne i 100 av 100 spill pga selvlæring og større mengde inndata i 2.0). AI lærer altså av egne feil og forbedrer koding/programmering etter hvert som utfall/utdata kanskje ikke er gode nok. Men for å få slik læring må altså inndata være gode.
Her har man altså to essensielle emner man må ha call på om det skal være verdi i AI: Inndata og selve AI-forbedringen.
Om du utvider begrepet AI litt mer enn bare Chat-bot'er og slikt så kommer man frem til det som er i vinden i dag og som kommer til å endre fremtiden vår betraktelig: generativ AI. Generativ AI er denne selvlærende og instante AI-behandlingen som skjer direkte. Den er enda mer avhengig av gode inndata for å prestere rask behandling og en opplevd instant utdata til bruker.
Et godt eksempel på dette kan man for eksempel bruke fra AR og MR-briller. Det passer godt siden dette er en poLight-tråd.
Tenk at du går rundt i naturen, byen eller innendørs og har på deg smarte briller. Informasjonen du ber om og som du får på brillen er generert av prosessoren i brillen. Det å ha et ekstra lag med digital informasjon liggende oppå synsfeltet ditt har høy verdi innen utallige bruksområder. Det kan være alt av geografisk informasjon, helserelatert, personrelatert, tekst/tale-relatert, manualer, osvosv. Her kan man fortsette i det uendelige, bare fantasien setter grenser for bruksområder. Det er innen slike briller poLight antas å ha den beste løsningen for fremtiden.
Og her kommer koblingen mellom HW, SW, AI og AR/MR:
Dersom brillene ved hjelp av AI skal foreslå digital informasjon til bruker, og informasjonen skal være relevant til situasjonene brukeren er i så må det puttes inn en instant ny informasjon slik at "kart og terreng" stemmer, altså relevant data knyttet til tid, sted og situasjon. Det vil derfor være avgjørende å ha et utall ulike HW- og SW-sensorer knyttet til brillene. Eksempler på dette er kamera, gyroskop, LiDAR/distanse, GPS, temperaturmåler, etc. Disse data forteller prosessoren i brillen hvor brukeren er, hvilken situasjon man er i, og hva som befinner seg rundt brukeren. Disse dataene MÅ være presise og meget innholdsrike dersom AI skal kunne relatere generert innhold av høy verdi til brukeren.
Siden dette handler om poLigh så kan jeg dra et eksempel på hvilken funksjon kamera MÅ ha dersom ting skal være av høy kvalitet for bruker av brillen
- Høy oppløsning i bilde (Detaljer, mer informasjon, nøyaktighet etc)
- Autofokus, AF (Presis og fokusert info om bilder, detaljer, digital data utenfor brillen/QR, etc)
Og her ser man egentlig direkte det som gjør at poLight nå har overtatt alle 1.generasjonsprosjekter for AF-kameraer i AR-briller: Det kreves høyere oppløsning i inn-data. Høyere MP/oppløsning krever Autofokus som funksjon for å kunne ha god nok inndata til å behandle dette rett, altså å FORHINDRE at AI feiltolker informasjon pga for dårlig inndata.
Det å ha rask AF uten pumping i bildet vil derfor være avgjørende for at bilde og film skal kunne tolkes korrekt av AI. Og angående dette med pumping: VCM er en teknologi som ikke er sømløs, det er linser som fysisk flyttes i 3D-rommet, noe som automatisk gir pumpeeffekt inn og ut av fokus. Det er ikke godt nok for AI. FixedFocus er heller ikke godt nok, for der er bare deler av "verdensbildet" i ok fokus. Det må derfor AF til i slike sensorer.
Vi ser nå kontorene av at de store Cameramodulmakers, CMMs, begynner å fronte AI-funksjonaliteten i sine kameramoduler. Der er Shrp det selskapet som har kommet lengst når det gjelder å fremsnakke poLight. De beskriver TLens fra poLight som "Eyes of AI". Dette er egentlig en utrolig god beskrivelse av viktigheten til kamera for AI.
Implisitt betyr det at AI er "blind eller svaksynt" uten TLens. Litt flåsete beskrevet av meg kanskje, men det er mye korrekt i dette. Som jeg har nevnt mange ganger i innlegget her; AI MÅ ha god data, og TLens er absolutt en av de beste til å gi AI slik grafisk data.
Kort sagt: AI er SoftWare, men er avhengig av god digital input fra en rekke HW-sensorer for å kunne "tolke, forstå og foreslå" digital verdifull informasjon som er nyttig for brukeren.
Dette er et superinteressant spørsmål!
Dette er et spørsmål som egentlig krever et enormt langt svar om man skal dekke det godt. Jeg tar en kortversjon, og skal forsøke å få med det viktigste.
Først til en av de vanligste oppfatninger jeg opplever mange har av AI og poLight:
"AI er SoftWare (SW) det har ikke noe med poLight å gjøre. poLight driver med linser, og det er HardWare (HW)."
Her må jeg si at den som påstår at AI er SW egentlig har rett i den digitale betydningen av ordet. AI handler om digital behandling av informasjon. Men, AI er ingenting uten input av informasjon. Det er eksisterende informasjon som ligger på det store internettet i dag som gjør at AI ala ChatGPT kan komme med veldig mye god databehandling i dag. ChatGPT tar altså i bruk eksisterende informasjon og "tolker og foreslår" et svar, en anbefaling, et sammendrag eller annet, basert på hvor presist svar du stiller. Dette er ren SW-behandling av allerede eksisterende informasjon. Denne informasjonen som ligger på nett kan være både kvalitetssikret og den kan være mangelfull. Dette bringer oss til kjernen, essensen i hva AI er HELT avhengig av: GOD NOK KVALITET PÅ INN-DATA. Det mest kjente prinsippet kan banalt enkelt kalles for "Shit in - Shit out". Altså, mater man inn dårlig data til AI-behandling så får du dårlig verdi i det som kommer ut i andre enden.
Et annet prinsipp som alle som har jobbet litt med koding kjenner til er også sentralt her. Det handler om nøyaktighet i selve kodingen. Slurver du i kildekoden når du programmerer så får du dårlig resultat ut. Et enkelt eksempel på dette er Excel regneark. Legger du inn en feil i en kode der du ber en celle om å regne ut noen verdier for deg så får du feil ut-data. En pluss i stedet for en minus i en formel vil ha fatal konsekvens for ut-data i Excel-arket ditt, og gir null pålitelighet uansett hvor gode inndata man har. AI er ofte selvlærende og forbedrende (les: sjakk-bot 1.0 som spiller mot sjakk-bot 2.0 taper gjerne i 100 av 100 spill pga selvlæring og større mengde inndata i 2.0). AI lærer altså av egne feil og forbedrer koding/programmering etter hvert som utfall/utdata kanskje ikke er gode nok. Men for å få slik læring må altså inndata være gode.
Her har man altså to essensielle emner man må ha call på om det skal være verdi i AI: Inndata og selve AI-forbedringen.
Om du utvider begrepet AI litt mer enn bare Chat-bot'er og slikt så kommer man frem til det som er i vinden i dag og som kommer til å endre fremtiden vår betraktelig: generativ AI. Generativ AI er denne selvlærende og instante AI-behandlingen som skjer direkte. Den er enda mer avhengig av gode inndata for å prestere rask behandling og en opplevd instant utdata til bruker.
Et godt eksempel på dette kan man for eksempel bruke fra AR og MR-briller. Det passer godt siden dette er en poLight-tråd.
Tenk at du går rundt i naturen, byen eller innendørs og har på deg smarte briller. Informasjonen du ber om og som du får på brillen er generert av prosessoren i brillen. Det å ha et ekstra lag med digital informasjon liggende oppå synsfeltet ditt har høy verdi innen utallige bruksområder. Det kan være alt av geografisk informasjon, helserelatert, personrelatert, tekst/tale-relatert, manualer, osvosv. Her kan man fortsette i det uendelige, bare fantasien setter grenser for bruksområder. Det er innen slike briller poLight antas å ha den beste løsningen for fremtiden.
Og her kommer koblingen mellom HW, SW, AI og AR/MR:
Dersom brillene ved hjelp av AI skal foreslå digital informasjon til bruker, og informasjonen skal være relevant til situasjonene brukeren er i så må det puttes inn en instant ny informasjon slik at "kart og terreng" stemmer, altså relevant data knyttet til tid, sted og situasjon. Det vil derfor være avgjørende å ha et utall ulike HW- og SW-sensorer knyttet til brillene. Eksempler på dette er kamera, gyroskop, LiDAR/distanse, GPS, temperaturmåler, etc. Disse data forteller prosessoren i brillen hvor brukeren er, hvilken situasjon man er i, og hva som befinner seg rundt brukeren. Disse dataene MÅ være presise og meget innholdsrike dersom AI skal kunne relatere generert innhold av høy verdi til brukeren.
Siden dette handler om poLigh så kan jeg dra et eksempel på hvilken funksjon kamera MÅ ha dersom ting skal være av høy kvalitet for bruker av brillen
- Høy oppløsning i bilde (Detaljer, mer informasjon, nøyaktighet etc)
- Autofokus, AF (Presis og fokusert info om bilder, detaljer, digital data utenfor brillen/QR, etc)
Og her ser man egentlig direkte det som gjør at poLight nå har overtatt alle 1.generasjonsprosjekter for AF-kameraer i AR-briller: Det kreves høyere oppløsning i inn-data. Høyere MP/oppløsning krever Autofokus som funksjon for å kunne ha god nok inndata til å behandle dette rett, altså å FORHINDRE at AI feiltolker informasjon pga for dårlig inndata.
Det å ha rask AF uten pumping i bildet vil derfor være avgjørende for at bilde og film skal kunne tolkes korrekt av AI. Og angående dette med pumping: VCM er en teknologi som ikke er sømløs, det er linser som fysisk flyttes i 3D-rommet, noe som automatisk gir pumpeeffekt inn og ut av fokus. Det er ikke godt nok for AI. FixedFocus er heller ikke godt nok, for der er bare deler av "verdensbildet" i ok fokus. Det må derfor AF til i slike sensorer.
Vi ser nå kontorene av at de store Cameramodulmakers, CMMs, begynner å fronte AI-funksjonaliteten i sine kameramoduler. Der er Shrp det selskapet som har kommet lengst når det gjelder å fremsnakke poLight. De beskriver TLens fra poLight som "Eyes of AI". Dette er egentlig en utrolig god beskrivelse av viktigheten til kamera for AI.
Implisitt betyr det at AI er "blind eller svaksynt" uten TLens. Litt flåsete beskrevet av meg kanskje, men det er mye korrekt i dette. Som jeg har nevnt mange ganger i innlegget her; AI MÅ ha god data, og TLens er absolutt en av de beste til å gi AI slik grafisk data.
Kort sagt: AI er SoftWare, men er avhengig av god digital input fra en rekke HW-sensorer for å kunne "tolke, forstå og foreslå" digital verdifull informasjon som er nyttig for brukeren.
Tigana
17.09.2024 kl 11:41
6389
Takk for den Myragubben.
SHARP TECH DAY’24 er i Tokyo i dag og i morgen. De showcaser blant annet Eyes of AI og det er nok ikke noe annet enn TLens i det. «Ultra-fast autofocus».
https://global.sharp/techday/?_gl=1*6kt1w9*_ga*MTc2NzM1OTYxMy4xNzI2NTY1NTYy*_ga_E9NZ25ZMZ0*MTcyNjU2NTU2MS4xLjAuMTcyNjU2NTU2MS42MC4wLjA.*_ga_H2QK7TN0BN*MTcyNjU2NTU2MS4xLjAuMTcyNjU2NTU2MS4wLjAuMA..*_ga_376DXJ05P6*MTcyNjU2NTU2MS4xLjAuMTcyNjU2NTU2MS4wLjAuMA..
SHARP TECH DAY’24 er i Tokyo i dag og i morgen. De showcaser blant annet Eyes of AI og det er nok ikke noe annet enn TLens i det. «Ultra-fast autofocus».
https://global.sharp/techday/?_gl=1*6kt1w9*_ga*MTc2NzM1OTYxMy4xNzI2NTY1NTYy*_ga_E9NZ25ZMZ0*MTcyNjU2NTU2MS4xLjAuMTcyNjU2NTU2MS42MC4wLjA.*_ga_H2QK7TN0BN*MTcyNjU2NTU2MS4xLjAuMTcyNjU2NTU2MS4wLjAuMA..*_ga_376DXJ05P6*MTcyNjU2NTU2MS4xLjAuMTcyNjU2NTU2MS4wLjAuMA..
Redigert 17.09.2024 kl 11:46
Du må logge inn for å svare
stimar
17.09.2024 kl 14:45
5875
Så lenge det er totalt stille fra Horten, som vanlig, så kaster de kortsiktige kortene/aksjene. Skjønner at poLight er pålagt begrensninger angående nyhetsklipp fra kunder, men det må være grenser på mangel av meldinger fra Isaksen.
VantageVolante
17.09.2024 kl 15:57
5665
Det anmodes om å ta generelle diskusjoner i andre tråder, og holde denne til AI
Myrabakk
17.09.2024 kl 16:53
5514
Angående dagens kursdropp, jeg mistenker at det har med at noen misforstod et Sharp-bilde og dette med "Eyes of AI". Jeg vet ikke, men jeg forsøkte å svare en aktør på Shareville hva jeg trodde. Kan kopiere innleggene hit:
"Merkelig kursdropp, men jeg tror kanskje det skyldes en misforståelse??
Det var noen som la ut et bilde av en kameramodul som Sharp kaller "eyes of AI", og så tror jeg noen misforstod hvilken teknologi den består av. Sharp bruker betegnelsen "liquid lens" om den, men teknologien er nok poLights, altså polymer lens. Jeg kjenner igjen kameramodulen som er på display på Tech-Day, den er avbildet blant annet i flere japanske medier i dag.
De aller, aller fleste kameramodulselskapene kaller TLens for liquid lens, noe som bokstavelig talt per definisjon er feil, men som faktisk er bransjestandardens betegnelse på det son egentlig burde vært samlebetegnelsen "tunable lenses".
Den kameramodulen som ble lagt ut på Discord er en TLens-modul, men jeg mistenker at noen misforstod bildet og trodde Sharp hadde byttet ut TLens med noe liquid-greier. Det har de altså ikke.
Vet ikke om dette er forklaringen på dropp i kurs, men jeg ser ikke noen annen forklaring som er god. Det er jo mulig det er noen som skal skynde seg ut av aksjen (før Meta avholder Connect-eventet sitt og showcaser ny teknologi i neste uke...?).
Vi får vel vite hvem som solgte på listene som kommer torsdag kveld. Blir interessant å se."
Og denne som oppfølgingssvar på kommentar fra han som la ut bildet som skapte diskusjon:
"Det skapte i alle fall kjøpsmuligheter for de som ønsker inngang lavere enn kursen har vært siste dagene.
Slike bilder kan se skumle ut når de kommer uten forklaring, men det er viktig å løfte diskusjonen omkring slikt. Det er helt rett å dele, og helt rett å diskutere slike ting. poLight har tatt over samtlige AF-prosjekter fra de store selskapene innen AR, der som denne nevnte kameramodulen er beregnet inn, og før eller senere vil noen andre forsøke å utfordre poLights posisjon innen dette. DA MÅ man være klar til å grave og undersøke muligheten for at det er konkurrerende teknologi.
Men, enn så lenge; det eksisterer per dags dato ikke noen annen tunable lens, hverken av liquid eller polymer eller annet materiale som faktisk kan konkurrere med TLens sine egenskaper. Jeg er daglig i patentregistrene og sjekker, og det er ingen patenter som dekker noe nytt tunable-teknologisk.
Da står vi igjen med de kjente:
poLight
Optotune
Varioptics
Sheba
Varioptics er ikke godkjent for annet enn sort/hvitt og industrial applikation, Sheba er for stor og treg til consumer, mens Optotune har kraftig endring i FOV og sterk varmgang. Den er rask nok, men det hjelpemidler når resten svikter.
Dette er den enkleste forklaringen på hvorfor poLight faktisk har hele AR-markedet i pre-fase i sin hule hånd. Så får vi se om de klarer lande alle disse når det kommer til lanseringer. Er det AF I noe fra en kjent aktør, ja så er det svært usannsynlig at det er noe annet enn TLens."
Altså; jeg tror kursdroppet skyldes misforståelsen med Sharp, særlig siden det kom frem at det var flere som solgte pga bildet, men det kan jo være tilfeldig også, eller det kan være en aktør som faktisk tenker seg ut. Det vet jeg ikke.
Men uansett hva som er årsaken her, så fronter Sharp TLens-kameraer som "Eyes of AI" nå i dag!
Beklager å blande inn kursdiskusjon i denne posten vantagevolante, men akkurat denne saken tror jeg faktisk handler om misforståelse av hvilken tech som er i Sharps løsning til AI-input :)
"Merkelig kursdropp, men jeg tror kanskje det skyldes en misforståelse??
Det var noen som la ut et bilde av en kameramodul som Sharp kaller "eyes of AI", og så tror jeg noen misforstod hvilken teknologi den består av. Sharp bruker betegnelsen "liquid lens" om den, men teknologien er nok poLights, altså polymer lens. Jeg kjenner igjen kameramodulen som er på display på Tech-Day, den er avbildet blant annet i flere japanske medier i dag.
De aller, aller fleste kameramodulselskapene kaller TLens for liquid lens, noe som bokstavelig talt per definisjon er feil, men som faktisk er bransjestandardens betegnelse på det son egentlig burde vært samlebetegnelsen "tunable lenses".
Den kameramodulen som ble lagt ut på Discord er en TLens-modul, men jeg mistenker at noen misforstod bildet og trodde Sharp hadde byttet ut TLens med noe liquid-greier. Det har de altså ikke.
Vet ikke om dette er forklaringen på dropp i kurs, men jeg ser ikke noen annen forklaring som er god. Det er jo mulig det er noen som skal skynde seg ut av aksjen (før Meta avholder Connect-eventet sitt og showcaser ny teknologi i neste uke...?).
Vi får vel vite hvem som solgte på listene som kommer torsdag kveld. Blir interessant å se."
Og denne som oppfølgingssvar på kommentar fra han som la ut bildet som skapte diskusjon:
"Det skapte i alle fall kjøpsmuligheter for de som ønsker inngang lavere enn kursen har vært siste dagene.
Slike bilder kan se skumle ut når de kommer uten forklaring, men det er viktig å løfte diskusjonen omkring slikt. Det er helt rett å dele, og helt rett å diskutere slike ting. poLight har tatt over samtlige AF-prosjekter fra de store selskapene innen AR, der som denne nevnte kameramodulen er beregnet inn, og før eller senere vil noen andre forsøke å utfordre poLights posisjon innen dette. DA MÅ man være klar til å grave og undersøke muligheten for at det er konkurrerende teknologi.
Men, enn så lenge; det eksisterer per dags dato ikke noen annen tunable lens, hverken av liquid eller polymer eller annet materiale som faktisk kan konkurrere med TLens sine egenskaper. Jeg er daglig i patentregistrene og sjekker, og det er ingen patenter som dekker noe nytt tunable-teknologisk.
Da står vi igjen med de kjente:
poLight
Optotune
Varioptics
Sheba
Varioptics er ikke godkjent for annet enn sort/hvitt og industrial applikation, Sheba er for stor og treg til consumer, mens Optotune har kraftig endring i FOV og sterk varmgang. Den er rask nok, men det hjelpemidler når resten svikter.
Dette er den enkleste forklaringen på hvorfor poLight faktisk har hele AR-markedet i pre-fase i sin hule hånd. Så får vi se om de klarer lande alle disse når det kommer til lanseringer. Er det AF I noe fra en kjent aktør, ja så er det svært usannsynlig at det er noe annet enn TLens."
Altså; jeg tror kursdroppet skyldes misforståelsen med Sharp, særlig siden det kom frem at det var flere som solgte pga bildet, men det kan jo være tilfeldig også, eller det kan være en aktør som faktisk tenker seg ut. Det vet jeg ikke.
Men uansett hva som er årsaken her, så fronter Sharp TLens-kameraer som "Eyes of AI" nå i dag!
Beklager å blande inn kursdiskusjon i denne posten vantagevolante, men akkurat denne saken tror jeg faktisk handler om misforståelse av hvilken tech som er i Sharps løsning til AI-input :)
klaesp
17.09.2024 kl 17:54
5359
Fra sharp link
Evolution of the Camera as "Eyes" of AI
Ultra-fast autofocus based on the same focusing mechanism as the human eye. A camera that acts as an “eye” linked to a world of AI.
Dette er med stor sannsynlighet fra Polight
Evolution of the Camera as "Eyes" of AI
Ultra-fast autofocus based on the same focusing mechanism as the human eye. A camera that acts as an “eye” linked to a world of AI.
Dette er med stor sannsynlighet fra Polight
Redigert 17.09.2024 kl 19:53
Du må logge inn for å svare
Billyjojimbob
17.09.2024 kl 18:36
5243
Da satses det på at kursen stiger mer i morgen enn den droppet i dag👍
klaesp
17.09.2024 kl 18:42
5226
Sydney skrev Bør meldes i morgen da?
Det er en presentasjon av ny teknologi og ikke avtaler med produsenter.
VantageVolante
17.09.2024 kl 21:15
4848
Sydney skrev Bør meldes i morgen da?
Hva bør meldes???? Dette er showcase av teknologi by Sharp. Et event. Ikke noe annet.
Sydney
17.09.2024 kl 22:09
4696
Akkurat, jeg trodde det var en lansering av nye produkter det var snakk om
VantageVolante
17.09.2024 kl 22:19
4662
Nei, dette Sharp-eventet er ikke et lanseringsrally. Mer det å vise frem teknologi i form av komponenter.
Londonmannen
18.09.2024 kl 08:16
3616
Her har PoLight bekreftet sammenhengen mellom AI og kvaliteten på AF i en X melding:
poLight ASA
@poLightASA
#Machinevision is adding #AI for better automation, efficiency, and quality control. It needs better image quality - with #tunableoptics for autofocus + constant FoV. Want to learn more? Meet Jon Edwards at VISION ’24 Oct. 8-10 in Stuttgart, Germany. Contact info@polight.com.
poLight ASA
@poLightASA
#Machinevision is adding #AI for better automation, efficiency, and quality control. It needs better image quality - with #tunableoptics for autofocus + constant FoV. Want to learn more? Meet Jon Edwards at VISION ’24 Oct. 8-10 in Stuttgart, Germany. Contact info@polight.com.
Myrabakk
26.09.2024 kl 20:14
1656
Vanvittig bra AR-conceptbrille som Meta kjørte en showcase på I går. Denne brillen er nøyaktig slik poLights CEO har sagt at utviklingen vil gå, og som gjør at poLight kan befeste son posisjon som #1 innen leveranse av AF-linser til AR.
Meta kjører et voldsomt trykk på hvordan AI vil være med på å revolusjone og akselerere utviklingen innen AR. Disse AR-brillene har Meta jobbet med I flere år, og det at de nå føler seg klare til å vise dem for resten av verden er et meget sterkt signal til oss: AR kommer!
Jeg vet ikke om denne prototyp-brillen inneholder camera med Autofocus, men når denne lanseres så føler jeg meg ganske så trygg på at i alle fall lanseringsmodellen gjør det.
Hvorfor?
Jo, enkelt forklart:
De bruksområder Mark Zuckerberg beskriver for AR+AI er så og si uløselige med fixed focus. Det åpner opp for autofokuserende teknologi, og da har Meta jammen meg ikke mye å velge mellom når de skal kikke etter hva de har patentert inn...! Det er, slik jeg ser det, kun 2 selskaper som kan levere tunable optics som kvalifiserer til AF og slik bruk Meta beskriver. Det ene er poLight og det andre er Optotune.
Når det gjelder Optotune; den sluker strøm, er ikke stabil i bredt temperaturrange, og kan ikke brukes i continuerlig drift i mer enn omtrent halvannet minutt. Disse begrensningene vil diskvalifisert Optotune fra det meste av applikasjoner i AR, og jeg ser faktisk ikke ett eneste bruksområde der de kan være et reelt alternativ til TLens. Legg her merke til at funksjonaliteten i AR-briller handler om continous autofocus i fortolkning av brukerens omgivelser. Dette er Basic for å gi AI input til fortolkning av omgivelsene. Da må det kjøres continous drift.
Vi har sett måleresultater på Optotune versus poLoght i Mosers rapporter på Mini2P-scopet. Hadde det vært fotballkamp så hadde resultatet vært 90-0 i favør poLight. Optotune går varm etter svært kort tid, fokuset drifter ut og linsen oppfører seg som en uhåndterlig og uforutsigbar enhet som ikke holder mål når continous drift fører til rask temperaturøkning.
TLens viser i samme forsøk at selv 2-3 timer kontinuerlig drift med fil fører til null endring i både drift og temperaturøkning den er så dønn stabil og strømgjerrig at testerne til Moser bare slo av forsøksutstyret etter noen timer. Det var ikke noen endring å finne, TLens er dønn stabil.
Det er dette som er behovet i Orion. Det må være en dønn stabil linse, og den må ha meget god funksjon i det å innhente data fra omgivelsene for at AI skal utnytte potensialet og ha nytteverdi.
Meta kjører et voldsomt trykk på hvordan AI vil være med på å revolusjone og akselerere utviklingen innen AR. Disse AR-brillene har Meta jobbet med I flere år, og det at de nå føler seg klare til å vise dem for resten av verden er et meget sterkt signal til oss: AR kommer!
Jeg vet ikke om denne prototyp-brillen inneholder camera med Autofocus, men når denne lanseres så føler jeg meg ganske så trygg på at i alle fall lanseringsmodellen gjør det.
Hvorfor?
Jo, enkelt forklart:
De bruksområder Mark Zuckerberg beskriver for AR+AI er så og si uløselige med fixed focus. Det åpner opp for autofokuserende teknologi, og da har Meta jammen meg ikke mye å velge mellom når de skal kikke etter hva de har patentert inn...! Det er, slik jeg ser det, kun 2 selskaper som kan levere tunable optics som kvalifiserer til AF og slik bruk Meta beskriver. Det ene er poLight og det andre er Optotune.
Når det gjelder Optotune; den sluker strøm, er ikke stabil i bredt temperaturrange, og kan ikke brukes i continuerlig drift i mer enn omtrent halvannet minutt. Disse begrensningene vil diskvalifisert Optotune fra det meste av applikasjoner i AR, og jeg ser faktisk ikke ett eneste bruksområde der de kan være et reelt alternativ til TLens. Legg her merke til at funksjonaliteten i AR-briller handler om continous autofocus i fortolkning av brukerens omgivelser. Dette er Basic for å gi AI input til fortolkning av omgivelsene. Da må det kjøres continous drift.
Vi har sett måleresultater på Optotune versus poLoght i Mosers rapporter på Mini2P-scopet. Hadde det vært fotballkamp så hadde resultatet vært 90-0 i favør poLight. Optotune går varm etter svært kort tid, fokuset drifter ut og linsen oppfører seg som en uhåndterlig og uforutsigbar enhet som ikke holder mål når continous drift fører til rask temperaturøkning.
TLens viser i samme forsøk at selv 2-3 timer kontinuerlig drift med fil fører til null endring i både drift og temperaturøkning den er så dønn stabil og strømgjerrig at testerne til Moser bare slo av forsøksutstyret etter noen timer. Det var ikke noen endring å finne, TLens er dønn stabil.
Det er dette som er behovet i Orion. Det må være en dønn stabil linse, og den må ha meget god funksjon i det å innhente data fra omgivelsene for at AI skal utnytte potensialet og ha nytteverdi.
Tigana
27.09.2024 kl 19:52
1357
Sjekk her a. AR brillen Magic Leap 2 med TLens og hva den kan utføre i en operasjonsstue på sykehuset i Stavanger vises på Dagsrevyen ved tid 17:40. Kjempereklame for poLight selv om dette selvsagt ikke nevnes i dette innslaget. Autofokus med TLens er en betingelse for å få til dette. Nå må poLight benytte seg av muligheten ved dette innslaget.
https://tv.nrk.no/se?v=NNFA19092724
https://tv.nrk.no/se?v=NNFA19092724
Redigert 27.09.2024 kl 19:53
Du må logge inn for å svare
Tigana
27.09.2024 kl 20:05
1336
Ikke dum denne Finansavisen artikkelen heller som ble lagt ut i 18 tiden i kveld. Her er jo ikke TLens bekreftet eller ikke siden det er en prototype, men denne må også ha kamera med autofokus når consumer versjonen kommer om trolig 12 - 18 måneder.
https://www.finansavisen.no/finans/2024/09/27/8185499/verdens-tredje-rikeste-etter-brillepresentasjon
https://www.finansavisen.no/finans/2024/09/27/8185499/verdens-tredje-rikeste-etter-brillepresentasjon
Redigert 27.09.2024 kl 20:07
Du må logge inn for å svare
klaesp
27.09.2024 kl 21:33
1253
Du kom meg i forkjølet, tenkte å poste.
Rå teknologi som vil være et svært nyttig hjelpemiddel, og dette er kun starten. Dette blir stort.
Rå teknologi som vil være et svært nyttig hjelpemiddel, og dette er kun starten. Dette blir stort.
Blygen
01.10.2024 kl 15:30
766
Satser på at det kommer en dag hvor plt virkelig blir anerkjent...:)...inntil da sitter jeg bare stille og laster i det små:)