NO323926B1 - Visuelt system samt styringsobjekt og apparat til bruk i systemet. - Google Patents

Visuelt system samt styringsobjekt og apparat til bruk i systemet. Download PDF

Info

Publication number
NO323926B1
NO323926B1 NO20044936A NO20044936A NO323926B1 NO 323926 B1 NO323926 B1 NO 323926B1 NO 20044936 A NO20044936 A NO 20044936A NO 20044936 A NO20044936 A NO 20044936A NO 323926 B1 NO323926 B1 NO 323926B1
Authority
NO
Norway
Prior art keywords
light
infrared
camera
control object
computer
Prior art date
Application number
NO20044936A
Other languages
English (en)
Other versions
NO20044936D0 (no
NO20044936L (no
Inventor
Tormod Njolstad
Mikael Lindgren
Oystein Damhaug
Sedsel Fretheim
Original Assignee
New Index As
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by New Index As filed Critical New Index As
Priority to NO20044936A priority Critical patent/NO323926B1/no
Publication of NO20044936D0 publication Critical patent/NO20044936D0/no
Priority to CA2586849A priority patent/CA2586849C/en
Priority to US11/719,065 priority patent/US8436836B2/en
Priority to JP2007541123A priority patent/JP5225681B2/ja
Priority to MX2007005464A priority patent/MX2007005464A/es
Priority to KR1020077010477A priority patent/KR101158157B1/ko
Priority to PCT/NO2005/000416 priority patent/WO2006135241A1/en
Priority to AU2005333078A priority patent/AU2005333078A1/en
Priority to EP13160729.3A priority patent/EP2607995A1/en
Priority to EP05858006A priority patent/EP1817655B1/en
Priority to CNA2005800387032A priority patent/CN101095098A/zh
Priority to TW094139424A priority patent/TWI453524B/zh
Publication of NO20044936L publication Critical patent/NO20044936L/no
Publication of NO323926B1 publication Critical patent/NO323926B1/no
Priority to JP2012221513A priority patent/JP5490199B2/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/18Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical projection, e.g. combination of mirror and condenser and objective
    • G02B27/20Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical projection, e.g. combination of mirror and condenser and objective for imaging minute objects, e.g. light-pointer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0386Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry for light pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected

Abstract

Fremgangsmåte og apparat (16) for å projisere infrarødt- og nær infrarødt- eller lavintensitetslys fra en penn, peker eller annet styringsredskap eller -objekt i form av et kodet mønsterbilde som kan detekteres av et kamera og gjenkjennelsessystem, men som er usynlig, eller knapt synlig for bruker og publikum, hvorved man kan styre og samvirke med en datamaskin (19) under en presentasjon, et datamaskinstøttet arbeid og/eller annen interaktiv bruk av en datamaskin, inklusive peking, valg, tegning og skriving, både på avstand (11) og nær (10) en front- eller bakprojeksjonsskjerm eller eventuelt andre typer av fremvisningsskjermer, uten noen distraherende visuelt mønster eller flekker, mens den eventuelle visuelle tilbakekoplingen til bruker og publikum kan genereres av datamaskinen og fremvisningssystemet på fremvisningsskjemen på en styrt og kontekstfølsom måte. De projiserte komplekse bildene fra posisjonsanordningen er skapt ved optisk sammenstilling av en eller flere diffraktive optiske elementer, kollimasjonslinse og/eller speil og en eller flere lyskilder, både når det opereres på avstand (11) og når det opereres nær (10) skjermen. Lyskilden kan fortrinnsvis være laserdioder eller lysemmitterende dioder. I en foretrukket utførelse sender lyskildene ut synlig, infrarødt eller nær infrarødt lys.

Description

Den foreliggende oppfinnelsen vedrører projeksjon av et infrarødt, nær infrarødt eller lav-intensitets synlig bilde fra en projeksjonsanordning som er plassert på et styringsobjekt, penn eller peker, mot en referanseflate for å være i stand til å finne og kontinuerlig følge bildeposisjonen og også orienteringen til styringsobjektet, pennen eller pekeren i forhold til referanseflaten. Nærmere bestemt går oppfinnelsen i første rekke ut på et system for å finne og følge bildeposisjonen og orienteringen til styringsobjektet, pennen eller pekeren; med andre ord et visuelt system for presentasjoner, datamaskinstøttet arbeid eller annen interaktiv bruk av en datamaskin. Dessuten omfatter oppfinnelsen nevnte styringsobjekt med projeksjonsanordning og videre et deteksjonsapparat.
BESKRIVELSE AV TEKNIKKENS STAND
Den offentliggjorte internasjonale patentsøknaden WO0227461 vedrører en tegne-, skrive- og pekeanordning for datapresentasjoner, datamaskinstøttet kontorarbeid og/eller annen interaktiv bruk av en datamaskin. Oppfinnelsen ifølge WO0227461 vedrører også et kamera og et gjenkjennelsessystem for samvirke med en tegne-, skrive- og pekeanordning for datapresentasjoner, datamaskinstøttet kontorarbeid og/eller annen interaktiv bruk av en datamaskin. Den forutgående oppfinnelsen vedrører videre et system for tegning, skriving og peking som er egnet til datapresentasjoner, datamaskin-støttet kontorarbeid og/eller annen interaktiv bruk av en datamaskin, omfattende tegne-, skrive- og pekeanordning, et kamera og gjenkjennelsessystem i tillegg til et datamaskinsystem med en projeksjonsskjerm, datamaskinskjerm, en flat-skjerm eller en virtuell skjerm. Den vedrører også en fremgangsmåte for å tegne, skrive eller peke ved datapresentasjoner, datamaskinstøttet kontorarbeid eller annen interaktiv bruk av en datamaskin, og også en fremgangsmåte for kontinuerlig deteksjon av posisjonen og orienteringen til ett eller et flertall av merkede objekter. Hvert merket objekt omfatter ett eller flere kodemønstre. Kodemønstrene kan være plassert på selve overflaten av objektet eller dannes ved projeksjon fra dette mot en flate. Hvert kode-mønster er innrettet til å bli detektert av et kamera og et gjenkjennelsessystem. Kodemønstrene er valgt slik at de har gode auto- og krysskorrelasjonsegenskaper, dvs. de som har lav autokorrelasjon (lite sammenfall mellom kodemønsteret og en venstre- eller høyreforskjøvet utgave av kodemønsteret) og lav krysskorrelasjon (lite sammenfall mellom ett kodemønster og et annet kodemønster, eller en forskjøvet utgave av dette).
US Patent Nr 5938308 beskriver en håndholdt peker som er i stand til å projisere et bilde på et annet bilde for å hjelpe en person.ifm beskrivelsen av dette andre bildet. Dette innbefatter bruk av en laserkilde eller en koherent lyskilde og et diffraktivt optisk element for å produsere et ønsket bilde som et komplekst mønsterbilde som f eks en pil eller en bedriftslogo. Energiforbruket kan begrenses ved bruk av slikt diffraktivt optisk element ved å omdirigere i hovedsak alt lyset som genereres, sammenliknet med bruken av masker eller lysbilder som blokkerer ut deler av lyset i den bilde-genererende prosessen. Innholdet i WO 1227461 så vel som US-patent 5938308 er herved innbefattet ved referanse siden det her ikke synes påkrevet å forklare prinsippene og fremgangsmåtene som allerede er beskrevet i de to patentskriftene.
Formålet med US Patent No 5938308 er å gi et komplekst mønsterbilde av en pil etc med høy grad av synlighet som er lett å se for publikum. Formålet er ikke å følge mønster-bildet ved hjelp av et kamerabasert gjenkjennelsessystem.
I tillegg til det som er presentert ovenfor angående teknikkens stand, bør følgende nevnes: US 5.572.251 viser et optisk posisjoneringssystem der et bilde som er generert av en datamaskin, projiseres fra en projeksjonsenhet på en skjerm. En laserpeker som genererer et lyspunkt brukes for å peke på skjermen i et punkt som detekteres av en posisjonsdetektor. På grunn av prinsippet som utnyttes, er detektoren ikke egnet til å detektere et mønster som projiseres på skjermen, men kun et lyspunkt med begrenset utbredelse. Så overbringer denne informasjon angående posisjonen til datamaskinen.
EP 0515015 vedrører en fremgangsmåte og apparat for samvirke med en datamaskin via en infrarød peker. Informasjon fra datamaskinen projiseres på skjermen. Med den infrarøde pekeren pekes det mot et punkt på skjermen, og ved hjelp av en sensor detekteres punktet og posisjonen kan bestemmes. Med prinsippene som anvendes er fremgangsmåten og apparat kun egnet til å detektere en punktformet lyskilde av begrenset utbredelse, og ikke et mønster.
WO 00/23939 beskriver en input-pekeranordning for en datamaskin. På en skjerm er det projisert et bilde fra en datamaskin. Et kamera detekterer minst et område på skjermen. Ved hjelp av en håndholdt lyspenn projiseres et punkt på skjermen og posisjonen til det projiserte punktet bestemmes fra et bilde tatt av kameraet.
OPPSUMMERING AV OPPFINNELSEN
Den foreliggende oppfinnelsen vedrører i følge ett aspekt projeksjon av et infrarødt eller nær infrarødt bilde eller eventuelt et bilde dannet av lavintenst synlig lys, på en referanseflate fra en projeksjonsanordning omfattende et styringsobjekt, som en penn eller peker, for å være i stand til å finne og kontinuerlig følge bildeposisjonen og også orienteringen til styringsobjektet, pennen eller pekeren i forhold til referanseflaten. I denne forbindelsen er det viktig å gjøre bildemønsteret usynlig eller knapt synlig for det menneskelige øye ved å bruke infrarødt eller nær infrarødt lys eller ved å bruke synlig lys med lav intensitet. Referanseflate i denne sammenheng kan være en hvilken som helst form for fremvisningsoverflate eller liknende i en vilkårlig orientering. Eksempler kan være en vilkårlig 3-dimensjonal overflate, en plan overflate, en bakprojeksjonsskjerm, en frontprojeksjons- eller fremvisningsskjerm, slik som en LCD eller CRT skjerm,
orientert mer eller mindre vertikalt, så vel som en bordoverflate.
Et annet aspekt ved den foreliggende oppfinnelsen er å følge mønsterbildet ved hjelp av et kamerabasert gjenkjennelsessystem slik som i WO0227461, og å finne og rapportere bilde-posis jonen og orienteringen kontinuerlig som en input-anordning til et datamaskinsystem. Det projiserte bildet kan omfatte ett eller flere kodemønstre som har gode auto- og krysskorrelasjonsegenskaper slik det er beskrevet i WO0227461. I følge den foreliggende oppfinnelsen er mønster-bildet gjort knapt synlig eller i hovedsak usynlig for det menneskelige øye ved å bruke svært små endringer i intensitetsnivå eller ved å bruke infrarødt eller nær infrarødt lys i et relativt smalt bølgelengdebånd. Dette oppnås blant annet ved hjelp av en projeksjonsanordning (styringsobjekt) som omfatter optiske diffraktive elementer slik de er kjent innen optikk-fagfeltet.
Deteksjonen av den projiserte bildeposisjonen kan utføres av
et kamera- og gjenkjennelsessystem som i WO 0227461, for å finne og rapportere bildeposisjonen og orienteringen kontinuerlig som en input-anordning til et datamaskinsystem.
I patentkravene er oppfinnelsen angitt nærmere, inkludert de
nye og spesifikke trekkene til systemet, så vel som et apparat og et styringsobjekt for bruk i systemet ifølge oppfinnelsen.
Det er videre et aspekt ved den foreliggende oppfinnelsen at den kan brukes for ulike displayer inklusive front-projeksjonssystemer og bakprojeksjonssystemer, for avstands-operasjoner og for operasjoner nær skjermen. Avstands-operasjoner vil typisk være, for eksempel peking, valg, "dra-og-slipp"-operasjoner. Operasjoner nær skjermen vil typisk være for eksempel peking, valg, " dra-og-slipp", skriving, tegning og sletting.
En viktig fordel som oppnås ved den foreliggende oppfinnelsen, er at mønsterbildet som projiseres fra styringsobjektet, pennen eller pekeren, ikke er direkte synlig, eller er knapt synlig, for et menneske. Knapt synlig eller i hovedsak usynlig i denne sammenhengen betyr at mønsterbildet for alle praktiske formål vil være neglisjerbart innen et totalbilde som vises for et publikum eller bruker(e). Derfor vil ikke bildet forstyrre verken den som presenterer eller publikum, mens datamaskinsystemet som mottar posisjonen og orienteringen til dette mønsteret kan gi en ønsket visuell tilbakemelding til den som presenterer og publikummet, slik som en pil, en tegne- eller skrivebevegelsessekvens eller for eksempel valg av et objekt på den datamaskingenererte skj ermen.
Videre kan bølgelengden som brukes i følge oppfinnelsen, være infrarød eller nær infrarød stråling, godt på utsiden av bølgelengdeområdet som er synlig for mennesket som brukes i dataprojeksjonssysternene. Derved er energien som kreves for å gjøre bildemønsteret detekterbart for det kamerabaserte gjenkjennelsessystemet, mye lavere enn det ville behøvd å være for å gjøre en pil eller en logo av synlig lys klart synlig for den som presenterer og for publikummet, ved svært høy lysintensitet fra dataprojektoren.
Den kamerabaserte gjenkjennelsen kan benytte et optisk filter som blokkerer projektorlyset, men slipper igjennom det infra-røde eller nær-infrarøde lyset, noe som gjør deteksjons-prosessen ufølsom for andre mønstre i dataprojektorbildene av synlig lys.
Et ytterligere aspekt ved den foreliggende oppfinnelsen er at det infrarøde eller nær-infrarøde lyset også kan kodes i styringsobjektet, pennen eller pekeren og dekodes av en infrarød fjernkontrolldekoder plassert sammen med kameraet for å gi informasjon om den aktuelle tilstanden og de aktuelle hendelsene til styringsobjektet, pennen eller pekeren. Det kan også omfatte informasjon angående bruker-identifikasj on.
I en alternativ utførelse kan en infrarød sender også plasseres sammen med kameraet og gjenkjennelsesapparatet, mens en infrarød mottaker og dekoder er plassert inne i styringsobjektet, pennen eller pekeren. Med en slik toveis infrarød kommunikasjonsforbindelse, kan effektforbruket holdes på et minimumsnivå siden den sendte effekten kan reguleres til et lavest mulig nivå mens man opprettholder robust kommunikasjon.
Det er en videre fordel ved den foreliggende oppfinnelsen at det kreves kun operasjon med lav intensitet av den nær-infrarøde laseren eller LED-kilden for å være detekterbar av kameraet og gjenkjennelsesapparatet siden det vanligvis ikke finnes noen andre signifikante lyskilder i det nær infrarøde bølgelengdeområdet. Videre tilfredsstilles krav til laser-sikkerhet enklere siden lyset spres over et projisert bilde istedenfor å være konsentrert i et lite punkt.
KORT OVERSIKT OVER TEGNINGENE
Figur 1 er et skjematisk aksialt snitt av en projeksjonsanordning (styringsobjekt) for posisjonering ved bruk av transmissive, diffraktive optiske elementer i følge en
utførelse av den foreliggende oppfinnelsen.
Figur 2 er et skjematisk aksialt snitt av en annen utførelse med den samme optiske sammenstillingen av optiske elementer som Figur 1, men med en tynnere spiss. Figur 3 er et skjematisk aksialt snitt i likhet med fore-gående, men med bruk av reflekterende, diffraktive optiske elementer i følge foreliggende oppfinnelse. Figur 4 er et skjematisk aksialt snitt i likhet med fore-gående, men med bruk av transmissive, diffraktive optiske elementer i følge foreliggende oppfinnelse. Figur 5 viser anordningen (styringsobjektet) mens den opererer nær fremvisningsskjermen. Figur 6 viser anordningen mens den opererer på avstand fra fremvisningsskjermen. Figur 7 viser anordningen med en skråstilt orientering mens den opererer nær fremvisningsskjermen. Figur 8 viser anordningen med en skråstilt orientering mens den opererer med avstand til fremvisningsskjermen. Figur 9 illustrerer et system i følge oppfinnelsen der kameraet og gjenkjennelsesapparatet er plassert foran en frontprojeksjonsskjerm eller eventuelt en annen fremvisningsskjerm, og projeksjonsanordningen (styringsobjektet) opererer nær skjermen. Figur 10 viser systemet i Figur 9 der projeksjonsanordningen opererer på avstand fra skjermen. Figur 11 illustrerer et system der et kamera- og gjenkjen-nelsesapparat er plassert bak bakprojeksjonsskjermen eller eventuelt en annen fremvisningsskjerm, og projeksjonsanordningen opererer nær skjermen. Figur 12 viser systemet i Figur 11 der projeksjonsanordningen opererer med avstand til skjermen. Figur 13 er et eksempel på spekteret fra en typisk data-proj ektor for en gitt RGB-innstilling, vist på en frontprojeksjonsskjerm 1 meter fra dataprojektoren og registrert ved bruk av en kalibrert spektrumanalysator. Figur 14 illustrerer en foretrukket type av mønsterbilde som skal projiseres av styringsobjektet i følge foreliggende oppfinnelse. Figur 15 viser et fasemønster som er generert ved hjelp av den såkalte "Gerschberg-Saxton algoritmen" for å iterativt oppnå et fasemønster for bruk av det diffraktive optiske elementet for å gi det ønskede intensitetsmønsteret slik det er vist i Figur 14. Figur 16 viser en simulering av det resulterende intensitets-mønsteret som oppnås i fjernfeltet, eller alternativt ved å bruke et system med linser og/eller krumme speil, i nærheten av det diffraktive optiske elementet. Figur 17 viser fasemønsteret som genereres for å danne en asymmetrisk del av det ønskede intensitetsmønsteret i Figur 14. Figur 18 viser det resulterende intensitetsmønsteret som oppnås i fjernfeltet. Figur 19 viser fasegitrene med to diskrete fasenivåer til det ønskede symmetriske intensitetsmønsteret som vist i Figur 14. Figur 20 viser det resulterende intensitetsmønsteret som oppnås i fjernområdet. Figur 21 viser fasegitrene med to diskrete fasenivåer for en asymmetrisk del av det ønskede intensitetsmønsteret i Figur 14. Figur 22 viser det resulterende diffraksjonsmønsteret med alvorlige feil grunnet manglende kompatibilitet, av rent fasebasert diffraksjonsgitter med to diskrete fasenivåer for å gi et asymmetrisk mønster. Figur 23 viser et eksempel på et enkelt symmetrisk intensitetsmønster som kan lages av et rent fasebasert, diffraktivt gitter med to diskrete fasenivåer. Figur 24 viser et annet eksempel på et enkelt symmetrisk intensitetsmønster som kan lages av et rent, fasebasert diffraktivt gitter med to diskrete fasenivåer.
DEFINISJONER
1) Med nær infrarødt lys eller nær infrarød stråling menes elektromagnetisk stråling i bølgelengdeområdet 750-1300 nm. 2) Med infrarødt lys eller infrarød stråling menes elektromagnetisk stråling med bølgelengde > 1300 nm. 3) Med synlig lys eller synlig stråling menes elektromagnetisk stråling i bølgelengdeområdet 400-750 nm. 4) Med et symmetrisk mønster eller bilde menes et bilde som det er mulig å "invertere". Mer presist befinner det seg et origo (x,y=0,0) nær senteret av bildet slik at om piksler x,y omplasseres ved en symmetrisk operasjon -x,-y resulterer det i det samme, eller i hovedsak det samme, mønster eller bilde. 5) Med et asymmetrisk mønster eller bilde menes et mønster
eller bilde som det ikke er mulig å invertere i følge den symmetriske operasjonen i DEFINISJON (4) ovenfor, og å oppnå det samme eller et svært tilsvarende mønster eller bilde. Det er "asymmetrisk" (ikke symmetrisk)i forhold til den symmetriske operasjonen definert i DEFINISJON (4) ovenfor.
DETALJERT BESKRIVELSE AV DE ILLUSTRERTE UTFØRELSENE
Utførelser av den foreliggende oppfinnelsen vil bli beskrevet nedenfor med referanse til tilhørende tegningene, samtidig som også flere nye og spesifikke trekk i følge oppfinnelsen vil fremgå tydelig.
Først beskrives prinsippet for å generere et bilde ved bruk av et optisk diffraktivt element. Deretter gis en detaljert beskrivelse av noen foretrukne utførelser sammen med detaljert prinsipper for operasjon av systemet.
Den foreliggende oppfinnelse i følge det ene aspektet nevnt ovenfor, vedrører projeksjon av et nær infrarødt eller infrarødt bilde eller et bilde dannet av lavintenst synlig lys på en referanseflate. I denne sammenheng oppfattes referanseflate å omfatte en hvilken som helst form for display, slik som en vilkårlig 3-dimensjonal overflate, en plan overflate eller bakprojeksjonsskjerm, eller eventuelt en frontprojeksjonsskjerm. I stedet for en mer eller mindre vertikal overflate, kan det også være en bordoverflate eller annen flate i vilkårlig orientering.
Intensitetsfordelingen av bildet velges med tanke på å ha gode autokorrelasjons- og krysskorrelasjonsegenskaper. Bildet som dannes av nær infrarødt og infrarødt lys er i det følsomme området til kamerasystemet som brukes for å lokalisere og følge mønsteret. Utgangsspekteret til en representativ dataprojeksjon er vist i Figur 13. Som man kan se er lyset begrenset til bølgelengdeområdet mellom omtrent 400 og 700 nm. Derved vil lyset som brukes for samtidig å projisere et annet bilde ved bruk av dataprojektoren, ikke interferere med det nær infrarøde eller infrarøde bildet, med tilhørende kamerabasert deteksjonssystem, siden bølgelengden som brukes er forskjellig fra de som brukes av dataprojektoren.
Et eksempel på et slikt mønsterbilde med gode autokorrelasjons- og krysskorrelasjonsegenskaper så vel som sirkulær symmetri, er vist i Figur 14. Her, og i alle de videre intensitetsplottene, er gråskalafargene invertert av hensyn til kvalitet på dokumentutskriften, slik at hvitt og svart brukes for å presentere respektivt lav og høy lysintensitet. Kun en del av bildet slik det er fremstilt i Figur 14 kreves for å lokalisere og følge senteret til hele mønsteret basert på fremgangsmåtene og systemene beskrevet i WO02274 61. De projiserte mønstrene fra de foretrukne utførelsene av den foreliggende oppfinnelsen kan beskrives geometrisk som deler av koniske snitt, og de'kan derved analyseres videre for å finne de aktuelle orienteringsvinklene i elevasjons og asimut, og avstanden til pennen fra referanseflaten. For å oppnå en nøyaktig posisjonering av mønsteret ved bruk av kameraet og gjenkjennelsesapparatet, må bildet ha skarpe og veldefinerte kanter eller alternativt være fordelt over et større område med lavere krav til kontrast og skarphet.
En fortrukket utførelse for å projisere bildet, er å bruke et diffraktivt optisk element som er generert på datamaskin, og en nær-infrarød diodelaser. Et fasemønster for et diffraktivt optisk element som trengs for å generere et mønster som vist i Figur 14, gjøres enkelt ved hjelp av datamaskinberegninger. Det finnes et stort antall beregningsmetoder for å beregne mønsteret til det diffraktive optiske elementet slik det er rapportert i den vitenskapelige og tekniske litteraturen [ref: Jakob Blad; "New Design Method for Diffractive Optics", Chalmers University of Technology, Gøteborg (2003), side 15-23] .
Figur 15 viser et fasemønster som er generert ved bruk av den såkalte "Gerschberg-Saxton algoritmen" [ref: Jørgen Bengtsson, "Diffractive Optics Design", Chalmers University of Technology, Gøteborg (1997), side 25-27] for på iterative måte å oppnå et fasemønster som kan brukes som det diffraktive optiske element for å gi et tilnærmet intensi-tetsmønster som det som er vist i Figur 14.
Gråskalaplottet i Figur 15 (her invertert av hensyn til dokumentenes trykkingskvalitet) representerer fasenivåer i området [0,2n] slik de er fordelt over det diffraktive optiske elementet. Det tilsvarende "diffrakterte bildet" i form av sin Fouriertransformasjon, er avbildet i Figur 16. Her ble 256 piksler brukt i det diffraktive optiske elementet i 16 fasenivåer, og man kan se at det reproduserer omtrent samme intensitetsfordeling som i Figur 14 bortsett fra en reduksjon i lysintensitetsnivå grunnet diffraksjonstap. Gitt at lysintensitetsnivået er høyt nok i de grå områdene i Figur 16, kan en terskel i det kamerabaserte deteksjonssystemet brukes for å kode disse som "lys/hvit" (husk at figurene 14-24 er inverterte). Figur 17 viser at fasemønsteret for den tilsvarende intensitetsfordelingen av et asymmetrisk mønster (med likhetstrekk med en del av mønsteret i Figur 14) kan genereres ved bruk av den samme algoritmen og det samme tallet for pikseloppløsning i det diffraktive optiske elementet og det samme antall av fasenivåer (se DEFINISJON (5)angående betydningen av "asymmetrisk").
Å bruke et gitter med to diskret fasenivåer er interessant fordi det er enkelt å fremstille og konstruere. Et rent fasebasert gitter med to diskrete fasenivåer kan brukes for å generere et hvilket som helst symmetrisk diffraksjonsmønster uten interferens og blanding av de positive og negative ordenene (se DEFINISJON (4) angående betydningen av
"symmetrisk"). Det diffraktive optiske elementet og det tilsvarende diffraksjonsmønster for bildet i Figur 14 er vist respektivt i Figur 19 og Figur 20. Som man kan se, ved samme antall piksler, reproduseres i hovedsak de viktigste trekkene i det ønskede mønsteret. Imidlertid er oppløsningen lavere grunnet den begrensede fleksibiliteten til de to diskrete fasenivåene av det diffraktive optiske elementet. I Figur 22 vises resultatet fra forsøket på å generere et asymmetrisk mønster ved bruk av gitteret med to diskrete fasenivåer i
Figur 21. Som man kan se, er det resulterende diffraksjons-mønsteret i Figur 22 en overlagring av det originale mønsteret og dets inverterte bilde. Dette skyldes vanskelig-hetene med et rent fasebasert gitter med to diskrete fasenivåer for å produsere et asymmetrisk mønster.
Derved vil et fasegitter med mer enn to fasenivåer være en forutsetning for å produsere et asymmetrisk mønster som brukes i det kamerabaserte detektorsystemet. Videre vil det vanligvis gi bedre bildekvalitet sammenliknet med et gitter med to diskrete fasenivåer, når det brukes med samme piksel-oppløsning. Andre eksempler på enkle symmetriske mønstre som også kan lages av diffraksjonsgitteret med to diskret fasenivåer, er vist i Figur 23 og Figur 24. Bildemønsteret slik det er vist Figur 24 kan brukes for å estimere vinkel-spredningen til det diffrakterte mønsteret grunnet oppløsningen til gitteret. Tenk på en vilkårlig linje som skjærer sirkelen gjennom origo. Dette utgjør en "lineær modell" av en todimensjonal sirkel med to diffrakterte punkter på hver side av origo. Vinkelavviket til en laserstråle fra den opprinnelige retningen av strålen ved bruk av et endimensjonalt diffraktivt gitter, kan estimeres ved hjelp av følgende formel:
sina = A/A»A
a er spredningsvinkelen som kan anvendes for første ordens
diffraksjonsstyring av en laserstråle av et en-dimensjonalt "blazed" gitter [ref: E Hallstig, L Sjøqvist, M Lindgren; Opt. Eng. Volume 42(3) (2003), side 613-619]. Her er A bølgelengden av lyset (enhet er lengde) , A er pikselavstand (enhet er lengde)og A er perioden til gitteret i piksler. Pikselavstanden kan estimeres basert på oppløsningen ved å lage gitteret og for typisk diffraktivt optisk element som er produsert av polymermaterialer eller mikromaskinsilisium er oppløsningen typisk 0,5 <y>m eller bedre. Derved er det mulig å ha 1 um som pikselavstand. Bølgelengden er satt til 850 um som er i det nær infrarøde området. Bruk av 4 fasenivåer fordelt likt mellom 0 og 3n/4 radianer gir en maksimalt diffraktert lst ordens diffraktert stråle i vinkelområdet gitt av: sina * 0,2125 og en vinkel på omtrent 12°. Derved kan det brukes 5 cm propagasjon i fritt rom etter refleksjon på et todimensjonalt gitter (eller transmisjon igjennom) med tilsvarende oppløsning og fasenivånøyaktighet, for å produsere en sirkel med omtrent 2 cm diameter eller et tilsvarende mønster. Man merker seg at en høyere oppløsning eller en mindre pikselavstand kunne generere en enda større vinkel-spredning. Forslag til utførelser som kan frembringe det diffrakterte mønsteret som et bilde nær (< omtrent 10 cm) det diffraktive optiske elementet, diskuteres i det videre.
Diffraksjonsfenomenet genererer en Fouriertransformasjon med en hvilken som helst amplitude- og fasefordeling for det diffraktive optiske elementet i "fjernfeltet". Alternativt kan Fouriertransformasjonen beveges fra fjernfeltet for å komme nærmere utgangen fra det diffraktive optiske elementet ved bruk av en linse eller sfæriske speil som virker som en linse, og som er plassert i nærheten av det diffraktive optiske elementet. Fasefordelingen av en linse eller et krummet speil har den egenskapen at det kan flytte Fourier-transf ormas j onen av en planar bølgefront til fokalplanet. Ved bruk av to eller flere linser, krummede speil, eller kombinasjoner av disse, kan posisjonen og størrelsen av Fouriertransformasjonsmønsteret relativt til det diffraktive optiske elementet og laserdioden styres.
Diffraktivt optisk element med fasefordelingsmønstre som vist i Figur 15, kan frembringes av produsenter av diffraktive optiske elementer. Disse kan være i form av transmitterende eller reflekterende komponenter. Disse komponentene kan brukes i alternative utførelser av den foreliggende oppfinnelsen i optiske oppstillinger med optiske elementer som linser, speil og lyskilder slik det er illustrert i Figur 1 -
Figur 4.
Med referanse til Figur 1 og Figur 2, har projeksjonsanordningen/styringsobjektet 16 (penn, peker) et hus eller skall 12, et batteri 1, et trykt kretskort 2, en laserdiode 3, en refraktiv kollimasjonslinse 4, et transmissivt, diffraktivt optisk element 5, en linse 6, en spiss 7, to trykknapper 8 og 9. Et resulterende mønster 10 projiseres fra styreanordningen til skjermen 25 når styreanordningen opereres nær denne, og et mønster 11 projiseres fra styreanordningen til skjermen når den opereres på avstand.
Med referanse til Figur 3 har styringsobjektet 16 (penn, peker) et skall 12, et batteri 1, et trykt kretskort 2, en laserdiode 3, et transmissivt, diffraktivt optisk element 5, med eller uten en linse 4 anordnet nære spissen 7, et reflekterende, diffraktivt, krummet, ringformet speil 14 og et krummet, ringformet speil 13, to trykknapper 8 og 9. Et resulterende mønster 10 projiseres fra styreanordningen til skjermen 25 når den opereres nær denne, og et mønster 11 projiseres fra styreanordningen til skjermen når den opereres på avstand.
Med referanse til Figur 4 har styringsobjektet 16 (penn, peker) et skall 12, et batteri 1, et trykt kretskort 2, en laserdiode 3, en refraktiv kollimasjonslinse 4, et transmissivt, diffraktivt optisk element 5 anordnet nær den bakre enden 7, et krummet ringformet speil 13 og et nøytralt vindu og/eller et annet transmissivt, diffraktivt optisk element 15 til lyset som danner mønsteret for operasjon på avstand. Et resulterende mønster 10 projiseres fra styreanordningen til skjermen når den opereres nær denne, og et mønster 11 projiseres fra styreanordningen til skjermen når den opereres på avstand.
De viste hus eller skallene 12 i disse utførelsene har til hensikt å etterlikne en konvensjonell "whiteboard"-markør eller penn og å gi brukeren et naturlig, intuitivt og ergo-nomisk redskap for å skrive, tegne og peke. En eller flere battericeller gir effekten som kreves for å sende ut lys fra lyskilden eller et antall lyskilder. Det trykte kretskortet kan gi effektstyring, grensesnitt mot den ene, de to eller flere trykknappene, en driverkrets for laserdiode, og kretser for å modulere laseren, en infrarød fjernkontrollforbindelse og/eller en radiofrekvensforbindelse. Laserdioden kan være en infrarød eller nær-infrarød diode.
Formålet med kollimasjonslinsen 4 er å øke aperturen på laserstrålen for å dekke overflaten av det diffraktive optiske elementet 5. De konkave linsene 6 og de konvekse speilene 13 og eventuelt 14, sprer mønsteret til et stort område når styringsobjektet 16 opereres nær skjermen. Ringformen på speilene 13, 14 og ringformen på de eventuelle reflekterende, diffraktive optiske elementene 13,14 gir en fri passasje for den sentrale delen av laserstrålen som danner det optiske intensitetsbildet når styringsobjektet opereres på avstand mot skjermen.
Styringsobjektet 16 kan holdes i forskjellige orienteringer og avstander til skjermen slik det er illustrert i Figur 5, 6, 7 og 8. Endringene i det projiserte mønsterbildets posisjon, form og størrelse kan brukes for å finne posisjonen sideveis, orienteringen (elevasjon og asimut) og for å estimere avstanden fra styringsobjektet til skjermoverflaten 25. Figur 9 og Figur 10 illustrerer en situasjon der tegneredskapet/styringsobjektet 16, kameraet 18 og gjenkjennelsesapparatet 19 er plassert foran frontprojeksjonsskjermen 25, bakprojeksjonsskjermen eller annet displaysystem, og der styringsobjektet 16 kan brukes nær skjermen og fjernt fra skjermen. Når det er nær skjermen 25 (Figur 9), kan styringsobjektet 16 være innenfor synsfeltet til kamera 18. Derved kan det her, dersom tegneredskapet er utstyrt med et kode-mønster, være en kombinert funksjon som omfatter fremgangsmåten som er beskrevet i WO0227461. Figur 11 og Figur 12 viser en konfigurasjon der styringsobjektet 16 opereres foran bakprojeksjonsskjermen 25 og kan brukes nær skjermen og/eller fjernt fra skjermen, mens det projiserte mønsterbildet 10 fra styringsobjektet projiseres på overflaten til bakprojeksjonsskjermen, og kan detekteres av kameraet 18 som befinner seg bak skjermen nær projektoren 17.

Claims (12)

1. Visuelt system for presentasjoner, datamaskinstøttet arbeid eller annen interaktiv bruk av en datamaskin, omfattende en referanseflate (25) som er innrettet til å kunne ses av en eller flere brukere og på hvilken visuell informasjon kan fremvises, et styringsobjekt (16) slik som en penn eller peker, til bruk i forhold til referanseflaten, og som omfatter en lysprojeksjonsanordning (3-6) , en kamera- og gjenkjennelsesanordning (18) innrettet til å detektere, registrere og overføre informasjon om objekter og bilder som presenteres på referanseflaten (25), og en datamaskin (19), eller beregningsanordning, forbundet med kamera- og gjenkjennelsesanordningen (18) for å samvirke med denne og motta utgangssignaler slik de detekteres og registreres av kamera- og gjenkjennelsesanordningen, karakterisert ved at lysprojeksjonsanordningen (3-6) omfatter et diffraktivt optisk element (5) og er innrettet til å sende ut lys som danner et kodet mønsterbilde (10,11) som i hovedsak ikke er synlig for det menneskelige øye på referanseflaten (25), mens kamera- og gjenkjennelsesanordningen (18) er innrettet til å detektere og registrere nevnte kodete mønsterbilde.
2. System i følge krav 1, der lysprojeksjonsanordningen (3-6) er innrettet til å sende ut synlig lys med lav intensitet.
3. System i følge krav 1, der lysprojeksjonsanordningen (3-6) er innrettet til å sende ut infrarødt eller nær infrarødt lys.
4. System i følge krav 1, 2 eller 3, der det (de) diffraktive optiske elementet (elementene) (5) i lysprojeksjonsanordningen omfatter rent fasebaserte diffraksjonsgitre med minst to diskrete fasenivåer (Fig. 19-24) .
5. System i følge ett av kravene 1-4, der det er etablert en direkte infrarød kommunikasjonsforbindelse mellom styringsobjektet (16) og kamera- og gjenkjennelsesanordningen (18) .
6. System i følge krav 5, der styringsobjektet (16) omfatter en infrarød fjernstyringsenhet for å sende og/eller motta signaler relatert til kamera- og gjenkjennelsesanordningen (18) .
7. Styringsobjekt til bruk i system ifølge et av kravene 1-6, karakterisert ved at en lysprojeksjonsanordning (3-6) som omfatter et diffraktivt optisk element (5) og er innrettet til å sende lys som danner et kodet mønsterbilde (10,11) som i hovedsak er usynlig for det menneskelige øye, på referanseflaten (25).
8. Styringsobjekt i følge krav 7, der lysprojeksjonsanordningen (3-6) er innrettet til å sende synlig lys med lav intensitet.
9. Styringsobjekt i følge krav 7, der lysprojeksjonsanordningen (3-6) er innrettet til å sende infrarødt eller nær infrarødt lys.
10. Styringsobjekt i følge krav 7, 8, 9, der det/de diffraktive optiske elementet/elementene (5) i lysprojeksjonsanordningen (3-6) omfatter rent fasebaserte diffraksjonsgitre med minst to diskrete fasenivåer (Fig. 19-24) .
11. Apparat til bruk i system ifølge et av kravene 1-6, karakterisert ved at det omfatter en kamera- og gjenkjennelsesanordning (18) innrettet til å detektere, identifisere og finne posisjons- og orienterings-data for styringsobjektet ut fra et kodet mønsterbilde (10,11) som presenteres på referanseflaten (25) og som i hovedsak ikke er synlig for det menneskelige øye.
12. Apparat i følge krav 11, der en datamaskin (19) forbundet med kamera- og gjenkjennelsesanordningen (18) er forsynt med en fremvisningsskjerm og er innrettet til å vise en representasjon av posisjonen, orienteringen og bevegelsen til nevnte kodete mønsterbilde (10,11), på fremvisningsskjermen.
NO20044936A 2004-11-12 2004-11-12 Visuelt system samt styringsobjekt og apparat til bruk i systemet. NO323926B1 (no)

Priority Applications (13)

Application Number Priority Date Filing Date Title
NO20044936A NO323926B1 (no) 2004-11-12 2004-11-12 Visuelt system samt styringsobjekt og apparat til bruk i systemet.
CNA2005800387032A CN101095098A (zh) 2004-11-12 2005-11-02 视觉系统
PCT/NO2005/000416 WO2006135241A1 (en) 2004-11-12 2005-11-02 Visual system
EP13160729.3A EP2607995A1 (en) 2004-11-12 2005-11-02 Visual system
JP2007541123A JP5225681B2 (ja) 2004-11-12 2005-11-02 視認システム
MX2007005464A MX2007005464A (es) 2004-11-12 2005-11-02 Sistema visual.
KR1020077010477A KR101158157B1 (ko) 2004-11-12 2005-11-02 시각 시스템
CA2586849A CA2586849C (en) 2004-11-12 2005-11-02 Method and apparatus for forming, projecting and detecting a coded pattern image with a camera and recognition system
AU2005333078A AU2005333078A1 (en) 2004-11-12 2005-11-02 Visual system
US11/719,065 US8436836B2 (en) 2004-11-12 2005-11-02 Method and apparatus for forming, projecting and detecting a coded pattern image with a camera and recognition system
EP05858006A EP1817655B1 (en) 2004-11-12 2005-11-02 Visual system
TW094139424A TWI453524B (zh) 2004-11-12 2005-11-10 視覺系統
JP2012221513A JP5490199B2 (ja) 2004-11-12 2012-10-03 視認システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
NO20044936A NO323926B1 (no) 2004-11-12 2004-11-12 Visuelt system samt styringsobjekt og apparat til bruk i systemet.

Publications (3)

Publication Number Publication Date
NO20044936D0 NO20044936D0 (no) 2004-11-12
NO20044936L NO20044936L (no) 2006-05-15
NO323926B1 true NO323926B1 (no) 2007-07-23

Family

ID=35220544

Family Applications (1)

Application Number Title Priority Date Filing Date
NO20044936A NO323926B1 (no) 2004-11-12 2004-11-12 Visuelt system samt styringsobjekt og apparat til bruk i systemet.

Country Status (11)

Country Link
US (1) US8436836B2 (no)
EP (2) EP1817655B1 (no)
JP (2) JP5225681B2 (no)
KR (1) KR101158157B1 (no)
CN (1) CN101095098A (no)
AU (1) AU2005333078A1 (no)
CA (1) CA2586849C (no)
MX (1) MX2007005464A (no)
NO (1) NO323926B1 (no)
TW (1) TWI453524B (no)
WO (1) WO2006135241A1 (no)

Families Citing this family (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1897010A1 (en) 2005-06-30 2008-03-12 Nokia Corporation Camera control means to allow operating of a destined location of the information surface of a presentation and information system
TW200802036A (en) * 2006-06-01 2008-01-01 Micro Nits Co Ltd Input method of a pointer input system
CN100462900C (zh) * 2007-05-24 2009-02-18 司秉玉 用于与显示系统进行交互操作的方法及设备
JP2008306512A (ja) * 2007-06-08 2008-12-18 Nec Corp 情報提供システム
ES2323399B2 (es) * 2007-06-19 2010-02-26 Gat Microencapsulation Ag Suspensiones en aceites de sulfonilureas y combinaciones agroquimicas.
JP4404927B2 (ja) * 2007-10-10 2010-01-27 シャープ株式会社 表示システムおよび指示位置の検出方法
FR2933511A1 (fr) * 2008-07-04 2010-01-08 Optinnova Dispositif et procede de visualisation interactif utilisant une camera de detection et un pointeur optique
WO2010023348A1 (en) * 2008-08-26 2010-03-04 Multitouch Oy Interactive displays
IT1396229B1 (it) * 2009-01-14 2012-11-16 Mode Dispositivo ottico di interazione con sistemi ad interfaccia grafica con schermo a griglia di pixel
US9948872B2 (en) 2009-03-02 2018-04-17 Flir Systems, Inc. Monitor and control systems and methods for occupant safety and energy efficiency of structures
US9473681B2 (en) 2011-06-10 2016-10-18 Flir Systems, Inc. Infrared camera system housing with metalized surface
US9986175B2 (en) 2009-03-02 2018-05-29 Flir Systems, Inc. Device attachment with infrared imaging sensor
US9998697B2 (en) 2009-03-02 2018-06-12 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
WO2012170946A2 (en) 2011-06-10 2012-12-13 Flir Systems, Inc. Low power and small form factor infrared imaging
US9451183B2 (en) 2009-03-02 2016-09-20 Flir Systems, Inc. Time spaced infrared image enhancement
US10244190B2 (en) 2009-03-02 2019-03-26 Flir Systems, Inc. Compact multi-spectrum imaging with fusion
US9517679B2 (en) 2009-03-02 2016-12-13 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
WO2012170949A2 (en) 2011-06-10 2012-12-13 Flir Systems, Inc. Non-uniformity correction techniques for infrared imaging devices
US10757308B2 (en) 2009-03-02 2020-08-25 Flir Systems, Inc. Techniques for device attachment with dual band imaging sensor
US9674458B2 (en) 2009-06-03 2017-06-06 Flir Systems, Inc. Smart surveillance camera systems and methods
US9843742B2 (en) 2009-03-02 2017-12-12 Flir Systems, Inc. Thermal image frame capture using de-aligned sensor array
USD765081S1 (en) 2012-05-25 2016-08-30 Flir Systems, Inc. Mobile communications device attachment with camera
US9208542B2 (en) 2009-03-02 2015-12-08 Flir Systems, Inc. Pixel-wise noise reduction in thermal images
US9756264B2 (en) 2009-03-02 2017-09-05 Flir Systems, Inc. Anomalous pixel detection
US9235876B2 (en) 2009-03-02 2016-01-12 Flir Systems, Inc. Row and column noise reduction in thermal images
US9635285B2 (en) 2009-03-02 2017-04-25 Flir Systems, Inc. Infrared imaging enhancement with fusion
AT508438B1 (de) * 2009-04-16 2013-10-15 Isiqiri Interface Tech Gmbh Anzeigefläche und eine damit kombinierte steuervorrichtung für eine datenverarbeitungsanlage
US9843743B2 (en) 2009-06-03 2017-12-12 Flir Systems, Inc. Infant monitoring systems and methods using thermal imaging
US9716843B2 (en) 2009-06-03 2017-07-25 Flir Systems, Inc. Measurement device for electrical installations and related methods
US9292909B2 (en) 2009-06-03 2016-03-22 Flir Systems, Inc. Selective image correction for infrared imaging devices
US9819880B2 (en) 2009-06-03 2017-11-14 Flir Systems, Inc. Systems and methods of suppressing sky regions in images
US10091439B2 (en) 2009-06-03 2018-10-02 Flir Systems, Inc. Imager with array of multiple infrared imaging modules
US9756262B2 (en) 2009-06-03 2017-09-05 Flir Systems, Inc. Systems and methods for monitoring power systems
EP2336861A3 (en) * 2009-11-13 2011-10-12 Samsung Electronics Co., Ltd. Multi-touch and proximate object sensing apparatus using sensing array
US20110207504A1 (en) * 2010-02-24 2011-08-25 Anderson Glen J Interactive Projected Displays
US9207708B2 (en) 2010-04-23 2015-12-08 Flir Systems, Inc. Abnormal clock rate detection in imaging sensor arrays
US9706138B2 (en) 2010-04-23 2017-07-11 Flir Systems, Inc. Hybrid infrared sensor array having heterogeneous infrared sensors
US9848134B2 (en) 2010-04-23 2017-12-19 Flir Systems, Inc. Infrared imager with integrated metal layers
CN101882012A (zh) * 2010-06-12 2010-11-10 北京理工大学 基于投影跟踪的笔式交互系统
CN102298786B (zh) * 2010-06-22 2015-09-02 上海科技馆 一种虚拟绘画实现的装置及其方法
EP2591398A4 (en) * 2010-07-08 2014-04-02 Nokia Corp VISUAL DATA DISTRIBUTION
JP5307108B2 (ja) * 2010-10-29 2013-10-02 株式会社コナミデジタルエンタテインメント 検出システム、それが適用された電子黒板装置、その制御方法及び、コンピュータプログラム
JP5692904B2 (ja) * 2010-11-17 2015-04-01 任天堂株式会社 入力システム、情報処理装置、情報処理プログラム、および指示位置算出方法
GB2487043B (en) * 2010-12-14 2013-08-14 Epson Norway Res And Dev As Camera-based multi-touch interaction and illumination system and method
US8619065B2 (en) * 2011-02-11 2013-12-31 Microsoft Corporation Universal stylus device
US9179182B2 (en) 2011-04-12 2015-11-03 Kenneth J. Huebner Interactive multi-display control systems
US10051210B2 (en) 2011-06-10 2018-08-14 Flir Systems, Inc. Infrared detector array with selectable pixel binning systems and methods
US10841508B2 (en) 2011-06-10 2020-11-17 Flir Systems, Inc. Electrical cabinet infrared monitor systems and methods
US9961277B2 (en) 2011-06-10 2018-05-01 Flir Systems, Inc. Infrared focal plane array heat spreaders
EP2719166B1 (en) 2011-06-10 2018-03-28 Flir Systems, Inc. Line based image processing and flexible memory system
US10169666B2 (en) 2011-06-10 2019-01-01 Flir Systems, Inc. Image-assisted remote control vehicle systems and methods
US9235023B2 (en) 2011-06-10 2016-01-12 Flir Systems, Inc. Variable lens sleeve spacer
US9706137B2 (en) 2011-06-10 2017-07-11 Flir Systems, Inc. Electrical cabinet infrared monitor
US10079982B2 (en) 2011-06-10 2018-09-18 Flir Systems, Inc. Determination of an absolute radiometric value using blocked infrared sensors
US9509924B2 (en) 2011-06-10 2016-11-29 Flir Systems, Inc. Wearable apparatus with integrated infrared imaging module
US9058653B1 (en) 2011-06-10 2015-06-16 Flir Systems, Inc. Alignment of visible light sources based on thermal images
US10389953B2 (en) 2011-06-10 2019-08-20 Flir Systems, Inc. Infrared imaging device having a shutter
US9143703B2 (en) 2011-06-10 2015-09-22 Flir Systems, Inc. Infrared camera calibration techniques
US9900526B2 (en) 2011-06-10 2018-02-20 Flir Systems, Inc. Techniques to compensate for calibration drifts in infrared imaging devices
TW201306407A (zh) * 2011-07-28 2013-02-01 Touch Micro System Tech 線性掃描結構及應用其之雷射標示器
US9707491B2 (en) 2011-10-19 2017-07-18 Randy Wayne Clark Light activated glow-in-the-dark doodler
CN102968219A (zh) * 2012-01-04 2013-03-13 北京理工大学 一种基于图形处理的交互式计算机输入设备
CN107656635B (zh) 2012-01-09 2020-10-27 精工爱普生株式会社 视觉系统及控制视觉系统的方法
US9067127B2 (en) 2012-01-13 2015-06-30 Randy Wayne Clark Light emitting toys and light activated targets
WO2013189259A1 (en) * 2012-06-20 2013-12-27 Ming Fong System for reproducing virtual objects
US9811884B2 (en) 2012-07-16 2017-11-07 Flir Systems, Inc. Methods and systems for suppressing atmospheric turbulence in images
JP2014199633A (ja) * 2013-03-15 2014-10-23 株式会社リコー 座標検出装置、座標検出システム、座標検出方法、および座標検出プログラム
US20150370441A1 (en) * 2014-06-23 2015-12-24 Infosys Limited Methods, systems and computer-readable media for converting a surface to a touch surface
US9973692B2 (en) 2013-10-03 2018-05-15 Flir Systems, Inc. Situational awareness by compressed display of panoramic views
US11297264B2 (en) 2014-01-05 2022-04-05 Teledyne Fur, Llc Device attachment with dual band imaging sensor
CN104978077B (zh) * 2014-04-08 2020-01-31 联想(北京)有限公司 一种交互方法及系统
US10192335B1 (en) 2014-08-25 2019-01-29 Alexander Wellen Remote control highlighter
JP6459705B2 (ja) 2015-03-27 2019-01-30 セイコーエプソン株式会社 インタラクティブプロジェクター、インタラクティブプロジェクションシステム、及び、インタラクティブプロジェクターの制御方法
JP6477131B2 (ja) 2015-03-27 2019-03-06 セイコーエプソン株式会社 インタラクティブプロジェクター,インタラクティブプロジェクションシステム,およびインタラクティブプロジェクターの制御方法
JP6485160B2 (ja) 2015-03-27 2019-03-20 セイコーエプソン株式会社 インタラクティブプロジェクター、及び、インタラクティブプロジェクターの制御方法
US9857918B2 (en) 2015-03-31 2018-01-02 Fujitsu Limited Content display control method and system
CN106353957A (zh) * 2016-09-29 2017-01-25 南京仁光电子科技有限公司 一种基于激光投影仪的交互装置及方法
US10412362B2 (en) 2017-07-27 2019-09-10 Qualcomm Incorporated Active alignment correction for optical systems
PL422791A1 (pl) * 2017-09-08 2019-03-11 Sle Spółka Z Ograniczoną Odpowiedzialnością Urządzenie do wyświetlania multimediów
CN110161793A (zh) * 2019-04-16 2019-08-23 苏州佳世达光电有限公司 一种投影调整系统、投影机及支撑机构
CN111354018B (zh) * 2020-03-06 2023-07-21 合肥维尔慧渤科技有限公司 一种基于图像的物体识别方法、装置及系统
CN115199152B (zh) * 2021-04-09 2023-09-15 南京工业大学 一种基于光栅衍射的智能密码锁
CN113203031A (zh) * 2021-05-17 2021-08-03 深圳市科拜斯物联网科技有限公司 基于物联网的ai识别食物浪费监控装置及其使用方法

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3275769D1 (en) * 1982-12-22 1987-04-23 Ibm A method and apparatus for continuously updating a display of the coordinates of a light pen
US5138304A (en) * 1990-08-02 1992-08-11 Hewlett-Packard Company Projected image light pen
US5235363A (en) * 1991-05-10 1993-08-10 Nview Corporation Method and apparatus for interacting with a computer generated projected image
JPH05265637A (ja) * 1992-03-16 1993-10-15 Toshiba Corp 3次元ポインティング装置
JP3470170B2 (ja) * 1993-12-28 2003-11-25 株式会社日立製作所 遠隔指示入力方法及び装置
JP3277658B2 (ja) * 1993-12-28 2002-04-22 株式会社日立製作所 情報表示装置
US5712658A (en) * 1993-12-28 1998-01-27 Hitachi, Ltd. Information presentation apparatus and information display apparatus
JPH07261920A (ja) 1994-03-17 1995-10-13 Wacom Co Ltd 光学式位置検出装置および光学式座標入力装置
ATE224567T1 (de) * 1994-06-09 2002-10-15 Corp For Nat Res Initiatives Hinweisanordnungsschnittstelle
EP0704721A3 (en) * 1994-09-27 1997-12-17 AT&T Corp. Methods and apparatus for generating and displaying holographic images utilizing a laser pointer
JP3270643B2 (ja) * 1994-12-22 2002-04-02 キヤノン株式会社 指示位置検出方法及び装置
GB9516441D0 (en) * 1995-08-10 1995-10-11 Philips Electronics Uk Ltd Light pen input systems
US5718496A (en) * 1996-06-25 1998-02-17 Digital Optics Corporation Projection pointer
US5953001A (en) * 1997-12-23 1999-09-14 International Business Machines Corporation Computer input stylus and texture control system
US6050690A (en) * 1998-01-08 2000-04-18 Siemens Information And Communication Networks, Inc. Apparatus and method for focusing a projected image
JP3377431B2 (ja) * 1998-03-03 2003-02-17 シャープ株式会社 3次元位置方向指示装置
JP2002528798A (ja) 1998-10-21 2002-09-03 ファーエルゲー バーチャル レーザー システムズ ゲゼルシャフト ミット ベシュレンクテル ハフツング コンピュータ用入力装置
US6275214B1 (en) * 1999-07-06 2001-08-14 Karl C. Hansen Computer presentation system and method with optical tracking of wireless pointer
JP2001236179A (ja) * 2000-02-22 2001-08-31 Seiko Epson Corp 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体
JP4697916B2 (ja) * 2000-07-07 2011-06-08 キヤノン株式会社 座標入力装置及びその制御方法、プログラム
JP2002073267A (ja) * 2000-08-31 2002-03-12 Canon Inc 座標入力装置
NO311740B1 (no) 2000-09-11 2002-01-14 Tormod Njoelstad Tegne-, skrive- og peke-redskap for datamaskinbaserte presentasjoner og kontorarbeid
CN100489881C (zh) * 2001-01-08 2009-05-20 Vkb有限公司 数据输入装置和数据输入方法
JP4728540B2 (ja) * 2001-09-20 2011-07-20 株式会社リコー 会議等支援用画像投影装置
KR100449710B1 (ko) * 2001-12-10 2004-09-22 삼성전자주식회사 원격 포인팅 방법 및 이에 적합한 장치
JP4129168B2 (ja) * 2002-11-15 2008-08-06 日本放送協会 位置検出装置、位置検出方法及び位置検出プログラム
US7242818B2 (en) * 2003-01-17 2007-07-10 Mitsubishi Electric Research Laboratories, Inc. Position and orientation sensing with a projector
US7205527B2 (en) * 2003-12-09 2007-04-17 Delphi Technologies, Inc. Apparatus for fanning out near infrared radiation in an automotive occupant position restraint system

Also Published As

Publication number Publication date
EP1817655A1 (en) 2007-08-15
TW200628957A (en) 2006-08-16
CN101095098A (zh) 2007-12-26
JP2013033494A (ja) 2013-02-14
US20090040195A1 (en) 2009-02-12
KR20070084084A (ko) 2007-08-24
JP2008520034A (ja) 2008-06-12
JP5225681B2 (ja) 2013-07-03
CA2586849C (en) 2014-06-10
EP1817655B1 (en) 2013-03-27
US8436836B2 (en) 2013-05-07
WO2006135241A1 (en) 2006-12-21
AU2005333078A1 (en) 2006-12-21
KR101158157B1 (ko) 2012-06-19
CA2586849A1 (en) 2006-12-21
NO20044936D0 (no) 2004-11-12
MX2007005464A (es) 2007-07-10
NO20044936L (no) 2006-05-15
JP5490199B2 (ja) 2014-05-14
TWI453524B (zh) 2014-09-21
EP1817655A4 (en) 2011-04-13
EP2607995A1 (en) 2013-06-26

Similar Documents

Publication Publication Date Title
NO323926B1 (no) Visuelt system samt styringsobjekt og apparat til bruk i systemet.
JP3937533B2 (ja) 遠隔座標入力装置および遠隔座標入力方法
CN101336089A (zh) 眼睛跟踪器设备
US10867450B2 (en) Augmented reality lighting effects
US20170124396A1 (en) Dynamically created and updated indoor positioning map
CN101945612B (zh) 用于确定注视方向的设备和方法
US20120176311A1 (en) Optical pointing system and method
CN107250882A (zh) 用于头戴式计算的电源管理
KR20160048801A (ko) 증강 현실을 위한 방법 및 시스템
CN103026321A (zh) 利用编码图案的显示器
TR201815821T4 (tr) Bir cihazın kontrolu için yöntem.
AU2012238301A1 (en) Combined object capturing system and display device and associated method
CN105212890B (zh) 眼睛跟踪器设备
US20060170615A1 (en) Pen type virtual display
US20190392216A1 (en) System and method for projecting augmented reality images
JP6759937B2 (ja) レンズ測定装置
TWI476678B (zh) 互動式模擬球體顯示系統
JP2005092224A (ja) 小型ディスプレイ装置及び画像表示制御方法
EP3951561A1 (en) Information processing device, information processing method, and program
JP3215116U (ja) 熱画像表示装置
JP2018107489A (ja) 入出力装置、情報共有方法及び情報共有プログラム

Legal Events

Date Code Title Description
MM1K Lapsed by not paying the annual fees