JP2013218395A - 情報処理装置、プログラム及び情報処理方法 - Google Patents

情報処理装置、プログラム及び情報処理方法 Download PDF

Info

Publication number
JP2013218395A
JP2013218395A JP2012086195A JP2012086195A JP2013218395A JP 2013218395 A JP2013218395 A JP 2013218395A JP 2012086195 A JP2012086195 A JP 2012086195A JP 2012086195 A JP2012086195 A JP 2012086195A JP 2013218395 A JP2013218395 A JP 2013218395A
Authority
JP
Japan
Prior art keywords
image
unit
distance
display
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012086195A
Other languages
English (en)
Other versions
JP2013218395A5 (ja
JP5966535B2 (ja
Inventor
Kazuhiro Sato
一博 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012086195A priority Critical patent/JP5966535B2/ja
Priority to US13/849,765 priority patent/US9001034B2/en
Priority to EP13161342.4A priority patent/EP2648082A3/en
Priority to CN201310108288.XA priority patent/CN103365488B/zh
Publication of JP2013218395A publication Critical patent/JP2013218395A/ja
Publication of JP2013218395A5 publication Critical patent/JP2013218395A5/ja
Application granted granted Critical
Publication of JP5966535B2 publication Critical patent/JP5966535B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1662Details related to the integrated keyboard
    • G06F1/1673Arrangements for projecting a virtual keyboard
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • G03B13/30Focusing aids indicating depth of field

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Projection Apparatus (AREA)
  • Image Input (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

【課題】撮影された画像に基づいて撮影範囲に含まれる物体の立体的配置を反映した画像を生成することが可能な情報処理装置、プログラム及び情報処理方法を提供すること
【解決手段】本技術に係る情報処理装置は、画像取得部と、距離検出部と、画像生成部とを具備する。画像取得部は、撮影部によって異なる合焦距離で撮影された複数の撮影画像を取得する。距離検出部は、複数の撮影画像に基づいて、撮影部の撮影範囲に含まれる物体と撮影部の距離を検出する。画像生成部は、当該距離に基づいて、画像表示部によって表示される表示画像を生成する。
【選択図】図1

Description

本技術は、画像を投影し、又はディスプレイに表示する情報処理装置、プログラム及び情報処理方法に関する。
近年、キーボード等の入力装置の画像を投影面に投影し、投影面に対するユーザの操作を操作入力として受け付ける入力装置が開発されている。当該入力装置は、投影面をカメラによって撮影することにより、ユーザの操作、例えば手の動き等を判別することが可能に構成されている。
例えば、特許文献1には、キーボード像の投影面を複数の撮影手段によって撮影し、撮影データを解析して投影面に接触したユーザの指の位置を特定し、操作入力として受け付けるデータ入力方法及びデータ入力装置が開示されている。複数の撮影手段によって投影面を撮影することにより、キーボード像においてユーザの手の影となる領域を減少させることが可能とされている。
特開2008−123316号公報
しかしながら、特許文献1に記載のデータ入力装置は、上述のように複数の撮影手段が必要であり、専用のハードウェアが必要となると考えられる。近年、ノート型パソコンや携帯電話等、撮影手段を備えるデバイスが多く普及しているが、ほとんどのデバイスでは一方向に一つのカメラしか設けられておらず、特許文献1に記載の発明をそのまま適用することができない。
以上のような事情に鑑み、本技術の目的は、撮影された画像に基づいて撮影範囲に含まれる物体の立体的配置を反映した画像を生成することが可能な情報処理装置、プログラム及び情報処理方法を提供することにある。
本技術の一形態に係る情報処理装置は、画像取得部と、距離検出部と、画像生成部とを具備する。
上記画像取得部は、撮影部によって異なる合焦距離で撮影された複数の撮影画像を取得する。
上記距離検出部は、上記複数の撮影画像に基づいて、上記撮影部の撮影範囲に含まれる物体と上記撮影部の距離を検出する。
上記画像生成部は、上記距離に基づいて、画像表示部によって表示される表示画像を生成する。
この構成によれば、撮影部によって撮影された撮影画像を利用して、撮影範囲に含まれる物体と撮影部の距離が検出される。即ち、物体を検出するためのセンサ等が別途必要ではなく、多くの情報処理装置が備える撮影部によって物体の立体的配置を取得することが可能となる。
上記画像取得部は、上記複数の撮影画像のそれぞれにおいて、焦点が合っている領域である合焦領域を抽出し、上記距離検出部は、上記合焦領域の分布に基づいて上記距離を検出してもよい。
この構成によれば、各撮影画像における合焦領域から、その撮影画像が撮影された合焦距離における物体の存在を検出することが可能である。

上記画像生成部は、上記距離に基づいて、表示対象物の画像である表示対象物画像に変更を加え、上記表示画像を生成してもよい。
この構成によれば、物体の立体的配置に応じて表示画像を生成し、表示することが可能である。
上記画像生成部は、上記距離に基づいて画像マスクを生成し、上記画像マスクを上記表示対象物画像と合成して上記表示画像を生成してもよい。
この構成によれば、物体の立体的配置に応じて画像マスクの範囲を変更することが可能であり、物体に表示対象物画像が重複することを防止することが可能となる。
上記画像生成部は、上記距離に基づいて上記物体の画像を抽出し、上記物体の画像を上記表示対象物画像と合成して上記表示画像を生成する。
この構成によれば、撮影画像から物体の画像のみを抽出し、物体の画像と表示対象物画像を合成することが可能となる。
上記画像生成部は、上記距離に基づいて上記物体の凹凸を検出し、上記表示対象物画像を上記凹凸に応じて補正し、上記表示画像を生成してもよい。
この構成によれば、物体の凹凸に応じて表示対象物画像を補正することによって、物体の凹凸による表示対象物画像の歪みを防止することが可能となる。
この構成によれば、入力装置の画像に物体(例えばユーザの手等)の立体的配置を反映させることが可能である。
上記画像取得部は、上記距離に基づいて、上記撮影部が撮影する合焦距離の範囲を制御してもよい。
この構成によれば、撮影部によって物体が存在しない合焦距離の範囲、即ち撮影する必要のない合焦距離の範囲の撮影を防止することが可能である。
上記情報処理装置は、上記距離に基づいて、ユーザによる操作入力を処理する入力処理部をさらに具備してもよい。
この構成によれば、撮影部による撮影画像を利用して、ユーザによって操作される物体(手等)の立体的配置を取得し、操作入力の処理に利用することができる。
本技術の一形態に係る情報処理装置は、撮影部と、画像取得部と、距離検出部と、画像表示部とを具備する。
上記撮影部は、異なる合焦距離で複数の撮影画像を撮影する。
上記画像取得部は、上記複数の撮影画像を取得する。
上記距離検出部は、上記撮影画像に基づいて、上記撮影部の撮影範囲に含まれる物体と上記撮影部の距離を検出する。
上記画像生成部は、上記距離に基づいて、表示画像を生成する。
上記画像表示部は、上記表示画像を表示する。
上記画像表示部は、上記表示画像を投影面に投影してもよい。
上記画像表示部は、上記表示画像を表示画面に表示してもよい。
本技術の一形態に係るプログラムは、画像取得部と、距離検出部と、画像姿勢部とを具備する。
上記画像取得部は、撮影部によって異なる合焦距離で撮影された複数の撮影画像を取得する。
上記距離検出部は、上記複数の撮影画像に基づいて、上記撮影部の撮影範囲に含まれる物体と上記撮影部の距離を検出する。
上記プログラムは、上記距離に基づいて、画像表示部によって表示される表示画像を生成する。
本技術の一形態に係るプログラムは、画像取得部が、撮影部によって異なる合焦距離で撮影された複数の撮影画像を取得する。
距離検出部が、上記複数の撮影画像に基づいて、上記撮影部の撮影範囲に含まれる物体と上記撮影部の距離を検出する。
画像生成部が、上記距離に基づいて、画像表示部によって表示される表示画像を生成する。
以上のように、本技術によれば、撮影された画像に基づいて撮影範囲に含まれる物体の立体的配置を反映した画像を生成することが可能な情報処理装置、プログラム及び情報処理方法を提供することが可能である。
本技術の第1の実施形態に係る情報処理装置の構成を示す模式図である。 同情報処理装置の動作を示すフローチャートである。 同情報処理装置の画像取得部による撮影画像の取得に係るフローチャートである。 同情報処理装置の撮影画像の取得の様子を示す模式図である。 同情報処理装置の画像生成部によって生成される画像マスクを示す模式図である。 同情報処理装置の画像生成部による画像マスクの最適化を示す模式図である。 同情報処理装置の画像生成部による画像マスクの最適化を示す模式図である。 同情報処理装置の画像生成部による表示画像の生成を示す模式図である。 同情報処理装置の画像表示部によって投影される表示画像を示す模式図である。 本技術の第2の実施形態に係る情報処理装置の構成を示す模式図である。 同情報処理装置の動作を示すフローチャートである。 同情報処理装置の画像生成部によって抽出された物体画像を示す模式図である。 同情報処理装置の画像生成部によって変換された物体画像を示す模式図である。 同情報処理装置の画像生成部によって生成される表示画像を示す模式図である。 同情報処理装置の画像生成部によって物体画像に透過処理を施して生成される表示画像を示す模式図である。 本技術の第3の実施形態に係る情報処理装置の構成を示す模式図である。 同情報処理装置の動作を示すフローチャートである。 同情報処理装置の撮影部によって撮影画像が撮影された合焦距離を含む面を示す模式図である 同情報処理装置の撮影部によって撮影された各撮影画像における合焦領域を示す模式図である。 同情報処理装置の画像生成部による表示対象物画像の補正を示す模式図である。 同情報処理装置の画像表示部によって投影面に投影された表示画像を示す模式図である。 同情報処理装置の画像表示部によってユーザの手上に投影されたマーカを示す模式図である。
(第1の実施形態)
本技術の第1の実施形態に係る情報処理装置について説明する。
[情報処理装置の構成]
図1は、第1の実施形態に係る情報処理装置100の構成を示す模式図である。同図に示すように、情報処理装置100は、撮影部101、画像取得部102、距離検出部103、画像生成部104、画像表示部105及び入力処理部106を有する。撮影部101は画像取得部102と接続され、画像取得部102は距離検出部103に接続されている。距離検出部103は画像生成部104と接続され、画像生成部104は画像表示部105に接続されている。入力処理部106は距離検出部103に接続されている。情報処理装置100は、画像の生成、表示が可能なあらゆる装置、例えば、パーソナルコンピュータ等の各種コンピュータ、携帯電話、携帯型情報端末等であるものとすることができる。
図1においては、投影面P(例えば、机など)に画像表示部105によって表示対象物(例えばキーボード)の画像(以下、表示画像)Sが投影されている。ユーザが表示画像Sを参照して投影面Pに対して入力操作(例えばタイピング)を実施しているものとし、ユーザの手を手Hとして示す。
撮影部101は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子と必要な光学系を備え、撮影範囲の画像を撮影する。撮影部101は、その合焦距離(撮影部101と焦点の距離)を変更可能なものであり、画像取得部102による制御を受けて合焦距離(フォーカス)を変更するものとすることができる。撮影部101は、撮影した画像(以下、撮影画像)を画像取得部102に出力する。
画像取得部102は、撮影部101によって撮影された撮影画像を取得し、距離検出部103に供給する。画像取得部102は、撮影部101を制御し、その合焦距離を変更すると共に画像を撮影させるものとすることができる。詳細は後述するが、画像取得部102は、複数の合焦距離で撮影部101に撮影画像を撮影させるものとすることができる。
距離検出部103は、画像取得部102から供給された複数の撮影画像に対して所定の画像処理を実行し、撮影部101の撮影範囲に含まれる物体(ここではユーザの手H)と撮影部101の距離(以下、物体距離とする)を検出する。距離検出部103は物体距離を入力処理部106及び画像生成部104に供給する。
画像生成部104は、画像取得部102から供給された複数の撮影画像に対して所定の画像処理を実行し、その処理結果に基づいて画像表示部105によって表示される表示画像Sを生成する。詳細は後述するが、画像生成部104は、物体距離に基づいて画像マスクを生成し、この画像マスクを用いて表示画像Sを生成する。
画像表示部105は、画像の投影が可能なもの(プロジェクタ)であり、画像生成部104によって生成された表示画像Sを投影面Pに投影する。画像表示部105は、任意の方式のプロジェクタであるものとすることができる。画像表示部105は撮影部101と近接して配置されているものが好適である。
入力処理部106は、距離検出部103から供給された物体距離に基づいてユーザの操作入力を判断し、操作入力に対する入力処理を実行する。詳細は後述するが、入力処理部106は、投影面Pに対してのユーザの手Hの接触を検出し、その接触箇所と表示画像Sの位置関係から、ユーザの操作入力を判断するものとすることができる。入力処理部106によって生成された入力処理は、情報処理装置100のオペレーティングシステムに供給される。
情報処理装置100は以上のような構成を有する。画像取得部102、距離検出部103、画像生成部104及び入力処理部106は、ソフトウェアとハードウェアの協働によって実現される機能的構成であるものとすることができ、物理的に情報処理装置100の筐体に収容されているものに限られず、ネットワーク上に実装されているものであってもよい。
[情報処理装置の動作]
図2は、情報処理装置100の動作を示すフローチャートである。
図2に示すように、画像取得部102は、撮影画像を取得する(St101)。図3は、画像取得部102による撮影画像の取得に係るフローチャートであり、図4は撮影画像の取得の様子を示す模式図である。
図3に示すように、画像取得部102は撮影部101を制御し、その合焦距離を初期値に設定する(St111)。初期値は、撮影部101から投影面Pが十分に含まれると予想される距離であり、撮影部101の情報処理装置100における配置等に応じて設定することが可能である。図4に、初期値の合焦距離を含む面をA面として示す。
画像取得部102は、撮影部101に当該合焦距離(A面)で画像を撮影させる(St112)。画像取得部102は、A面において撮影された撮影画像に対して合焦領域の抽出(St112)を実行する。合焦領域は、撮影画像において焦点が合っている領域であり、例えば撮影画像における各画素のコントラスト、あるいは位相差から検出することが可能である。
続いて画像取得部102は、撮影画像において合焦領域が検出されたか否かを確認する(St113)。画像取得部102は合焦領域を検出した場合(St114;Yes)、合焦距離を移動させる(St115)。具体的には、画像取得部102は、合焦距離を初期値(A面)から撮影部101のより近傍(B面)に変更させる。A面とB面の間隔は任意であり、被写界深度が浅ければ、例えば数mmとすることができる。
画像取得部102は、合焦領域が検出されている限りにおいて合焦距離の変更と撮影以下のプロセスを繰り返し実行する。画像取得部102は、合焦領域を検出しなかった場合(St114、No)、撮影画像の取得を終了する。例えば図4においては最後に合焦領域が検出される(手Hが存在する)合焦距離がC面にあるとすると、撮影画像の撮影はA面とC面の間で所定間隔で実行されることになる。なお、A面とC面の間で所定間隔で実行された際に、投影面Pの手前にも合焦領域が検出されるが、投影面Pが机のような平面あるいは手と比較して凸凹が少ない曲面では、投影面Pでの合焦領域はほとんど直線状を成し、あきらかに手のような立体物とは異なる合焦領域データとなりうるため、削除できる。
以上のようにして画像取得部102は、少なくともユーザの手Hが含まれる範囲において所定の間隔で撮影された複数の撮影画像を取得する。また、画像取得部102は、物体(手H)の検出に利用した合焦領域のデータを保持しておく。
続いて図2に戻り、距離検出部103は、撮影部101の撮影範囲に含まれる物体(手H)の撮影部101との距離(物体距離)を検出する(St102)。具体的には、距離検出部103は、各撮影画像における合焦領域の分布から、各撮影画像毎に手Hの位置を特定することによって物体の立体的な配置(手Hの各部と撮影部101の距離)を検出することが可能である。距離検出部103は物体距離を画像生成部104に供給する。
続いて、画像生成部104は、画像マスクを生成する(St103)。画像生成部104は、距離検出部103によって検出された物体距離を用いて投影面Pより撮影部101に近接する面(例えばC面)に投射される手Hの形状を求め、画像マスクとする。図5は画像生成部104によって生成される画像マスクMの例を示す。
続いて画像生成部104は、必要に応じて画像マスクMの最適化を実行する(St104)。図6及び図7は、画像生成部104による画像マスクMの最適化を示す模式図である。画像生成部104は、例えば、図6に示すように画像マスクMを所定の割合(例えば5〜10%程度)で拡大させるものとすることができる。あるいは投影面Pでの影が気になるのであれば所定の割合(例えば−5〜−10%程度)で縮小させるなどマスク最適値は連続的に増減できる。また画像生成部104は、図7に示すように、画像マスクMの境界を不鮮明化させることも可能である。このような画像マスクMの最適化により、従来の指の側面などに投影される見苦しい余分な投影が低減され、後述する表示画像Sの視認性を向上させることが可能となる。境界の不鮮明化により境界線の曖昧さが生じさせることにより、指の細かな動きに対して実時間でその都度マスクデータを高速で更新する必要がなくなるため、情報処理の低減ができ、電池使用機器では使用時間の増大が望める。
続いて画像生成部104は、画像マスクMを用いて表示画像Sを生成する(St105)。図8は、画像生成部104による表示画像Sの生成を示す模式図である。同図に示すように、画像生成部104は、画像マスクMを表示対象物(ここではキーボード)の画像(以下、表示対象物画像)Gに合成し、表示画像Sを生成する。
続いて画像生成部104は、生成した表示画像Sを画像表示部105に供給し、投影させる(St106)。図9は画像表示部105によって投影される表示画像Sを示す図である。同図に示すように、画像マスクMには表示対象物画像Gが表示されないので、表示対象物画像Gがユーザの手H上に投影されず、視認性の悪化を防止することが可能である。この際、画像生成部104は、画像マスクMに相当する領域の描写に必要な電力をカットする電力制御を実行してもよい。
なお、表示画像Sの生成及び投影と並行して、入力処理部106は、ユーザの操作入力に対する入力処理を実行する。入力処理部106は、距離検出部103から供給される手Hと撮影部101の距離(物体距離)から、手Hが投影面Pに接触しているか否かを判断することが可能である。入力処理部106は、例えば手Hの投影面Pへの接触箇所と表示画像Sの位置関係から、ユーザの操作入力を判断するものとすることができる。
以上のように、本実施形態においては、異なる合焦距離で撮影された複数の撮影画像から撮影範囲に含まれる物体(手H)と撮影部101の距離を検出することが可能であり、当該距離を利用して画像マスクを生成することが可能である。これにより、手Hへの表示対象物画像Gの投影が防止され、ユーザの視認性の悪化を防止することができる。
(第2の実施形態)
本技術の第2の実施形態に係る情報処理装置について説明する。
[情報処理装置の構成]
図10は、第2の実施形態に係る情報処理装置200の構成を示す模式図である。同図に示すように、情報処理装置200は、撮影部201、画像取得部202、距離検出部203、画像生成部204、画像表示部205及び入力処理部206を有する。撮影部201は画像取得部202と接続され、画像取得部202は距離検出部203に接続されている。距離検出部203は画像生成部204と接続され、画像生成部204は画像表示部205に接続されている。入力処理部206は距離検出部203に接続されている。情報処理装置200は、画像の生成、表示が可能なあらゆる装置、例えば、パーソナルコンピュータ等の各種コンピュータ、携帯電話、携帯型情報端末等であるものとすることができる。
図10においては、ユーザが何も表示されていない操作面P(普通の机など)に対して入力操作(例えばタイピングの動作)を実施しているものとし、ユーザの手を手Hとして示す。手Hを含む操作面Pが撮影部201によって撮影され、手Hの画像と、表示対象物(例えばキーボード)の画像が合成された画像が表示画像Sとして画像表示部205に表示されているものとする。
撮影部201は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子と必要な光学系を備え、撮影範囲の画像を撮影する。撮影部201は、その合焦距離(撮影部201と焦点の距離)を変更可能なものであり、画像取得部202による制御を受けて合焦距離(フォーカス)を変更するものとすることができる。撮影部201は、撮影した画像(以下、撮影画像)を画像取得部202に出力する。撮影部201は、画像表示部205(ディスプレイ等)に搭載されているものが好適である。
画像取得部202は、撮影部201によって撮影された撮影画像を取得し、距離検出部203に供給する。画像取得部202は、撮影部201を制御し、その合焦距離を変更すると共に画像を撮影させるものとすることができる。詳細は後述するが、画像取得部202は、複数の合焦距離で撮影部201に撮影画像を撮影させるものとすることができる。
距離検出部203は、画像取得部202から供給された複数の撮影画像に対して所定の画像処理を実行し、撮影部201の撮影範囲に含まれる物体(ここではユーザの手H)と撮影部201の距離(以下、物体距離とする)を検出する。距離検出部203は物体距離を入力処理部206及び画像生成部204に供給する。
画像生成部204は、画像取得部202から供給された複数の撮影画像に対して所定の画像処理を実行し、その処理結果に基づいて画像表示部205によって表示される表示画像Sを生成する。詳細は後述するが、画像生成部204は、物体距離に基づいて撮影画像から手Hの画像を抽出し、この手Hの画像を用いて表示画像Sを生成する。
画像表示部205は、画像の表示が可能なもの(ディスプレイ)であり、画像生成部204によって生成された表示画像Sを表示画面に表示する。画像表示部205は、任意の方式のディスプレイであるものとすることができる。上述のように画像表示部205には撮影部201が搭載されるものとすることができる。
入力処理部206は、距離検出部203から供給された物体距離に基づいてユーザの操作入力を判断し、操作入力に対する入力処理を実行する。詳細は後述するが、入力処理部206は、操作面Pに対してのユーザの手Hの接触を検出し、その接触箇所と撮影部201の位置関係から、ユーザの操作入力を判断するものとすることができる。入力処理部206によって生成された入力処理は、情報処理装置200のオペレーティングシステムに供給される。
情報処理装置200は以上のような構成を有する。画像取得部202、距離検出部203、画像生成部204及び入力処理部206は、ソフトウェアとハードウェアの協働によって実現される機能的構成であるものとすることができ、物理的に情報処理装置200の筐体に収容されているものに限られず、ネットワーク上に実装されているものであってもよい。
[情報処理装置の動作]
図11は、情報処理装置200の動作を示すフローチャートである。
図11に示すように、画像取得部202は、撮影画像を取得する(St201)。画像取得部202は、第1の実施形態と同様にして撮影画像を取得することが可能である。即ち、画像取得部202は、撮影部201の合焦距離を移動させながら、少なくともユーザの手Hが含まれる範囲において所定の間隔で撮影された複数の撮影画像を取得する。また、画像取得部202は、物体(手H)の検出に利用した合焦領域のデータを保持しておく。
続いて距離検出部203は、撮影部201の撮影範囲に含まれる物体(手H)の撮影部201との距離(物体距離)を検出する(St202)。具体的には、距離検出部203は、各撮影画像における合焦領域の分布から、各撮影画像毎に手Hの位置を特定することによって物体の立体的な配置(手Hの各部と撮影部201の距離)を検出することが可能である。距離検出部203は物体距離を画像生成部204に供給する。
続いて画像生成部204は、物体距離を用いて物体画像(手Hの画像)を抽出する(St203)。具体的には画像生成部204は、画像取得部202によって取得された複数の撮影画像のうちのひとつの画像、例えば最も合焦領域が大きい(焦点が合っている)画像を選択する。画像生成部204は、物体距離を利用してその撮影画像から手Hに相当する画像領域(物体画像)を抽出することができる。図12は画像生成部204によって抽出された物体画像Bを示す模式図である。
続いて画像生成部204は、必要に応じて抽出した物体画像Bを変換する(St204)。図12に示すように、物体画像Bは、撮影部201と手Hの位置関係によっては、手Hの撮影部201に接近する側が拡大される場合がある。図13は、変換された物体画像Bを示す模式図である。画像生成部204は図13に示すように物体画像Bの撮影部201に接近する領域を圧縮し、撮影部201から離間する領域を伸張させることによって物体画像Bを変換することができる。これにより、ユーザの視点と撮影部201の視点が異なることによる物体画像Bの変形を防止することができる。
続いて画像生成部204は、表示画像を生成する(St205)。図14は画像生成部204によって生成される表示画像Sを示す模式図である。同図に示すように画像生成部204は、物体画像Bと表示対象物(ここではキーボード)の画像(以下、表示対象物画像)Gとを重畳させ、表示画像Sを生成する。画像生成部204はこの際、物体画像Bと表示対象物画像Gの位置合わせを実行する。画像生成部204は例えば、物体画像Bのうち手Hの左小指に相当する領域をキーボードの「Q」キー付近、右小指に相当する領域をキーボードの「Enter」キー付近に合わせるものとすることができる。この位置合わせは頻繁に実行すると、対象物画像Gの描写がぶれるため、最初に表示画像を生成する際に実行すればよい。
画像生成部204は、表示画像Sを生成する際、物体画像Bに透過処理を施すことも可能である。図15は、物体画像に透過処理を施して生成される表示画像Sを示す模式図である。同図に示すように物体画像Bに透過処理を施すことによって、表示対象物画像Gが物体画像Bを透過して表示され、ユーザによる視認が可能となる。また、画像生成部204は、透過処理に替わり、物体画像B上に着色を施し、物体画像B(即ち手H)をユーザに明示するものとすることも可能である。
画像生成部204は、生成した表示画像Sを画像表示部205に出力し、図10に示すようにその表示画面に表示させる(St206)。ユーザは、何も表示されていない操作面Pに対する操作入力を、画像表示部205に表示される表示対象物画像Gを参照して実施することが可能である。
なお、表示画像Sの生成及び表示と並行して、入力処理部206は、ユーザの操作入力に対する入力処理を実行する。入力処理部206は、距離検出部203から供給される手Hの各部と撮影部201の距離(物体距離)から、手Hが操作面Pに接触しているか否かを判断することが可能である。入力処理部206は、例えば手Hの操作面Pへの接触箇所と撮影部201の位置関係から、ユーザの操作入力を判断するものとすることができる。
以上のように、本実施形態においては、異なる合焦距離で撮影された複数の撮影画像から撮影範囲に含まれる物体(手H)と撮影部201の距離を検出することが可能であり、当該距離を利用して当該物体の画像を抽出することが可能である。これにより、当該物体と表示対象物画像と合成した表示画像が表示され、ユーザは表示画像を参照して入力処理を実行することが可能となる。
(第3の実施形態)
本技術の第3の実施形態に係る情報処理装置について説明する。
[情報処理装置の構成]
図16は、第3の実施形態に係る情報処理装置300の構成を示す模式図である。同図に示すように、情報処理装置300は、撮影部301、画像取得部302、距離検出部303、画像生成部304、画像表示部305及び入力処理部306を有する。撮影部301は画像取得部302と接続され、画像取得部302は距離検出部303に接続されている。距離検出部303は画像生成部304と接続され、画像生成部304は画像表示部305に接続されている。入力処理部306は距離検出部303に接続されている。情報処理装置300は、画像の生成、投影が可能なあらゆる装置、例えば、パーソナルコンピュータ等の各種コンピュータ、携帯電話、携帯型情報端末等であるものとすることができる。
図16においては、表示対象物(例えばキーボード)の画像(表示画像S)がユーザの手H1の表面である投影面Pに投影されている。ユーザが表示画像Sを参照して投影面Pに対して入力操作(例えばタイピング)を実施しているものとし、入力操作に用いられるユーザの手を手H2として示す。
撮影部301は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子と必要な光学系を備え、撮撮範囲の画像を撮影する。撮影部301は、その合焦距離(撮影部301と焦点の距離)を変更可能なものであり、画像取得部302による制御を受けて合焦距離(フォーカス)を変更するものとすることができる。撮影部301は、撮影した画像(以下、撮影画像)を画像取得部202に出力する。
なお撮影部301は、上述の撮像素子だけ限られず、TOF(time-of-flight)方式等の専用の距離画像の計測方式を用いてもよい。TOF方式は、光の到達時間を基に物体の距離を計測するものであり、赤外線等の不可視光をパルス変調して画角内に照射し、撮像素子側でこのパルスの位相遅れを計測することで、物体までの距離を割り出すものである。(参考URL:http://www.nikkei.com/tech/news/article/g=96958A9C93819499E0E6E2E1E48DE0E6E2E0E0E2E3E0E2E2E2E2E2E2;da=96958A88889DE2E4E1E2E5E0E6E2E0E7E2E6E0E2E3E2E2E2E2E2E2E2)
画像取得部302は、撮影部301によって撮影された撮影画像を取得し、距離検出部303に供給する。画像取得部302は、撮影部301を制御し、その合焦距離を変更すると共に画像を撮影させるものとすることができる。詳細は後述するが、画像取得部302は、複数の合焦距離で撮影部301に撮影画像を撮影させるものとすることができる。
距離検出部303は、画像取得部302から供給された複数の撮影画像に対して所定の画像処理を実行し、撮影部301の撮影範囲に含まれる物体(ここでは手H1)と撮影部301の距離(以下、物体距離とする)を検出する。距離検出部303は物体距離を入力処理部306及び画像生成部304に供給する。
画像生成部304は、画像取得部302から供給された複数の撮影画像に対して所定の画像処理を実行し、その処理結果に基づいて画像表示部305によって投影される表示画像Sを生成する。詳細は後述するが、画像生成部304は、物体距離に基づいて投影面Pの凹凸を検出し、その凹凸に応じて補正された画像を表示画像Sとして生成する。
画像表示部305は、画像の投影が可能なもの(プロジェクタ)であり、画像生成部304によって生成された表示画像Sを投影面Pに投影する。画像表示部305は、任意の方式のプロジェクタであるものとすることができる。画像表示部305は撮影部301と近接して配置されているものが好適である。
入力処理部306は、距離検出部303から供給された物体距離に基づいてユーザの操作入力を判断し、操作入力に対する入力処理を実行する。詳細は後述するが、入力処理部306は、投影面Pに対してのユーザの手H2の接触を検出し、その接触箇所と撮影部301の位置関係から、ユーザの操作入力を判断するものとすることができる。入力処理部306によって生成された入力処理は、情報処理装置300のオペレーティングシステムに供給される。
情報処理装置300は以上のような構成を有する。画像取得部302、距離検出部303、画像生成部304及び入力処理部306は、ソフトウェアとハードウェアの協働によって実現される機能的構成であるものとすることができ、物理的に情報処理装置300の筐体に収容されているものに限られず、ネットワーク上に実装されているものであってもよい。
[情報処理装置の動作]
図17は、情報処理装置300の動作を示すフローチャートである。
図17に示すように、画像取得部302は、撮影画像を取得する(St301)。画像取得部302は、第1の実施形態と同様にして撮影画像を取得することが可能である。即ち、画像取得部302は、撮影部301の合焦距離を移動させながら、少なくともユーザの手H1が含まれる範囲において所定の間隔で撮影された複数の撮影画像を取得するまた、画像取得部202は、物体(手H1)の検出に利用した合焦領域のデータを保持しておく。
図18は、撮影画像が撮影された合焦距離を含む面を示す模式図である。図18に示す手H1のA面、B面、C面及びD面において撮影画像が撮影されたものとする。図19は各撮影画像における合焦領域を示す模式図である。図19(a)は図18のA面において撮影された撮影画像における合焦領域Rを示し、同様に、図19(b)は図18のB面、図19(c)は図18のC面、図19(d)は図18のD面のそれぞれにおいて撮影された撮影画像における合焦領域Rを示す。図19に示すように、手H1(投影面P)の凹凸に応じて撮影部301との距離が異なるため、各撮影画像において合焦領域の分布が異なる。
続いて距離検出部303は、撮影部301の撮影範囲に含まれる物体(手H1)の撮影部301との距離(物体距離)を検出する(St302)。具体的には、距離検出部303は、各撮影画像における合焦領域Rの分布から、各撮影画像毎に手H1の位置を特定することによって投影面Pの凹凸(手H1の各部と撮影部301の距離)を検出することが可能である。距離検出部303は物体距離を画像生成部304に供給する。
続いて画像生成部304は、物体距離を用いて表示対象物の画像(以下、表示対象物画像)Gの補正を実行する(St303)。図20は、表示対象物画像Gの補正の例を示す模式図である。画像生成部304は、図20(a)に示す表示対象物画像Gを、距離検出部303によって検出された投影面Pの凹凸に合わせて図20(b)に示すように補正する。画像生成部304は、投影面Pのうち、撮影部201に接近している領域(凸領域)に投影される表示対象物画像Gの領域を縮小し、撮影部201から離間している領域(凹領域)に投影される表示対象物画像Gの領域を拡大するように補正することができる。
画像生成部304は、上記ように補正した表示対象物画像Gを用いて表示画像Sを生成する(St304)。画像生成部304は、生成した表示画像Sを画像表示部305に出力し、投影面Pに投影させる(St305)。図21は、投影面Pに投影された表示画像Sを示す模式図である。同図に示すように、表示画像Sは投影面Pの凹凸に応じて補正されているため、投影面Pの凹凸による画像の歪みが生じない。
なお、表示画像Sの生成及び投影と並行して、入力処理部306は、ユーザの操作入力に対する入力処理を実行する。入力処理部306は、距離検出部303から供給される手H2の各部と撮影部301の距離(物体距離)から、手H2が投影面Pに接触しているか否かを判断することが可能である。入力処理部206は、例えば手H2の投影面Pへの接触箇所と撮影部301の位置関係から、ユーザの操作入力を判断するものとすることができる。
本実施形態においては、検出した物体距離を表示対象物画像Gの生成に利用したが、利用したがこれに限られない。例えば物体距離を利用してユーザの手H1上にマーカを表示するものとすることも可能である。図22はユーザの手H1上に投影されたマーカMを示す模式図である。これにより、ユーザは指の位置を確認し易くなる。また、手Hが操作対象物(キーボード等)に接近するに連れてマーカMの大きさあるいは強度を大きくして表示することも可能である。
以上のように、本実施形態においては、異なる合焦距離で撮影された複数の撮影画像から撮影範囲に含まれる物体(手H1)と撮影部301の距離を検出することが可能であり、当該距離を利用して表示対象物画像の補正を実施することが可能である。これにより、当該物体表面(投影面P)の凹凸による画像の歪みが発生せず、ユーザの視認性を良好なものとすることができる。
本技術は上記各実施形態にのみ限定されるものではなく、本技術の要旨を逸脱しない範囲内において変更することが可能である。
上記各実施形態において、表示対象物はキーボードであるものとしたが、これに限られない。例えばマウス等の他の入力装置とすることも可能である。その場合、ポインティング範囲を円や四角などで明示させてもよい。また、上記各実施形態において、撮影部の撮影範囲に含まれる物体はユーザの手であるものとしたが、これに限られない。例えばスタイラス等とすることも可能である。また、手のひらの距離認識時のように撮影部からの距離変化が少ないときは、高速で距離データを更新する必要がない。
なお、本技術は以下のような構成も採ることができる。
(1)
撮影部によって異なる合焦距離で撮影された複数の撮影画像を取得する画像取得部と、
上記複数の撮影画像に基づいて、上記撮影部の撮影範囲に含まれる物体と上記撮影部の距離を検出する距離検出部と、
上記距離に基づいて、画像表示部によって表示される表示画像を生成する画像生成部と
を具備する情報処理装置。
(2)
上記(1)に記載の情報処理装置であって、
上記画像取得部は、上記複数の撮影画像のそれぞれにおいて、焦点が合っている領域である合焦領域を抽出し、
上記距離検出部は、上記合焦領域の分布に基づいて上記距離を検出する
情報処理装置。
(3)
上記(1)又は(2)に記載の情報処理装置であって、
上記画像生成部は、上記距離に基づいて、表示対象物の画像である表示対象物画像に変更を加え、上記表示画像を生成する
情報処理装置。
(4)
上記(1)から(3)のうちいずれか一つに記載の情報処理装置であって、
上記画像生成部は、上記距離に基づいて画像マスクを生成し、上記画像マスクを上記表示対象物画像と合成して上記表示画像を生成する
情報処理装置。
(5)
上記(1)から(4)のうちいずれか一つに記載の情報処理装置であって、
上記画像生成部は、上記距離に基づいて上記物体の画像を抽出し、上記物体の画像を上記表示対象物画像と合成して上記表示画像を生成する
情報処理装置。
(6)
上記(1)から(5)のうちいずれか一つに記載の情報処理装置であって、
上記画像生成部は、上記距離に基づいて上記物体の凹凸を検出し、上記表示対象物画像を上記凹凸に応じて補正し、上記表示画像を生成する
情報処理装置。
(7)
上記(1)から(6)のうちいずれか一つに記載の情報処理装置であって、
上記表示対象物画像は、入力装置の画像である
情報処理装置。
(8)
上記(1)から(7)のうちいずれか一つに記載の情報処理装置であって、
上記画像取得部は、上記距離に基づいて、上記撮影部が撮影する合焦距離の範囲を制御する
情報処理装置。
(9)
上記(1)から(8)のうちいずれか一つに記載の情報処理装置であって、
上記距離に基づいて、ユーザによる操作入力を処理する入力処理部をさらに具備する
情報処理装置。
(10)
異なる合焦距離で複数の撮影画像を撮影する撮影部と、
上記複数の撮影画像を取得する画像取得部と、
上記撮影画像に基づいて、上記撮影部の撮影範囲に含まれる物体と上記撮影部の距離を検出する距離検出部と、
上記距離に基づいて、表示画像を生成する画像生成部と、
上記表示画像を表示する画像表示部と
を具備する情報処理装置。
(11)
上記(10)に記載の情報処理装置であって、
上記画像表示部は、上記表示画像を投影面に投影する
情報処理装置。
(12)
上記(10)又は(11)に記載の情報処理装置であって、
上記画像表示部は、上記表示画像を表示画面に表示する
情報処理装置。
(13)
撮影部によって異なる合焦距離で撮影された複数の撮影画像を取得する画像取得部と、
上記複数の撮影画像に基づいて、上記撮影部の撮影範囲に含まれる物体と上記撮影部の距離を検出する距離検出部と、
上記距離に基づいて、画像表示部によって表示される表示画像を生成する画像生成部と
として情報処理装置を機能させるプログラム。
(14)
画像取得部が、撮影部によって異なる合焦距離で撮影された複数の撮影画像を取得し、
距離検出部が、上記複数の撮影画像に基づいて、上記撮影部の撮影範囲に含まれる物体と上記撮影部の距離を検出し、
画像生成部が、上記距離に基づいて、画像表示部によって表示される表示画像を生成する
情報処理方法。
100、200、300…情報処理装置
101、201、301…撮影部
102、202、302…画像取得部
103、203、303…距離検出部
104、204、304…画像生成部
105、205、305…画像表示部
106、206、306…入力処理部

Claims (14)

  1. 撮影部によって異なる合焦距離で撮影された複数の撮影画像を取得する画像取得部と、
    前記複数の撮影画像に基づいて、前記撮影部の撮影範囲に含まれる物体と前記撮影部の距離を検出する距離検出部と、
    前記距離に基づいて、画像表示部によって表示される表示画像を生成する画像生成部と
    を具備する情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記画像取得部は、前記複数の撮影画像のそれぞれにおいて、焦点が合っている領域である合焦領域を抽出し、
    前記距離検出部は、前記合焦領域の分布に基づいて前記距離を検出する
    情報処理装置。
  3. 請求項2に記載の情報処理装置であって、
    前記画像生成部は、前記距離に基づいて、表示対象物の画像である表示対象物画像に変更を加え、前記表示画像を生成する
    情報処理装置。
  4. 請求項3に記載の情報処理装置であって、
    前記画像生成部は、前記距離に基づいて画像マスクを生成し、前記画像マスクを前記表示対象物画像と合成して前記表示画像を生成する
    情報処理装置。
  5. 請求項3に記載の情報処理装置であって、
    前記画像生成部は、前記距離に基づいて前記物体の画像を抽出し、前記物体の画像を前記表示対象物画像と合成して前記表示画像を生成する
    情報処理装置。
  6. 請求項3に記載の情報処理装置であって、
    前記画像生成部は、前記距離に基づいて前記物体の凹凸を検出し、前記表示対象物画像を前記凹凸に応じて補正し、前記表示画像を生成する
    情報処理装置。
  7. 請求項3に記載の情報処理装置であって、
    前記表示対象物画像は、入力装置の画像である
    情報処理装置。
  8. 請求項1に記載の情報処理装置であって、
    前記画像取得部は、前記距離に基づいて、前記撮影部が撮影する合焦距離の範囲を制御する
    情報処理装置。
  9. 請求項1に記載の情報処理装置であって、
    前記距離に基づいて、ユーザによる操作入力を処理する入力処理部をさらに具備する
    情報処理装置。
  10. 異なる合焦距離で複数の撮影画像を撮影する撮影部と、
    前記複数の撮影画像を取得する画像取得部と、
    前記撮影画像に基づいて、前記撮影部の撮影範囲に含まれる物体と前記撮影部の距離を検出する距離検出部と、
    前記距離に基づいて、表示画像を生成する画像生成部と、
    前記表示画像を表示する画像表示部と
    を具備する情報処理装置。
  11. 請求項10に記載の情報処理装置であって、
    前記画像表示部は、前記表示画像を投影面に投影する
    情報処理装置。
  12. 請求項10に記載の情報処理装置であって、
    前記画像表示部は、前記表示画像を表示画面に表示する
    情報処理装置。
  13. 撮影部によって異なる合焦距離で撮影された複数の撮影画像を取得する画像取得部と、
    前記複数の撮影画像に基づいて、前記撮影部の撮影範囲に含まれる物体と前記撮影部の距離を検出する距離検出部と、
    前記距離に基づいて、画像表示部によって表示される表示画像を生成する画像生成部と
    として情報処理装置を機能させるプログラム。
  14. 画像取得部が、撮影部によって異なる合焦距離で撮影された複数の撮影画像を取得し、
    距離検出部が、前記複数の撮影画像に基づいて、前記撮影部の撮影範囲に含まれる物体と前記撮影部の距離を検出し、
    画像生成部が、前記距離に基づいて、画像表示部によって表示される表示画像を生成する
    情報処理方法。
JP2012086195A 2012-04-05 2012-04-05 情報処理装置、プログラム及び情報処理方法 Expired - Fee Related JP5966535B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012086195A JP5966535B2 (ja) 2012-04-05 2012-04-05 情報処理装置、プログラム及び情報処理方法
US13/849,765 US9001034B2 (en) 2012-04-05 2013-03-25 Information processing apparatus, program, and information processing method
EP13161342.4A EP2648082A3 (en) 2012-04-05 2013-03-27 Information processing apparatus comprising an image generation unit and an imaging unit, related program, and method
CN201310108288.XA CN103365488B (zh) 2012-04-05 2013-03-29 信息处理装置、程序和信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012086195A JP5966535B2 (ja) 2012-04-05 2012-04-05 情報処理装置、プログラム及び情報処理方法

Publications (3)

Publication Number Publication Date
JP2013218395A true JP2013218395A (ja) 2013-10-24
JP2013218395A5 JP2013218395A5 (ja) 2015-04-09
JP5966535B2 JP5966535B2 (ja) 2016-08-10

Family

ID=48190081

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012086195A Expired - Fee Related JP5966535B2 (ja) 2012-04-05 2012-04-05 情報処理装置、プログラム及び情報処理方法

Country Status (4)

Country Link
US (1) US9001034B2 (ja)
EP (1) EP2648082A3 (ja)
JP (1) JP5966535B2 (ja)
CN (1) CN103365488B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017533487A (ja) * 2014-08-15 2017-11-09 ザ・ユニバーシティ・オブ・ブリティッシュ・コロンビア 医療処置の実施と医療関連情報のアクセスおよび/または操作のための方法およびシステム
WO2019159759A1 (ja) * 2018-02-19 2019-08-22 株式会社村上開明堂 操作検出装置及び操作検出方法
CN110971821A (zh) * 2019-11-28 2020-04-07 武汉兴图新科电子股份有限公司 一种通过键盘控制摄像机云台或预置点的方法

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10048779B2 (en) * 2012-06-30 2018-08-14 Hewlett-Packard Development Company, L.P. Virtual hand based on combined data
CN103809755B (zh) * 2014-02-19 2017-11-07 联想(北京)有限公司 一种信息处理方法及电子设备
US9766806B2 (en) 2014-07-15 2017-09-19 Microsoft Technology Licensing, Llc Holographic keyboard display
WO2016017101A1 (ja) * 2014-07-30 2016-02-04 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
CN105320258B (zh) * 2014-08-05 2019-01-01 深圳Tcl新技术有限公司 虚拟键盘系统及其键入方法
US9898809B2 (en) * 2015-11-10 2018-02-20 Nanjing University Systems, methods and techniques for inputting text into mobile devices using a camera-based keyboard
US11513637B2 (en) 2016-01-25 2022-11-29 Hiroyuki Ikeda Image projection device
EP3582707A4 (en) 2017-02-17 2020-11-25 NZ Technologies Inc. PROCEDURES AND SYSTEMS FOR CONTACTLESS CONTROL OF A SURGICAL ENVIRONMENT
EP4325345A1 (en) * 2021-09-06 2024-02-21 Samsung Electronics Co., Ltd. Electronic device for acquiring user input through virtual keyboard and operating method thereof
US20230136028A1 (en) * 2021-11-03 2023-05-04 Jin Alexander Yu Ergonomic eyes-off-hand multi-touch input
CN117093078B (zh) * 2023-10-16 2024-01-16 潍坊幻视软件科技有限公司 三维空间中使用手进行输入的系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004500657A (ja) * 2000-02-11 2004-01-08 カネスタ インコーポレイテッド 仮想入力装置を用いたデータ入力方法および装置
US20100060781A1 (en) * 2008-09-10 2010-03-11 Panasonic Corporation Lens barrel and imaging device
WO2011106798A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
WO2012023004A1 (en) * 2010-08-18 2012-02-23 Sony Ericsson Mobile Communications Ab Adaptable projection on occluding object in a projected user interface
WO2012037290A2 (en) * 2010-09-14 2012-03-22 Osterhout Group, Inc. Eyepiece with uniformly illuminated reflective display

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6621524B1 (en) * 1997-01-10 2003-09-16 Casio Computer Co., Ltd. Image pickup apparatus and method for processing images obtained by means of same
JP2002298142A (ja) * 2001-03-29 2002-10-11 Minolta Co Ltd 人物画像検出方法、この方法を実行するためのプログラムを記録した記録媒体、人物画像検出装置及びこの装置を備えた撮影装置
US20030226968A1 (en) * 2002-06-10 2003-12-11 Steve Montellese Apparatus and method for inputting data
JP3880582B2 (ja) * 2004-02-13 2007-02-14 Necビューテクノロジー株式会社 複数のカメラを備えたプロジェクタ
DE102004015947A1 (de) * 2004-03-25 2005-10-13 Arnold & Richter Cine Technik Gmbh & Co Betriebs Kg Verfahren und Vorrichtung zum Einstellen der Bildschärfe am Kameraobjektiv einer Laufbildkamera
US20070115261A1 (en) * 2005-11-23 2007-05-24 Stereo Display, Inc. Virtual Keyboard input system using three-dimensional motion detection by variable focal length lens
JP2008123316A (ja) 2006-11-14 2008-05-29 Konica Minolta Holdings Inc データ入力方法およびデータ入力装置
US7683962B2 (en) * 2007-03-09 2010-03-23 Eastman Kodak Company Camera using multiple lenses and image sensors in a rangefinder configuration to provide a range map
KR101378329B1 (ko) * 2007-09-28 2014-03-27 삼성전자주식회사 디지털 촬영장치, 그 제어방법 및 제어방법을 실행시키기위한 프로그램을 저장한 기록매체
JP5173665B2 (ja) * 2008-08-08 2013-04-03 キヤノン株式会社 画像撮影装置およびその距離演算方法と合焦画像取得方法
US8736751B2 (en) * 2008-08-26 2014-05-27 Empire Technology Development Llc Digital presenter for displaying image captured by camera with illumination system
JP5294805B2 (ja) * 2008-11-05 2013-09-18 キヤノン株式会社 撮影システム及びレンズ装置
JP5038283B2 (ja) * 2008-11-05 2012-10-03 キヤノン株式会社 撮影システム及びレンズ装置
TW201026034A (en) * 2008-12-31 2010-07-01 Altek Corp Automatic focusing method in high-noise environment and the device thereof
KR20100080704A (ko) * 2009-01-02 2010-07-12 삼성전자주식회사 영상 데이터 획득 방법 및 장치
US8199248B2 (en) * 2009-01-30 2012-06-12 Sony Corporation Two-dimensional polynomial model for depth estimation based on two-picture matching
US20110234481A1 (en) * 2010-03-26 2011-09-29 Sagi Katz Enhancing presentations using depth sensing cameras
US8045046B1 (en) * 2010-04-13 2011-10-25 Sony Corporation Four-dimensional polynomial model for depth estimation based on two-picture matching
US20120200673A1 (en) * 2010-06-15 2012-08-09 Junichi Tagawa Imaging apparatus and imaging method
CN101930338A (zh) * 2010-07-19 2010-12-29 苏州佳世达电通有限公司 触控系统及其控制方法
US20130135199A1 (en) * 2010-08-10 2013-05-30 Pointgrab Ltd System and method for user interaction with projected content
EP2642245B1 (en) * 2010-11-17 2020-11-11 Panasonic Corporation Image pickup device and distance measuring method
US8433187B2 (en) * 2011-01-18 2013-04-30 DigitalOptics Corporation MEMS Distance estimation systems and method based on a two-state auto-focus lens
CN103348276B (zh) * 2011-03-02 2016-04-06 松下电器产业株式会社 摄像装置、半导体集成电路以及摄像方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004500657A (ja) * 2000-02-11 2004-01-08 カネスタ インコーポレイテッド 仮想入力装置を用いたデータ入力方法および装置
US20100060781A1 (en) * 2008-09-10 2010-03-11 Panasonic Corporation Lens barrel and imaging device
JP2010092031A (ja) * 2008-09-10 2010-04-22 Panasonic Corp レンズ鏡筒および撮像装置
WO2011106798A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
WO2012023004A1 (en) * 2010-08-18 2012-02-23 Sony Ericsson Mobile Communications Ab Adaptable projection on occluding object in a projected user interface
US20120299876A1 (en) * 2010-08-18 2012-11-29 Sony Ericsson Mobile Communications Ab Adaptable projection on occluding object in a projected user interface
WO2012037290A2 (en) * 2010-09-14 2012-03-22 Osterhout Group, Inc. Eyepiece with uniformly illuminated reflective display

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017533487A (ja) * 2014-08-15 2017-11-09 ザ・ユニバーシティ・オブ・ブリティッシュ・コロンビア 医療処置の実施と医療関連情報のアクセスおよび/または操作のための方法およびシステム
WO2019159759A1 (ja) * 2018-02-19 2019-08-22 株式会社村上開明堂 操作検出装置及び操作検出方法
US11380000B2 (en) 2018-02-19 2022-07-05 Murakami Corporation Operation detection device and operation detection method
CN110971821A (zh) * 2019-11-28 2020-04-07 武汉兴图新科电子股份有限公司 一种通过键盘控制摄像机云台或预置点的方法

Also Published As

Publication number Publication date
EP2648082A2 (en) 2013-10-09
US20130265219A1 (en) 2013-10-10
EP2648082A3 (en) 2016-01-20
CN103365488A (zh) 2013-10-23
US9001034B2 (en) 2015-04-07
CN103365488B (zh) 2018-01-26
JP5966535B2 (ja) 2016-08-10

Similar Documents

Publication Publication Date Title
JP5966535B2 (ja) 情報処理装置、プログラム及び情報処理方法
JP5822400B2 (ja) カメラとマーク出力とによるポインティング装置
JP5450739B2 (ja) 画像処理装置及び画像表示装置
JP5560721B2 (ja) 画像処理装置、画像表示システム、及び画像処理方法
JP2018010677A (ja) 画像処理装置、画像表示装置およびプログラム
US9514524B2 (en) Optical distortion compensation
US10571246B2 (en) Imaging processing apparatus, distance measuring apparatus and processing system
JP6251851B2 (ja) 合焦制御装置、合焦制御方法、合焦制御プログラム、レンズ装置、撮像装置
WO2018045596A1 (zh) 一种处理方法及移动设备
JP2016177491A (ja) 入力装置、指先位置検出方法及び指先位置検出用コンピュータプログラム
JP6687103B2 (ja) 画像処理システム、画像処理方法及びプログラム
WO2011096571A1 (ja) 入力装置
Lee et al. Fast-rolling shutter compensation based on piecewise quadratic approximation of a camera trajectory
CN114390206A (zh) 拍摄方法、装置和电子设备
TW202221409A (zh) 虛擬運鏡方法、攝像裝置及電子系統
JP5939469B2 (ja) 閲覧装置及び閲覧システム
JP6236580B2 (ja) 合焦制御装置、合焦制御方法、合焦制御プログラム、レンズ装置、撮像装置
JP6614500B2 (ja) 画像読取装置、携帯端末、画像読取方法及び画像読取プログラム
JP6514889B2 (ja) 情報処理装置、情報処理プログラム、情報処理システム、および情報処理方法
JP6242009B2 (ja) 広域画像に撮影領域枠を重畳表示する映像転送システム、端末、プログラム及び方法
US9832377B2 (en) Data acquiring method and electronic device thereof
JP6919374B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5397245B2 (ja) 情報処理装置および情報処理方法
JP6119380B2 (ja) 画像取込装置、画像取込方法、画像取込プログラムおよび移動通信端末
JP2019097050A (ja) 画像読取装置及び画像読取プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150218

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160620

R151 Written notification of patent or utility model registration

Ref document number: 5966535

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees