JP2015152448A - Information processor - Google Patents

Information processor Download PDF

Info

Publication number
JP2015152448A
JP2015152448A JP2014026793A JP2014026793A JP2015152448A JP 2015152448 A JP2015152448 A JP 2015152448A JP 2014026793 A JP2014026793 A JP 2014026793A JP 2014026793 A JP2014026793 A JP 2014026793A JP 2015152448 A JP2015152448 A JP 2015152448A
Authority
JP
Japan
Prior art keywords
finger
imaging
imaging unit
gesture
axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014026793A
Other languages
Japanese (ja)
Inventor
森 和思
Kazushi Mori
和思 森
信雄 岩月
Nobuo Iwatsuki
信雄 岩月
楳田 勝美
Katsumi Umeda
勝美 楳田
浩司 細川
Koji Hosokawa
浩司 細川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2014026793A priority Critical patent/JP2015152448A/en
Publication of JP2015152448A publication Critical patent/JP2015152448A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processor capable of operating with a simple gesture.SOLUTION: A personal computer 1 includes: a projection part 100 that projects a beam of light of a predetermined wavelength to a target area; an imaging part 200 that receives a beam of reflected light from the target area to take an image of the target area; an information input plane Pi on which a keyboard 4 is disposed; and a main body part 11 which includes an information input plane Pi as the upper face. The imaging part 200 takes an image of the target area via a window part 11b which is disposes at the rear-side than the keyboard 4 on the main body part 11. The reception light axis of the imaging part 200 is inclined at a predetermined inclination angle relative to an information input plane Pi. With this, a user is allowed to operate with a simple gesture.

Description

本発明は、目標領域内の情報を取得する情報処理装置に関する。   The present invention relates to an information processing apparatus that acquires information in a target area.

従来、光を用いた物体検出部を備えた情報処理装置が種々の分野で開発されている(たとえば、特許文献1)。この種の情報処理装置では、イメージセンサを備える撮像部と光を目標領域に投射する投射部がディスプレイの上部に配置される。   Conventionally, an information processing apparatus including an object detection unit using light has been developed in various fields (for example, Patent Document 1). In this type of information processing apparatus, an imaging unit including an image sensor and a projection unit that projects light onto a target area are arranged at the top of the display.

特開2008−225985号公報JP 2008-225985 A

しかしながら、上記のように投射部と撮像部がディスプレイの上部に配置されると、ユーザは、ジェスチャ操作のため、ディスプレイの上部まで手をかざす必要があった。このように、ジェスチャ操作のために大ぶりな動作が必要となると、ユーザの他の動作が阻害され得る。   However, when the projection unit and the imaging unit are arranged at the top of the display as described above, the user needs to hold his hand up to the top of the display for a gesture operation. As described above, when a large-scale operation is required for the gesture operation, other operations of the user may be hindered.

上記課題に鑑み、本発明は、簡易な動作でジェスチャ操作を行うことが可能な情報処理装置を提供することを目的とする。   In view of the above problems, an object of the present invention is to provide an information processing apparatus capable of performing a gesture operation with a simple operation.

本発明の主たる態様は、情報処理装置に関する。本態様に係る情報処理装置は、目標領域に所定の波長の光を投射する投射部と、前記目標領域からの反射光を受光して前記目標領域を撮像する撮像部と、情報入力部が配置された情報入力面と、前記情報入力面を上面とする本体部と、を備える。前記撮像部は、前記本体部の前記情報入力部よりも奥側に配置された窓部を介して前記目標領域を撮像し、前記撮像部の受光光軸は、前記情報入力面に対して所定の傾斜角度で傾いている。   A main aspect of the present invention relates to an information processing apparatus. The information processing apparatus according to this aspect includes a projection unit that projects light of a predetermined wavelength onto a target region, an imaging unit that receives reflected light from the target region and images the target region, and an information input unit An information input surface, and a main body having the information input surface as an upper surface. The imaging unit captures the target area through a window disposed on the back side of the information input unit of the main body, and a light receiving optical axis of the imaging unit is predetermined with respect to the information input surface Tilt at an inclination angle of.

本発明によれば、簡易な動作でジェスチャ操作を行うことが可能な情報処理装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the information processing apparatus which can perform gesture operation by simple operation | movement can be provided.

本発明の効果ないし意義は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下に示す実施の形態は、あくまでも、本発明を実施化する際の一つの例示であって、本発明は、以下の実施の形態により何ら制限されるものではない。   The effects and significance of the present invention will become more apparent from the following description of embodiments. However, the embodiment described below is merely an example when the present invention is implemented, and the present invention is not limited to the following embodiment.

実施の形態に係る物体検出部を内蔵したパーソナルコンピュータの外観構成を示す図である。It is a figure which shows the external appearance structure of the personal computer which incorporated the object detection part which concerns on embodiment. 実施の形態に係る情報処理装置の構成を示す図である。It is a figure which shows the structure of the information processing apparatus which concerns on embodiment. 実施の形態に係る情報処理装置の構成を示す図である。It is a figure which shows the structure of the information processing apparatus which concerns on embodiment. 実施の形態に係る情報処理装置の構成を示す図である。It is a figure which shows the structure of the information processing apparatus which concerns on embodiment. 実施の形態に係るジェスチャ検出方法を説明する図である。It is a figure explaining the gesture detection method which concerns on embodiment. 実施の形態に係るジェスチャ検出の処理を示すフローチャートである。It is a flowchart which shows the process of the gesture detection which concerns on embodiment. 実施の形態に係る撮像方向に応じた手の見え方を説明するための図である。It is a figure for demonstrating the appearance of the hand according to the imaging direction which concerns on embodiment. 実施の形態に係る操作指を適正に検出する条件を説明するための図である。It is a figure for demonstrating the conditions which detect the operation finger which concerns on embodiment appropriately. 実施の形態に係る操作指を適正に検出する条件を説明するグラフである。It is a graph explaining the conditions which detect the operation finger which concerns on embodiment appropriately. 実施の形態に係る回転ジェスチャと横振りジェスチャを区別する条件を説明するための図である。It is a figure for demonstrating the conditions which distinguish a rotation gesture and a swing gesture which concern on embodiment. 実施の形態に係る回転ジェスチャと横振りジェスチャを区別する条件を説明するための図である。It is a figure for demonstrating the conditions which distinguish a rotation gesture and a swing gesture which concern on embodiment. 実施の形態に係る回転ジェスチャと横振りジェスチャを区別する条件を示すグラフである。It is a graph which shows the conditions which distinguish the rotation gesture and swing gesture which concern on embodiment. 実施の形態に係る回転ジェスチャと横振りジェスチャを区別する条件を示すグラフである。It is a graph which shows the conditions which distinguish the rotation gesture and swing gesture which concern on embodiment. 変更例に係るプリズムを用いた場合の情報処理装置の構成を示す図である。It is a figure which shows the structure of the information processing apparatus at the time of using the prism which concerns on the example of a change. 変更例に係るプリズムの光軸の傾斜角を説明する図である。It is a figure explaining the inclination-angle of the optical axis of the prism which concerns on the example of a change. 変更例に係るプリズムの下面傾斜角と撮像部の光軸の傾斜角を示すグラフである。It is a graph which shows the lower surface inclination angle of the prism which concerns on the example of a change, and the inclination angle of the optical axis of an imaging part. 変更例に係るプリズムの下面傾斜角と撮像部の光軸の傾斜角を示すグラフである。It is a graph which shows the lower surface inclination angle of the prism which concerns on the example of a change, and the inclination angle of the optical axis of an imaging part. 変更例に係るプリズムの設置方法を説明する図である。It is a figure explaining the installation method of the prism which concerns on the example of a change. 変更例に係るプリズムを用いた場合の高さと装置全体を傾けた場合の高さを比較する図である。It is a figure which compares the height at the time of tilting the whole apparatus with the height at the time of using the prism which concerns on the example of a change. 変更例に係るプリズムの頂角と下面の傾斜角を示すグラフである。It is a graph which shows the apex angle of the prism which concerns on the example of a change, and the inclination angle of a lower surface. 変更例に係るプリズムの頂角と高さを示すグラフである。It is a graph which shows the apex angle and height of the prism which concerns on the example of a change. 変更例に係るHOEを用いて光軸を傾斜させる構成を説明する図である。It is a figure explaining the structure which inclines an optical axis using HOE which concerns on the example of a change. 変更例に係る情報処理装置の構成を示す図である。It is a figure which shows the structure of the information processing apparatus which concerns on the example of a change. 変更例に係るイメージセンサの感度、および、輝度値と距離の関係を規定する距離変換関数の波形を示す図である。It is a figure which shows the sensitivity of the image sensor which concerns on the example of a change, and the waveform of the distance conversion function which prescribes | regulates the relationship between a luminance value and distance.

以下、本発明の実施の形態につき図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

本実施の形態は、ノート型のパーソナルコンピュータに本発明を適用したものである。この他、本発明は、他の機器にも適宜適用可能なものである。   In the present embodiment, the present invention is applied to a notebook personal computer. In addition, the present invention can be applied to other devices as appropriate.

図1(a)は、本実施の形態に係るパーソナルコンピュータ1の概略構成を示す図である。図1(b)は、情報取得ユニット2周辺の一部拡大図である。なお、図1(b)では、本体部11の内部が透視されるように示されている。   FIG. 1A is a diagram showing a schematic configuration of a personal computer 1 according to the present embodiment. FIG. 1B is a partially enlarged view around the information acquisition unit 2. In FIG. 1B, the inside of the main body portion 11 is shown to be seen through.

図1(a)に示すように、パーソナルコンピュータ1は、本体部11と、モニタ部12を備えている。本体部11は、平面視において長方形の角が丸められた形状を有し、情報取得ユニット2と、情報処理部3を備えている。この他、本体部11は、上面Piにキーボード4と、操作パッド5を備えている。モニタ部12は、モニタ6を備えている。キーボード4、操作パッド5といった情報入力部が配される上面Piを「情報入力面」と称する。   As shown in FIG. 1A, the personal computer 1 includes a main body unit 11 and a monitor unit 12. The main body 11 has a shape in which rectangular corners are rounded in plan view, and includes an information acquisition unit 2 and an information processing unit 3. In addition, the main body 11 includes a keyboard 4 and an operation pad 5 on the upper surface Pi. The monitor unit 12 includes a monitor 6. An upper surface Pi on which information input units such as the keyboard 4 and the operation pad 5 are arranged is referred to as an “information input surface”.

情報取得ユニット2は、目標領域全体に、可視光の波長帯よりも長い赤外の波長帯域の光(赤外光)を投射し、その反射光をCMOSイメージセンサにて受光することにより、目標領域に存在する物体の撮像情報を取得する。情報取得ユニット2は、図1(b)に示すように、前後方向がZ軸方向からYZ平面の面内方向に傾いた状態で本体部11の内部に取り付けられている。情報取得ユニット2は、本体部11のキーボード4よりも奥側(Y軸負側)に配置されている。   The information acquisition unit 2 projects light (infrared light) in an infrared wavelength band longer than the visible light wavelength band over the entire target region, and receives the reflected light with a CMOS image sensor, thereby achieving the target. Imaging information of an object existing in the region is acquired. As shown in FIG. 1B, the information acquisition unit 2 is attached to the inside of the main body 11 with the front-rear direction tilted from the Z-axis direction to the in-plane direction of the YZ plane. The information acquisition unit 2 is disposed on the back side (Y-axis negative side) of the keyboard 4 of the main body 11.

情報処理部3は、情報取得ユニット2により取得された撮像情報に基づいて、目標領域に存在する所定の物体を検出し、さらに、当該物体の動きを検出する。そして、情報処理部3は、当該物体の動きに応じて、パーソナルコンピュータ1の機能を制御する。   The information processing unit 3 detects a predetermined object existing in the target area based on the imaging information acquired by the information acquisition unit 2, and further detects the movement of the object. Then, the information processing unit 3 controls the function of the personal computer 1 according to the movement of the object.

たとえば、ユーザが手を用いて所定のジェスチャを行うと、情報取得ユニット2からジェスチャに応じた撮像情報が情報処理部3に送信される。この情報に基づき、情報処理部3は、ユーザの手を検出対象物体として検出し、手の動きに対応付けられた機能(画面の拡大・縮小や、画面の明るさ調整、ページ送り、等)を実行する。   For example, when the user performs a predetermined gesture using his / her hand, imaging information corresponding to the gesture is transmitted from the information acquisition unit 2 to the information processing unit 3. Based on this information, the information processing unit 3 detects the user's hand as a detection target object, and functions associated with the movement of the hand (screen enlargement / reduction, screen brightness adjustment, page turning, etc.) Execute.

図2は、情報取得ユニット2と情報処理部3の構成を示す図である。   FIG. 2 is a diagram showing the configuration of the information acquisition unit 2 and the information processing unit 3.

情報取得ユニット2は、光学部の構成として、投射部100と撮像部200とを備えている。投射部100と撮像部200は、X軸方向に並ぶように、配置されている。   The information acquisition unit 2 includes a projection unit 100 and an imaging unit 200 as the configuration of the optical unit. The projection unit 100 and the imaging unit 200 are arranged so as to be aligned in the X-axis direction.

投射部100は、赤外の波長帯域の光を出射する4つの光源110を備えている。このように4つの光源110が用いられることにより、一つ一つの光源110が低出力であっても、大きな発光量で光を出射することができる。これにより、光源110の温度上昇量を抑えることができ、光源110の信頼性を保つことができる。   The projection unit 100 includes four light sources 110 that emit light in the infrared wavelength band. By using the four light sources 110 in this way, even if each of the light sources 110 has a low output, light can be emitted with a large light emission amount. Thereby, the temperature rise amount of the light source 110 can be suppressed, and the reliability of the light source 110 can be maintained.

撮像部200は、アパーチャ210と、撮像レンズ220と、フィルタ230と、CMOSイメージセンサ240とを備えている。この他、情報取得ユニット2は、回路部の構成として、CPU(Central Processing Unit)21と、赤外光源駆動回路22と、撮像信号処理回路23と、入出力回路24と、メモリ25を備えている。   The imaging unit 200 includes an aperture 210, an imaging lens 220, a filter 230, and a CMOS image sensor 240. In addition, the information acquisition unit 2 includes a CPU (Central Processing Unit) 21, an infrared light source driving circuit 22, an imaging signal processing circuit 23, an input / output circuit 24, and a memory 25 as a circuit unit. Yes.

4つの光源110から目標領域に投射された光は、目標領域に存在する物体によって反射され、アパーチャ210を介して撮像レンズ220に入射する。   Light projected from the four light sources 110 onto the target area is reflected by an object existing in the target area, and enters the imaging lens 220 via the aperture 210.

アパーチャ210は、撮像レンズ220のFナンバーに合うように、外部からの光を制限する。撮像レンズ220は、アパーチャ210を介して入射された光をCMOSイメージセンサ240上に集光する。フィルタ230は、光源110の出射波長を含む波長帯域の光を透過し、可視光の波長帯域の光をカットするバンドパスフィルタである。   The aperture 210 limits light from the outside so as to match the F number of the imaging lens 220. The imaging lens 220 collects the light incident through the aperture 210 on the CMOS image sensor 240. The filter 230 is a bandpass filter that transmits light in the wavelength band including the emission wavelength of the light source 110 and cuts light in the visible wavelength band.

CMOSイメージセンサ240は、可視光の波長帯域と、光源110から出射される赤外光の波長帯域に対して感度を有するカラーのイメージセンサである。CMOSイメージセンサ240は、撮像レンズ220にて集光された光を受光して、画素毎に、受光量に応じた信号を撮像信号処理回路23に出力する。ここで、CMOSイメージセンサ240は、各画素における受光から高レスポンスでその画素の信号を撮像信号処理回路23に出力できるよう、信号の出力速度が高速化されている。   The CMOS image sensor 240 is a color image sensor having sensitivity to the wavelength band of visible light and the wavelength band of infrared light emitted from the light source 110. The CMOS image sensor 240 receives the light collected by the imaging lens 220 and outputs a signal corresponding to the amount of received light to the imaging signal processing circuit 23 for each pixel. Here, in the CMOS image sensor 240, the output speed of the signal is increased so that the signal of the pixel can be output to the imaging signal processing circuit 23 with high response from the light reception in each pixel.

CPU21は、メモリ25に格納された制御プログラムに従って各部を制御する。かかる制御プログラムによって、CPU21には、光源制御部21aと、撮像情報取得部21bの機能が付与される。   The CPU 21 controls each unit according to a control program stored in the memory 25. With this control program, the functions of the light source control unit 21a and the imaging information acquisition unit 21b are given to the CPU 21.

光源制御部21aは、赤外光源駆動回路22を制御する。撮像情報取得部21bは、CMOSイメージセンサ240から出力される信号に基づいて、輝度情報等の検出対象物体に関する撮像情報を取得する。   The light source control unit 21 a controls the infrared light source driving circuit 22. The imaging information acquisition unit 21b acquires imaging information related to a detection target object such as luminance information based on a signal output from the CMOS image sensor 240.

赤外光源駆動回路22は、CPU21からの制御信号に応じて4つの光源110を駆動する。   The infrared light source driving circuit 22 drives the four light sources 110 according to control signals from the CPU 21.

撮像信号処理回路23は、CPU21からの制御を受けてCMOSイメージセンサ240を駆動し、CMOSイメージセンサ240から出力される信号から、各画素に輝度信号を取得し、取得した信号をCPU21に出力する。撮像信号処理回路23は、CPU21により設定された露光時間をCMOSイメージセンサ240の各画素に適用し、さらに、CMOSイメージセンサ240から出力される信号に対してCPU21により設定されたゲインを適用して、画素毎に、輝度信号を取得する。   The imaging signal processing circuit 23 drives the CMOS image sensor 240 under the control of the CPU 21, acquires a luminance signal from each signal output from the CMOS image sensor 240, and outputs the acquired signal to the CPU 21. . The imaging signal processing circuit 23 applies the exposure time set by the CPU 21 to each pixel of the CMOS image sensor 240, and further applies the gain set by the CPU 21 to the signal output from the CMOS image sensor 240. A luminance signal is acquired for each pixel.

入出力回路24は、情報処理部3とのデータ通信を制御する。   The input / output circuit 24 controls data communication with the information processing unit 3.

メモリ25は、CPU21により実行される制御プログラムの他、CPU21における処理の際のワーク領域としても用いられる。   The memory 25 is used not only as a control program executed by the CPU 21 but also as a work area during processing in the CPU 21.

情報処理部3は、CPU31と、入出力回路32と、メモリ33を備えている。なお、情報処理部3には、図2に示す構成の他、パーソナルコンピュータ1の各部を駆動および制御するための構成が配されるが、便宜上、これら周辺回路の構成は図示省略されている。   The information processing unit 3 includes a CPU 31, an input / output circuit 32, and a memory 33. In addition to the configuration shown in FIG. 2, the information processing unit 3 is provided with a configuration for driving and controlling each unit of the personal computer 1. For convenience, the configuration of these peripheral circuits is not shown.

CPU31は、メモリ33に格納された制御プログラムに従って各部を制御する。かかる制御プログラムによって、CPU31には、物体検出部31aの機能と、当該物体検出部31aからの信号に応じて、パーソナルコンピュータ1の機能を制御するための機能制御部31bの機能が付与される。   The CPU 31 controls each unit according to a control program stored in the memory 33. With this control program, the function of the function detection unit 31b for controlling the function of the personal computer 1 is given to the CPU 31 in accordance with the function of the object detection unit 31a and the signal from the object detection unit 31a.

物体検出部31aは、撮像情報取得部21bによって取得される撮像情報から物体の形状を抽出し、さらに、抽出した物体形状の動きを検出する。機能制御部31bは、物体検出部31aにより検出された物体の動きが所定の動きパターンに合致しているかを判定し、物体の動きが所定の動きパターンに合致している場合に、当該動きパターンに対応する制御を実行する。   The object detection unit 31a extracts the shape of the object from the imaging information acquired by the imaging information acquisition unit 21b, and further detects the movement of the extracted object shape. The function control unit 31b determines whether the movement of the object detected by the object detection unit 31a matches a predetermined movement pattern. If the movement of the object matches the predetermined movement pattern, the movement pattern The control corresponding to is executed.

図3は、情報取得ユニット2の構成を示す模式図である。   FIG. 3 is a schematic diagram showing the configuration of the information acquisition unit 2.

図3を参照して、情報取得ユニット2は、投射部100と、撮像部200と、遮光部300と、回路基板400と、回路部500とを備える。   With reference to FIG. 3, the information acquisition unit 2 includes a projection unit 100, an imaging unit 200, a light shielding unit 300, a circuit board 400, and a circuit unit 500.

投射部100は、上述のように、4つの光源110を備える。4つの光源110は、発光ダイオード(LED:Light Emitting Diode)からなっている。赤外光を発する発光素子(図示せず)は、ハウジング内に収容される。発光素子から発せられた赤外光は、上面の出射部から所定の放射角にて外部に出射される。図3に示すように、4つの光源110は、回路基板400上に実装されている。   The projection unit 100 includes the four light sources 110 as described above. The four light sources 110 are made up of light emitting diodes (LEDs). A light emitting element (not shown) that emits infrared light is accommodated in a housing. Infrared light emitted from the light emitting element is emitted to the outside at a predetermined radiation angle from the emission portion on the upper surface. As shown in FIG. 3, the four light sources 110 are mounted on the circuit board 400.

撮像部200は、アパーチャ210と、撮像レンズ220を収容するレンズバレル250と、フィルタ230と、CMOSイメージセンサ240を収容する撮像レンズホルダ260を備える。CMOSイメージセンサ240は、回路基板400上に実装されている。撮像レンズ220は、レンズバレル250に装着され、レンズバレル250は、撮像レンズ220を保持した状態で撮像レンズホルダ260に装着される。撮像レンズホルダ260は、下面に凹部を有し、この凹部に、フィルタ230が装着される。こうして、撮像レンズ220とフィルタ230とを保持した状態で、撮像レンズホルダ260が、CMOSイメージセンサ240を覆うように、回路基板400上に設置される。   The imaging unit 200 includes an aperture 210, a lens barrel 250 that houses the imaging lens 220, a filter 230, and an imaging lens holder 260 that houses the CMOS image sensor 240. The CMOS image sensor 240 is mounted on the circuit board 400. The imaging lens 220 is attached to the lens barrel 250, and the lens barrel 250 is attached to the imaging lens holder 260 while holding the imaging lens 220. The imaging lens holder 260 has a recess on the lower surface, and the filter 230 is attached to the recess. Thus, the imaging lens holder 260 is installed on the circuit board 400 so as to cover the CMOS image sensor 240 while holding the imaging lens 220 and the filter 230.

遮光部300は、弾性力があり、且つ、遮光性がある素材で形成されている。遮光部300は、投射部100からの迷光が撮像部200に入射することを防ぐ。   The light shielding unit 300 is formed of a material having elasticity and light shielding properties. The light shielding unit 300 prevents stray light from the projection unit 100 from entering the imaging unit 200.

回路基板400には、投射部100と撮像部200の他、情報取得ユニット2を構成する回路部500が実装される。図2に示すCPU21、赤外光源駆動回路22、撮像信号処理回路23、入出力回路24およびメモリ25は、かかる回路部500に含まれる。   In addition to the projection unit 100 and the imaging unit 200, the circuit unit 500 constituting the information acquisition unit 2 is mounted on the circuit board 400. The CPU 21, infrared light source driving circuit 22, imaging signal processing circuit 23, input / output circuit 24, and memory 25 shown in FIG. 2 are included in the circuit unit 500.

図4(a)は、情報取得ユニット2が本体部11に組付けられた状態を示す斜視図である。図4(b)、(c)は、情報取得ユニット2に対するジェスチャの例を示す模式図である。   FIG. 4A is a perspective view showing a state where the information acquisition unit 2 is assembled to the main body 11. FIGS. 4B and 4C are schematic diagrams illustrating examples of gestures for the information acquisition unit 2.

図4(a)に示すように、情報取得ユニット2は、前後方向がZ軸方向からYZ平面の面内方向にやや傾くように本体部11に取り付けられる。本体部11には、投射部100と撮像部200の上面を覆うように開口11aが形成されている。開口11aには、窓部11bが嵌め込まれている。窓部11bは、可視光をカットし、光源110から出射される赤外光の波長帯域の光を透過させるよう構成されている。   As shown in FIG. 4A, the information acquisition unit 2 is attached to the main body 11 so that the front-rear direction is slightly inclined from the Z-axis direction to the in-plane direction of the YZ plane. An opening 11 a is formed in the main body 11 so as to cover the upper surfaces of the projection unit 100 and the imaging unit 200. A window portion 11b is fitted in the opening 11a. The window 11b is configured to cut visible light and transmit light in the wavelength band of infrared light emitted from the light source 110.

4つの光源110により情報取得ユニット2の上部に光が投射されると、光は、窓部11bを透過し、図4(b)、(c)に示すようにキーボード4の上部周辺に向けて投射される。窓部11bは、キーボード4よりも奥側(Y軸負側)の情報入力面Piに配置されており、情報取得ユニット2は、窓部11bに対して斜めに取り付けられている。これにより、キーボード4の上部周辺の目標領域が撮像部200により撮像される。したがって、ユーザは、パームレストPaに手を置いた状態で、容易に指でジェスチャを行うことできる。   When light is projected onto the upper portion of the information acquisition unit 2 by the four light sources 110, the light passes through the window portion 11b and is directed toward the upper periphery of the keyboard 4 as shown in FIGS. 4 (b) and 4 (c). Projected. The window part 11b is arrange | positioned in the information input surface Pi of the back | inner side (Y-axis negative side) rather than the keyboard 4, and the information acquisition unit 2 is attached diagonally with respect to the window part 11b. Thereby, the target area around the upper part of the keyboard 4 is imaged by the imaging unit 200. Therefore, the user can easily perform a gesture with a finger while placing his hand on the palm rest Pa.

ジェスチャの種類として、たとえば、図4(b)に示すように、指を立てた状態で左右方向に動かすジェスチャや、図4(c)に示すように、指を立てた状態で円形状に沿って動かすジェスチャが想定される。図4(b)に示すような左右方向に動かすジェスチャを「横振りジェスチャ」、図4(c)に示すような円形状に沿って動かすジェスチャを「回転ジェスチャ」と称する。   As the types of gestures, for example, as shown in FIG. 4 (b), a gesture that moves in the left-right direction with a finger raised, or along a circular shape with a finger raised as shown in FIG. 4 (c). Gesture that moves is assumed. A gesture that moves in the left-right direction as shown in FIG. 4B is called a “lateral gesture”, and a gesture that moves along a circular shape as shown in FIG. 4C is called a “rotation gesture”.

図5(a)〜(d)は、ジェスチャの検出方法を説明する図である。図5(a)は、撮像部200によって撮像される領域(撮像領域)を示す模式図、図5(b)は、撮像部200によって撮像された画像(撮像画像)を示す模式図である、図5(c)は、輝度値が略均一な領域(均一領域)を示す模式図、図5(d)は、物体の動きを検出するための基準点(マーカ)を示す模式図である。なお、図5(b)、(d)の撮像画像では、輝度値が高いほど明るく、輝度値が低いほど暗くなるように示されている。   5A to 5D are diagrams for explaining a gesture detection method. 5A is a schematic diagram illustrating a region (imaging region) captured by the imaging unit 200, and FIG. 5B is a schematic diagram illustrating an image (captured image) captured by the imaging unit 200. FIG. 5C is a schematic diagram showing a region (uniform region) having substantially uniform luminance values, and FIG. 5D is a schematic diagram showing a reference point (marker) for detecting the movement of the object. Note that the captured images in FIGS. 5B and 5D are shown to be brighter as the luminance value is higher and darker as the luminance value is lower.

図5(a)に示すように、ユーザが人差し指を立て、その他の指を折り曲げた状態で撮像領域に手をかざすと、CMOSイメージセンサ240によって、図5(b)に示すような撮像画像が取得される。CMOSイメージセンサ240を介して取得される輝度値は、物体までの距離が長いほど小さくなり、物体までの距離が短いほど大きくなる。したがって、図5(b)に示す撮像画像では、手の領域に相当する輝度値がその他の領域の輝度値よりも高くなっている。   As shown in FIG. 5A, when the user raises his index finger and holds his hand over the imaging area with the other fingers folded, the CMOS image sensor 240 generates a captured image as shown in FIG. To be acquired. The luminance value acquired via the CMOS image sensor 240 decreases as the distance to the object increases, and increases as the distance to the object decreases. Therefore, in the captured image shown in FIG. 5B, the luminance value corresponding to the hand region is higher than the luminance values of the other regions.

このような撮像画像が情報取得ユニット2から情報処理部3に送信され、情報処理部3の物体検出部31aにより物体検出の処理が行われる。   Such a captured image is transmitted from the information acquisition unit 2 to the information processing unit 3, and an object detection process is performed by the object detection unit 31 a of the information processing unit 3.

図5(a)、(b)に示すように、人差し指を立ててジェスチャを行う場合、各指の部分や掌の部分等、CMOSイメージセンサ240までの距離が略等しい領域は、略均一な輝度値となっている。また、ジェスチャ操作の対象となる人差し指は、その他の指や掌の部分よりも縦幅と横幅の比率(アスペクト比)が大きくなる。したがって、輝度値が略均一な領域を抽出し、この領域のアスペクト比を比較することにより操作対象の指を検出することができる。このように、ジェスチャの操作対象となる指を「操作指」と称する。また、抽出した輝度値が略均一な領域を「均一領域」と称する。   As shown in FIGS. 5 (a) and 5 (b), when performing a gesture with an index finger raised, areas such as each finger part and palm part where the distance to the CMOS image sensor 240 is substantially equal are substantially uniform luminance. It is a value. In addition, the index finger that is the target of the gesture operation has a larger ratio of the vertical width to the horizontal width (aspect ratio) than the other fingers and palm portions. Therefore, it is possible to detect the finger to be operated by extracting a region having a substantially uniform luminance value and comparing the aspect ratio of this region. In this way, a finger that is an operation target of a gesture is referred to as an “operation finger”. A region where the extracted luminance values are substantially uniform is referred to as a “uniform region”.

たとえば、図5(c)に示すように、各指の形状に沿った均一領域S1〜S5と掌の部分の形状に沿った均一領域S6が抽出されると、均一領域S1〜S6の縦幅L1〜L6および横幅W1〜W6が算出され、それぞれのアスペクト比が算出される。たとえば、人差し指に対応する均一領域S2の縦幅L2は、横幅W2よりも大幅に大きく、薬指に対応する均一領域S4の縦幅L4は、横幅W4よりもやや大きい。また、掌の部分に対応する均一領域S6の縦幅L6は、横幅W6よりも小さい。その他の指に対応する均一領域S1、S3およびS5のアスペクト比は、均一領域S4と略同じである。このように、人差し指に対応する均一領域S2のアスペクト比は、その他の指に対応する均一領域S1、S3〜S6よりも大幅に大きくなる。したがって、各均一領域のアスペクト比の差が大きく、最もアスペクト比が大きい均一領域を選択することにより、人差し指に対応する均一領域S2が操作指に対応する均一領域であることを検出することができる。   For example, as shown in FIG. 5C, when the uniform areas S1 to S5 along the shape of each finger and the uniform area S6 along the shape of the palm are extracted, the vertical width of the uniform areas S1 to S6 is extracted. L1 to L6 and lateral widths W1 to W6 are calculated, and the respective aspect ratios are calculated. For example, the vertical width L2 of the uniform region S2 corresponding to the index finger is significantly larger than the horizontal width W2, and the vertical width L4 of the uniform region S4 corresponding to the ring finger is slightly larger than the horizontal width W4. Further, the vertical width L6 of the uniform region S6 corresponding to the palm portion is smaller than the horizontal width W6. The aspect ratios of the uniform areas S1, S3 and S5 corresponding to the other fingers are substantially the same as the uniform area S4. As described above, the aspect ratio of the uniform region S2 corresponding to the index finger is significantly larger than those of the uniform regions S1 and S3 to S6 corresponding to the other fingers. Therefore, it is possible to detect that the uniform region S2 corresponding to the index finger is a uniform region corresponding to the operating finger by selecting the uniform region having the largest aspect ratio difference between the uniform regions and the largest aspect ratio. .

こうして、操作指に対応する均一領域が抽出されると、操作指の先端にジェスチャ検出の基準となる点が設定される。ジェスチャ検出の基準となる点を「マーカー」と称する。たとえば、図5(d)に示すように、操作指として抽出された均一領域S2の最も上方に位置する座標の画素にマーカーMが設定される。   When the uniform region corresponding to the operating finger is extracted in this way, a point serving as a reference for gesture detection is set at the tip of the operating finger. A point serving as a reference for gesture detection is referred to as a “marker”. For example, as shown in FIG. 5D, the marker M is set at the pixel of the coordinate located at the uppermost position of the uniform region S2 extracted as the operation finger.

同様に、所定の時間おきに取得される撮像画像に対して、操作指の抽出およびマーカーMの設定が行われる。マーカーMの座標位置の経時的な変化を取得することにより、物体の動き(ジェスチャ)を検出することができる。   Similarly, the extraction of the operating finger and the setting of the marker M are performed on the captured images acquired every predetermined time. By acquiring the change over time of the coordinate position of the marker M, the movement (gesture) of the object can be detected.

図6は、ジェスチャ検出の処理を示すフローチャートである。図6の処理は、図2に示すCPU31の機能のうち、物体検出部31aの機能によって実行される。   FIG. 6 is a flowchart showing a gesture detection process. 6 is executed by the function of the object detection unit 31a among the functions of the CPU 31 shown in FIG.

情報取得ユニット2により目標領域が撮像され、撮像画像が情報処理部3に取得されると(S101:YES)、CPU31は、撮像画像における各画素の輝度値を参照し、輝度値の差が所定の範囲ΔB内である均一領域Siを抽出する(S102)。CPU31は、抽出した均一領域Siの縦幅Liを横幅Wiで除算し、アスペクト比Aiを算出する(S103)。そして、CPU31は、アスペクト比Aiの差が所定の閾値Sh以上となる均一領域Siの組み合わせが存在するか否かを判定する(S104)。   When the target area is imaged by the information acquisition unit 2 and the captured image is acquired by the information processing unit 3 (S101: YES), the CPU 31 refers to the luminance value of each pixel in the captured image, and the difference in luminance value is predetermined. The uniform region Si within the range ΔB is extracted (S102). The CPU 31 calculates the aspect ratio Ai by dividing the extracted vertical width Li of the uniform region Si by the horizontal width Wi (S103). Then, the CPU 31 determines whether there is a combination of uniform regions Si in which the difference in aspect ratio Ai is equal to or greater than a predetermined threshold Sh (S104).

アスペクト比Aiの差が所定の閾値Sh以上となる均一領域Siの組み合わせがない場合(S104:NO)、CPU31は、処理をS101に戻し、次の撮像画像が取得されるのを待つ。アスペクト比Aiの差が所定の閾値Sh以上となる均一領域Siの組み合わせがある場合(S104:YES)、CPU31は、アスペクト比Aiが最も大きい均一領域Siの先端の座標位置をマーカーMに設定し、マーカーMの座標位置をメモリ33に記憶する(S105)。そして、CPU31は、メモリ33に記憶されたマーカーMの座標位置の変位を算出する(S106)。   If there is no combination of uniform areas Si in which the difference in aspect ratio Ai is equal to or greater than the predetermined threshold Sh (S104: NO), the CPU 31 returns the process to S101 and waits for the next captured image to be acquired. When there is a combination of uniform areas Si in which the difference in the aspect ratio Ai is equal to or greater than the predetermined threshold Sh (S104: YES), the CPU 31 sets the coordinate position of the tip of the uniform area Si with the largest aspect ratio Ai as the marker M. The coordinate position of the marker M is stored in the memory 33 (S105). Then, the CPU 31 calculates the displacement of the coordinate position of the marker M stored in the memory 33 (S106).

CPU31は、算出したマーカーMの座標位置の変位が所定の動きパターン(ジェスチャ)に合致するか否かを判定する(S107)。所定の動きパターンに合致しない場合(S107:NO)、CPU31は、処理をS110に進める。所定の動きパターンに合致する場合(S107:YES)、CPU31は、機能制御信号を出力する(S108)。CPU31の機能制御部31bは、機能制御信号を受信すると、信号に応じたパーソナルコンピュータ1の機能(画面の拡大・縮小や、画面の明るさ調整、ページ送り、等)を実行する。   The CPU 31 determines whether or not the calculated displacement of the coordinate position of the marker M matches a predetermined movement pattern (gesture) (S107). If the predetermined motion pattern is not met (S107: NO), the CPU 31 advances the process to S110. When matching with the predetermined movement pattern (S107: YES), the CPU 31 outputs a function control signal (S108). When receiving the function control signal, the function control unit 31b of the CPU 31 executes the functions of the personal computer 1 (screen enlargement / reduction, screen brightness adjustment, page feed, etc.) according to the signal.

ジェスチャに応じた機能を実行すると、CPU31は、メモリ33に記憶されたマーカーMの座標位置をリセットする(S109)。そして、CPU31は、物体検出が終了したか否かを判定する(S110)。物体検出動作が終了していない場合(S110:NO)、CPU31は、処理をS101に戻し、次の撮像画像が取得されるのを待つ。そして、次の撮像画像が取得されると(S101:YES)、CPU31は、S102以降の処理を実行し、当該撮像画像からマーカーMの設定処理および動き検出処理を実行する(S102〜S110)。物体検出処理が終了すると(S110:YES)、CPU31は、処理を完了する。   When the function corresponding to the gesture is executed, the CPU 31 resets the coordinate position of the marker M stored in the memory 33 (S109). Then, the CPU 31 determines whether or not the object detection is finished (S110). When the object detection operation has not ended (S110: NO), the CPU 31 returns the process to S101 and waits for the next captured image to be acquired. Then, when the next captured image is acquired (S101: YES), the CPU 31 executes processing subsequent to S102, and executes setting processing and motion detection processing of the marker M from the captured image (S102 to S110). When the object detection process ends (S110: YES), the CPU 31 completes the process.

図7(a)〜(d)は、撮像方向に応じた手の見え方とジェスチャの見え方を説明する図である。図7(a)は、手を撮像部200によって撮像する方向を示す模式図である。図7(b)は、前方向V2から手を撮像した場合の撮像領域を示す模式図である。図7(c)は、下方向V3から手を撮像した場合の撮像領域を示す模式図である。図7(d)は、斜め方向V1から手を撮像した場合の撮像領域を示す模式図である。   FIGS. 7A to 7D are diagrams illustrating how the hand and the gesture appear according to the imaging direction. FIG. 7A is a schematic diagram illustrating a direction in which the hand is imaged by the imaging unit 200. FIG. 7B is a schematic diagram illustrating an imaging region when a hand is imaged from the front direction V2. FIG. 7C is a schematic diagram illustrating an imaging region when a hand is imaged from the downward direction V3. FIG. 7D is a schematic diagram illustrating an imaging region when a hand is imaged from the oblique direction V1.

図7(b)に示すように、前方向V2から手が撮像された場合、操作指となる人差し指の縦幅Liが小さくなり、他の指のアスペクト比との差が小さくなるため、適正に操作指を検出することができない惧れがある。   As shown in FIG. 7B, when the hand is imaged from the front direction V2, the vertical width Li of the index finger serving as the operation finger is reduced, and the difference from the aspect ratio of the other fingers is reduced. There is a possibility that the operating finger cannot be detected.

また、図7(c)に示すように、下方向V3から手が撮像された場合、回転ジェスチャにもかかわらず、撮像部200からは主に左右方向のマーカーMの変位しか取得できず、横振りジェスチャであると誤検出される惧れがある。   Further, as shown in FIG. 7C, when the hand is imaged from the lower direction V3, only the displacement of the marker M in the left-right direction can be mainly acquired from the imaging unit 200 in spite of the rotation gesture. There is a risk of false detection as a swing gesture.

これに対し、図7(d)に示すように、斜め方向V1から手が撮像された場合、人差し指のアスペクト比と他の指のアスペクト比との差が大きく、適正に操作指を検出することができ、且つ、撮像部200から上下左右方向のマーカーMの変位を取得することができ、適切に回転ジェスチャであることを検出することができる。   On the other hand, as shown in FIG. 7D, when the hand is imaged from the oblique direction V1, the difference between the aspect ratio of the index finger and the aspect ratio of the other finger is large, and the operating finger is detected appropriately. In addition, the displacement of the marker M in the vertical and horizontal directions can be acquired from the imaging unit 200, and it can be appropriately detected that the gesture is a rotation gesture.

本実施の形態では、情報取得ユニット2がパーソナルコンピュータ1の本体部11に対して傾けられて組付けられているため、ユーザは、キーボード4を操作しつつ、容易にジェスチャ動作を行うことができる。また、手を斜め方向から撮像することができるため、ユーザは、適正に操作指を検出することができ、且つ、容易に回転ジェスチャと横振りジェスチャを区別可能な角度に手を位置付けることができる。   In the present embodiment, since the information acquisition unit 2 is tilted and assembled with respect to the main body 11 of the personal computer 1, the user can easily perform a gesture operation while operating the keyboard 4. . In addition, since the hand can be imaged from an oblique direction, the user can appropriately detect the operation finger and can easily position the hand at an angle at which the rotation gesture and the swing gesture can be distinguished. .

このように、ジェスチャを適正に検出するためには、少なくとも、操作指が適正に検出される必要がある。さらに、多数のジェスチャに対応するためは、回転ジェスチャと横振りジェスチャが区別可能であることが望ましい。   Thus, in order to detect a gesture appropriately, at least the operating finger needs to be detected properly. Furthermore, in order to deal with a large number of gestures, it is desirable that the rotation gesture and the sideways gesture can be distinguished.

<操作指検出のための条件>
適正に操作指が検出可能な撮像部200の傾斜角度の条件について説明する。
<Conditions for operating finger detection>
The conditions of the tilt angle of the imaging unit 200 that can be detected appropriately by the operating finger will be described.

図8(a)は、手の操作指と誤認識し易い領域Eを定義するための模式図である。図8(b)は、操作指を検出するためのアスペクト比Aを定義するための模式図である。図8(c)は、誤認識し易い領域を検出するためのアスペクト比Aを定義するための模式図である。なお、図4(a)に示すように、Z軸は、本体部11の情報入力面Piに垂直な方向に対応し、Y軸は、情報入力面Piに平行で、且つ、窓部11bから本体部11の前側に向かう方向(本体部11の短辺に平行な方向)に対応する。X軸は、Z軸およびY軸の両方に垂直な方向(本体部11の長辺に平行な方向)に対応する。 FIG. 8A is a schematic diagram for defining a region E that is easily misrecognized as an operation finger of a hand. FIG. 8B is a schematic diagram for defining an aspect ratio AF for detecting the operating finger. 8 (c) is a schematic view for defining the aspect ratio A P for detecting prone area erroneously recognized. As shown in FIG. 4A, the Z-axis corresponds to a direction perpendicular to the information input surface Pi of the main body 11, the Y-axis is parallel to the information input surface Pi, and from the window 11b. This corresponds to the direction toward the front side of the main body 11 (direction parallel to the short side of the main body 11). The X axis corresponds to a direction perpendicular to both the Z axis and the Y axis (a direction parallel to the long side of the main body portion 11).

上述のように、操作指を検出するためには、輝度が略均一な領域のアスペクト比が用いられる。したがって、まず、操作指のアスペクト比Aと、操作指と誤検出し易い領域Eのアスペクト比Aを定義する。なお、操作指の縦方向は、Y−Z平面方向に対応し、横方向は、X−Y平面方向に対応する。 As described above, in order to detect the operating finger, the aspect ratio of a region with substantially uniform luminance is used. Therefore, first, definition and aspect ratio A F of the operation fingers, the aspect ratio A P detected easily region E erroneously operated finger. Note that the vertical direction of the operating finger corresponds to the YZ plane direction, and the horizontal direction corresponds to the XY plane direction.

図8(a)に示すように、操作指の縦の撮像画角をΦFL、横の撮像画角をΦFWとすると、操作指のアスペクト比Aは、以下の式(1)によって表わされる。 As shown in FIG. 8A, when the vertical imaging field angle of the operating finger is Φ FL and the horizontal imaging field angle is Φ FW , the aspect ratio A F of the operating finger is expressed by the following equation (1). It is.

Figure 2015152448
Figure 2015152448

アスペクト比Aと誤認識し易い部位として、中指または薬指の第1関節と第2関節の間の部分が想定される。これは、この部位が横幅に比べて縦幅が大きくなり易いためである。 As a part that is easily misrecognized as the aspect ratio AF , a portion between the first joint and the second joint of the middle finger or the ring finger is assumed. This is because the vertical width of this part tends to be larger than the horizontal width.

誤認識し易い領域Eの縦の撮像画角をΦPL、横の撮像画角をΦPWとすると、誤認識し易い領域Eのアスペクト比Aは、以下の式(2)によって表わされる。 The vertical imaging angle of misrecognition easily region E [Phi PL, the next imaging angle of the [Phi PW, the aspect ratio A P misrecognition easily region E, represented by the following equation (2).

Figure 2015152448
Figure 2015152448

すなわち、操作指を誤認識し易い領域Eと区別するためには、以下の式(3)が成り立つ必要がある。   That is, in order to distinguish the operation finger from the region E that is easily misrecognized, the following formula (3) needs to be satisfied.

Figure 2015152448
Figure 2015152448

少なくとも、操作指のアスペクト比Aが、誤認識し易い領域Eのアスペクト比Aよりも大きければ、操作指を他の部位と区別することができ、適正に操作指を検出することができるといえる。 At least, the aspect ratio A F of the operation finger is greater than the aspect ratio A P misrecognition easily region E, it is possible to distinguish the operation fingers with the other sites, it is possible to detect the proper operation finger It can be said.

ここで、操作指のアスペクト比Aを撮像部200と手の位置関係および手の構造に基づいて整理する。 Here, the aspect ratio AF of the operating finger is organized based on the positional relationship and the hand structure of the imaging unit 200 and the hand.

図8(b)に示すように、撮像部200の受光光軸Oが操作指の先端を通る直線と、X−Y平面がなす角度をθとすると、操作指の縦の撮像画角ΦFLは、以下の式(4)によって表わされる。 As shown in FIG. 8B, when the angle formed by the straight line passing through the tip of the operating finger and the XY plane of the light receiving optical axis O of the imaging unit 200 is θ, the vertical imaging field angle Φ FL of the operating finger. Is represented by the following equation (4).

Figure 2015152448
Figure 2015152448

なお、ΦF0は、撮像部200の撮像点と操作指の付け根部分を結ぶ線分と、X−Y平面との間のなす角である。θは、撮像部200の傾斜角度に相当する。 Note that Φ F0 is an angle formed between a line segment connecting the imaging point of the imaging unit 200 and the base part of the operating finger and the XY plane. θ corresponds to the inclination angle of the imaging unit 200.

撮像部200からZ軸方向の操作指までのZ軸方向の高さをH、撮像部200から操作指の先端までのY軸方向の距離をD、操作指のY軸方向の長さをFLとすると、撮像部200の撮像点と操作指の付け根部分を結ぶ線分と、X−Y平面との間のなす角ΦF0は、以下の式(5)によって表わされる。 The height in the Z-axis direction from the imaging unit 200 to the operating finger in the Z-axis direction is H, the distance in the Y-axis direction from the imaging unit 200 to the tip of the operating finger is D, and the length in the Y-axis direction of the operating finger is FL Then, the angle Φ F0 formed between the line segment connecting the imaging point of the imaging unit 200 and the base part of the operating finger and the XY plane is expressed by the following equation (5).

Figure 2015152448
Figure 2015152448

したがって、式(4)、(5)について整理すると、操作指の縦の撮像画角ΦFLは、以下の式(6)によって表わされる。 Therefore, when arranging the equations (4) and (5), the vertical imaging angle of view Φ FL of the operating finger is expressed by the following equation (6).

Figure 2015152448
Figure 2015152448

さらに、操作指の先端までのZ軸方向の高さHは、以下の式(7)によって表わされる。   Further, the height H in the Z-axis direction to the tip of the operating finger is expressed by the following equation (7).

Figure 2015152448
Figure 2015152448

操作指の縦の撮像画角ΦFLと直交する操作指の横の撮像画角ΦFWは、指のX軸方向の幅をFWとすると、以下の式(8)に変換することができる。 The horizontal imaging field angle Φ FW of the operating finger perpendicular to the vertical imaging field angle Φ FL of the operating finger can be converted into the following equation (8), where the width in the X-axis direction of the finger is FW.

Figure 2015152448
Figure 2015152448

このように、上記式(1)、(6)〜(8)により、操作指のアスペクト比Aは、撮像部200の傾斜角度θと、操作指のY軸方向の長さFLと、操作指のX軸方向の幅FWと、撮像部200から操作指の先端までのY軸方向の距離Dまたは撮像部200から操作指の先端までのZ軸方向の高さHの関係式によって表わすことができる。 As described above, according to the above formulas (1) and (6) to (8), the aspect ratio AF of the operating finger is determined by the inclination angle θ of the imaging unit 200, the length FL of the operating finger in the Y-axis direction, and the operation. Expressed by a relational expression of the width FW of the finger in the X-axis direction, the distance D in the Y-axis direction from the imaging unit 200 to the tip of the operating finger, or the height H in the Z-axis direction from the imaging unit 200 to the tip of the operating finger Can do.

次に、誤認識し易い領域Eのアスペクト比Aを撮像部200と手の位置関係および手の構造に基づいて整理する。 Next, organized by the aspect ratio A P misrecognition easily region E to the structure of the positional relationship and the hand of the hand and the imaging section 200.

図8(a)に示すように、誤認識し易い領域Eの先端は、およそ、操作指の第2関節の位置よりも下側に位置付けられる。すなわち、誤認識し易い領域Eと操作指の先端までのY軸方向の距離ELは、およそ、操作指の先端から操作指の先端から第2関節までの長さに相当する。   As shown in FIG. 8A, the tip of the region E that is easily misrecognized is positioned below the position of the second joint of the operating finger. That is, the distance EL in the Y-axis direction from the region E that is easily misrecognized to the tip of the operation finger corresponds to the length from the tip of the operation finger to the second joint.

図8(c)に示すように、撮像部200から操作指の先端までのZ軸方向の高さをH、撮像部200から操作指の先端までのY軸方向の距離をD、操作指の先端から操作指の第2関節までの長さEL、誤認識し易い領域Eの第1関節から第2関節までの長さをPLとすると、誤認識し易い領域Eの撮像画角ΦPLは、以下の式(9)によって表わされる。 As shown in FIG. 8C, the height in the Z-axis direction from the imaging unit 200 to the tip of the operating finger is H, the distance in the Y-axis direction from the imaging unit 200 to the tip of the operating finger is D, and the height of the operating finger If the length EL from the tip to the second joint of the operating finger and the length from the first joint to the second joint of the region E that is easily misrecognized are PL, the imaging field angle Φ PL of the region E that is easily misrecognized is Is represented by the following equation (9).

Figure 2015152448
Figure 2015152448

さらに、操作指までの高さHは、上記同様、式(10)によって表わされる。   Further, the height H to the operation finger is expressed by the equation (10) as described above.

Figure 2015152448
Figure 2015152448

誤認識し易い領域Eの縦の撮像画角ΦPLと直交する誤認識し易い領域Eの横の撮像画角ΦPWは、誤認識し易い領域EのX軸方向の幅をPWとすると、以下の式(11)に変換することができる。 The horizontal imaging angle of view Φ PW of the region E that is easy to misrecognize that is orthogonal to the vertical imaging angle of view Φ PL of the region E that is easily misrecognized is PW as the width in the X-axis direction of the region E that is easily misrecognized It can convert into the following formula | equation (11).

Figure 2015152448
Figure 2015152448

このように、上記式(2)、(9)〜(11)により、誤認識し易い領域Eのアスペクト比Aは、撮像部200の傾斜角度θと、操作指の先端から操作指の第2関節までの長さELと、誤認識し易い領域Eの第1関節から第2関節までの長さPLと、誤認識し易い領域Eの幅PWと、撮像部200から操作指の先端までのY軸方向の距離Dまたは撮像部200から操作指の先端までのZ軸方向の高さHの関係式によって表わすことができる。 Thus, the equation (2), (9) - (11), the aspect ratio A P misrecognition easily region E, the inclination angle θ of the imaging unit 200, first from the tip of the operation finger of the operator finger Length EL up to two joints, length PL from the first joint to the second joint of the region E easily misrecognized, width PW of the region E easily misrecognized, and from the imaging unit 200 to the tip of the operating finger The distance D in the Y-axis direction or the height H in the Z-axis direction from the imaging unit 200 to the tip of the operating finger can be expressed by a relational expression.

すなわち、上記式(1)〜(11)により、以下の6つのパラメータを適宜決定することにより、適切に操作指を検出するための撮像部200の傾斜角度θを求めることができる。   That is, the inclination angle θ of the imaging unit 200 for appropriately detecting the operating finger can be obtained by appropriately determining the following six parameters using the above formulas (1) to (11).

(1)操作指の長さFL
(2)操作指の幅FW
(3)撮像部200から操作指の先端までのY軸方向の距離Dまたは撮像部200から操作指の先端までのZ軸方向の高さH
(4)操作指の先端から操作指の第2関節までの長さEL
(5)誤認識し易い領域Eの第1関節から第2関節までの長さPL
(6)誤認識し易い領域Eの幅PW
このように、撮像部200と手の位置関係と指の構造に基づき、式(1)〜(11)を用いることにより、適切に操作指を検出するための撮像部200の傾斜角度θを求めることができる。
(1) Operating finger length FL
(2) FW width FW
(3) A distance D in the Y-axis direction from the imaging unit 200 to the tip of the operating finger or a height H in the Z-axis direction from the imaging unit 200 to the tip of the operating finger
(4) Length EL from the tip of the operation finger to the second joint of the operation finger
(5) Length PL from the first joint to the second joint of region E that is easily misrecognized
(6) Width PW of region E that is easily misrecognized
Thus, based on the positional relationship between the imaging unit 200, the hand, and the finger structure, the inclination angle θ of the imaging unit 200 for appropriately detecting the operating finger is obtained by using the equations (1) to (11). be able to.

ここで、一般的に、指の先端から指の第2関節までの長さは、指全体の長さの2/3程度である。したがって、操作指の先端から操作指の第2関節までの長さELは、以下の式(12)に近似することができる。   Here, generally, the length from the tip of the finger to the second joint of the finger is about 2/3 of the entire length of the finger. Therefore, the length EL from the tip of the operating finger to the second joint of the operating finger can be approximated by the following equation (12).

Figure 2015152448
Figure 2015152448

また、一般的に、指の第1関節から第2関節までの長さは、指全体の長さの1/3程度である。したがって、誤認識し易い領域Eの第1関節から第2関節までの長さPLは、以下の式(13)に近似することができる。   In general, the length from the first joint to the second joint of the finger is about 1/3 of the entire length of the finger. Therefore, the length PL from the first joint to the second joint of the region E that is easily misrecognized can be approximated by the following equation (13).

Figure 2015152448
Figure 2015152448

さらに、一般的に、人差し指と中指および薬指の幅は略同じである。したがって、誤認識し易い領域Eの幅PWは、以下の式(14)に近似することができる。   Further, in general, the widths of the index finger, the middle finger, and the ring finger are substantially the same. Therefore, the width PW of the region E that is easily misrecognized can be approximated by the following equation (14).

Figure 2015152448
Figure 2015152448

よって、式(12)〜(14)を考慮すると、適切に操作指を検出するための撮像部200の傾斜角度θを求めるためには、以下の3つのパラメータを決定すれば良い。   Therefore, in consideration of the equations (12) to (14), the following three parameters may be determined in order to obtain the inclination angle θ of the imaging unit 200 for appropriately detecting the operating finger.

(1)操作指の長さFL
(2)操作指の幅FW
(3)撮像部200から操作指の先端までのY軸方向の距離Dまたは撮像部200から操作指の先端までのZ軸方向の高さH
このように、指の構造に基づき、式(12)〜(14)を用いて、操作指と誤認識し易い領域Eの関係を近似することにより、適切に操作指を検出するための撮像部200の傾斜角度θを求めるためのパラメータを減らすことができる。これにより、容易に適正な撮像部200の傾斜角度θを求めることができる。
(1) Operating finger length FL
(2) FW width FW
(3) A distance D in the Y-axis direction from the imaging unit 200 to the tip of the operating finger or a height H in the Z-axis direction from the imaging unit 200 to the tip of the operating finger
Thus, based on the finger structure, the imaging unit for appropriately detecting the operating finger by approximating the relationship between the operating finger and the region E that is easily misrecognized using the equations (12) to (14). It is possible to reduce parameters for obtaining the inclination angle θ of 200. Thereby, the appropriate inclination angle θ of the imaging unit 200 can be easily obtained.

本願の発明者らは、操作指の長さFL=9cm、操作指の幅FW=2cmと仮定し、撮像部200から操作指の先端までのY軸方向の距離Dを3cm、5cm、10cmの場合の、アスペクト比A、Aと撮像部200の傾斜角度θを計算した。 The inventors of the present application assume that the length of the operation finger is FL = 9 cm and the width of the operation finger is FW = 2 cm, and the distance D in the Y-axis direction from the imaging unit 200 to the tip of the operation finger is 3 cm, 5 cm, and 10 cm. In this case, the aspect ratios A F and AP and the inclination angle θ of the imaging unit 200 were calculated.

図9は、所定条件における操作指のアスペクト比Aと誤認識し易い領域Eのアスペクト比Aと撮像部200の傾斜角度θの計算結果例を示すグラフである。図9において、横軸は、撮像部200の傾斜角度θであり、縦軸は、アスペクト比AまたはAである。 Figure 9 is a graph showing a calculation result example of the tilt angle θ of the aspect ratio A P and the imaging unit 200 of the prone region E is erroneously recognized as the aspect ratio A F of the operation the finger in a predetermined condition. 9, the horizontal axis is the inclination angle θ of the image pickup unit 200, the vertical axis represents the aspect ratio A F or A P.

図9を参照して、誤認識し易い領域Eのアスペクト比Aは、撮像部200の傾斜角度θ、および撮像部200から操作指の先端までのY軸方向の距離Dのパラメータが変化しても、略1.5である。このように、アスペクト比Aは、撮像部200の傾斜角度θ、および撮像部200から操作指の先端までのY軸方向の距離Dに関らず、略一定であることが判る。 Referring to FIG. 9, erroneous aspect ratio A P recognized easily region E is the inclination angle θ of the imaging unit 200, and the parameter is changed in the Y-axis direction of the distance D from the imaging unit 200 to the distal end of the operating finger However, it is approximately 1.5. Thus, the aspect ratio A P is the inclination angle θ of the imaging unit 200, and regardless of the distance D in the Y-axis direction from the imaging unit 200 to the distal end of the operating finger, it can be seen that a substantially constant.

操作指のアスペクト比Aは、撮像部200の傾斜角度θが大きくなるにしたがって、大きくなっている。これは、撮像部200から操作指の先端までのY軸方向の距離Dが大きくなっても、略同様の傾向を示している。また、操作指のアスペクト比Aは、撮像部200から操作指の先端までのY軸方向の距離Dが大きくなるにしたがって、大きくなっている。 The aspect ratio AF of the operating finger increases as the tilt angle θ of the imaging unit 200 increases. This shows a similar tendency even when the distance D in the Y-axis direction from the imaging unit 200 to the tip of the operating finger increases. In addition, the aspect ratio AF of the operating finger increases as the distance D in the Y-axis direction from the imaging unit 200 to the tip of the operating finger increases.

したがって、最も厳しい条件であるD=3cmのときに、上記式(3)を満たす撮像部200の傾斜角度θの条件は、以下の式(15)となる。   Therefore, when D = 3 cm, which is the strictest condition, the condition of the inclination angle θ of the imaging unit 200 that satisfies the above formula (3) is the following formula (15).

θ>30° ・・・(15)   θ> 30 ° (15)

上記式(15)のように、撮像部200の傾斜角度θを30°よりも大きくすることで、操作指のアスペクト比Aが、誤認識し易い領域Eのアスペクト比Aよりも大きくなり、誤検出なく適正に操作指を検出することができる。 As in the above formula (15) is made larger than 30 ° angle of inclination θ of the imaging unit 200, the aspect ratio A F of the operation finger becomes larger than the aspect ratio A P misrecognition easily region E Therefore, it is possible to detect the operation finger properly without erroneous detection.

なお、撮像部200から操作指の先端までのY軸方向の距離Dが3cmよりも短く設定される可能性は極めて低い。また、操作指の長さFL、操作指の幅FWは、通常、個人差による大きな数値の変動はないため、上記式(15)のように、撮像部200の傾斜角度θを30°よりも大きくすることにより、大半の状況において、誤検出なく適正に操作指を検出することができる。   Note that the possibility that the distance D in the Y-axis direction from the imaging unit 200 to the tip of the operating finger is set to be shorter than 3 cm is extremely low. Further, the length FL of the operation finger and the width FW of the operation finger usually do not vary greatly due to individual differences, and therefore, the inclination angle θ of the imaging unit 200 is set to be greater than 30 ° as in the above equation (15). By increasing the size, it is possible to properly detect the operation finger without erroneous detection in most situations.

図9に示すように、操作指の誤検出防止という観点では、撮像部200の傾斜角度θは、大きければ大きいほど望ましい。しかしながら、図7に示したように、操作指が下方向V3から撮像されると、回転ジェスチャと横振りジェスチャを区別することができない。   As shown in FIG. 9, from the viewpoint of preventing erroneous detection of the operating finger, it is desirable that the inclination angle θ of the imaging unit 200 is larger. However, as shown in FIG. 7, when the operation finger is imaged from the lower direction V <b> 3, it is not possible to distinguish between the rotation gesture and the sideways gesture.

<回転ジェスチャと横振りジェスチャを区別するための条件>
回転ジェスチャと横振りジェスチャを区別することが可能な撮像部200の傾斜角度θの条件について説明する。
<Conditions for distinguishing rotation gestures from side-to-side gestures>
A condition of the tilt angle θ of the imaging unit 200 that can distinguish between the rotation gesture and the sideways gesture will be described.

図10(a)は、回転ジェスチャと手の位置関係を定義するための模式図である。図10(b)は、横振りジェスチャと手の位置関係を定義するための模式図である。   FIG. 10A is a schematic diagram for defining the positional relationship between the rotation gesture and the hand. FIG. 10B is a schematic diagram for defining the positional relationship between the sideways gesture and the hand.

図10(a)に示すように、手を斜め下から見ると、回転ジェスチャの軌跡は、楕円形状に見える。また、図10(b)に示すように、手を斜め下から見ると、横振りジェスチャの軌跡は、円弧形状に見える。すなわち、回転ジェスチャのほうが、横振りジェスチャよりも縦方向の変位が大きい。したがって、それぞれのアスペクト比に差をつけることにより、回転ジェスチャと横振りジェスチャを区別することができる。   As shown in FIG. 10A, when the hand is viewed obliquely from below, the locus of the rotation gesture looks like an ellipse. Also, as shown in FIG. 10B, when the hand is viewed obliquely from below, the trajectory of the sideways gesture looks like an arc shape. That is, the rotation gesture has a larger displacement in the vertical direction than the sideways gesture. Therefore, by making a difference between the aspect ratios, it is possible to distinguish the rotation gesture and the swing gesture.

たとえば、図10(a)に示すように、回転ジェスチャの縦の撮像画角をΦSV、横の撮像画角をΦSHとすると、回転ジェスチャのアスペクト比Aは、以下の式(16)によって表わされる。 For example, as shown in FIG. 10 (a), the vertical imaging angle of the rotation gesture [Phi SV, when the lateral imaging angle of the [Phi SH, the aspect ratio A S of the rotation gesture, the following equation (16) Is represented by

Figure 2015152448
Figure 2015152448

また、図10(b)に示すように、横振りジェスチャの縦の撮像画角をΦLV、横の撮像画角をΦLHとすると、横振りジェスチャのアスペクト比Aは、以下の式(17)によって表わされる。 Further, as shown in FIG. 10B, when the vertical imaging angle of view of the horizontal gesture is Φ LV and the horizontal imaging angle of view is Φ LH , the aspect ratio A L of the horizontal gesture is expressed by the following formula ( 17).

Figure 2015152448
Figure 2015152448

すなわち、回転ジェスチャと横振りジェスチャを区別するためには、以下の式(18)が成り立つ必要がある。   That is, in order to distinguish between the rotation gesture and the sideways gesture, the following formula (18) needs to be satisfied.

Figure 2015152448
Figure 2015152448

少なくとも、回転ジェスチャのアスペクト比Aが、横振りジェスチャのアスペクト比Aよりも小さければ、適正に回転ジェスチャと横振りジェスチャを区別することができるといえる。 At least, if the aspect ratio A S of the rotation gesture is smaller than the aspect ratio A L of the horizontal gesture, it can be said that the rotation gesture and the horizontal gesture can be properly distinguished.

ここで、回転ジェスチャのアスペクト比Aを撮像部200と手の位置関係および手の構造に基づいて整理する。 Here, organized on the basis of the aspect ratio A S of the rotation gesture in the structure of the positional relationship and the hand of the hand and the imaging section 200.

図11(a)は、回転ジェスチャのアスペクト比Aを定義するための模式図である。図11(b)は、横振りジェスチャのアスペクト比Aを定義するための模式図である。なお、図4(a)に示すように、Z軸は、本体部11の情報入力面Piに垂直な方向に対応し、Y軸は、情報入力面Piに平行で、且つ、窓部11bから本体部11の前側に向かう方向(本体部11の短辺に平行な方向)に対応する。X軸は、Z軸およびY軸の両方に垂直な方向(本体部11の長辺に平行な方向)に対応する。また、図10(a)、(b)に示す回転ジェスチャ、横振りジェスチャの縦方向は、Y−Z平面方向に対応し、回転ジェスチャ、横振りジェスチャの横方向は、X−Y平面方向に対応する。 11 (a) is a schematic view for defining the aspect ratio A S of the rotation gesture. 11 (b) is a schematic view for defining the aspect ratio A L of the oscillating gesture. As shown in FIG. 4A, the Z-axis corresponds to a direction perpendicular to the information input surface Pi of the main body 11, the Y-axis is parallel to the information input surface Pi, and from the window 11b. This corresponds to the direction toward the front side of the main body 11 (direction parallel to the short side of the main body 11). The X axis corresponds to a direction perpendicular to both the Z axis and the Y axis (a direction parallel to the long side of the main body portion 11). In addition, the vertical direction of the rotation gesture and the horizontal swing gesture shown in FIGS. 10A and 10B corresponds to the YZ plane direction, and the horizontal direction of the rotary gesture and the horizontal swing gesture is the XY plane direction. Correspond.

図11(a)に示すように、回転ジェスチャの縦の撮像画角ΦSVは、以下の式(19)によって表わされる。 As shown in FIG. 11A, the vertical imaging field angle Φ SV of the rotation gesture is represented by the following equation (19).

Figure 2015152448
Figure 2015152448

なお、ΦSV1は、回転ジェスチャ時に操作指の先端部が最下点となる位置と撮像部200の撮像点とを結ぶ線分と、X−Y平面との間のなす角、ΦSV2は、回転ジェスチャ時に操作指の先端部が最上点となる位置と撮像部200の撮像点とを結ぶ線分と、X−Y平面との間のなす角である。 Note that Φ SV1 is an angle formed between a line segment connecting a position where the tip of the operating finger is the lowest point and the imaging point of the imaging unit 200 during the rotation gesture and the XY plane, and Φ SV2 is This is an angle formed between the line segment connecting the position where the tip of the operation finger is the highest point and the imaging point of the imaging unit 200 during the rotation gesture and the XY plane.

さらに、操作指のZ軸方向の高さHは、上記同様、式(20)によって表わされる。   Further, the height H of the operating finger in the Z-axis direction is expressed by the equation (20) as described above.

Figure 2015152448
Figure 2015152448

撮像部200から操作指の先端までのZ軸方向の高さをH、回転ジェスチャの半径をR、撮像部200から操作指の先端までのY軸方向の距離をDとすると、回転ジェスチャの下端までの撮像画角ΦSV1は、以下の式(21)によって表わされる。 If the height in the Z-axis direction from the imaging unit 200 to the tip of the operating finger is H, the radius of the rotation gesture is R, and the distance in the Y-axis direction from the imaging unit 200 to the tip of the operating finger is D, the lower end of the rotation gesture The imaging angle of view Φ SV1 up to is expressed by the following equation (21).

Figure 2015152448
Figure 2015152448

また、撮像部200から操作指の先端までのZ軸方向の高さをH、回転ジェスチャの半径をR、撮像部200から操作指の先端までのY軸方向の距離をDとすると、回転ジェスチャ時に操作指の先端部が最上点となる位置と撮像部200の撮像点とを結ぶ線分と、X−Y平面との間のなす角ΦSV2は、以下の式(22)によって表わされる。 Further, assuming that the height in the Z-axis direction from the imaging unit 200 to the tip of the operating finger is H, the radius of the rotation gesture is R, and the distance in the Y-axis direction from the imaging unit 200 to the tip of the operating finger is D, the rotation gesture. The angle Φ SV2 formed between the line segment connecting the position where the tip of the operating finger is the highest point and the imaging point of the imaging unit 200 and the XY plane is expressed by the following equation (22).

Figure 2015152448
Figure 2015152448

さらに、撮像部200から操作指の先端までの直線距離OLは、三平方の定理から以下の式(23)によって表わされる。   Furthermore, the linear distance OL from the imaging unit 200 to the tip of the operating finger is represented by the following equation (23) from the three-square theorem.

Figure 2015152448
Figure 2015152448

回転ジェスチャの縦の撮像画角ΦSVと直交する回転ジェスチャの横の撮像画角ΦSHは、以下の式(24)に変換することができる。 The horizontal imaging field angle Φ SH of the rotation gesture orthogonal to the vertical imaging field angle Φ SV of the rotation gesture can be converted into the following equation (24).

Figure 2015152448
Figure 2015152448

このように、上記式(16)、(19)〜(24)により、回転ジェスチャのアスペクト比Aは、撮像部200の傾斜角度θと、回転ジェスチャの半径Rと、撮像部200から操作指の先端までのY軸方向の距離DまたはZ軸方向の高さHの関係式によって表わすことができる。 Thus, the equation (16), (19) to (24), the aspect ratio A S of the rotation gesture, the inclination angle θ of the imaging unit 200, and the radius R of the rotation gesture, manipulation finger from the imaging unit 200 Can be expressed by a relational expression of the distance D in the Y-axis direction or the height H in the Z-axis direction.

次に、横振りジェスチャのアスペクト比Aを撮像部200と手の位置関係および手の構造に基づいて整理する。 Next, organized by the aspect ratio A L of the oscillating gesture on the structure of the positional relationship and the hand of the hand and the imaging section 200.

図11(b)に示すように、横振りジェスチャの縦の撮像画角ΦLVは、以下の式(25)によって表わされる。 As shown in FIG. 11B, the vertical imaging field angle Φ LV of the horizontal gesture is expressed by the following equation (25).

Figure 2015152448
Figure 2015152448

なお、ΦLV1は、横振りジェスチャ時に操作指の先端部が撮像部から最も遠ざかる位置と撮像部200の撮像点とを結ぶ線分と、X−Y平面との間のなす角である。 Note that Φ LV1 is an angle formed between a line segment connecting a position where the tip of the operating finger is farthest from the imaging unit and the imaging point of the imaging unit 200 and the XY plane during a sideways gesture.

さらに、操作指の先端までのZ軸方向の高さHは、上記同様、式(26)によって表わされる。   Further, the height H in the Z-axis direction up to the tip of the operating finger is expressed by the equation (26) as described above.

Figure 2015152448
Figure 2015152448

撮像部200から操作指の先端までのZ軸方向の高さをH、横振りジェスチャ時における指のY軸方向の移動量をP、撮像部200から操作指の先端までのY軸方向の距離をDとすると、横振りジェスチャ時に操作指の先端部が撮像部から最も遠ざかる位置と撮像部200の撮像点とを結ぶ線分と、X−Y平面との間のなす角ΦLV1は、以下の式(27)によって表わされる。 The height in the Z-axis direction from the imaging unit 200 to the tip of the operating finger is H, the amount of movement of the finger in the Y-axis direction during a sideways gesture is P, and the distance in the Y-axis direction from the imaging unit 200 to the tip of the operating finger Is D, an angle Φ LV1 formed between a line segment connecting the position where the tip of the operating finger is farthest from the imaging unit and the imaging point of the imaging unit 200 during a sideways gesture and the XY plane is as follows: (27)

Figure 2015152448
Figure 2015152448

ここで、図10(b)に示すように、操作指の付け根を中心とした横振りジェスチャの振り角を2Γ、操作指の長さをFLとすると、横振りジェスチャ時における指のY軸方向の移動量Pは、以下の式(28)によって表わされる。   Here, as shown in FIG. 10 (b), when the swing angle of the side gesture around the base of the operation finger is 2Γ and the length of the operation finger is FL, the finger Y-axis direction during the side gesture Is represented by the following equation (28).

Figure 2015152448
Figure 2015152448

横振りジェスチャの縦の撮像画角ΦLVと直交する横振りジェスチャの横の撮像画角ΦLHは、以下の式(29)に変換することができる。 The horizontal imaging angle of view Φ LH of the horizontal gesture orthogonal to the vertical imaging angle of view Φ LV of the horizontal gesture can be converted into the following equation (29).

Figure 2015152448
Figure 2015152448

このように、上記式(17)、(25)〜(29)により、横振りジェスチャのアスペクト比Aは、撮像部200の傾斜角度θと、横振りジェスチャの半振り角Γと、横振りジェスチャ時における指のY軸方向の移動量Pと、操作指の長さFLと、撮像部200から操作指の先端までのY軸方向の距離DまたはZ軸方向の高さHの関係式によって表わすことができる。 Thus, the equation (17) and (25) to (29), the aspect ratio A L of the distributor gesture, the inclination angle θ of the imaging unit 200, and a half swing angle of the oscillating gesture gamma, the distributor According to the relational expression of the movement amount P of the finger in the Y-axis direction at the time of the gesture, the length FL of the operation finger, the distance D in the Y-axis direction from the imaging unit 200 to the tip of the operation finger, or the height H in the Z-axis direction. Can be represented.

すなわち、上記式(16)〜(29)により、以下の5つのパラメータを適宜決定することにより、適切に回転ジェスチャと横振りジェスチャを区別するための撮像部200の傾斜角度θを求めることができる。   That is, the inclination angle θ of the imaging unit 200 for appropriately distinguishing between the rotation gesture and the sideways gesture can be obtained by appropriately determining the following five parameters from the above equations (16) to (29). .

(1)操作指の長さFL
(2)回転ジェスチャの半径R
(3)横振りジェスチャの半振り角Γ
(4)横振りジェスチャ時における指のY軸方向の移動量P
(5)撮像部200から操作指の先端までのY軸方向の距離DまたはZ軸方向の高さH
なお、横振りジェスチャ時における指のY軸方向の移動量Pは、式(28)により、操作指の長さFLと、横振りジェスチャの半振り角Γによって表わすことができるため、省略することができる。
(1) Operating finger length FL
(2) Radius R of the rotation gesture
(3) Half swing angle Γ of the sideways gesture
(4) The movement amount P of the finger in the Y-axis direction during a sideways gesture
(5) Y-axis direction distance D or Z-axis direction height H from the imaging unit 200 to the tip of the operating finger
Note that the movement amount P of the finger in the Y-axis direction at the time of the sideways gesture can be expressed by the length FL of the operating finger and the half-swing angle Γ of the sideways gesture according to the equation (28), and is omitted. Can do.

このように、撮像部200と手の位置関係と指の構造に基づき、式(16)〜(29)を用いることにより、適切に回転ジェスチャと横振りジェスチャを区別するための撮像部200の傾斜角度θを求めることができる。   As described above, based on the positional relationship between the imaging unit 200 and the hand and the structure of the finger, the tilt of the imaging unit 200 for appropriately distinguishing the rotation gesture and the sideways gesture by using the equations (16) to (29). The angle θ can be obtained.

本願の発明者らは、操作指の長さFL=9cm、回転ジェスチャの半径R=1cm、横振りジェスチャの半振り角Γ=45°、撮像部200から操作指の先端までのY軸方向の距離Dを5cmとした場合の、アスペクト比A、Aと撮像部200の傾斜角度θを計算した。 The inventors of the present application have a length FL of the operating finger FL = 9 cm, a radius R of the rotation gesture R = 1 cm, a half swing angle Γ = 45 ° of the side swing gesture, and the Y axis direction from the imaging unit 200 to the tip of the operating finger. When the distance D was 5 cm, the aspect ratios A S and A L and the inclination angle θ of the imaging unit 200 were calculated.

図12は、所定条件における回転ジェスチャのアスペクト比Aと横振りジェスチャのアスペクト比Aと撮像部200の傾斜角度θの計算結果例を示すグラフである。図12において、横軸は、撮像部200の傾斜角度θであり、縦軸は、アスペクト比AまたはAである。 Figure 12 is a graph showing a calculation result example of the tilt angle θ of the aspect ratio A L and the imaging unit 200 of the aspect ratio A S and the distributor gesture rotation gesture in a predetermined condition. 12, the horizontal axis is the inclination angle θ of the image pickup unit 200, the vertical axis represents the aspect ratio A S or A L.

図12を参照して、回転ジェスチャのアスペクト比Aは、撮像部200の傾斜角度θが大きくなるにしたがって、大きくなっている。他方、横振りジェスチャのアスペクト比Aは、撮像部200の傾斜角度θが大きくなるにしたがって、小さくなっている。したがって、式(18)により、撮像部200の傾斜角度を両曲線の交点P0よりも小さい角度に設定すれば、回転ジェスチャと横振りジェスチャを区別することができる。本計算例の場合、交点P0の傾斜角度θは77°である。 Referring to FIG. 12, the aspect ratio A S of the rotation gesture in accordance with the inclination angle θ of the imaging section 200 is increased is larger. On the other hand, the aspect ratio A L of the distributor gesture, according to the inclination angle θ of the image pickup unit 200 is increased, it is smaller. Therefore, if the inclination angle of the imaging unit 200 is set to an angle smaller than the intersection P0 of both curves according to the equation (18), the rotation gesture and the sideways gesture can be distinguished. In the case of this calculation example, the inclination angle θ of the intersection point P0 is 77 °.

図13は、距離Dと操作指の長さFLを変化させた場合の、回転ジェスチャのアスペクト比Aと横振りジェスチャのアスペクト比Aが一致する撮像部200の傾斜角度θの計算結果例を示すグラフである。 13, the distance D between operations fingers when changing the length FL, the inclination angle θ of the imaging unit 200 having an aspect ratio A L aspect ratio A S and the distributor gesture rotation gesture matches calculation result example It is a graph which shows.

図13を参照すると、操作指の長さFLを5cm、7cm、9cm、11cmと、距離Dを3cm、5cm、10cmと変化させても、アスペクト比Aとアスペクト比APが一致する傾斜角度θは、略一定である。したがって、上述の4つのパラメータのうち、操作指の長さFLと、撮像部200から操作指の先端までのY軸方向の距離Dは、回転ジェスチャと横振りジェスチャを区別することが可能な撮像部200の傾斜角度θにさほど影響しないことが判る。 Referring to FIG. 13, 5 cm length FL of the operating finger, 7 cm, 9cm, 11cm and the distance D 3 cm, 5 cm, be varied and 10 cm, inclination angle aspect ratio A S and the aspect ratio AP matches θ Is substantially constant. Therefore, among the above-mentioned four parameters, the length FL of the operating finger and the distance D in the Y-axis direction from the imaging unit 200 to the tip of the operating finger can be used to distinguish the rotation gesture and the swing gesture. It can be seen that the inclination angle θ of the portion 200 is not significantly affected.

したがって、上記式(18)を満たす撮像部200の傾斜角度θの条件は、以下の式(30)となる。   Therefore, the condition of the inclination angle θ of the imaging unit 200 that satisfies the above equation (18) is the following equation (30).

θ<77° ・・・(30)   θ <77 ° (30)

上記式(30)のように、撮像部200の傾斜角度θを77°よりも小さくすることで、回転ジェスチャのアスペクト比Aが、横振りジェスチャのアスペクト比Aよりも小さくなり、回転ジェスチャと横振りジェスチャを適正に区別することができる。 As in the above formula (30), the inclination angle θ of the imaging unit 200 is made smaller than 77 °, the aspect ratio A S of the rotation gesture becomes smaller than the aspect ratio A L of the oscillating gesture, rotation gesture Can be properly distinguished from the sideways gesture.

なお、図13に示すように、操作指の長さFL、撮像部200までのY軸方向の距離Dによる撮像部200の傾斜角度θへの影響は低い。また、回転ジェスチャの半径Rと、横振りジェスチャの半振り角Γは、通常、個人差による大きな数値の変動はないため、上記式(30)のように、撮像部200の傾斜角度θを77°よりも小さくすることにより、大半の状況において、適正に回転ジェスチャと横振りジェスチャを区別することができる。   As shown in FIG. 13, the influence of the length FL of the operation finger and the distance D in the Y-axis direction to the imaging unit 200 on the inclination angle θ of the imaging unit 200 is low. In addition, since the radius R of the rotation gesture and the half swing angle Γ of the horizontal swing gesture are not usually changed greatly by individual differences, the inclination angle θ of the imaging unit 200 is set to 77 as shown in the above equation (30). By making it smaller than °, in most situations, it is possible to properly distinguish between a rotation gesture and a swing gesture.

したがって、上記式(15)、(30)より、適正に操作指が検出可能であり、且つ、回転ジェスチャと横振りジェスチャを区別可能な条件は、以下の式(31)となる。   Therefore, from the above formulas (15) and (30), the condition that the operating finger can be detected properly and the rotation gesture and the swing gesture can be distinguished is the following formula (31).

30°<θ<77° ・・・(31)   30 ° <θ <77 ° (31)

撮像部200の傾斜角度θが30°よりも大きく、且つ、77°よりも小さくなるように設定されることにより、誤検出なく適正に操作指を検出することができ、且つ、回転ジェスチャと横振りジェスチャを区別することができる。   By setting the inclination angle θ of the imaging unit 200 to be larger than 30 ° and smaller than 77 °, it is possible to properly detect the operation finger without erroneous detection, and to perform the rotation gesture and the lateral movement. A swing gesture can be distinguished.

<実施形態の効果>
以上、本実施の形態によれば、情報取得ユニット2がパーソナルコンピュータ1の本体部11の上面に対して傾けられて組付けられているため、ユーザは、キーボード4を操作しつつ、容易にジェスチャ動作を行うことができる。また、手を斜め方向から撮像することができるため、ユーザは、適正に操作指を検出することができ、且つ、容易に回転ジェスチャと横振りジェスチャを区別可能な角度に手を位置付けることができる。
<Effect of embodiment>
As described above, according to the present embodiment, since the information acquisition unit 2 is assembled with being inclined with respect to the upper surface of the main body 11 of the personal computer 1, the user can easily perform a gesture while operating the keyboard 4. The action can be performed. In addition, since the hand can be imaged from an oblique direction, the user can appropriately detect the operation finger and can easily position the hand at an angle at which the rotation gesture and the swing gesture can be distinguished. .

また、本実施の形態によれば、上記式(1)〜(11)を用いることにより、誤検出なく、適正に操作指を検出することができる撮像部200の傾斜角度θを容易に算出することができる。   Further, according to the present embodiment, by using the above formulas (1) to (11), it is possible to easily calculate the inclination angle θ of the imaging unit 200 that can properly detect the operating finger without erroneous detection. be able to.

また、本実施の形態によれば、撮像部200の傾斜角度θは、上記式(1)〜(11)の条件に加え、上記式(12)〜(14)が成り立つように設定されるため、さらに容易に適正な撮像部200の傾斜角度θを求めることができる。   Further, according to the present embodiment, the inclination angle θ of the imaging unit 200 is set so that the above expressions (12) to (14) are satisfied in addition to the conditions of the above expressions (1) to (11). In addition, the appropriate inclination angle θ of the imaging unit 200 can be obtained more easily.

また、本実施の形態によれば、上記式(15)に示すように、撮像部200の傾斜角度θは、30°よりも大きくなるように設定されるため、誤検出なく適正に操作指を検出することができる。   Further, according to the present embodiment, as shown in the above equation (15), the inclination angle θ of the imaging unit 200 is set to be larger than 30 °, so that the operation finger can be appropriately operated without erroneous detection. Can be detected.

また、本実施の形態によれば、上記式(16)〜(29)を用いることにより、適切に回転ジェスチャと横振りジェスチャを区別することができる撮像部200の傾斜角度θを容易に算出することができる。   Further, according to the present embodiment, by using the above formulas (16) to (29), the inclination angle θ of the imaging unit 200 that can appropriately distinguish between the rotation gesture and the sideways gesture is easily calculated. be able to.

また、本実施の形態によれば、上記式(30)に示すように、撮像部200の傾斜角度θを77°よりも小さくなるように設定されるため、適正に回転ジェスチャと横振りジェスチャを区別することができる。   In addition, according to the present embodiment, as shown in the above equation (30), the inclination angle θ of the imaging unit 200 is set to be smaller than 77 °, so that the rotation gesture and the swing gesture can be appropriately performed. Can be distinguished.

また、本実施の形態によれば、窓部11bは、キーボード4が配置された本体部11の上面に配置されているため、ユーザは、パームレストPaに手を置いた状態で、容易に指でジェスチャを行うことできる。   In addition, according to the present embodiment, since the window portion 11b is arranged on the upper surface of the main body portion 11 on which the keyboard 4 is arranged, the user can easily place his / her finger on the palm rest Pa with his / her finger. Can make gestures.

<変更例>
以上、本発明の実施の形態について説明したが、本発明は、上記実施の形態に何ら制限されるものではなく、本発明の構成例も他に種々の変更が可能である。
<Example of change>
While the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications can be made to the configuration example of the present invention.

たとえば、上記実施の形態では、情報取得ユニット2が傾けられて、パーソナルコンピュータ1に組付けられることにより、撮像部200の受光光軸Oが傾けられたが、プリズムを用いて、撮像部200の受光光軸Oが傾けられても良い。   For example, in the above embodiment, the light receiving optical axis O of the imaging unit 200 is tilted by tilting the information acquisition unit 2 and mounting the information acquisition unit 2 on the personal computer 1. The light receiving optical axis O may be tilted.

図14は、変更例にかかる情報取得ユニット2の構成を示す模式図である。   FIG. 14 is a schematic diagram illustrating a configuration of the information acquisition unit 2 according to the modification.

図14を参照して、本変更例の場合、情報取得ユニット2は、本体部11に対して傾けられず、撮像部200とパーソナルコンピュータ1の本体部11の間に、プリズム600が設けられる。プリズム600は、投射部100と撮像部200を跨ぐように配置される。   Referring to FIG. 14, in the case of this modification, the information acquisition unit 2 is not tilted with respect to the main body 11, and a prism 600 is provided between the imaging unit 200 and the main body 11 of the personal computer 1. The prism 600 is disposed so as to straddle the projection unit 100 and the imaging unit 200.

図15は、プリズム600の頂角αを定義するための模式図である。なお、図15の例では、時計周りの方向の角度に対して、正の符号が付される。また、図15における入射光軸は、撮像部200の受光光軸Oに対応する。 FIG. 15 is a schematic diagram for defining the apex angle α p of the prism 600. In the example of FIG. 15, a positive sign is attached to the angle in the clockwise direction. Further, the incident optical axis in FIG. 15 corresponds to the light receiving optical axis O of the imaging unit 200.

図15に示すように、プリズム600の屈折率をn、下面の傾斜角をα、上面の傾斜角をα、プリズム600の頂角をα(=α−α)、出射光軸の傾斜角をα(=90−β)とすると、スネルの方式により、以下の式(32)、(33)が成り立つ。 As shown in FIG. 15, the refractive index of the prism 600 is n, the inclination angle of the lower surface is α 1 , the inclination angle of the upper surface is α 2 , the apex angle of the prism 600 is α p (= α 1 −α 2 ), and the outgoing light. When the axis inclination angle is α (= 90−β), the following equations (32) and (33) are established by Snell's method.

Figure 2015152448
Figure 2015152448

図16は、プリズム600の屈折率nを1.51とし、頂角αを所定の角度にしてプリズム600全体の傾きを変えたときの出射光軸の光軸傾斜角αを示すグラフである。図17は、プリズム600の屈折率を1.88とし、頂角αを所定の角度にしてプリズム600の全体の傾きを変えたときの出射光軸の光軸傾斜角αを示すグラフである。図16、17において、横軸は、下面傾斜角α、縦軸は、出射光軸の傾斜角αである。なお、図16、17には、上記式(33)の範囲が矢印で示されている。 FIG. 16 is a graph showing the optical axis tilt angle α of the outgoing optical axis when the refractive index n of the prism 600 is 1.51, the apex angle α p is a predetermined angle, and the tilt of the entire prism 600 is changed. . FIG. 17 is a graph showing the optical axis tilt angle α of the outgoing optical axis when the refractive index of the prism 600 is 1.88, the apex angle α p is a predetermined angle, and the entire tilt of the prism 600 is changed. . 16 and 17, the horizontal axis is the lower surface inclination angle α 1 , and the vertical axis is the inclination angle α of the outgoing optical axis. 16 and 17, the range of the above formula (33) is indicated by an arrow.

図16を参照すると、適宜、プリズム600の頂角αと、下面傾斜角αを設定することにより、上記式(33)の範囲の光軸傾斜角αが得られることが判る。たとえば、光軸傾斜角αを60°にする場合、プリズム600の頂角αと下面傾斜角αの組み合わせは、複数あり、プリズム600の光学設計の自由度が高いことが判る。 Referring to FIG. 16, it can be seen that the optical axis tilt angle α in the range of the above equation (33) can be obtained by appropriately setting the apex angle α p of the prism 600 and the lower surface tilt angle α 1 . For example, when the optical axis tilt angle α is set to 60 °, there are a plurality of combinations of the apex angle α p and the lower surface tilt angle α 1 of the prism 600, and it can be seen that the degree of freedom in optical design of the prism 600 is high.

また、図17を参照すると、図16の場合に比べて、プリズム600の頂角αに対する出射光軸の傾斜角αが小さくなっていることが判る。図17に示すプリズム600を用いると、上記式(33)に示す30°〜77°の範囲で自由に撮像部200の受光光軸O、および投射部100の投射光軸を傾斜させることができることが判る。 Referring to FIG. 17, it can be seen that the inclination angle α of the outgoing optical axis with respect to the apex angle α p of the prism 600 is smaller than in the case of FIG. When the prism 600 shown in FIG. 17 is used, the light receiving optical axis O of the imaging unit 200 and the projection optical axis of the projection unit 100 can be freely tilted in the range of 30 ° to 77 ° shown in the above equation (33). I understand.

このように、プリズム600を用いることにより、撮像部200の受光光軸Oを傾斜させることができるため、上記実施の形態同様、適正に操作指を検出でき、且つ、回転ジェスチャと横振りジェスチャを区別することができる。   As described above, by using the prism 600, the light receiving optical axis O of the imaging unit 200 can be tilted, so that the operation finger can be properly detected as in the above-described embodiment, and the rotation gesture and the swing gesture can be performed. Can be distinguished.

図18は、プリズム600の設置方法について説明する図である。   FIG. 18 is a diagram illustrating a method for installing the prism 600.

プリズム600は、少なくとも、撮像部200の画角の範囲内を覆うようにして、撮像部200の上面に設置される必要がある。図18には、プリズム600を撮像部200の右上角に接触させ、プリズム600の頂角を撮像部200の左側の画角の境界に合わせつつ、プリズム600を姿勢A〜Eに変化させたときの、右側の画角の境界が通るプリズム600の上面位置a〜eが示されている。   The prism 600 needs to be installed on the upper surface of the imaging unit 200 so as to cover at least the range of the angle of view of the imaging unit 200. In FIG. 18, when the prism 600 is brought into contact with the upper right corner of the imaging unit 200 and the prism 600 is changed to the postures A to E while the apex angle of the prism 600 is matched with the boundary of the left field angle of the imaging unit 200. The upper surface positions a to e of the prism 600 through which the boundary of the right angle of view passes are shown.

図示の如く、プリズム600上面と画角の境界が通る交点のZ軸方向の位置は、Dの姿勢、すなわち、プリズム600が略水平になったときが最小となる。Eの姿勢のようにプリズム600が左回り(マイナス方向)に傾くと、プリズム600上面と画角の境界が通る交点は、Z軸方向の位置が高くなる。したがって、プリズム600の下面傾斜角αは、撮像部200の上面(受光面)に対して0°、または、0°よりもやや大きく設定するほうが望ましい。これにより、情報取得ユニット2のZ軸方向の高さを抑えることができる。 As shown in the figure, the position in the Z-axis direction of the intersection point where the boundary between the upper surface of the prism 600 and the angle of view passes is minimum when the posture is D, that is, when the prism 600 is substantially horizontal. When the prism 600 is tilted counterclockwise (minus direction) as in the posture E, the intersection in the boundary between the upper surface of the prism 600 and the angle of view becomes higher in the Z-axis direction. Therefore, the lower surface inclination angle alpha 1 of the prism 600, 0 ° with respect to the upper surface (light receiving surface) of the imaging unit 200, or, desirably better to set slightly larger than 0 °. Thereby, the height of the information acquisition unit 2 in the Z-axis direction can be suppressed.

なお、図18では、プリズム600が撮像部200の上面に接する場合の例が示されたが、プリズム600は、下面が撮像部200の上面(受光面)に対して平行となっていれば、撮像部200の上面から離れていても良い。   18 illustrates an example in which the prism 600 is in contact with the upper surface of the imaging unit 200. However, if the lower surface of the prism 600 is parallel to the upper surface (light receiving surface) of the imaging unit 200, You may leave | separate from the upper surface of the imaging part 200. FIG.

次に、プリズム600を用いた場合に、情報取得ユニット2を傾斜させた場合よりも、薄型化を図ることができる具体的設計例について説明する。   Next, a specific design example in which the thickness can be reduced when the prism 600 is used as compared with the case where the information acquisition unit 2 is inclined will be described.

図19(a)は、上記実施の形態のように情報取得ユニット2全体を傾けることにより、撮像部200の受光光軸Oを傾斜させた場合の、情報取得ユニット2の寸法を説明する模式図である。図19(b)は、本変更例のようにプリズム600を用いた場合の、情報取得ユニット2の寸法を説明する模式図である。   FIG. 19A is a schematic diagram for explaining the dimensions of the information acquisition unit 2 when the light receiving optical axis O of the imaging unit 200 is inclined by inclining the entire information acquisition unit 2 as in the above embodiment. It is. FIG. 19B is a schematic diagram for explaining the dimensions of the information acquisition unit 2 when the prism 600 is used as in this modification.

図19(a)を参照して、回路基板400の幅を8.0mm、情報取得ユニット2全体の高さを7.0mmとすると、撮像部200の受光光軸Oの傾斜角度を60°にしたときのZ軸方向の高さは、略2.2mm増加する。   Referring to FIG. 19A, when the width of the circuit board 400 is 8.0 mm and the height of the entire information acquisition unit 2 is 7.0 mm, the inclination angle of the light receiving optical axis O of the imaging unit 200 is 60 °. In this case, the height in the Z-axis direction increases by about 2.2 mm.

図19(b)を参照して、プリズム600の頂角αが撮像部200の画角の左境界上に位置付けられるときの、画角の右側境界を通る光線のプリズム600の出射点の位置Zを算出する。撮像部200の幅は、4.6mmφ、撮像レンズ220(図2参照)のレンズ開口は、1.6mmφ、撮像部200に必要な画角は、±30°とする。この位置Zを、プリズム600を用いた場合のプリズム600の高さとし、高さZの計算例を以下に示す。 Referring to FIG. 19B, the position of the emission point of the prism 600 of the light ray passing through the right boundary of the angle of view when the apex angle α p of the prism 600 is positioned on the left boundary of the angle of view of the imaging unit 200. Z t is calculated. The width of the imaging unit 200 is 4.6 mmφ, the lens aperture of the imaging lens 220 (see FIG. 2) is 1.6 mmφ, and the angle of view required for the imaging unit 200 is ± 30 °. This position Z t, high Satoshi prisms 600 in the case of using the prism 600, illustrating an example of calculation of height Z t below.

図20は、光軸傾斜角αが60°となるプリズム600の頂角αと下面傾斜角αの計算例を示すグラフである。図20において、横軸は、プリズム600の頂角α、縦軸は、プリズム600の下面傾斜角αである。なお、図20には、BK7(n=1.51)、ポリエーテルスルホン樹脂(n=1.64)およびSFS1(n=1.88)の場合の計算例が示されている。 FIG. 20 is a graph showing a calculation example of the apex angle α p and the lower surface tilt angle α 1 of the prism 600 at which the optical axis tilt angle α is 60 °. In FIG. 20, the horizontal axis represents the apex angle α p of the prism 600, and the vertical axis represents the lower surface inclination angle α 1 of the prism 600. FIG. 20 shows a calculation example in the case of BK7 (n = 1.51), polyethersulfone resin (n = 1.64), and SFS1 (n = 1.88).

図20を参照して、BK7の場合、下面傾斜角αが略0°となるプリズム600の頂角αは、38°となる。ポリエーテルスルホン樹脂の場合、下面傾斜角αが略0°となるプリズム600の頂角αは、33°となる。SFS1の場合、下面傾斜角αが略0°となるプリズム600の頂角αは、26°となる。 Referring to FIG. 20, in the case of BK7, the apex angle α p of the prism 600 at which the lower surface inclination angle α 1 is approximately 0 ° is 38 °. In the case of the polyethersulfone resin, the apex angle α p of the prism 600 at which the lower surface inclination angle α 1 is approximately 0 ° is 33 °. For SFS1, the apex angle alpha p of the prism 600 the underside inclination angle alpha 1 is substantially 0 ° becomes 26 °.

図21は、光軸傾斜角αが60°、且つ、下面傾斜角αが略0°となるプリズム600の頂角αと出射点の高さZの計算例を示すグラフである。図21において、横軸は、プリズム600の頂角α、縦軸は、プリズム600の出射点の高さZである。なお、図21には、図20と同様に、BK7(n=1.51)、ポリエーテルスルホン樹脂(n=1.64)およびSFS1(n=1.88)の場合の計算例が示されている。 FIG. 21 is a graph showing a calculation example of the apex angle α p and the emission point height Z t of the prism 600 in which the optical axis tilt angle α is 60 ° and the lower surface tilt angle α 1 is approximately 0 °. In FIG. 21, the horizontal axis represents the apex angle α p of the prism 600, and the vertical axis represents the height Z t of the exit point of the prism 600. FIG. 21 shows a calculation example in the case of BK7 (n = 1.51), polyethersulfone resin (n = 1.64), and SFS1 (n = 1.88), as in FIG. ing.

図21を参照して、プリズム600の材料がBK7の場合、プリズム600の頂角αが38°のときの出射点の高さZは、1.74mmである。また、プリズム600の材料がポリエーテルスルホン樹脂の場合、プリズム600の頂角αが33°のときの出射点の高さZは、1.33mmである。また、プリズム600の材料がSFS1の場合、プリズム600の頂角αが26°のときの出射点の高さZは、0.94mmである。 With reference to FIG. 21, when the material of the prism 600 is BK7, the height Z t of the emission point when the apex angle α p of the prism 600 is 38 ° is 1.74 mm. When the material of the prism 600 is a polyethersulfone resin, the height Z t of the emission point when the apex angle α p of the prism 600 is 33 ° is 1.33 mm. Further, when the material of the prism 600 is SFS1, the height Z t of the emission point when the apex angle α p of the prism 600 is 26 ° is 0.94 mm.

以上の計算結果をまとめると、以下の表1の通りとなる。   The above calculation results are summarized as shown in Table 1 below.

Figure 2015152448
Figure 2015152448

上記表1に示すようにプリズム600を設計すると、光軸傾斜角αを60°曲げることができ、且つ、出射点の高さZを、情報取得ユニット2を傾けた場合の高さの増加量2.2mmよりも小さくすることができることが判る。 When the prism 600 is designed as shown in Table 1, the optical axis tilt angle α can be bent by 60 °, and the height Z t of the emission point is increased when the information acquisition unit 2 is tilted. It can be seen that the amount can be smaller than 2.2 mm.

このように、プリズム600を用いることにより、情報取得ユニット2全体を傾斜させる場合よりも、情報取得ユニット2の薄型化を図ることできる。   Thus, by using the prism 600, the information acquisition unit 2 can be made thinner than when the entire information acquisition unit 2 is inclined.

なお、上記変更例では、プリズム600により、撮像部200の受光光軸Oが傾斜されたが、他の光学素子によって受光光軸Oが傾斜されても良い。たとえば、図22(a)に示すように、HOE(Holographic Optical Element)601が用いられても良い。   In the above modification, the light receiving optical axis O of the imaging unit 200 is tilted by the prism 600, but the light receiving optical axis O may be tilted by another optical element. For example, as shown in FIG. 22A, a HOE (Holographic Optical Element) 601 may be used.

この場合、たとえば、図22(b)に示すような格子パターンを適宜設計することにより、プリズム600を用いる場合よりもさらに薄型化を図りつつ、撮像部200の受光光軸Oを傾斜させることができる。なお、HOE601を用いる場合、回折効率を向上させるため、図22(c)に示すように、断面をブレーズ形状にした方が望ましい。   In this case, for example, by appropriately designing a lattice pattern as shown in FIG. 22B, the light receiving optical axis O of the imaging unit 200 can be inclined while further reducing the thickness as compared with the case where the prism 600 is used. it can. In addition, when using HOE601, in order to improve diffraction efficiency, as shown in FIG.22 (c), it is desirable to make the cross section into a blaze shape.

また、上記実施の形態では、情報取得ユニット2を傾斜させることにより、撮像部200の受光光軸Oが傾斜され、上記変更例では、プリズム600またはHOE601等の折り曲げ素子を用いて、撮像部200の受光光軸Oが傾斜されたが、情報取得ユニット2を傾斜させ、且つ、折り曲げ素子が用いられて受光光軸Oが傾斜されても良い。   In the above embodiment, the light receiving optical axis O of the imaging unit 200 is tilted by tilting the information acquisition unit 2. In the above modification, the imaging unit 200 is used using a bending element such as the prism 600 or the HOE 601. However, the light receiving optical axis O may be tilted by tilting the information acquisition unit 2 and using a bending element.

また、上記実施の形態および変更例では、撮像部200の受光光軸Oとともに、投射部100の出射光軸も傾斜されたが、投射部100から投射される赤外光の画角が十分に広いような場合は、撮像部200の受光光軸Oのみが傾斜されても良い。なお、上記実施の形態および変更例のように、撮像部200の受光光軸Oとともに投射部100の出射光軸も傾斜された方が、より撮像領域に赤外光を投射することができるため、望ましい。   Moreover, in the said embodiment and modification, although the output optical axis of the projection part 100 was tilted with the light-receiving optical axis O of the imaging part 200, the angle of view of the infrared light projected from the projection part 100 is enough. In such a case, only the light receiving optical axis O of the imaging unit 200 may be tilted. In addition, since the direction where the output optical axis of the projection unit 100 is tilted together with the light receiving optical axis O of the imaging unit 200 as in the above-described embodiment and modifications, infrared light can be projected onto the imaging region more. ,desirable.

また、上記実施の形態では、情報取得ユニット2により撮像情報が取得されて、情報処理部3により検出対象物体の形状、動きが検出されたが、情報取得ユニット2によりさらに検出対象物体までの距離情報が取得されても良い。   In the above embodiment, the imaging information is acquired by the information acquisition unit 2 and the shape and movement of the detection target object are detected by the information processing unit 3, but the distance to the detection target object is further detected by the information acquisition unit 2. Information may be acquired.

図23は、変更例に係る情報取得ユニット2と情報処理部3の構成を示す図である。   FIG. 23 is a diagram illustrating a configuration of the information acquisition unit 2 and the information processing unit 3 according to the modification.

本変更例では、CPU21に撮像情報取得部21bの機能とともに、距離取得部21cの機能が付与される。   In this modified example, the function of the distance acquisition unit 21c is given to the CPU 21 together with the function of the imaging information acquisition unit 21b.

距離取得部21cは、CMOSイメージセンサ240から出力される信号に基づいて、距離情報を取得する。また、メモリ25は、距離情報の取得に用いられる距離変換関数を保持している。   The distance acquisition unit 21c acquires distance information based on a signal output from the CMOS image sensor 240. The memory 25 holds a distance conversion function used for acquiring distance information.

図24(a)は、CMOSイメージセンサ240上の各画素の感度を模式的に示す図である。   FIG. 24A is a diagram schematically showing the sensitivity of each pixel on the CMOS image sensor 240.

本実施の形態では、CMOSイメージセンサ240として、カラーセンサが用いられる。したがって、CMOSイメージセンサ240には、赤、緑、青をそれぞれ検知する3種の画素が含まれる。   In the present embodiment, a color sensor is used as the CMOS image sensor 240. Therefore, the CMOS image sensor 240 includes three types of pixels that detect red, green, and blue, respectively.

図24(a)において、R、G、Bは、それぞれ、CMOSイメージセンサ240に含まれる赤、緑、青の画素の感度を示している。図24(a)に示すとおり、赤、緑、青の画素の感度は、赤外の波長帯域である800nm以上の帯域において、略同じ感度となっている(図24(a)の斜線部分を参照)。したがって、図24(b)に示すフィルタ230によって、可視光の波長帯域が除去されると、CMOSイメージセンサ240の赤、緑、青の画素の感度は、互いに略等しくなる。このため、赤、緑、青の画素に、それぞれ、同じ光量の赤外光が入射すると、各色の画素から出力される信号の値は略等しくなる。よって、各画素からの信号を画素間で調整する必要はなく、各画素からの信号をそのまま距離情報の取得に用いることができる。   In FIG. 24A, R, G, and B indicate the sensitivity of red, green, and blue pixels included in the CMOS image sensor 240, respectively. As shown in FIG. 24A, the sensitivities of the red, green, and blue pixels are substantially the same in the infrared wavelength band of 800 nm or more (the hatched portion in FIG. 24A is shown). reference). Therefore, when the wavelength band of visible light is removed by the filter 230 shown in FIG. 24B, the sensitivities of the red, green, and blue pixels of the CMOS image sensor 240 are substantially equal to each other. For this reason, when the same amount of infrared light is incident on the red, green, and blue pixels, the values of the signals output from the pixels of the respective colors are substantially equal. Therefore, there is no need to adjust the signal from each pixel between the pixels, and the signal from each pixel can be used as it is for obtaining distance information.

図24(b)は、メモリ25に保持された距離変換関数の波形を模式的に示す図である。   FIG. 24B is a diagram schematically showing the waveform of the distance conversion function held in the memory 25.

図24(b)に示すように、距離変換関数は、CMOSイメージセンサ240を介して取得される輝度値と、当該輝度値に対応する距離の関係を規定する。一般に、直進する光の光量は、距離の2乗に反比例して減衰する。したがって、投射部100から出射された赤外光は、投射部100から目標領域までの距離と目標領域から撮像部200までの距離を加算した距離の2乗分の1に光量が減衰した状態で、撮像部200によって受光される。このため、図24(b)に示すように、CMOSイメージセンサ240を介して取得される輝度値は、物体までの距離が長いほど小さくなり、物体までの距離が短いほど大きくなる。したがって、距離と輝度との関係を規定する距離変換関数は、図24(b)に示すような曲線波形になる。   As shown in FIG. 24B, the distance conversion function defines the relationship between the luminance value acquired via the CMOS image sensor 240 and the distance corresponding to the luminance value. In general, the amount of light traveling straight is attenuated in inverse proportion to the square of the distance. Accordingly, the infrared light emitted from the projection unit 100 is attenuated to one-quarter of the distance obtained by adding the distance from the projection unit 100 to the target area and the distance from the target area to the imaging unit 200. The light is received by the imaging unit 200. For this reason, as shown in FIG. 24B, the luminance value acquired via the CMOS image sensor 240 decreases as the distance to the object increases, and increases as the distance to the object decreases. Therefore, the distance conversion function that defines the relationship between the distance and the luminance has a curved waveform as shown in FIG.

距離取得部21cは、距離変換関数を用いて、CMOSイメージセンサ240を介して画素毎に取得される輝度値を距離情報に変換する。このようにして、情報取得ユニット2から検出対象物体の各部までの距離情報が取得される。   The distance acquisition unit 21c converts a luminance value acquired for each pixel through the CMOS image sensor 240 into distance information using a distance conversion function. In this way, distance information from the information acquisition unit 2 to each part of the detection target object is acquired.

本変更例の場合、さらに、輝度値に応じて距離情報が取得されるため、物体の上下左右方向の動きとともに、奥行き方向の動きをも精度良く検出することができる。このように、本変更例では、3次元方向の物体の動きを検出できるため、多種多様なジェスチャに応じて、パーソナルコンピュータ1の機能を制御することができる。   In the case of this modified example, since distance information is acquired according to the luminance value, it is possible to accurately detect the movement in the depth direction as well as the vertical and horizontal movements of the object. As described above, in this modified example, since the motion of the object in the three-dimensional direction can be detected, the function of the personal computer 1 can be controlled according to various gestures.

また、上記実施の形態では、CPU21が撮像情報を取得する機能を有したが、撮像情報の取得が回路によるハードウエア処理により実現されても良い。   Moreover, in the said embodiment, although CPU21 had the function which acquires imaging information, acquisition of imaging information may be implement | achieved by the hardware process by a circuit.

さらに、上記実施の形態では、受光素子として、CMOSイメージセンサ240を用いたが、これに替えて、CCDイメージセンサを用いることもできる。また、赤外以外の波長帯域の光を距離取得に用いることもできる。   Furthermore, in the above-described embodiment, the CMOS image sensor 240 is used as the light receiving element, but a CCD image sensor can be used instead. Also, light in a wavelength band other than infrared can be used for distance acquisition.

また、上記実施の形態および変更例では、窓部11bは、本体部11の情報入力面Piに別部材を設置して構成されたが、情報入力面Piが透光性のある素材で形成され、窓部の領域を除く領域が着色されることによって、目標領域を撮像するための窓が形成されても良い。   Moreover, in the said embodiment and modification, although the window part 11b was comprised by installing another member in the information input surface Pi of the main-body part 11, the information input surface Pi is formed with a translucent material. A window for imaging the target area may be formed by coloring the area excluding the window area.

この他、本発明の実施の形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。   In addition, the embodiment of the present invention can be variously modified as appropriate within the scope of the technical idea shown in the claims.

1 … パーソナルコンピュータ(情報処理装置)
4 … キーボード(情報入力部)
5 … 操作パッド(情報入力部)
11 … 本体部
11b … 窓部
Pi … 情報入力面
2 … 情報取得ユニット(情報処理装置)
100 … 投射部
200 … 撮像部
1 ... Personal computer (information processing equipment)
4 ... Keyboard (information input part)
5 ... Operation pad (information input part)
DESCRIPTION OF SYMBOLS 11 ... Main-body part 11b ... Window part Pi ... Information input surface 2 ... Information acquisition unit (information processing apparatus)
DESCRIPTION OF SYMBOLS 100 ... Projection part 200 ... Imaging part

Claims (9)

目標領域に所定の波長の光を投射する投射部と、
前記目標領域からの反射光を受光して前記目標領域を撮像する撮像部と、
情報入力部が配置された情報入力面と、
前記情報入力面を上面とする本体部と、を備え、
前記撮像部は、前記本体部の前記情報入力部よりも奥側に配置された窓部を介して前記目標領域を撮像し、
前記撮像部の受光光軸は、前記情報入力面に対して所定の傾斜角度で傾いている、
ことを特徴とする情報処理装置。
A projection unit that projects light of a predetermined wavelength onto the target area;
An imaging unit that receives reflected light from the target area and images the target area;
An information input surface on which an information input unit is arranged; and
A main body having the information input surface as an upper surface,
The imaging unit captures the target area through a window disposed on the back side of the information input unit of the main body,
The light receiving optical axis of the imaging unit is inclined at a predetermined inclination angle with respect to the information input surface.
An information processing apparatus characterized by that.
請求項1に記載の情報処理装置において、
前記傾斜角度は、以下に規定される条件が満たされるように設定されている、
ことを特徴とする情報処理装置。
Figure 2015152448

ただし、上記式において、前記情報入力面に垂直な方向をZ軸、前記情報入力面に平行で、且つ、前記窓部から前記本体部の前側に向かう方向をY軸、Z軸およびY軸の両方に垂直な方向をX軸とすると、上式の各パラメータは以下のように定義される。Aは、前記目標領域内に存在する操作対象の指のアスペクト比である。ΦFLは、前記操作対象の指のY―Z平面方向の撮像画角である。ΦFWは、前記操作対象の指のX−Y平面方向の撮像画角である。Aは、前記目標領域内に存在する誤認識し易い指の領域のアスペクト比である。ΦPLは、前記誤認識し易い指の領域のY―Z平面方向の撮像画角である。ΦPWは、前記誤認識し易い指の領域のX−Y平面方向の撮像画角である。θは、前記撮像部の前記傾斜角度である。Hは、前記撮像部から前記操作対象の指までのZ軸方向の高さである。Dは、前記撮像部から前記操作対象の指の先端までのY軸方向の距離である。FLは、前記操作対象の指の長さである。FWは、前記操作対象の指の幅である。ELは、前記操作対象の指の先端から第2関節までの長さである。PLは、前記誤認識し易い領域Eの第1関節から第2関節までの長さである。
The information processing apparatus according to claim 1,
The inclination angle is set so that the conditions specified below are satisfied,
An information processing apparatus characterized by that.
Figure 2015152448

However, in the above formula, the direction perpendicular to the information input surface is the Z axis, the direction parallel to the information input surface and the direction from the window portion toward the front side of the main body portion is the Y axis, the Z axis, and the Y axis. If the direction perpendicular to both is the X axis, each parameter in the above equation is defined as follows. A F is an aspect ratio of the finger to be operated existing in the target area. Φ FL is an imaging field angle of the operation target finger in the YZ plane direction. Φ FW is an imaging field angle of the operation target finger in the XY plane direction. AP is the aspect ratio of the finger area that is present in the target area and easily misrecognized. Φ PL is an imaging field angle in the YZ plane direction of the finger region that is easily misrecognized. Φ PW is an imaging angle of view in the XY plane direction of the finger region that is easily misrecognized. θ is the inclination angle of the imaging unit. H is the height in the Z-axis direction from the imaging unit to the operation target finger. D is a distance in the Y-axis direction from the imaging unit to the tip of the finger to be operated. FL is the length of the finger to be operated. FW is the width of the operation target finger. EL is the length from the tip of the finger to be operated to the second joint. PL is the length from the first joint to the second joint of the region E that is easily misrecognized.
請求項2に記載の情報処理装置において、
前記傾斜角度は、以下に規定される条件がさらに満たされるように設定されている、
ことを特徴とする情報処理装置。
Figure 2015152448
The information processing apparatus according to claim 2,
The tilt angle is set so that the conditions specified below are further satisfied,
An information processing apparatus characterized by that.
Figure 2015152448
請求項1ないし3の何れか一項に記載の情報処理装置において、
前記傾斜角度は、以下に規定される条件が満たされるように設定されている、
ことを特徴とする情報処理装置。
Figure 2015152448

ただし、上記式において、前記情報入力面に垂直な方向をZ軸、前記情報入力面に平行で、且つ、前記窓部から前記本体部の前側に向かう方向をY軸、Z軸およびY軸の両方に垂直な方向をX軸とすると、上式の各パラメータは以下のように定義される。Aは、回転ジェスチャのアスペクト比である。ΦSVは、回転ジェスチャのY−Z平面方向の撮像画角である。Rは、回転ジェスチャのZ軸方向の半径である。ΦSHは、回転ジェスチャのX−Y平面方向の撮像画角である。Aは、横振りジェスチャのアスペクト比である。ΦLVは、横振りジェスチャのY−Z平面方向の撮像画角である。θは、前記撮像部の前記傾斜角度である。Hは、前記撮像部から前記目標領域内に存在する操作対象の指までのZ軸方向の高さである。Dは、前記撮像部から前記操作対象の指の先端までのY軸方向の距離である。Pは、横振りジェスチャ時における指のY軸方向の移動量である。Γは、横振りジェスチャの半振り角である。
The information processing apparatus according to any one of claims 1 to 3,
The inclination angle is set so that the conditions specified below are satisfied,
An information processing apparatus characterized by that.
Figure 2015152448

However, in the above formula, the direction perpendicular to the information input surface is the Z axis, the direction parallel to the information input surface and the direction from the window portion toward the front side of the main body portion is the Y axis, the Z axis, and the Y axis. If the direction perpendicular to both is the X axis, each parameter in the above equation is defined as follows. A S is the aspect ratio of the rotation gesture. Φ SV is an imaging angle of view of the rotation gesture in the YZ plane direction. R is the radius of the rotation gesture in the Z-axis direction. Φ SH is an imaging angle of view of the rotation gesture in the XY plane direction. A L is the aspect ratio of the oscillating gesture. Φ LV is an imaging angle of view in the YZ plane direction of the sideways gesture. θ is the inclination angle of the imaging unit. H is the height in the Z-axis direction from the imaging unit to the operation target finger existing in the target area. D is a distance in the Y-axis direction from the imaging unit to the tip of the finger to be operated. P is the amount of movement of the finger in the Y-axis direction during a sideways gesture. Γ is the half swing angle of the sideways gesture.
請求項1ないし4の何れか一項に記載の情報処理装置において、
前記情報取得装置が前記情報入力面に対して傾けられることにより、前記撮像部の受光光軸が傾けられている、
ことを特徴とする情報処理装置。
The information processing apparatus according to any one of claims 1 to 4,
The light receiving optical axis of the imaging unit is tilted by tilting the information acquisition device with respect to the information input surface.
An information processing apparatus characterized by that.
請求項1ないし5の何れか一項に記載の情報処理装置において、
前記反射光の進行方向を折り曲げる折り曲げ素子を備え、
前記折り曲げ素子により、前記撮像部の受光光軸が傾けられている、
ことを特徴とする情報処理装置。
The information processing apparatus according to any one of claims 1 to 5,
Comprising a bending element for bending the traveling direction of the reflected light,
The light receiving optical axis of the imaging unit is inclined by the bending element,
An information processing apparatus characterized by that.
請求項6に記載の情報処理装置において、
前記折り曲げ素子は、プリズムである、
ことを特徴とする情報処理装置。
The information processing apparatus according to claim 6,
The bending element is a prism;
An information processing apparatus characterized by that.
請求項7に記載の情報処理装置において、
前記プリズムは、下面が前記撮像部の受光面に対して平行になるように設置されている、
ことを特徴とする情報処理装置。
The information processing apparatus according to claim 7,
The prism is installed such that the lower surface is parallel to the light receiving surface of the imaging unit,
An information processing apparatus characterized by that.
請求項1ないし8の何れか一項に記載の情報処理装置において、
前記撮像部によって取得された撮像情報に基づいて、前記目標領域に存在する物体を検出する物体検出部を備える、
ことを特徴とする情報処理装置。
The information processing apparatus according to any one of claims 1 to 8,
An object detection unit for detecting an object present in the target region based on imaging information acquired by the imaging unit;
An information processing apparatus characterized by that.
JP2014026793A 2014-02-14 2014-02-14 Information processor Pending JP2015152448A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014026793A JP2015152448A (en) 2014-02-14 2014-02-14 Information processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014026793A JP2015152448A (en) 2014-02-14 2014-02-14 Information processor

Publications (1)

Publication Number Publication Date
JP2015152448A true JP2015152448A (en) 2015-08-24

Family

ID=53894861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014026793A Pending JP2015152448A (en) 2014-02-14 2014-02-14 Information processor

Country Status (1)

Country Link
JP (1) JP2015152448A (en)

Similar Documents

Publication Publication Date Title
US9996197B2 (en) Camera-based multi-touch interaction and illumination system and method
US9494415B2 (en) Object position determination
WO2013035554A1 (en) Method for detecting motion of input body and input device using same
TWI412975B (en) Gesture recognition method and interactive system using the same
US20130070232A1 (en) Projector
US20120068974A1 (en) Optical Position Detection Apparatus
JP2009505305A (en) Free space pointing and handwriting
JP2011524034A (en) Interactive input device and lighting assembly for the device
TW201426413A (en) Three-dimensional interactive device and operation method thereof
JP2010257089A (en) Optical position detection apparatus
US10048808B2 (en) Input operation detection device, projection apparatus, interactive whiteboard, digital signage, and projection system
US10712492B2 (en) Operating device
US20110043446A1 (en) Computer input device
JP2004094653A (en) Information input system
US10499039B2 (en) Path detection system and path detection method generating laser pattern by diffractive optical element
JP6528964B2 (en) INPUT OPERATION DETECTING DEVICE, IMAGE DISPLAY DEVICE, PROJECTOR DEVICE, PROJECTOR SYSTEM, AND INPUT OPERATION DETECTING METHOD
US20200264729A1 (en) Display method, display device, and interactive projector
RU2362216C1 (en) Device for three-dimensional manipulation
JP5888393B2 (en) Position detection system, display system, and information processing system
US9582084B2 (en) Interactive projector and interactive projection system
JP5845582B2 (en) Position detection system, display system, and information processing system
JP2015152448A (en) Information processor
KR20200039995A (en) Method of space touch detecting and display device performing the same
US20160004385A1 (en) Input device
US8912482B2 (en) Position determining device and method for objects on a touch device having a stripped L-shaped reflecting mirror and a stripped retroreflector