JP7119383B2 - 情報処理装置、情報処理システム及びプログラム - Google Patents
情報処理装置、情報処理システム及びプログラム Download PDFInfo
- Publication number
- JP7119383B2 JP7119383B2 JP2018009005A JP2018009005A JP7119383B2 JP 7119383 B2 JP7119383 B2 JP 7119383B2 JP 2018009005 A JP2018009005 A JP 2018009005A JP 2018009005 A JP2018009005 A JP 2018009005A JP 7119383 B2 JP7119383 B2 JP 7119383B2
- Authority
- JP
- Japan
- Prior art keywords
- aerial image
- image
- detection
- person
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 12
- 238000001514 detection method Methods 0.000 claims description 112
- 238000013459 approach Methods 0.000 claims description 58
- 230000033001 locomotion Effects 0.000 claims description 20
- 238000003384 imaging method Methods 0.000 claims description 15
- 238000010586 diagram Methods 0.000 description 40
- 238000012545 processing Methods 0.000 description 21
- 230000003287 optical effect Effects 0.000 description 11
- 238000000034 method Methods 0.000 description 5
- 239000011521 glass Substances 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/50—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
- G02B30/56—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels by projecting aerial or floating images
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03H—HOLOGRAPHIC PROCESSES OR APPARATUS
- G03H1/00—Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
- G03H1/0005—Adaptation of holography to specific applications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03H—HOLOGRAPHIC PROCESSES OR APPARATUS
- G03H1/00—Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
- G03H1/02—Details of features involved during the holographic process; Replication of holograms without interference recording
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/113—Recognition of static hand signs
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03H—HOLOGRAPHIC PROCESSES OR APPARATUS
- G03H1/00—Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
- G03H1/02—Details of features involved during the holographic process; Replication of holograms without interference recording
- G03H2001/0204—Object characteristics
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03H—HOLOGRAPHIC PROCESSES OR APPARATUS
- G03H1/00—Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
- G03H1/02—Details of features involved during the holographic process; Replication of holograms without interference recording
- G03H2001/0208—Individual components other than the hologram
- G03H2001/0216—Optical components
Description
ところで、空中画像は空気中に形成されるため、人が往来する空間を横切るように配置することもできる。一方で、距離だけを基準に操作を受け付ける場合には、操作を意図しない人の接近や動きも操作として誤検知されてしまう。
請求項2に記載の発明は、前記受付手段は、前記時間内は、別の動きを前記操作として受け付けない、請求項1に記載の情報処理装置である。
請求項3に記載の発明は、空気中に像を形成する像形成装置と、前記像へのユーザの接近を検知する検知装置と、前記ユーザが予め定めた方向から接近する場合、当該ユーザの動きを操作として受け付ける受付装置とを有し、前記受付装置は、前記受け付けから予め定めた時間の経過後も、前記像から予め定めた方向についての第1の距離に設けられる検知用の第1の領域と当該第1の領域よりも当該像に近い第2の距離に設けられる検知用の第2の領域の両方で前記ユーザの体の一部が検知されなくなるまで、別の動きを前記操作として受け付けない、情報処理システムである。
請求項4に記載の発明は、コンピュータに、空気中に形成される像に対してユーザが接近する方向が予め定めた方向である場合に、当該ユーザの動きを操作として受け付ける機能を実現させるためのプログラムであり、前記機能は、前記受け付けから予め定めた時間の経過後も、前記像から予め定めた方向についての第1の距離に設けられる検知用の第1の領域と当該第1の領域よりも当該像に近い第2の距離に設けられる検知用の第2の領域の両方で前記ユーザの体の一部が検知されなくなるまで、別の動きを前記操作として受け付けない、プログラムである。
請求項2記載の発明によれば、空気中に形成される像に対する操作の誤検知を低減できる。
請求項3記載の発明によれば、操作として受け付ける動きを限定するので誤検知を低減できる。
請求項4記載の発明によれば、操作として受け付ける動きを限定するので誤検知を低減できる。
<実施の形態1>
<空中ディスプレイの概略構成>
図1は、実施の形態1に係る空中画像形成システム1の概略構成を説明する図である。
本実施の形態において、空中画像10とは空気中に形成される像をいい、例えば物体からの反射光と同等の光の状態を空気中に再現することにより形成される。空中画像10は空気中に浮かぶように形成されるので、人は、空中画像10を通り抜けることができる。
ここでの空中画像形成システム1は、情報処理システムの一例であり、操作受付装置32は、情報処理装置の一例である。なお、空中画像形成装置31は、像形成装置の一例である。
図1の場合、平面形状の空中画像10は、人が往来する通路に配置されており、案内用の画面や広告用の画面が表示されている。空中画像10は、人による操作を検知すると表示が変化する操作画面でもよい。従って、操作によって表示の内容が変化する案内用の画面や広告用の画面は、操作画面の一例である。
なお、空中画像10は、静止画像でも動画像でもよい。
また、各実施の形態では、矩形形状の全体を空中画像10として表現するが、空中画像10の外縁を規定する形状は矩形に限らず、任意でよい。例えば物体(オブジェクト)の像が形成される空間を、空中画像10が形成される空間の全てとしてもよい。例えば操作用のボタンの像、人の像、動物の像、製品の像、果物の像なども、ここでの空中画像10の一例である。図1では、空中画像10が平面形状であるが、曲面、球体、立方体などの立体的な形状でもよい。
人21は、空中画像10の一部分を指している。人21は、操作者である。また、人23は、空中画像10を通り抜けるように歩いている。
ただし、本実施の形態では、空中画像10に文字が含まれる場合を想定する。この場合、空中画像10には、表面と裏面の関係が生じる。図1では、人21が位置する側から見える空中画像10を表面とする。このため、人23が位置する側から見える空中画像10は裏面となり、文字は鏡文字として視認される。
本実施の形態では、受け付けの対象とする動きを区別のために、空中画像10に対して手前側に光学的な検知面11及び12を設けている。検知面11及び12は、空間を横切る物体を非接触で検知するために使用される、人には見えない波長の光(例えば赤外線)によって形成される。なお、この検知面11及び12は、操作の位置の座標の検知に使用される検知面と兼用してもよい。
また、本実施の形態の場合、検知面11及び12は、空中画像10よりも広い面積を有している。もっとも、操作を受け付けるボタン類が表示される領域を含む面積を有していれば、空中画像10よりも面積が狭くてもよい。
本実施の形態では、空中画像10から遠い側に検知面11を配置し、近い側に検知面12を配置する。検知面11は、第1の領域の一例であり、検知面12は、第2の領域の一例である。
例えば検知面11及び検知面12のいずれか一方だけを用いると、空中画像10の手前側(表面側)からの操作と、空中画像10の奥側(裏面側)からの操作とを区別することができない。
検知面11及び12の発生と、検知面11及び12を横切る物体の検知は、操作受付装置32が実行する。
図2~図6を用いて、空中画像10の形成原理を説明する。なお、以下に説明する原理は、いずれも既知である。
図2は、表示デバイス41から出力される光を専用の光学プレート42を透過させることで空中画像10を形成する空中画像形成装置31Aの原理図である。(A)は各部材と空中画像10との位置関係を示し、(B)は光学プレート42の断面構造の一部を示す。
光学プレート42は、表示デバイス41から出力される光を短冊状のガラス42A及び42Bで2回反射して空気中で結像させることで、表示デバイス41に表示されている画像を空気中に再現する。なお、表示デバイス41と光学プレート42の距離と、光学プレート42と空中画像10との距離は同じである。また、表示デバイス41に表示される画像の寸法と空中画像10の寸法は同じである。
空中画像形成装置31Dの場合、表示デバイス45から出力される光は、ビームスプリッタ46によって再帰性反射シート47の方向に反射され、次に再帰性反射シート47で再帰反射され、ビームスプリッタ46を透過して空中で結像される。光が結像する位置に空中画像10が形成される。
空中画像形成装置31Eの場合、赤外パルスレーザ48がパルス状のレーザ光を出力し、XYZスキャナ49がパルス状のレーザ光を空気中で集光する。このとき、焦点近傍の気体が瞬間的にプラズマ化し、発光する。
ここでのパルス周波数は、例えば100Hz以下であり、パルス発光時間は、例えばナノ秒オーダである。
図7は、実施の形態1に係る操作受付装置32のハードウェア構成の一例を説明する図である。
操作受付装置32は、ファームウェアやアプリケーションプログラムの実行を通じて各種の機能を提供するCPU(Central Processing Unit)51と、ファームウェアやBIOS(Basic Input Output System)を格納する記憶領域であるROM(Read Only Memory)52と、プログラムの実行領域であるRAM(Random Access Memory)53とを有している。CPU51、ROM52及びRAM53はコンピュータを構成する。
また、操作受付装置32は、空中画像10として表示する情報を格納する記憶装置54を有している。記憶装置54は、例えば書き換え可能な不揮発性の記憶媒体を情報の格納に使用する。
また、操作受付装置32は、検知面11(図1参照)を横切る物体の有無を検知する接近検知センサ56と、検知面12(図1参照)を横切る物体の有無を検知する接近検知センサ57とを有している。
接近検知センサ56及び57は、空中画像10の近傍に検知面11及び12を形成できれば、天井側に配置されてもよいし、床面に配置されてもよいし、側面側に配置されてもよい。
ここで、CPU51と各部はバス58を通じて接続されている。なお、接近検知センサ56及び57はインタフェース(IF)59を通じてバス58に接続される。
図8に示す機能構成は、CPU51によるプログラムの実行を通じて実現される。
CPU51は、空中画像10(図1参照)に対する人の接近方向を検知する接近方向検知部60と、入力が検知された座標を検知する入力座標検知部61と、操作の受け付けを処理する操作受付部62と、受け付けた操作に応じて操作画面を更新する操作画面更新部63として機能する。
ここでの接近方向検知部60は検知手段の一例であり、操作受付部62は受付手段の一例である。なお、接近検知センサ56及び57も検知手段の一部である。また、広義には、接近検知センサ56及び57に関連する検知面11及び12も検知手段の一部である。
入力座標検知部61は、空中画像10への接近が表面側からの場合に、不図示の入力座標検知センサの出力信号から入力座標を検知する。前述したように、入力座標検知センサは、接近検知センサ56及び57のいずれか一方又は両方と兼用してもよい。
続いて、操作受付装置32(図1参照)による空中画像10(図1参照)に対する操作の受付処理を説明する。
図9は、実施の形態1に係る操作受付装置32で実行される処理内容を説明するフローチャートの一例である。この処理内容は、プログラムの実行を通じて提供される。
そこで、既に別の操作が検知されている場合(ステップ1で否定結果が得られた場合)、操作受付装置32は、検知の開始から基準時間以上か否かを判定する(ステップ2)。
ステップ2で否定結果が得られた場合、操作受付装置32は、ステップ1に戻る。
ステップ3で否定結果が得られた場合、操作受付装置32は、ステップ1に戻る。
同じ物体か否かは、例えば検知面11を横切った物体の位置と検知面12を横切った物体の位置との間に連続性が認められるか否かによって確認する。
ステップ4で肯定結果が得られた場合(検知面11だけを物体が横切った後に、同じ物体が検知面12も横切る場合)、操作受付装置32は、検知面11及び12を横切る長さが基準範囲内か否かを判定する(ステップ5)。
ここでの基準範囲には、例えば指の長さや手の大きさが用いられる。なお、基準範囲の下限を定めることにより、髪の毛や飾り等の操作に用いられない物体の誤検知を排除できる。
ステップ5で肯定結果が得られた場合、操作受付装置32は、検知面11及び12を横切っている物体の検知を操作として受け付ける(ステップ6)。
次に、操作受付装置32は、操作に応じた処理を実行する(ステップ7)。
ステップ8で否定結果が得られた場合、操作受付装置32は、ステップ4に戻る。なお、ステップ8から移動したステップ4で肯定結果が得られた場合、操作受付装置32は、操作の継続を確認してステップ5に進む。一方、ステップ8から移動したステップ4で否定結果が得られた場合、操作受付装置32は、操作が終わって指や手が空中画像10から離れる方向に移動される過程と確認し、ステップ1に戻る。
ステップ8で肯定結果が得られた場合、検知面12を横切る物体が存在しないので、操作受付装置32は、一連の処理を終了する。
図10では、指の位置が時間の経過とともに変化する様子が表されている。ここで、検知面11は、例えば人の指の長さだけ空中画像10から離れた位置に設けられる。空中画像10から検知面11までの距離は、第1の距離の一例である。一方、検知面12は、検知面11と空中画像10の中間の位置に設けられる。ここでの中間は、間の意味であり、等距離を意味しない。空中画像10から検知面12までの距離は、第2の距離の一例である。
時点T2では、指先が検知面11だけを横切った後に検知面12を横切っている。また、検知面11と検知面12を横切っているのは指先である。この状態は、ステップ5(図9参照)で肯定結果が得られる状態である。従って、この状態は、空中画像10の表面への接近を伴う、操作を意図した動作と受け付けられる。
時点T4では、指が引き抜かれた後である。この状態は、ステップ8(図9参照)で肯定結果が得られる状態である。従って、操作としては受け付けられない。
図11では、指の位置が時間の経過とともに変化する様子が表されている。
時点T11では、指先が空中画像10を横切っているが、検知面11及び12の両方を横切っていない。この状態は、ステップ3(図9参照)で否定結果が得られる状態である。従って、操作としては受け付けられない。
時点T13では、指先が空中画像10、検知面11、検知面12の全てを横切っている。この状態も、ステップ3(図9参照)で否定結果が得られる状態である。従って、操作としては受け付けられない。
よって、操作を受け付ける方向として規定されていない裏面側からの指先の接近を操作の対象から除外できる。この結果、裏面側からの通り抜けが操作として検知され、空中画像10の表示が変化しないようにできる。
図12では、空中画像10の表面側から近づいた人が、空中画像10を通り抜ける様子が表されている。
時点T21では、人の鼻が検知面11を横切っているが、検知面12は横切っていない。この状態は、ステップ4(図9参照)で否定結果が得られる状態である。従って、操作としては受け付けられない。
従って、表面側からの接近であっても、操作としては受け付けられない。
このように、操作の意図が認められない通り抜けを操作としての受付から除外できる。
この場合は、ステップ1(図9参照)とステップ2(図9参照)で否定結果が得られている状態である。
このため、Aさんの操作だけが受け付けられ、Bさんの操作は受付の対象から除外される。
ここでは、特定のデバイスを所持する人による表面側からの接近を選択的に操作として受け付ける場合について説明する。
実施の形態2で用いる空中画像形成システム1(図1参照)の構成や操作受付装置32のハードウェア構成は、実施の形態1と共通である。
図14には図8と対応する部分に対応する符号を付して示している。
本実施の形態における操作受付装置32は、操作者が特定のデバイスを所持するか否かを検知する特定デバイス検知部64を有する点で、実施の形態1と異なっている。
本実施の形態では、特定のデバイスを所持する人の操作を選択的に受け付け、特定のデバイスを所持しない人の操作は受け付けない
なお、ウェアラブル端末は携帯型の端末の一例でもある。
本実施の形態の場合、特定デバイス検知部64は、例えば指輪型の端末から発信されるビーコン(電波)を受信し、指輪型の端末を装着している人までの距離を推定する。この技術は、ブルートゥース(登録商標)測位とも呼ばれる。
特定のデバイスからの信号の受信や通信の成立を条件とすることで、空中画像10に対する操作の受け付けを限定することができる。因みに、認証による人の特定を条件としてもよい。
また、測位技術との組み合わせにより、空中画像10から離れた人(操作の意図がないとみなせる人)と空中画像10に近づく人(操作の意図があるとみなせる人)とを区別できる。
図15には、図9との対応する部分に対応する符号を付して示している。
本実施の形態の場合、処理の先頭に、特定のデバイスの接近を検知するか否かを判定するステップ11を実行する点で実施の形態1と異なる。
ステップ11で肯定結果が得られると、操作受付装置32は、ステップ1に進んで実施の形態1で説明した動作を実行する。
図16には、図10との対応する部分に対応する符号を付して示している。
図16でも、指の位置が時間の経過とともに変化する様子が表されている。
時点T31は、指輪型の端末70を装着していない指先が空中画像10の表面側に配置された検知面11及び12の両方を横切る様子を表している。
実施の形態1の場合であれば、時点T41の状態は、操作として受け付けられる状態である。
図17は、実施の形態3に係る空中画像形成システム1Bの概略構成を説明する図である。
図17には、図1との対応する部分に対応する符号を付して示している。
図17では、撮像カメラ80からの映像を用いて接近方向を検知する操作受付装置32Aを使用する点で実施の形態1と異なっている。
ここでの撮像カメラ80は撮像手段の一例である。
なお、実施の形態3では、検知面11(図1参照)及び検知面12(図1参照)を使用していない。
実施の形態3で用いる操作受付装置32Aのハードウェア構成は実施の形態1と共通である。
図18には、図8との対応する部分に対応する符号を付して示している。
本実施の形態では、撮像カメラ80で撮像されたカメラ画像を入力する接近方向検知部60Aを用いる点で、実施の形態1と異なっている。
前述したように、接近方向検知部60Aは、カメラ画像に後頭部や背中が写っている人を操作の意図があって空中画像10に接近する人として検知し、カメラ画像に顔や胸が写っている人を操作の意図がない人として検知する。
また、接近方向検知部60Aは、対象物の距離に応じたボケや色ズレが発生するように撮像されたカメラ画像を使用して被写体の距離を求め、この距離の時間変化から被写体である人が空中画像10に向かっているか否かを判定してもよい。
図19には、図9との対応する部分に対応する符号を付して示している。
操作受付装置32Aは、ステップ1又はステップ2で肯定結果が得られた場合、空中画像10に表面側から接近しているか否かを判定する(ステップ21)。
ステップ21で肯定結果が得られた場合、操作受付装置32Aは、操作の受け付けを許可し(ステップ22)、操作に応じた処理を実行する(ステップ7)。
本実施の形態の場合、人が空中画像10を操作する位置や領域を検知する不図示の検知装置を使用する。例えば手元を撮影する別の撮像カメラを用意してもよいし、赤外線を用いて検知面を横切る座標を検知するセンサを用意してもよい。
本実施の形態の場合、撮像カメラ80によって後頭部が撮影されるAさんについては、操作の受け付けが許可され、撮像カメラ80によって顔が撮影されるBさんについては、操作の受け付けの対象から除外される。
図21は、実施の形態4に係る空中画像形成システム1Cの概略構成を説明する図である。
図21には、図17との対応する部分に対応する符号を付して示している。
図21では、撮像カメラ80からの映像を用いて接近方向を検知する操作受付装置32Bを使用する点で実施の形態3と異なっている。
なお、本実施の形態では、空中画像10の裏面側から撮影する点で、実施の形態3と異なる。
実施の形態3で用いる操作受付装置32Bのハードウェア構成は実施の形態3と共通である。
図22には、図18との対応する部分に対応する符号を付して示している。
本実施の形態では、撮像カメラ80で撮像されたカメラ画像が、接近方向検知部60Bと、空中画像10に接近する人のジャスチャーを検知するジェスチャー検知部65と、入力座標検知部61に入力される点で、実施の形態3と異なっている。
前述したように、接近方向検知部60Bは、カメラ画像に空中画像10を透かして顔や胸が写っている人を操作の意図がある人として検知し、カメラ画像に後頭部や背中が写っている人を操作の意図がない人として検知する。
また、接近方向検知部60Bは、対象物の距離に応じたボケや色ズレが発生するように撮像されたカメラ画像を使用して被写体の距離を求め、この距離の時間変化から被写体である人が空中画像10に向かって近づいているか否かを判定してもよい。
この実施の形態の場合、操作者の手元の位置は、空中画像10を透かして撮像カメラ80によって撮像されている。そこで、入力座標検知部61は、透けて見える操作者の手元の位置を入力座標として検知する。
図23は、実施の形態3において、空中画像10の表面側から人が近づく場合に操作として検知される場合と操作として検知されない場合を説明する図である。(A)は操作として検知されるジェスチャーの例を示し、(B)は操作として検知されないジェスチャーの例を示す。
カメラ画像90には、空中画像10に対応する矩形の領域91が含まれており、矩形の領域91を透かして人の顔が写り込んでいる。従って、図23に示す2つの例は、いずれも、空中画像10に対して表面側から人が近づく場合を表している。
一方、(A)に例示する人は、右手を折り曲げるように持ち上げている。このジェスチャーは操作の場合に出現するので、(A)に示すカメラ画像90が撮像された場合には、操作であると判定される。
以上、本発明の実施の形態について説明したが、本発明の技術的範囲は上述の実施の形態に記載の範囲に限定されない。上述の実施の形態に、種々の変更又は改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
例えば空中画像10の裏面への接近を伴う場合に操作として受け付けてもよい。また例えば、空中画像10の上方からの接近、下方からの接近、横方向からの接近などを操作として受け付ける方向に定めてもよい。
また、空中画像10が立体像である場合にも特定の方向からの接近だけを操作として受け付けるようにしてもよい。
操作として受け付ける接近の方向を規定することにより、受け付ける操作の絞り込みが可能となり、矛盾した操作の受け付けや操作に対する反応が定まらない不都合も回避できる。
Claims (4)
- 空気中に形成される像へのユーザの接近を検知する検知手段と、
前記ユーザが予め定めた方向から前記像に接近する場合、当該ユーザの動きを操作として受け付ける受付手段と
を有し、
前記受付手段は、前記受け付けから予め定めた時間の経過後も、前記像から予め定めた方向についての第1の距離に設けられる検知用の第1の領域と当該第1の領域よりも当該像に近い第2の距離に設けられる検知用の第2の領域の両方で前記ユーザの体の一部が検知されなくなるまで、別の動きを前記操作として受け付けない、
情報処理装置。 - 前記受付手段は、前記時間内は、別の動きを前記操作として受け付けない、
請求項1に記載の情報処理装置。 - 空気中に像を形成する像形成装置と、
前記像へのユーザの接近を検知する検知装置と、
前記ユーザが予め定めた方向から接近する場合、当該ユーザの動きを操作として受け付ける受付装置と
を有し、
前記受付装置は、前記受け付けから予め定めた時間の経過後も、前記像から予め定めた方向についての第1の距離に設けられる検知用の第1の領域と当該第1の領域よりも当該像に近い第2の距離に設けられる検知用の第2の領域の両方で前記ユーザの体の一部が検知されなくなるまで、別の動きを前記操作として受け付けない、
情報処理システム。 - コンピュータに、
空気中に形成される像に対してユーザが接近する方向が予め定めた方向である場合に、当該ユーザの動きを操作として受け付ける機能
を実現させるためのプログラムであり、
前記機能は、前記受け付けから予め定めた時間の経過後も、前記像から予め定めた方向についての第1の距離に設けられる検知用の第1の領域と当該第1の領域よりも当該像に近い第2の距離に設けられる検知用の第2の領域の両方で前記ユーザの体の一部が検知されなくなるまで、別の動きを前記操作として受け付けない、
プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018009005A JP7119383B2 (ja) | 2018-01-23 | 2018-01-23 | 情報処理装置、情報処理システム及びプログラム |
US16/122,073 US11188025B2 (en) | 2018-01-23 | 2018-09-05 | Information processing apparatus, information processing system, and non-transitory computer readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018009005A JP7119383B2 (ja) | 2018-01-23 | 2018-01-23 | 情報処理装置、情報処理システム及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019128722A JP2019128722A (ja) | 2019-08-01 |
JP7119383B2 true JP7119383B2 (ja) | 2022-08-17 |
Family
ID=67298593
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018009005A Active JP7119383B2 (ja) | 2018-01-23 | 2018-01-23 | 情報処理装置、情報処理システム及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11188025B2 (ja) |
JP (1) | JP7119383B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101786570B1 (ko) * | 2010-01-04 | 2017-10-18 | 동아교재 주식회사 | 수용성을 갖는 소거성 고형상 마커 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021144260A (ja) * | 2018-06-15 | 2021-09-24 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、プログラム、および情報処理システム |
WO2020121771A1 (ja) * | 2018-12-10 | 2020-06-18 | ソニー株式会社 | 表示装置 |
JP2022086081A (ja) * | 2020-11-30 | 2022-06-09 | マクセル株式会社 | 空間浮遊映像表示装置 |
JP7240766B1 (ja) | 2021-11-11 | 2023-03-16 | Trouvez合同会社 | 非接触入力装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013012060A (ja) | 2011-06-29 | 2013-01-17 | Kyocera Document Solutions Inc | 表示入力装置及びこれを備えた画像形成装置 |
JP2013033336A (ja) | 2011-08-01 | 2013-02-14 | Yazaki Corp | 位置特定装置及び車両 |
US20160219270A1 (en) | 2015-01-22 | 2016-07-28 | Tronxyz Technology Co., Ltd. | 3d interaction method and display device |
JP2017097716A (ja) | 2015-11-26 | 2017-06-01 | 富士通株式会社 | 入力装置、入力方法、及びプログラム |
JP2017142370A (ja) | 2016-02-10 | 2017-08-17 | 三菱電機株式会社 | 空中映像表示装置 |
WO2018003860A1 (ja) | 2016-06-28 | 2018-01-04 | 株式会社ニコン | 表示装置、プログラム、表示方法および制御装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013109421A (ja) | 2011-11-17 | 2013-06-06 | Toshiba Corp | 電子機器、電子機器の制御方法、電子機器の制御プログラム |
JP5696908B2 (ja) | 2013-02-15 | 2015-04-08 | コニカミノルタ株式会社 | 操作表示システム |
JP2017062709A (ja) | 2015-09-25 | 2017-03-30 | 新光商事株式会社 | ジェスチャー操作装置 |
-
2018
- 2018-01-23 JP JP2018009005A patent/JP7119383B2/ja active Active
- 2018-09-05 US US16/122,073 patent/US11188025B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013012060A (ja) | 2011-06-29 | 2013-01-17 | Kyocera Document Solutions Inc | 表示入力装置及びこれを備えた画像形成装置 |
JP2013033336A (ja) | 2011-08-01 | 2013-02-14 | Yazaki Corp | 位置特定装置及び車両 |
US20160219270A1 (en) | 2015-01-22 | 2016-07-28 | Tronxyz Technology Co., Ltd. | 3d interaction method and display device |
JP2017097716A (ja) | 2015-11-26 | 2017-06-01 | 富士通株式会社 | 入力装置、入力方法、及びプログラム |
JP2017142370A (ja) | 2016-02-10 | 2017-08-17 | 三菱電機株式会社 | 空中映像表示装置 |
WO2018003860A1 (ja) | 2016-06-28 | 2018-01-04 | 株式会社ニコン | 表示装置、プログラム、表示方法および制御装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101786570B1 (ko) * | 2010-01-04 | 2017-10-18 | 동아교재 주식회사 | 수용성을 갖는 소거성 고형상 마커 |
Also Published As
Publication number | Publication date |
---|---|
US11188025B2 (en) | 2021-11-30 |
JP2019128722A (ja) | 2019-08-01 |
US20190227489A1 (en) | 2019-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7119383B2 (ja) | 情報処理装置、情報処理システム及びプログラム | |
KR101844390B1 (ko) | 사용자 인터페이스 제어를 위한 시스템 및 기법 | |
US9772720B2 (en) | Flexible room controls | |
US10102676B2 (en) | Information processing apparatus, display apparatus, information processing method, and program | |
US8971565B2 (en) | Human interface electronic device | |
US10303276B2 (en) | Touch control system, touch control display system and touch control interaction method | |
TW201810002A (zh) | 投影觸控的圖像選取方法 | |
JP6127564B2 (ja) | タッチ判定装置、タッチ判定方法、およびタッチ判定プログラム | |
US10606372B2 (en) | System and method for interaction with a computer implemented interactive application using a depth aware camera | |
US11520409B2 (en) | Head mounted display device and operating method thereof | |
JP7135324B2 (ja) | 情報処理装置、情報処理システム及びプログラム | |
JP2000056916A (ja) | ハンドポインティング装置 | |
US20160004385A1 (en) | Input device | |
US11630569B2 (en) | System, method and devices for touch, user and object sensing for IoT experiences | |
US20220365658A1 (en) | Image display apparatus | |
WO2019244437A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20170185157A1 (en) | Object recognition device | |
KR20170116554A (ko) | 오브젝트 생성 및 오브젝트의 변환이 가능한 동작 인식 센서를 이용한 3차원 입력 장치 | |
KR102300290B1 (ko) | 카메라를 이용한 손가락 움직임 연동형 스마트 마우스 및 이를 이용한 마우스 커서의 제어방법 | |
KR101671831B1 (ko) | 동작 인식 센서를 이용한 3차원 입력 장치 | |
JP2024032043A (ja) | 検出方法、検出装置及びプログラム | |
JP2013047899A (ja) | 入力装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201218 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220302 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220705 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220718 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7119383 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |