JP7119383B2 - 情報処理装置、情報処理システム及びプログラム - Google Patents

情報処理装置、情報処理システム及びプログラム Download PDF

Info

Publication number
JP7119383B2
JP7119383B2 JP2018009005A JP2018009005A JP7119383B2 JP 7119383 B2 JP7119383 B2 JP 7119383B2 JP 2018009005 A JP2018009005 A JP 2018009005A JP 2018009005 A JP2018009005 A JP 2018009005A JP 7119383 B2 JP7119383 B2 JP 7119383B2
Authority
JP
Japan
Prior art keywords
aerial image
image
detection
person
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018009005A
Other languages
English (en)
Other versions
JP2019128722A (ja
Inventor
賢吾 得地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2018009005A priority Critical patent/JP7119383B2/ja
Priority to US16/122,073 priority patent/US11188025B2/en
Publication of JP2019128722A publication Critical patent/JP2019128722A/ja
Application granted granted Critical
Publication of JP7119383B2 publication Critical patent/JP7119383B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • G02B30/56Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels by projecting aerial or floating images
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/0005Adaptation of holography to specific applications
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/02Details of features involved during the holographic process; Replication of holograms without interference recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/02Details of features involved during the holographic process; Replication of holograms without interference recording
    • G03H2001/0204Object characteristics
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/02Details of features involved during the holographic process; Replication of holograms without interference recording
    • G03H2001/0208Individual components other than the hologram
    • G03H2001/0216Optical components

Description

本発明は、情報処理装置、情報処理システム及びプログラムに関する。
空気中に表示される空中画像までの距離と、距離センサで測定されたユーザの手までの距離との差が事前に定めた範囲内であるとき、ユーザのタッチ操作として認識する技術がある。
特開2017-62709号公報
先行技術では、空中画像として表示される操作面と手の距離が予め定めた範囲以下であることを条件に、操作の有無を検知している。
ところで、空中画像は空気中に形成されるため、人が往来する空間を横切るように配置することもできる。一方で、距離だけを基準に操作を受け付ける場合には、操作を意図しない人の接近や動きも操作として誤検知されてしまう。
本発明は、空気中に形成される像に対する操作の誤検知を低減することを目的とする。
請求項に記載の発明は、空気中に形成される像へのユーザの接近を検知する検知手段と、前記ユーザが予め定めた方向から前記像に接近する場合、当該ユーザの動きを操作として受け付ける受付手段とを有し、前記受付手段は、前記受け付けから予め定めた時間の経過後も、前記像から予め定めた方向についての第1の距離に設けられる検知用の第1の領域と当該第1の領域よりも当該像に近い第2の距離に設けられる検知用の第2の領域の両方で前記ユーザの体の一部が検知されなくなるまで、別の動きを前記操作として受け付けない情報処理装置である。
請求項に記載の発明は、前記受付手段は、前記時間内は、別の動きを前記操作として受け付けない、請求項1に記載の情報処理装置である。
請求項に記載の発明は、空気中に像を形成する像形成装置と、前記像へのユーザの接近を検知する検知装置と、前記ユーザが予め定めた方向から接近する場合、当該ユーザの動きを操作として受け付ける受付装置とを有し、前記受付装置は、前記受け付けから予め定めた時間の経過後も、前記像から予め定めた方向についての第1の距離に設けられる検知用の第1の領域と当該第1の領域よりも当該像に近い第2の距離に設けられる検知用の第2の領域の両方で前記ユーザの体の一部が検知されなくなるまで、別の動きを前記操作として受け付けない、情報処理システムである。
請求項に記載の発明は、コンピュータ、空気中に形成される像に対してユーザが接近する方向が予め定めた方向である場合に、当該ユーザの動きを操作として受け付ける機能を実現させるためのプログラムであり、前記機能は、前記受け付けから予め定めた時間の経過後も、前記像から予め定めた方向についての第1の距離に設けられる検知用の第1の領域と当該第1の領域よりも当該像に近い第2の距離に設けられる検知用の第2の領域の両方で前記ユーザの体の一部が検知されなくなるまで、別の動きを前記操作として受け付けない、プログラムである。
請求項1記載の発明によれば、操作として受け付ける動きを限定するので誤検知を低減できる。
請求項2記載の発明によれば、空気中に形成される像に対する操作の誤検知を低減できる。
請求項3記載の発明によれば、操作として受け付ける動きを限定するので誤検知を低減できる。
請求項記載の発明によれば、操作として受け付ける動きを限定するので誤検知を低減できる。
実施の形態1に係る空中画像形成システムの概略構成を説明する図である。 表示デバイスから出力される光を専用の光学プレートを透過させることで空中画像を形成する空中画像形成装置の原理図である。(A)は各部材と空中画像との位置関係を示し、(B)は光学プレートの断面構造の一部を示す。 空中画像として3次元像を形成する空中画像形成装置の原理図である。 2面コーナーリフレクタを構成する微小な四角い穴を平面内に等間隔に配列した構造のマイクロミラーアレイを用いて空中画像を形成する空中画像形成装置の原理図である。(A)は各部材と空中画像との位置関係を示し、(B)はマイクロミラーアレイの一部分を拡大した図である。 ビームスプリッタと再帰反射シートを使用する空中画像形成装置の原理図である。 空中画像をプラズマ発光体の集合として形成する空中画像形成装置の原理図である。 実施の形態1に係る操作受付装置のハードウェア構成の一例を説明する図である。 実施の形態1に係る操作受付装置の機能構成の一例を説明する図である。 実施の形態1に係る操作受付装置で実行される処理内容を説明するフローチャートの一例である。 実施の形態1において、空中画像の表面側から指が近づく場合の操作としての受付を説明する図である。 実施の形態1において、空中画像の裏面側から指が近づく場合の操作としての受付を説明する図である。 実施の形態1において、表面側から人が空中画像を通り抜ける場合の受け付け処理を説明する図である。 実施の形態1において、Aさんの操作中にBさんの操作がある場合の受け付け処理を説明する図である。 実施の形態2に係る操作受付装置の機能構成の一例を説明する図である。 実施の形態2に係る操作受付装置で実行される処理内容を説明するフローチャートの一例である。 実施の形態2において、空中画像の表面側から指が近づく場合の操作としての受付を説明する図である。 実施の形態3に係る空中画像形成システムの概略構成を説明する図である。 実施の形態3に係る操作受付装置の機能構成の一例を説明する図である。 実施の形態3に係る操作受付装置で実行される処理内容を説明するフローチャートの一例である。 実施の形態3において、空中画像の表面側から人が近づく場合と裏面側から近づく場合を説明する図である。 実施の形態4に係る空中画像形成システムの概略構成を説明する図である。 実施の形態4に係る操作受付装置の機能構成の一例を説明する図である。 実施の形態3において、空中画像の表面側から人が近づく場合に操作として検知される場合と操作として検知されない場合を説明する図である。(A)は操作として検知されるジェスチャーの例を示し、(B)は操作として検知されないジェスチャーの例を示す。
以下、図面を参照して、本発明の実施の形態を説明する。
<実施の形態1>
<空中ディスプレイの概略構成>
図1は、実施の形態1に係る空中画像形成システム1の概略構成を説明する図である。
本実施の形態において、空中画像10とは空気中に形成される像をいい、例えば物体からの反射光と同等の光の状態を空気中に再現することにより形成される。空中画像10は空気中に浮かぶように形成されるので、人は、空中画像10を通り抜けることができる。
空中画像形成システム1は、空中画像10を空気中に形成する空中画像形成装置31と、空中画像10に対する人の接近の方向を検知して空中画像10に対する操作を受け付ける操作受付装置32とを有している。
ここでの空中画像形成システム1は、情報処理システムの一例であり、操作受付装置32は、情報処理装置の一例である。なお、空中画像形成装置31は、像形成装置の一例である。
図1では、空中画像10が形成される空間に3人が位置する場合を表している。
図1の場合、平面形状の空中画像10は、人が往来する通路に配置されており、案内用の画面や広告用の画面が表示されている。空中画像10は、人による操作を検知すると表示が変化する操作画面でもよい。従って、操作によって表示の内容が変化する案内用の画面や広告用の画面は、操作画面の一例である。
なお、空中画像10は、静止画像でも動画像でもよい。
また、各実施の形態では、矩形形状の全体を空中画像10として表現するが、空中画像10の外縁を規定する形状は矩形に限らず、任意でよい。例えば物体(オブジェクト)の像が形成される空間を、空中画像10が形成される空間の全てとしてもよい。例えば操作用のボタンの像、人の像、動物の像、製品の像、果物の像なども、ここでの空中画像10の一例である。図1では、空中画像10が平面形状であるが、曲面、球体、立方体などの立体的な形状でもよい。
図1の場合、人21及び22は、空中画像10に対して手前側(空中画像10を基準としてY方向についてマイナス側)に位置し、人23は、空中画像10に対して奥側(空中画像10を基準としてY方向についてプラス側)に位置している。
人21は、空中画像10の一部分を指している。人21は、操作者である。また、人23は、空中画像10を通り抜けるように歩いている。
空中画像10は、空気中に形成される像であるので(物理的な投影スクリーンや表示デバイスが存在しないので)、一方の側(例えば人21の位置)から空中画像10の向こう側(例えば人23)が透けて見えている。勿論、奥側(例えば人23の位置)から空中画像10の手前側(例えば人21の位置)も透けて見えている。もっとも、透け方は、空中画像10に表示される画像や周囲の環境によっても異なる。
人21~23は、平面状に形成される空中画像10のいずれの側からも、空中画像10を確認できる。従って、平面上に形成された空中画像10の両面どちら側からも触れるような動作が可能である。
ただし、本実施の形態では、空中画像10に文字が含まれる場合を想定する。この場合、空中画像10には、表面と裏面の関係が生じる。図1では、人21が位置する側から見える空中画像10を表面とする。このため、人23が位置する側から見える空中画像10は裏面となり、文字は鏡文字として視認される。
本実施の形態では、空中画像10の表面側からの操作を受け付けの対象に設定する。すなわち、人21、22からの操作を受け付けの対象とし、人23からの操作を受け付けの対象から除外する。
本実施の形態では、受け付けの対象とする動きを区別のために、空中画像10に対して手前側に光学的な検知面11及び12を設けている。検知面11及び12は、空間を横切る物体を非接触で検知するために使用される、人には見えない波長の光(例えば赤外線)によって形成される。なお、この検知面11及び12は、操作の位置の座標の検知に使用される検知面と兼用してもよい。
本実施の形態の場合、検知面11及び12は平面形状であり、空中画像10に対して平行に配置される。なお、検知面11及び12は、それぞれ空中画像10から予め定めた距離1及び2だけ離して配置される。
また、本実施の形態の場合、検知面11及び12は、空中画像10よりも広い面積を有している。もっとも、操作を受け付けるボタン類が表示される領域を含む面積を有していれば、空中画像10よりも面積が狭くてもよい。
本実施の形態では、空中画像10から遠い側に検知面11を配置し、近い側に検知面12を配置する。検知面11は、第1の領域の一例であり、検知面12は、第2の領域の一例である。
検知面11と検知面12を設けるのは、操作を意図した人の接近と操作を意図しない人の接近とを区別するためである。
例えば検知面11及び検知面12のいずれか一方だけを用いると、空中画像10の手前側(表面側)からの操作と、空中画像10の奥側(裏面側)からの操作とを区別することができない。
検知面11及び12の発生と、検知面11及び12を横切る物体の検知は、操作受付装置32が実行する。
<空中画像形成装置の例>
図2~図6を用いて、空中画像10の形成原理を説明する。なお、以下に説明する原理は、いずれも既知である。
図2は、表示デバイス41から出力される光を専用の光学プレート42を透過させることで空中画像10を形成する空中画像形成装置31Aの原理図である。(A)は各部材と空中画像10との位置関係を示し、(B)は光学プレート42の断面構造の一部を示す。
ここでの光学プレート42は、壁面を鏡として使用する短冊状のガラス42Aを配列したプレートと、ガラス42Aに対して直交する向きに短冊状のガラス42Bを配列したプレートを上下に重ねた構造を有する。
光学プレート42は、表示デバイス41から出力される光を短冊状のガラス42A及び42Bで2回反射して空気中で結像させることで、表示デバイス41に表示されている画像を空気中に再現する。なお、表示デバイス41と光学プレート42の距離と、光学プレート42と空中画像10との距離は同じである。また、表示デバイス41に表示される画像の寸法と空中画像10の寸法は同じである。
図3は、空中画像10として3次元像を形成する空中画像形成装置31Bの原理図である。空中画像形成装置31Bは、実際の物体43の表面で反射された光をリング型の光学プレート42を2回透過させることで3次元像を空気中に再現する。なお、光学プレート42を直列に配置する必要はない。
図4は、2面コーナーリフレクタを構成する微小な四角い穴44Aを平面内に等間隔に配列した構造のマイクロミラーアレイ44を用いて空中画像10を形成する空中画像形成装置31Cの原理図である。(A)は各部材と空中画像10との位置関係を示し、(B)はマイクロミラーアレイ44の一部分を拡大した図である。1つの穴44Aは、例えば100μm角で形成される。
図5は、ビームスプリッタ46と再帰性反射シート47を使用する空中画像形成装置31Dの原理図である。ここで、ビームスプリッタ46は、表示デバイス45の表示面に対して45°の角度で配置されている。また、再帰性反射シート47は、ビームスプリッタ46による表示画像の反射方向に、表示デバイス45の表示面に対して90°の角度に配置されている。
空中画像形成装置31Dの場合、表示デバイス45から出力される光は、ビームスプリッタ46によって再帰性反射シート47の方向に反射され、次に再帰性反射シート47で再帰反射され、ビームスプリッタ46を透過して空中で結像される。光が結像する位置に空中画像10が形成される。
図6は、空中画像10をプラズマ発光体の集合として形成する空中画像形成装置31Eの原理図である。
空中画像形成装置31Eの場合、赤外パルスレーザ48がパルス状のレーザ光を出力し、XYZスキャナ49がパルス状のレーザ光を空気中で集光する。このとき、焦点近傍の気体が瞬間的にプラズマ化し、発光する。
ここでのパルス周波数は、例えば100Hz以下であり、パルス発光時間は、例えばナノ秒オーダである。
<操作受付装置32の構成>
図7は、実施の形態1に係る操作受付装置32のハードウェア構成の一例を説明する図である。
操作受付装置32は、ファームウェアやアプリケーションプログラムの実行を通じて各種の機能を提供するCPU(Central Processing Unit)51と、ファームウェアやBIOS(Basic Input Output System)を格納する記憶領域であるROM(Read Only Memory)52と、プログラムの実行領域であるRAM(Random Access Memory)53とを有している。CPU51、ROM52及びRAM53はコンピュータを構成する。
また、操作受付装置32は、空中画像10として表示する情報を格納する記憶装置54を有している。記憶装置54は、例えば書き換え可能な不揮発性の記憶媒体を情報の格納に使用する。
また、操作受付装置32は、通信インタフェース(通信IF)55を使用して空中画像形成装置31を制御し、操作の内容に応じて空中画像10に表示される画像の内容を変化させる。
また、操作受付装置32は、検知面11(図1参照)を横切る物体の有無を検知する接近検知センサ56と、検知面12(図1参照)を横切る物体の有無を検知する接近検知センサ57とを有している。
接近検知センサ56及び57は、空中画像10の近傍に検知面11及び12を形成できれば、天井側に配置されてもよいし、床面に配置されてもよいし、側面側に配置されてもよい。
接近検知センサ56及び57は、例えば検知面を形成する赤外線を発生する光源(例えば赤外線LED)と、検知面を横切る物体からの反射光を検知する赤外線受光部とを有している。
ここで、CPU51と各部はバス58を通じて接続されている。なお、接近検知センサ56及び57はインタフェース(IF)59を通じてバス58に接続される。
図8は、実施の形態1に係る操作受付装置32(図7参照)の機能構成の一例を説明する図である。
図8に示す機能構成は、CPU51によるプログラムの実行を通じて実現される。
CPU51は、空中画像10(図1参照)に対する人の接近方向を検知する接近方向検知部60と、入力が検知された座標を検知する入力座標検知部61と、操作の受け付けを処理する操作受付部62と、受け付けた操作に応じて操作画面を更新する操作画面更新部63として機能する。
ここでの接近方向検知部60は検知手段の一例であり、操作受付部62は受付手段の一例である。なお、接近検知センサ56及び57も検知手段の一部である。また、広義には、接近検知センサ56及び57に関連する検知面11及び12も検知手段の一部である。
接近方向検知部60は、接近検知センサ56の出力信号と接近検知センサ57の出力信号の両方を入力し、2つの出力信号を用いて空中画像10への人の接近方向を検知する。本実施の形態の場合には、空中画像10の表面側からの接近か否かを検知する。
入力座標検知部61は、空中画像10への接近が表面側からの場合に、不図示の入力座標検知センサの出力信号から入力座標を検知する。前述したように、入力座標検知センサは、接近検知センサ56及び57のいずれか一方又は両方と兼用してもよい。
操作受付部62は、空中画像10への人の接近が予め定めた方向である場合(表面側からの接近である場合)であり、かつ、人の動きが操作とみなす条件を満たすとき、操作として受け付ける。従って、表面側からの接近であっても、人の動きが空中画像10の通り抜けであれば、操作受付部62は、操作としての受け付けの対象から除外する。
<操作の受付処理>
続いて、操作受付装置32(図1参照)による空中画像10(図1参照)に対する操作の受付処理を説明する。
図9は、実施の形態1に係る操作受付装置32で実行される処理内容を説明するフローチャートの一例である。この処理内容は、プログラムの実行を通じて提供される。
まず、操作受付装置32は、検知されている別の操作がないか否かを判定する(ステップ1)。現実の空中画像10では、表面側から接近した複数人が相前後して空中画像10を操作することが起こり得る。しかし、他者の操作が終わっていないのに空中画像10の表示が切り替わるのは好ましくない。
そこで、既に別の操作が検知されている場合(ステップ1で否定結果が得られた場合)、操作受付装置32は、検知の開始から基準時間以上か否かを判定する(ステップ2)。
ステップ2で否定結果が得られた場合、操作受付装置32は、ステップ1に戻る。
ステップ1で肯定結果が得られた場合(検知されている別の操作がない場合)又はステップ2で肯定結果が得られた場合(別の操作の検知から基準時間以上が経過している場合)、操作受付装置32は、検知面11だけを物体が横切る否かを判定する(ステップ3)。換言すると、検知面12を横切る物体がない状態で検知面11を物体が横切るか否かが判定される。
ステップ3で否定結果が得られた場合、操作受付装置32は、ステップ1に戻る。
ステップ3で肯定結果が得られた場合、操作受付装置32は、ステップ3で検知された同じ物体が検知面12も横切るか否かを判定する(ステップ4)。
同じ物体か否かは、例えば検知面11を横切った物体の位置と検知面12を横切った物体の位置との間に連続性が認められるか否かによって確認する。
ステップ4で否定結果が得られた場合、操作受付装置32は、ステップ1に戻る。この場合は、検知面11と検知面12の位置関係より、空中画像10の表面への接近であることは分かるが、操作に至るほどの接近とは認められない状態である。
ステップ4で肯定結果が得られた場合(検知面11だけを物体が横切った後に、同じ物体が検知面12も横切る場合)、操作受付装置32は、検知面11及び12を横切る長さが基準範囲内か否かを判定する(ステップ5)。
ここでの基準範囲には、例えば指の長さや手の大きさが用いられる。なお、基準範囲の下限を定めることにより、髪の毛や飾り等の操作に用いられない物体の誤検知を排除できる。
ステップ5で否定結果が得られた場合、操作受付装置32は、ステップ1に戻る。操作を意図せず通り抜けるような場合を除外するためである。
ステップ5で肯定結果が得られた場合、操作受付装置32は、検知面11及び12を横切っている物体の検知を操作として受け付ける(ステップ6)。
次に、操作受付装置32は、操作に応じた処理を実行する(ステップ7)。
続いて、操作受付装置32は、検知された同じ物体が検知面11を横切っていないか否かを判定する(ステップ8)。
ステップ8で否定結果が得られた場合、操作受付装置32は、ステップ4に戻る。なお、ステップ8から移動したステップ4で肯定結果が得られた場合、操作受付装置32は、操作の継続を確認してステップ5に進む。一方、ステップ8から移動したステップ4で否定結果が得られた場合、操作受付装置32は、操作が終わって指や手が空中画像10から離れる方向に移動される過程と確認し、ステップ1に戻る。
ステップ8で肯定結果が得られた場合、検知面12を横切る物体が存在しないので、操作受付装置32は、一連の処理を終了する。
図10は、実施の形態1において、空中画像10の表面側から指が近づく場合の操作としての受付を説明する図である。
図10では、指の位置が時間の経過とともに変化する様子が表されている。ここで、検知面11は、例えば人の指の長さだけ空中画像10から離れた位置に設けられる。空中画像10から検知面11までの距離は、第1の距離の一例である。一方、検知面12は、検知面11と空中画像10の中間の位置に設けられる。ここでの中間は、間の意味であり、等距離を意味しない。空中画像10から検知面12までの距離は、第2の距離の一例である。
時点T1では、指先が検知面11を横切っているが検知面12を横切っていない。この状態は、ステップ4(図9参照)で否定結果が得られる状態である。従って、操作としての動作とは受け付けられない。
時点T2では、指先が検知面11だけを横切った後に検知面12を横切っている。また、検知面11と検知面12を横切っているのは指先である。この状態は、ステップ5(図9参照)で肯定結果が得られる状態である。従って、この状態は、空中画像10の表面への接近を伴う、操作を意図した動作と受け付けられる。
時点T3では、指が引き抜かれる途中であり、検知面11だけを横切っている。この状態は、ステップ8(図9参照)で否定結果が得られ、続くステップ4でも否定結果が得られる状態である。従って、操作としては受け付けられない。
時点T4では、指が引き抜かれた後である。この状態は、ステップ8(図9参照)で肯定結果が得られる状態である。従って、操作としては受け付けられない。
図11は、実施の形態1において、空中画像10の裏面側から指が近づく場合の操作としての受付を説明する図である。
図11では、指の位置が時間の経過とともに変化する様子が表されている。
時点T11では、指先が空中画像10を横切っているが、検知面11及び12の両方を横切っていない。この状態は、ステップ3(図9参照)で否定結果が得られる状態である。従って、操作としては受け付けられない。
時点T12では、指先が空中画像10と検知面12を横切っているが、検知面11を横切っていない。この状態は、ステップ3(図9参照)で否定結果が得られる状態である。従って、操作としては受け付けられない。
時点T13では、指先が空中画像10、検知面11、検知面12の全てを横切っている。この状態も、ステップ3(図9参照)で否定結果が得られる状態である。従って、操作としては受け付けられない。
つまり、空中画像10の裏面側からの指先の接近は、操作受付装置32で想定する操作の受付方向とは異なっている。このため、ステップ3で肯定結果を得てからステップ4で肯定結果を得るという条件が満たされない。
よって、操作を受け付ける方向として規定されていない裏面側からの指先の接近を操作の対象から除外できる。この結果、裏面側からの通り抜けが操作として検知され、空中画像10の表示が変化しないようにできる。
図12は、実施の形態1において、表面側から人が空中画像10を通り抜ける場合の受け付け処理を説明する図である。
図12では、空中画像10の表面側から近づいた人が、空中画像10を通り抜ける様子が表されている。
時点T21では、人の鼻が検知面11を横切っているが、検知面12は横切っていない。この状態は、ステップ4(図9参照)で否定結果が得られる状態である。従って、操作としては受け付けられない。
時点T22及びT23では、人の頭部が検知面11及び12の両方を横切っている。ただし、頭部の大きさは予め定めた基準範囲を超えている。この状態は、ステップ5(図9参照)で否定結果が得られる状態である。
従って、表面側からの接近であっても、操作としては受け付けられない。
このように、操作の意図が認められない通り抜けを操作としての受付から除外できる。
図13は、実施の形態1において、Aさんの操作中にBさんの操作がある場合の受け付け処理を説明する図である。
この場合は、ステップ1(図9参照)とステップ2(図9参照)で否定結果が得られている状態である。
このため、Aさんの操作だけが受け付けられ、Bさんの操作は受付の対象から除外される。
<実施の形態2>
ここでは、特定のデバイスを所持する人による表面側からの接近を選択的に操作として受け付ける場合について説明する。
実施の形態2で用いる空中画像形成システム1(図1参照)の構成や操作受付装置32のハードウェア構成は、実施の形態1と共通である。
図14は、実施の形態2に係る操作受付装置32(図1参照)の機能構成の一例を説明する図である。
図14には図8と対応する部分に対応する符号を付して示している。
本実施の形態における操作受付装置32は、操作者が特定のデバイスを所持するか否かを検知する特定デバイス検知部64を有する点で、実施の形態1と異なっている。
本実施の形態では、特定のデバイスを所持する人の操作を選択的に受け付け、特定のデバイスを所持しない人の操作は受け付けない
本実施の形態では、特定のデバイスとして、指輪型の端末を想定する。指輪型の端末は、ウェアラブル端末の一例である。ウェアラブル端末は、例えば眼鏡型の端末でもよいし、ペン型の端末でもよい。
なお、ウェアラブル端末は携帯型の端末の一例でもある。
本実施の形態の場合、特定デバイス検知部64は、例えば指輪型の端末から発信されるビーコン(電波)を受信し、指輪型の端末を装着している人までの距離を推定する。この技術は、ブルートゥース(登録商標)測位とも呼ばれる。
なお、特定デバイス検知部64には、他の屋内測位技術を用いてもよいし、組み合わせて用いてもよい。
特定のデバイスからの信号の受信や通信の成立を条件とすることで、空中画像10に対する操作の受け付けを限定することができる。因みに、認証による人の特定を条件としてもよい。
また、測位技術との組み合わせにより、空中画像10から離れた人(操作の意図がないとみなせる人)と空中画像10に近づく人(操作の意図があるとみなせる人)とを区別できる。
図15は、実施の形態2に係る操作受付装置32(図1参照)で実行される処理内容を説明するフローチャートの一例である。この処理内容は、プログラムの実行を通じて提供される。
図15には、図9との対応する部分に対応する符号を付して示している。
本実施の形態の場合、処理の先頭に、特定のデバイスの接近を検知するか否かを判定するステップ11を実行する点で実施の形態1と異なる。
ステップ11で否定結果が得られている間は、操作として受け付ける人が周囲に存在しないことを意味するので、ステップ11の判定が繰り返される。
ステップ11で肯定結果が得られると、操作受付装置32は、ステップ1に進んで実施の形態1で説明した動作を実行する。
図16は、実施の形態2において、空中画像10の表面側から指が近づく場合の操作としての受付を説明する図である。
図16には、図10との対応する部分に対応する符号を付して示している。
図16でも、指の位置が時間の経過とともに変化する様子が表されている。
時点T31~T33は、指輪型の端末70を装着した指先が空中画像10の表面側から近づき、その後、引き抜かれる様子を表している。
時点T31は、指輪型の端末70を装着していない指先が空中画像10の表面側に配置された検知面11及び12の両方を横切る様子を表している。
実施の形態1の場合であれば、時点T41の状態は、操作として受け付けられる状態である。
しかし、実施の形態では、操作として受け付けられるのは、指輪型の端末70を装着している人に限られるので、時点T32の場合に限り、操作として受け付けられている。なお、指輪型の端末70を装着していても、時点T31及びT33における指の位置は実施の形態1で説明したように、操作としての受け付け条件を満たしていない。
<実施の形態3>
図17は、実施の形態3に係る空中画像形成システム1Bの概略構成を説明する図である。
図17には、図1との対応する部分に対応する符号を付して示している。
図17では、撮像カメラ80からの映像を用いて接近方向を検知する操作受付装置32Aを使用する点で実施の形態1と異なっている。
ここでの撮像カメラ80は撮像手段の一例である。
なお、実施の形態3では、検知面11(図1参照)及び検知面12(図1参照)を使用していない。
本実施の形態において、撮像カメラ80は、空中画像10の表面側を撮影するように配置される。このため、撮像カメラ80は、空中画像10に対して表面側から接近する人の後頭部や背中を撮影し、空中画像10に対して裏面側から接近する人の顔や胸を撮影する。
実施の形態3で用いる操作受付装置32Aのハードウェア構成は実施の形態1と共通である。
図18は、実施の形態3に係る操作受付装置32Aの機能構成の一例を説明する図である。
図18には、図8との対応する部分に対応する符号を付して示している。
本実施の形態では、撮像カメラ80で撮像されたカメラ画像を入力する接近方向検知部60Aを用いる点で、実施の形態1と異なっている。
前述したように、接近方向検知部60Aは、カメラ画像に後頭部や背中が写っている人を操作の意図があって空中画像10に接近する人として検知し、カメラ画像に顔や胸が写っている人を操作の意図がない人として検知する。
なお、接近方向検知部60Aは、複数の時点で撮像されている被写体の位置の変化から人が空中画像10に向かっているか否かを判定してもよい。
また、接近方向検知部60Aは、対象物の距離に応じたボケや色ズレが発生するように撮像されたカメラ画像を使用して被写体の距離を求め、この距離の時間変化から被写体である人が空中画像10に向かっているか否かを判定してもよい。
図19は、実施の形態3に係る操作受付装置32A(図17参照)で実行される処理内容を説明するフローチャートの一例である。この処理内容は、プログラムの実行を通じて提供される。
図19には、図9との対応する部分に対応する符号を付して示している。
操作受付装置32Aは、ステップ1又はステップ2で肯定結果が得られた場合、空中画像10に表面側から接近しているか否かを判定する(ステップ21)。
ステップ21で否定結果が得られた場合、操作受付装置32Aは、ステップ1に戻る。
ステップ21で肯定結果が得られた場合、操作受付装置32Aは、操作の受け付けを許可し(ステップ22)、操作に応じた処理を実行する(ステップ7)。
本実施の形態の場合、人が空中画像10を操作する位置や領域を検知する不図示の検知装置を使用する。例えば手元を撮影する別の撮像カメラを用意してもよいし、赤外線を用いて検知面を横切る座標を検知するセンサを用意してもよい。
図20は、実施の形態3において、空中画像10の表面側から人が近づく場合と裏面側から近づく場合を説明する図である。
本実施の形態の場合、撮像カメラ80によって後頭部が撮影されるAさんについては、操作の受け付けが許可され、撮像カメラ80によって顔が撮影されるBさんについては、操作の受け付けの対象から除外される。
<実施の形態4>
図21は、実施の形態4に係る空中画像形成システム1Cの概略構成を説明する図である。
図21には、図17との対応する部分に対応する符号を付して示している。
図21では、撮像カメラ80からの映像を用いて接近方向を検知する操作受付装置32Bを使用する点で実施の形態3と異なっている。
なお、本実施の形態では、空中画像10の裏面側から撮影する点で、実施の形態3と異なる。
本実施の形態の場合、撮像カメラ80は、空中画像10に対して表面側から接近する人の顔や胸を空中画像10から透けて見える像として撮影し、空中画像10に対して裏面側から接近する人の後頭部や背中を直接撮影する。
実施の形態3で用いる操作受付装置32Bのハードウェア構成は実施の形態3と共通である。
図22は、実施の形態4に係る操作受付装置32Bの機能構成の一例を説明する図である。
図22には、図18との対応する部分に対応する符号を付して示している。
本実施の形態では、撮像カメラ80で撮像されたカメラ画像が、接近方向検知部60Bと、空中画像10に接近する人のジャスチャーを検知するジェスチャー検知部65と、入力座標検知部61に入力される点で、実施の形態3と異なっている。
前述したように、接近方向検知部60Bは、カメラ画像に空中画像10を透かして顔や胸が写っている人を操作の意図がある人として検知し、カメラ画像に後頭部や背中が写っている人を操作の意図がない人として検知する。
この場合も、接近方向検知部60Bは、複数の時点で撮像されている被写体の位置の変化から人が空中画像10に向かって近づいているか否かを判定してもよい。
また、接近方向検知部60Bは、対象物の距離に応じたボケや色ズレが発生するように撮像されたカメラ画像を使用して被写体の距離を求め、この距離の時間変化から被写体である人が空中画像10に向かって近づいているか否かを判定してもよい。
ジェスチャー検知部65は、操作の場合に出現する特徴的なジャスチャーがカメラ画像に含まれているか否かを画像処理によって判定する。例えば顔の高さで手や指を前に伸ばすようなジェスチャーは、操作として検知される。一方、手を下げている場合や荷物を持っているジェスチャーは、操作から除外される。
この実施の形態の場合、操作者の手元の位置は、空中画像10を透かして撮像カメラ80によって撮像されている。そこで、入力座標検知部61は、透けて見える操作者の手元の位置を入力座標として検知する。
本実施の形態における処理動作は、実施の形態3と同様である。
図23は、実施の形態3において、空中画像10の表面側から人が近づく場合に操作として検知される場合と操作として検知されない場合を説明する図である。(A)は操作として検知されるジェスチャーの例を示し、(B)は操作として検知されないジェスチャーの例を示す。
カメラ画像90には、空中画像10に対応する矩形の領域91が含まれており、矩形の領域91を透かして人の顔が写り込んでいる。従って、図23に示す2つの例は、いずれも、空中画像10に対して表面側から人が近づく場合を表している。
ただし、(B)に例示する人は、両手をぶら下げたままである。このジェスチャーは操作の場合には現れないので、(B)に示すカメラ画像90が撮像された場合には、操作ではないと判定される。
一方、(A)に例示する人は、右手を折り曲げるように持ち上げている。このジェスチャーは操作の場合に出現するので、(A)に示すカメラ画像90が撮像された場合には、操作であると判定される。
<他の実施形態>
以上、本発明の実施の形態について説明したが、本発明の技術的範囲は上述の実施の形態に記載の範囲に限定されない。上述の実施の形態に、種々の変更又は改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
前述の実施の形態では、操作面としての空中画像10が平面状である場合について説明しているが、空中画像形成装置31について説明したように空中画像10が立体的に形成される場合にも応用が可能である。なお、空中画像10が立体的に形成される場合には、検知面11及び12は、操作の方向として予め定めた側に配置されればよい。この場合、検知面11及び12は、空中画像10に対して平行にはならない。
前述の実施の形態では、別の操作が検知されている場合には、その検知の開始から経過した時間を基準に次の操作を受け付けるか否かを判定しているが、検知面11及び12の両方を横切る物体が検知されなくなることを条件として次の操作を受け付けるようにしてもよい。このように操作として受け付ける動きを限定することにより誤検知を低減できる。
前述の実施の形態では、文字が正しい形に見える側を表面とし、空中画像10の表面への接近を伴う場合に操作として受け付けているが、操作として受け付ける方向の設定は任意である。
例えば空中画像10の裏面への接近を伴う場合に操作として受け付けてもよい。また例えば、空中画像10の上方からの接近、下方からの接近、横方向からの接近などを操作として受け付ける方向に定めてもよい。
また、空中画像10が立体像である場合にも特定の方向からの接近だけを操作として受け付けるようにしてもよい。
操作として受け付ける接近の方向を規定することにより、受け付ける操作の絞り込みが可能となり、矛盾した操作の受け付けや操作に対する反応が定まらない不都合も回避できる。
1、1B、1C…空中画像形成システム、10…空中画像、11、12…検知面、31、31A、31B、31C、31D、31E…空中画像形成装置、32、32A、32B…操作受付装置、56、57…接近検知センサ、60、60A、60B…接近方向検知部、61…入力座標検知部、62…操作受付部、63…操作画面更新部、64…特定デバイス検知部、65…ジェスチャー検知部、70…指輪型の端末、80…撮像カメラ

Claims (4)

  1. 空気中に形成される像へのユーザの接近を検知する検知手段と、
    前記ユーザが予め定めた方向から前記像に接近する場合、当該ユーザの動きを操作として受け付ける受付手段と
    を有し、
    前記受付手段は、前記受け付けから予め定めた時間の経過後も、前記像から予め定めた方向についての第1の距離に設けられる検知用の第1の領域と当該第1の領域よりも当該像に近い第2の距離に設けられる検知用の第2の領域の両方で前記ユーザの体の一部が検知されなくなるまで、別の動きを前記操作として受け付けない
    情報処理装置。
  2. 前記受付手段は、前記時間内は、別の動きを前記操作として受け付けない、
    請求項1に記載の情報処理装置。
  3. 空気中に像を形成する像形成装置と、
    前記像へのユーザの接近を検知する検知装置と、
    前記ユーザが予め定めた方向から接近する場合、当該ユーザの動きを操作として受け付ける受付装置と
    を有し、
    前記受付装置は、前記受け付けから予め定めた時間の経過後も、前記像から予め定めた方向についての第1の距離に設けられる検知用の第1の領域と当該第1の領域よりも当該像に近い第2の距離に設けられる検知用の第2の領域の両方で前記ユーザの体の一部が検知されなくなるまで、別の動きを前記操作として受け付けない、
    情報処理システム。
  4. コンピュータ
    空気中に形成される像に対してユーザが接近する方向が予め定めた方向である場合に、当該ユーザの動きを操作として受け付ける機能
    を実現させるためのプログラムであり、
    前記機能は、前記受け付けから予め定めた時間の経過後も、前記像から予め定めた方向についての第1の距離に設けられる検知用の第1の領域と当該第1の領域よりも当該像に近い第2の距離に設けられる検知用の第2の領域の両方で前記ユーザの体の一部が検知されなくなるまで、別の動きを前記操作として受け付けない、
    プログラム
JP2018009005A 2018-01-23 2018-01-23 情報処理装置、情報処理システム及びプログラム Active JP7119383B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018009005A JP7119383B2 (ja) 2018-01-23 2018-01-23 情報処理装置、情報処理システム及びプログラム
US16/122,073 US11188025B2 (en) 2018-01-23 2018-09-05 Information processing apparatus, information processing system, and non-transitory computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018009005A JP7119383B2 (ja) 2018-01-23 2018-01-23 情報処理装置、情報処理システム及びプログラム

Publications (2)

Publication Number Publication Date
JP2019128722A JP2019128722A (ja) 2019-08-01
JP7119383B2 true JP7119383B2 (ja) 2022-08-17

Family

ID=67298593

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018009005A Active JP7119383B2 (ja) 2018-01-23 2018-01-23 情報処理装置、情報処理システム及びプログラム

Country Status (2)

Country Link
US (1) US11188025B2 (ja)
JP (1) JP7119383B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101786570B1 (ko) * 2010-01-04 2017-10-18 동아교재 주식회사 수용성을 갖는 소거성 고형상 마커

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021144260A (ja) * 2018-06-15 2021-09-24 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、および情報処理システム
WO2020121771A1 (ja) * 2018-12-10 2020-06-18 ソニー株式会社 表示装置
JP2022086081A (ja) * 2020-11-30 2022-06-09 マクセル株式会社 空間浮遊映像表示装置
JP7240766B1 (ja) 2021-11-11 2023-03-16 Trouvez合同会社 非接触入力装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013012060A (ja) 2011-06-29 2013-01-17 Kyocera Document Solutions Inc 表示入力装置及びこれを備えた画像形成装置
JP2013033336A (ja) 2011-08-01 2013-02-14 Yazaki Corp 位置特定装置及び車両
US20160219270A1 (en) 2015-01-22 2016-07-28 Tronxyz Technology Co., Ltd. 3d interaction method and display device
JP2017097716A (ja) 2015-11-26 2017-06-01 富士通株式会社 入力装置、入力方法、及びプログラム
JP2017142370A (ja) 2016-02-10 2017-08-17 三菱電機株式会社 空中映像表示装置
WO2018003860A1 (ja) 2016-06-28 2018-01-04 株式会社ニコン 表示装置、プログラム、表示方法および制御装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013109421A (ja) 2011-11-17 2013-06-06 Toshiba Corp 電子機器、電子機器の制御方法、電子機器の制御プログラム
JP5696908B2 (ja) 2013-02-15 2015-04-08 コニカミノルタ株式会社 操作表示システム
JP2017062709A (ja) 2015-09-25 2017-03-30 新光商事株式会社 ジェスチャー操作装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013012060A (ja) 2011-06-29 2013-01-17 Kyocera Document Solutions Inc 表示入力装置及びこれを備えた画像形成装置
JP2013033336A (ja) 2011-08-01 2013-02-14 Yazaki Corp 位置特定装置及び車両
US20160219270A1 (en) 2015-01-22 2016-07-28 Tronxyz Technology Co., Ltd. 3d interaction method and display device
JP2017097716A (ja) 2015-11-26 2017-06-01 富士通株式会社 入力装置、入力方法、及びプログラム
JP2017142370A (ja) 2016-02-10 2017-08-17 三菱電機株式会社 空中映像表示装置
WO2018003860A1 (ja) 2016-06-28 2018-01-04 株式会社ニコン 表示装置、プログラム、表示方法および制御装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101786570B1 (ko) * 2010-01-04 2017-10-18 동아교재 주식회사 수용성을 갖는 소거성 고형상 마커

Also Published As

Publication number Publication date
US11188025B2 (en) 2021-11-30
JP2019128722A (ja) 2019-08-01
US20190227489A1 (en) 2019-07-25

Similar Documents

Publication Publication Date Title
JP7119383B2 (ja) 情報処理装置、情報処理システム及びプログラム
KR101844390B1 (ko) 사용자 인터페이스 제어를 위한 시스템 및 기법
US9772720B2 (en) Flexible room controls
US10102676B2 (en) Information processing apparatus, display apparatus, information processing method, and program
US8971565B2 (en) Human interface electronic device
US10303276B2 (en) Touch control system, touch control display system and touch control interaction method
TW201810002A (zh) 投影觸控的圖像選取方法
JP6127564B2 (ja) タッチ判定装置、タッチ判定方法、およびタッチ判定プログラム
US10606372B2 (en) System and method for interaction with a computer implemented interactive application using a depth aware camera
US11520409B2 (en) Head mounted display device and operating method thereof
JP7135324B2 (ja) 情報処理装置、情報処理システム及びプログラム
JP2000056916A (ja) ハンドポインティング装置
US20160004385A1 (en) Input device
US11630569B2 (en) System, method and devices for touch, user and object sensing for IoT experiences
US20220365658A1 (en) Image display apparatus
WO2019244437A1 (ja) 情報処理装置、情報処理方法及びプログラム
US20170185157A1 (en) Object recognition device
KR20170116554A (ko) 오브젝트 생성 및 오브젝트의 변환이 가능한 동작 인식 센서를 이용한 3차원 입력 장치
KR102300290B1 (ko) 카메라를 이용한 손가락 움직임 연동형 스마트 마우스 및 이를 이용한 마우스 커서의 제어방법
KR101671831B1 (ko) 동작 인식 센서를 이용한 3차원 입력 장치
JP2024032043A (ja) 検出方法、検出装置及びプログラム
JP2013047899A (ja) 入力装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220718

R150 Certificate of patent or registration of utility model

Ref document number: 7119383

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150