JP2023135920A - 制御装置および制御方法 - Google Patents

制御装置および制御方法 Download PDF

Info

Publication number
JP2023135920A
JP2023135920A JP2022041251A JP2022041251A JP2023135920A JP 2023135920 A JP2023135920 A JP 2023135920A JP 2022041251 A JP2022041251 A JP 2022041251A JP 2022041251 A JP2022041251 A JP 2022041251A JP 2023135920 A JP2023135920 A JP 2023135920A
Authority
JP
Japan
Prior art keywords
user
reference point
fingertip
display
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022041251A
Other languages
English (en)
Inventor
隆義 森安
Takayoshi Moriyasu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2022041251A priority Critical patent/JP2023135920A/ja
Priority to PCT/JP2022/039533 priority patent/WO2023176034A1/ja
Publication of JP2023135920A publication Critical patent/JP2023135920A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour

Abstract

【課題】ユーザの身体の一部の動きに応じて画像を処理する技術において、ユーザに違和感を与えにくい技術を提供する。【解決手段】制御装置12において、基準点設定部30は、ディスプレイ14の前に位置するユーザの身体の第1部分、第2部分、および第3部分のそれぞれの空間座標を取得し、第1部分の空間座標と第2部分の空間座標との中間点を特定し、特定された中間点と第3部分の空間座標とを通る仮想直線が交差するディスプレイ14上の点を基準点として設定する。機能実行部32は、設定された基準点を基準として、第1部分と第2部分の動きに応じた処理をディスプレイ14に表示された画像に対して実行する。【選択図】図1

Description

本開示は、制御装置および制御方法に関する。
表示面を有する電子機器を遠隔操作するための仮想タッチ装置が知られている(たとえば特許文献1参照)。
米国特許出願公開第2013/0321347号明細書
本発明者は、ディスプレイの前のユーザが空中で2つの指先を動かしたことを検出し、検出した動きに応じて画像を拡大、縮小、回転等させる技術において、ユーザが意図していない位置を中心として拡大等がなされると、ユーザに違和感を与える可能性があることを認識した。
本開示の目的は、ユーザの身体の一部の動きに応じて画像を処理する技術において、ユーザに違和感を与えにくい技術を提供することにある。
上記課題を解決するために、本開示のある態様の制御装置は、ディスプレイの前に位置するユーザの身体の第1部分、第2部分、および第3部分のそれぞれの空間座標を取得し、第1部分の空間座標と第2部分の空間座標との中間点を特定し、特定された中間点と第3部分の空間座標とを通る仮想直線が交差するディスプレイ上の点を基準点として設定する基準点設定部と、設定された基準点を基準として、第1部分と第2部分の動きに応じた処理をディスプレイに表示された画像に対して実行する機能実行部と、を備える。
本開示の別の態様は、制御方法である。この方法は、ディスプレイの前に位置するユーザの身体の第1部分、第2部分、および第3部分のそれぞれの空間座標を取得するステップと、第1部分の空間座標と第2部分の空間座標との中間点を特定し、特定された中間点と第3部分の空間座標とを通る仮想直線が交差するディスプレイ上の点を基準点として設定するステップと、設定された基準点を基準として、第1部分と第2部分の動きに応じた処理をディスプレイに表示された画像に対して実行するステップと、を備える。
本開示によれば、ユーザの身体の一部の動きに応じて画像を処理する技術において、ユーザに違和感を与えにくくできる。
実施の形態の表示システムのブロック図である。 図1の表示システムにユーザが操作を入力する状況を示す斜視図である。 ユーザが回転動作を行う例を示す図である。 図1の表示システムがユーザの2つの指先を認識した状況を示す図である。 図4に続く、ユーザが2つの指先を所定時間静止させた状況を示す図である。 2人のユーザのそれぞれがマルチ操作を行う例を示す図である。 ユーザがマルチ操作を行い、別のユーザがシングル操作を行う例を示す図である。 図1の表示システムの処理を示すフローチャートである。 図8のS14における1人のユーザに対する処理を示すフローチャートである。
以下、各図面に示される同一または同等の構成要素、部材、工程には、同一の符号を付するものとし、適宜重複した説明は省略する。また、各図面における部材の寸法は、理解を容易にするために適宜拡大、縮小して示される。
図1は、実施の形態の表示システム1のブロック図である。図2は、図1の表示システム1にユーザU1が操作を入力する状況を示す斜視図である。表示システム1は、センサ10、制御装置12、およびディスプレイ14を備える。図2では、制御装置12の図示を省略する。
表示システム1は、室内等に設置されてもよく、自動車などの車両に搭載されてもよく、用途は特に限定されない。ユーザU1がディスプレイ14に触れず空中で指先を動かすことで、動きに応じた操作を制御装置12に対して入力でき、制御装置12は入力された操作に応じた処理を実行する。ユーザU1が空中で指先を動かす操作は、空中タッチ操作またはジェスチャー操作とも呼べる。
センサ10は、例えば深度カメラであり、ディスプレイ14の表示面の前に位置するユーザU1を撮像可能な位置に設置される。センサ10は、ユーザU1を定期的に撮像し、撮像した時系列の距離画像を制御装置12に出力する。撮像する頻度は、実験やシミュレーションにより適宜定めることができ、例えば、1秒間に複数回であってよい。距離画像は、画像内の各位置の空間座標の情報を含む。この空間座標は、センサ10に固有の3次元直交座標系における座標である。
制御装置12は、センサ10から供給された時系列の距離画像に基づいて、ユーザU1の指先の動きを認識し、指先の動きに応じた操作入力を受け付け、その操作に応じてディスプレイ14に表示される画像を制御する。
ディスプレイ14は、制御装置12の制御に従い画像を表示する。ディスプレイ14は、例えば、室内設置用の数十インチ以上の画面サイズでもよいし、車載用のより小さい画面サイズでもよい。
ユーザは、1人以上であってよい。2人のユーザによる操作例は後述する。操作入力に利用できる指先の数は、1人のユーザについて、例えば1つまたは2つである。1つの指先による操作例も後述する。
図2に示すように、例えば、ユーザU1が矢印A1の方向に右手の指先50と左手の指先52を動かし、2つの指先を近づけるピンチイン動作を行うと、制御装置12は、ディスプレイ14の画面上において基準点P5を中心として画像を縮小させる。指先50の位置P1と指先52の位置P2との中間点をP4として、基準点P5は、ユーザU1の一方の目54の位置P3と中間点P4とを通る仮想直線が交差するディスプレイ14の画面上の点である。制御装置12は、基準点P5を示す画像をディスプレイ14に表示させてもよいし、表示させなくてもよい。
また、ユーザが矢印A1の反対方向に2つの指先を動かし、2つの指先を遠ざけるピンチアウト動作を行うと、制御装置12は、画面上の基準点P5を中心として画像を拡大させる。
このように、ユーザU1の視線が2つの指先の中間点P4を通るときの画像上のユーザU1の視点を中心に画像の縮小または拡大を実行できるので、ユーザU1に違和感を与えにくくできる。これに対して、ユーザU1の視線が中間点P4を通るときの画像上のユーザU1の視点から大きく離れた位置を中心に画像が縮小または拡大される比較例では、ユーザU1の意図とは異なる縮小画像または拡大画像が得られる可能性があり、ユーザU1に違和感を与える可能性がある。
図3は、ユーザU1が回転動作を行う例を示す。図3では、表示システム1の3次元直交座標系のX軸、Y軸、Z軸を示す。ユーザU1が右手の指先50と左手の指先52を矢印A2の方向に中間点P4の周りで回転させる回転動作、すなわち2つの指先をY軸に平行な軸の周りで回転させる回転動作を行うと、制御装置12は、画面上の基準点P5を中心として、画面上のY軸に平行な軸の周りで画像を回転させる。
また、ユーザU1が右手の指先50と左手の指先52を矢印A3の方向に中間点P4の周りで回転させる回転動作、すなわち2つの指先をX軸に平行な軸の周りで回転させる回転動作を行うと、制御装置12は、画面上の基準点P5を中心として、画面上のX軸に平行な軸の周りで画像を回転させる。
図示しないが、ユーザU1が2つの指先を任意の仮想軸の周りで回転させる回転動作を行うと、制御装置12は、画面上の基準点P5を中心として、画面上の当該仮想軸に平行な軸の周りで画像を回転させる。
よって、ユーザU1の視線が2つの指先の中間点P4を通るときの画像上のユーザU1の視点を中心に、画像の回転を実行できる。
1人のユーザの2つの指先を用いたピンチイン動作、ピンチアウト動作、および回転動作による操作をマルチ操作と呼ぶ。マルチ操作は、他の操作を含んでもよい。マルチ操作に用いられる2つの指先は、片手の任意の2つの指先であってもよく、例えば片手の親指と人差し指の指先であってもよい。
操作に利用する2つの指先50と指先52は一例であり、ユーザの身体の第1部分と第2部分であってよい。第1部分と第2部分は、個別に動かしてマルチ操作を実行できる部分であればよく、例えば、2つの手首、2つの握り拳、または2つの手のひらなどでもよい。また、目54も一例であり、第1部分および第2部分とは異なるユーザの身体の第3部分であってよい。第3部分は、例えば、顔の一部分であってもよく、鼻、口、2つの目の中間点、または2つの耳の中間点などであってもよい。第3部分は、目に近いほど、ユーザの視線が中間点P4を通るときの画像上の視点に近い基準点P5を設定できる。実施の形態では、第1部分と第2部分は2つの指先であり、第3部分は目である一例について説明する。
図1に示すように、制御装置12は、制御部20および記憶部22を備える。制御部20は、画像取得部24、座標演算部26、判定部28、基準点設定部30、機能実行部32、および表示出力部34を有する。
制御部20の構成は、ハードウエア的には、任意のコンピュータのCPU、メモリ、その他のLSIで実現でき、ソフトウエア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。
画像取得部24は、ディスプレイ14の前に位置する1以上のユーザを撮像した時系列の距離画像をセンサ10から取得し、取得したそれぞれの距離画像を画像認識することで、1以上のユーザの第1の指先、第2の指先、および目を検出する。指先と目の検出には公知の画像認識技術を利用できる。
画像取得部24は、距離画像において所定距離内に位置する2つの目のうち一方を検出する。所定距離は、例えば数cmであり、所定距離内に位置する2つの目は、同一ユーザの目であるとみなせる。この処理は、画像取得部24が、それぞれのユーザの目を検出することに相当する。距離画像内に複数のユーザが存在する場合、複数の目が検出される。検出された目の数は、ディスプレイ14の前のユーザの数を表す。
画像取得部24は、検出した第1の指先、第2の指先、および目のそれぞれの空間座標を時系列に取得し、座標演算部26に出力する。
座標演算部26は、画像取得部24から供給されたセンサ10の座標系でのユーザの第1の指先、第2の指先、および目のそれぞれの空間座標と、記憶部22に記憶された座標情報に含まれるセンサ10の設置位置の空間座標およびセンサ10の取り付け角度とに基づいて、表示システム1の3次元直交座標系でのユーザの第1の指先、第2の指先、および目のそれぞれの空間座標を時系列に演算する。座標演算部26は、演算した空間座標を判定部28に出力する。
判定部28は、座標演算部26から供給された空間座標と、記憶部22に記憶されたペアリング情報とに基づいて、検出された1以上の目のそれぞれに関して、すなわち各ユーザに関して、受け付ける操作の種類を決定し、決定した情報を機能実行部32に出力する。ペアリング情報は、以下に示す第1距離、第2距離、および所定時間を含む。
判定部28は、検出された1以上の目のそれぞれに関して、目から第1距離の範囲に第1の指先と第2の指先が位置する場合、基準点設定部30に基準点の設定を指示する。基準点の設定処理は後述する。
判定部28は、検出された1以上の目のそれぞれに関して、目から第1距離の範囲に第1の指先と第2の指先が位置する場合、所定のマルチ操作条件が満たされれば、マルチ操作の受け付けを決定する。マルチ操作の受け付けを決定することは、目から第1距離の範囲に位置する第1の指先と第2の指先をペアリングすることに相当する。
マルチ操作条件は、第1の指先と第2の指先の距離が第2距離以下であり、かつ、第1の指先と第2の指先が所定時間以上にわたり静止していないことである。
第1距離は、例えば、数十cmであってよく、40cm~60cmの範囲の値であってもよく、50cmであってもよい。第2距離は、例えば、数十cmであってよく、40cm~60cmの範囲の値であってもよく、50cmであってもよい。第1距離と第2距離は、等しくてもよいし、異なってもよい。所定時間は、例えば、数秒であってよく、2秒であってもよい。第1距離、第2距離、および所定時間は、実験やシミュレーションにより適宜定めることができる。第1距離、第2距離、および所定時間は、ユーザが設定できてもよい。
判定部28は、検出された1以上の目のそれぞれに関して、目から第1距離の範囲に第1の指先と第2の指先が位置するがマルチ操作条件が満たされない場合、または、目から第1距離の範囲に第1の指先と第2の指先のいずれか一方のみが位置する場合、シングル操作の受け付けを決定する。シングル操作は、1つまたは2つの指先のそれぞれに対応する画面上の操作点を用いた操作であり、その具体例は後述する。目から第1距離の範囲に第1の指先および第2の指先の一方のみが位置する場合、判定部28は、目から第1距離の範囲に存在する指先の動きによるシングル操作を受け付ける。
判定部28は、マルチ操作またはシングル操作の受け付けを決定すると、第1の指先の空間座標、第2の指先の空間座標、および記憶部22に記憶されたコマンド情報に基づいて、第1の指先と第2の指先の動きに応じた処理を決定する。コマンド情報は、第1の指先と第2の指先の動きを所定の処理に関連付けた情報である。
判定部28は、検出された1以上の目のそれぞれに関して、目から第1距離の範囲に第1の指先と第2の指先が位置しない場合、処理を実行しないことを決定する。この場合、ユーザの目が検出されたが、そのユーザの指先は検出されていない状況、すなわちそのユーザは指先を出しておらずジェスチャー操作を行おうとしていない状況が想定される。
基準点設定部30は、判定部28からの指示に従い、検出された1以上の目のそれぞれに関して、判定部28から第1の指先、第2の指先、および目のそれぞれの空間座標を取得し、第1の指先の空間座標と第2の指先の空間座標との中間点を特定し、特定された中間点と目の空間座標とを通る仮想直線が交差するディスプレイ14上の点を基準点として設定する。
基準点設定部30は、記憶部22に記憶された座標情報に含まれるディスプレイ14の設置位置の空間座標に基づいて、基準点を設定する。基準点は、ディスプレイ14の表示面上の二次元直交座標系における座標である。
基準点設定部30は、設定した基準点の座標情報を基準点情報として記憶部22に記憶させる。設定された基準点は、例えば、シングル操作の受け付けに切り替えられるまで維持される。
機能実行部32は、判定部28でマルチ操作の受け付けが決定された場合、そのユーザに関して、判定部28で決定された処理の内容、および、記憶部22に記憶された基準点情報に基づいて、設定された基準点を基準として、第1の指先と第2の指先の動きに応じた処理をディスプレイ14に表示された画像に対して実行する。機能実行部32は、操作に応じた処理が実行された画像データを生成し、表示出力部34に供給する。
機能実行部32は、第1の指先と第2の指先の動きに応じた処理として、第1の指先と第2の指先を近づけるピンチイン動作に応じて、基準点を中心として画像を縮小させる処理を実行する。機能実行部32は、第1の指先と第2の指先の移動距離に応じた度合いで画像を縮小させる。
機能実行部32は、第1の指先と第2の指先の動きに応じた処理として、第1の指先と第2の指先を遠ざけるピンチアウト動作に応じて、基準点を中心として画像を拡大させる処理を実行する。機能実行部32は、第1の指先と第2の指先の移動距離に応じた度合いで画像を拡大させる。
機能実行部32は、第1の指先と第2の指先の動きに応じた処理として、第1の指先と第2の指先を中間点の周りで回転させる回転動作に応じて、基準点を中心として画像を回転させる処理を実行する。回転させる画像は、画面内の一部の立体画像などの対象画像でもよい。機能実行部32は、第1の指先と第2の指先を結ぶ仮想直線の回転角度に応じた角度だけ画像を回転させる。
機能実行部32は、判定部28でシングル操作の受け付けが決定された場合、そのユーザに関して、判定部28で決定された処理の内容に基づいて、第1の指先の動きによる第1シングル操作と、第2の指先の動きによる第2シングル操作との少なくともいずれかに応じた処理を実行する。
機能実行部32は、検出された目のそれぞれに関して、目から第1距離の範囲に第1の指先と第2の指先が位置しない場合、処理を実行しない。
表示出力部34は、機能実行部32から供給された画像データをディスプレイ14に出力し、ディスプレイ14に画像を表示させる。
次に、図4から図7を参照して様々な操作の例を示す。
図4は、図1の表示システム1がユーザU1の2つの指先を認識した状況を示す。2つの指先の距離は、第2距離以下であるとする。制御装置12は、基準点P5を設定する。この状態では、制御装置12は、マルチ操作を受け付け可能である。
図5は、図4に続く、ユーザU1が2つの指先を所定時間静止させた状況を示す。図4の状態で2つの指先が所定時間静止したことで、制御装置12は、シングル操作の受け付けに切り替える。そのため、ユーザU1は、指先50の位置P1の空間座標に対応する画面上の操作点P5aと、指先52の位置P2の空間座標に対応する画面上の操作点P5bとのそれぞれを用いたシングル操作を行える。
例えば、制御装置12は、目の位置P3と指先50の位置P1とを通る仮想直線が交差するディスプレイ14上の点を操作点P5aとして設定し、目の位置P3と指先52の位置P2とを通る仮想直線が交差するディスプレイ14上の点を操作点P5bとして設定してもよい。制御装置12は、操作点P5aと操作点P5bのそれぞれを示すカーソルなどの画像をディスプレイ14に表示させてもよいし、表示させなくてもよい。
ユーザU1は、指先50を空中で動かすことで操作点P5aを画面内で動かすことができ、指先52を空中で動かすことで操作点P5bを画面内で動かすことができ、操作点P5aと操作点P5bを用いて、マルチ操作とは異なる公知の各種操作を実行できる。例えば、操作点P5aと操作点P5bでディスプレイ14に表示された対象物の画像を両側から挟み、その状態で操作点P5aと操作点P5bを移動させることで対象物の画像を移動させることができる。
シングル操作を受け付けている図5の状態で、指先50と指先52を再び所定時間静止させると、図4の状態に戻り、制御装置12はマルチ操作を受け付ける。よって、2つの指先を用いてマルチ操作とシングル操作を短時間で容易に切り替えでき、便利である。
また、図4に示す2つの指先の距離が第2距離以下である状態から、2つの指先の距離を第2距離より大きくした場合にも、制御装置12は、シングル操作の受け付けを決定してもよい。2つの指先の距離を第2距離以下に小さくすれば、制御装置12は、再びマルチ操作の受け付けを決定する。よって、マルチ操作とシングル操作を短時間で容易に切り替えできる。
次に、2人のユーザの場合の処理の具体例を説明する。
図6は、2人のユーザU1とユーザU2のそれぞれがマルチ操作を行う例を示す。ユーザU1の目の位置P3と指先の位置P1との距離d1、および、目の位置P3と指先の位置P2との距離d2は、それぞれ第1距離以下である。制御装置12は、ユーザU1の目の位置P3から第1距離の範囲にあるユーザU1の2つの指先をペアリングし、これらの指先によるマルチ操作を受け付ける。
ユーザU2の目の位置P13と指先の位置P11との距離d11、および、目の位置P13と指先の位置P12との距離d12も、それぞれ第1距離以下である。制御装置12は、ユーザU2の目の位置P13から第1距離の範囲にあるユーザU2の2つの指先をペアリングし、これらの指先によるマルチ操作を受け付ける。制御装置12は、ユーザU2に関して、指先の位置P11と指先の位置P12との中間点P14を特定し、中間点P14と目の位置P13とを通る仮想直線が交差するディスプレイ14上の点を基準点P15として設定する。制御装置12は、ユーザU2に関して、基準点P15を中心として、2つの指先の動きに応じた処理を画像に対して実行する。
例えば、ディスプレイ14が2画面表示している状態で、ユーザU1は一方の画像に対してマルチ操作を行い、ユーザU2は他方の画像に対してマルチ操作を行うことができ、利便性が高い。少なくとも一方のユーザは、片手の2つの指先を用いても同様にマルチ操作できる。
図7は、ユーザU1がマルチ操作を行い、別のユーザU2がシングル操作を行う例を示す。図6と同様に、制御装置12は、ユーザU1の目の位置P3から第1距離の範囲にあるユーザU1の2つの指先をペアリングし、これらの指先によるマルチ操作を受け付ける。位置P3と、ユーザU2の右手の1つの指先の位置P11との距離d3は、第1距離より大きいため、制御装置12は、位置P11の指先を位置P2の指先とペアリングしない。
ユーザU2の目の位置P13から第1距離の範囲にユーザU2の右手の1つの指先のみが存在するため、制御装置12は、この指先を用いたシングル操作を受け付ける。ユーザU2は、指先の位置P11の空間座標に対応する画面上の操作点P15aを用いたシングル操作を行える。ユーザU2は、右手の指先に替えて、左手の指先を用いてシングル操作を行ってもよい。
図示しないが、ユーザU1が1本の指を立て、ユーザU2が1本の指を立てた場合、制御装置12は、これらの2つの指先をペアリングせず、それぞれのユーザのシングル操作を受け付ける。
図示しないが、例えば、一方のユーザU2が指を出さない場合、制御装置12は、そのユーザU2の目を検出するが、ユーザU2に関して処理を実行しない。
次に、以上の構成による表示システム1の全体的な動作を説明する。図8は、図1の表示システム1の処理を示すフローチャートである。画像取得部24は、目と指先が検出されたか判定し(S10)、検出されなければ(S10のN)、S10に戻る。目と指先が検出された場合(S10のY)、座標演算部26は、目と指先の3次元座標を演算する(S12)。判定部28は、各ユーザに関して受け付ける操作の種類を決定し(S14)、機能実行部32は、各ユーザに関して操作に応じた処理を実行し(S16)、処理を終了する。
なお、ユーザの数が複数の場合、機能実行部32は、S14で操作の種類が決定したユーザから順に、操作に応じた処理を実行してもよい。
図9は、図8のS14における1人のユーザに対する処理を示すフローチャートである。複数のユーザが存在する場合、図8のS14において、各ユーザに対して図9の処理が実行される。
判定部28は、目から第1距離の範囲にある指先の数が「0」であれば(S20の「0」)、処理を実行しないことを決定し(S34)、処理を終了する。判定部28は、目から第1距離の範囲にある指先の数が「1」であれば(S20の「1」)、シングル操作の受け付けを決定し(S32)、処理を終了する。
目から第1距離の範囲にある指先の数が「2」であり(S20の「2」)、2本の指先の距離が第2距離以下であれば(S22のY)、基準点設定部30は、2本の指先の中間点の3次元座標を導出し(S24)、中間点の3次元座標と目の3次元座標から、ディスプレイ14上の基準点を設定する(S26)。指先が所定時間以上、静止していなければ(S28のN)、判定部28は、マルチ操作の受け付けを決定し(S30)、処理を終了する。
S22において2本の指先の距離が第2距離以下でなければ(S22のN)、S32に移る。S28において指先が所定時間以上、静止していれば(S28のY)、S32に移る。
本実施の形態によれば、ユーザの視線が2つの指先の中間点を通るときの画像上のユーザの視点を基準点として、画像の縮小、拡大、または回転等を実行できるので、ユーザに違和感を与えにくくできる。
以上、本開示について、実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素あるいは各処理プロセスの組合せにいろいろな変形例が可能なこと、また、そうした変形例も本開示の範囲にあることは当業者に理解されるところである。
本開示の一態様に係る制御装置は、
ディスプレイの前に位置するユーザの身体の第1部分、第2部分、および第3部分のそれぞれの空間座標を取得し、前記第1部分の空間座標と前記第2部分の空間座標との中間点を特定し、特定された前記中間点と前記第3部分の空間座標とを通る仮想直線が交差する前記ディスプレイ上の点を基準点として設定する基準点設定部と、
設定された前記基準点を基準として、前記第1部分と前記第2部分の動きに応じた処理を前記ディスプレイに表示された画像に対して実行する機能実行部と、
を備える。
この態様によると、ユーザの視線が第1部分と第2部分の中間点を通るときの画像上の視点に近い位置を基準点として、画像に対して処理を実行できる。よって、ユーザに違和感を与えにくくできる。
前記第1部分は、前記ユーザの第1の指先であり、
前記第2部分は、前記ユーザの第2の指先であり、
前記第3部分は、前記ユーザの顔の一部分であってもよい。
この場合、2つの指先の動きに基づいて画像を容易に操作できる。また、第3部分がユーザの顔の一部分であるため、ユーザの視線が第1部分と第2部分の中間点を通るときの画像上の視点により近い位置を基準点にできる。よって、よりユーザに違和感を与えにくくできる。
前記第3部分は、前記ユーザの目であってもよい。
この場合、ユーザの視線が第1の指先と第2の指先の中間点を通るときの画像上の視点を基準点にできる。よって、さらにユーザに違和感を与えにくくできる。
前記制御装置は、1以上の前記ユーザを撮像した画像を取得し、取得した画像に基づいて、それぞれの前記ユーザの前記第3部分を検出する画像取得部をさらに備え、
前記基準点設定部は、検出された1以上の前記第3部分のそれぞれに関して、前記第3部分から第1距離の範囲に前記第1部分と前記第2部分が位置する場合、前記基準点を設定してもよい。
この場合、1以上のユーザのうち条件を満たすユーザのそれぞれに関して、基準点を設定できる。
前記機能実行部は、検出された1以上の前記第3部分のそれぞれに関して、前記第3部分から前記第1距離の範囲に前記第1部分と前記第2部分が位置する場合、所定のマルチ操作条件が満たされれば、前記基準点を基準として、前記第1部分と前記第2部分の動きに応じた処理を前記画像に対して実行してもよい。
この場合、1以上のユーザのうち条件を満たすユーザのそれぞれに関して、基準点を基準として画像に対する処理を実行できる。よって、複数のユーザによる操作にも対応できる。
前記機能実行部は、検出された1以上の前記第3部分のそれぞれに関して、前記第3部分から前記第1距離の範囲に前記第1部分と前記第2部分が位置するが前記マルチ操作条件が満たされない場合、または、前記第3部分から前記第1距離の範囲に前記第1部分と前記第2部分のいずれか一方のみが位置する場合、前記第1部分の動きに応じた処理と、前記第2部分の動きに応じた処理との少なくともいずれかを実行してもよい。
この場合、1以上のユーザのうち条件を満たすユーザのそれぞれに関して、第1部分の動きに応じた処理と、第2部分の動きに応じた処理との少なくともいずれかを実行できる。よって、複数のユーザによる様々な操作にも対応できる。
前記マルチ操作条件は、前記第1部分と前記第2部分の距離が第2距離以下であり、かつ、前記第1部分と前記第2部分が所定時間以上にわたり静止していないことでもよい。
この場合、ユーザは容易にマルチ操作条件を満たすことができる。
前記機能実行部は、前記第1部分と前記第2部分の動きに応じた処理として、
前記第1部分と前記第2部分を近づけるピンチイン動作に応じて、前記基準点を中心として前記画像を縮小させる処理と、
前記第1部分と前記第2部分を遠ざけるピンチアウト動作に応じて、前記基準点を中心として前記画像を拡大させる処理と、を実行してもよい。
この場合、第1部分と第2部分による動作に応じて、基準点を中心として画像の拡大または縮小を実行できる。
前記機能実行部は、前記第1部分と前記第2部分の動きに応じた処理として、前記第1部分と前記第2部分を前記中間点の周りで回転させる回転動作に応じて、前記基準点を中心として前記画像を回転させる処理を実行してもよい。
この場合、第1部分と第2部分による動作に応じて、基準点を中心として画像の回転を実行できる。
本開示の一態様に係る制御方法は、
ディスプレイの前に位置するユーザの身体の第1部分、第2部分、および第3部分のそれぞれの空間座標を取得するステップと、
前記第1部分の空間座標と前記第2部分の空間座標との中間点を特定し、特定された前記中間点と前記第3部分の空間座標とを通る仮想直線が交差する前記ディスプレイ上の点を基準点として設定するステップと、
設定された前記基準点を基準として、前記第1部分と前記第2部分の動きに応じた処理を前記ディスプレイに表示された画像に対して実行するステップと、
を備える。
この態様によると、ユーザに違和感を与えにくくできる。
1…表示システム、10…センサ、12…制御装置、14…ディスプレイ、20…制御部、22…記憶部、24…画像取得部、26…座標演算部、28…判定部、30…基準点設定部、32…機能実行部、34…表示出力部、50…指先、52…指先、54…目、P4…中間点、P5…基準点。

Claims (10)

  1. ディスプレイの前に位置するユーザの身体の第1部分、第2部分、および第3部分のそれぞれの空間座標を取得し、前記第1部分の空間座標と前記第2部分の空間座標との中間点を特定し、特定された前記中間点と前記第3部分の空間座標とを通る仮想直線が交差する前記ディスプレイ上の点を基準点として設定する基準点設定部と、
    設定された前記基準点を基準として、前記第1部分と前記第2部分の動きに応じた処理を前記ディスプレイに表示された画像に対して実行する機能実行部と、
    を備える制御装置。
  2. 前記第1部分は、前記ユーザの第1の指先であり、
    前記第2部分は、前記ユーザの第2の指先であり、
    前記第3部分は、前記ユーザの顔の一部分である、
    請求項1に記載の制御装置。
  3. 前記第3部分は、前記ユーザの目である、
    請求項2に記載の制御装置。
  4. 1以上の前記ユーザを撮像した画像を取得し、取得した画像に基づいて、それぞれの前記ユーザの前記第3部分を検出する画像取得部をさらに備え、
    前記基準点設定部は、検出された1以上の前記第3部分のそれぞれに関して、前記第3部分から第1距離の範囲に前記第1部分と前記第2部分が位置する場合、前記基準点を設定する、
    請求項1から3のいずれかに記載の制御装置。
  5. 前記機能実行部は、検出された1以上の前記第3部分のそれぞれに関して、前記第3部分から前記第1距離の範囲に前記第1部分と前記第2部分が位置する場合、所定のマルチ操作条件が満たされれば、前記基準点を基準として、前記第1部分と前記第2部分の動きに応じた処理を前記画像に対して実行する、
    請求項4に記載の制御装置。
  6. 前記機能実行部は、検出された1以上の前記第3部分のそれぞれに関して、前記第3部分から前記第1距離の範囲に前記第1部分と前記第2部分が位置するが前記マルチ操作条件が満たされない場合、または、前記第3部分から前記第1距離の範囲に前記第1部分と前記第2部分のいずれか一方のみが位置する場合、前記第1部分の動きに応じた処理と、前記第2部分の動きに応じた処理との少なくともいずれかを実行する、
    請求項5に記載の制御装置。
  7. 前記マルチ操作条件は、前記第1部分と前記第2部分の距離が第2距離以下であり、かつ、前記第1部分と前記第2部分が所定時間以上にわたり静止していないことである、
    請求項5または6に記載の制御装置。
  8. 前記機能実行部は、前記第1部分と前記第2部分の動きに応じた処理として、
    前記第1部分と前記第2部分を近づけるピンチイン動作に応じて、前記基準点を中心として前記画像を縮小させる処理と、
    前記第1部分と前記第2部分を遠ざけるピンチアウト動作に応じて、前記基準点を中心として前記画像を拡大させる処理と、を実行する、
    請求項1から7のいずれかに記載の制御装置。
  9. 前記機能実行部は、前記第1部分と前記第2部分の動きに応じた処理として、前記第1部分と前記第2部分を前記中間点の周りで回転させる回転動作に応じて、前記基準点を中心として前記画像を回転させる処理を実行する、
    請求項1から8のいずれかに記載の制御装置。
  10. ディスプレイの前に位置するユーザの身体の第1部分、第2部分、および第3部分のそれぞれの空間座標を取得するステップと、
    前記第1部分の空間座標と前記第2部分の空間座標との中間点を特定し、特定された前記中間点と前記第3部分の空間座標とを通る仮想直線が交差する前記ディスプレイ上の点を基準点として設定するステップと、
    設定された前記基準点を基準として、前記第1部分と前記第2部分の動きに応じた処理を前記ディスプレイに表示された画像に対して実行するステップと、
    を備える制御方法。
JP2022041251A 2022-03-16 2022-03-16 制御装置および制御方法 Pending JP2023135920A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022041251A JP2023135920A (ja) 2022-03-16 2022-03-16 制御装置および制御方法
PCT/JP2022/039533 WO2023176034A1 (ja) 2022-03-16 2022-10-24 制御装置および制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022041251A JP2023135920A (ja) 2022-03-16 2022-03-16 制御装置および制御方法

Publications (1)

Publication Number Publication Date
JP2023135920A true JP2023135920A (ja) 2023-09-29

Family

ID=88023196

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022041251A Pending JP2023135920A (ja) 2022-03-16 2022-03-16 制御装置および制御方法

Country Status (2)

Country Link
JP (1) JP2023135920A (ja)
WO (1) WO2023176034A1 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105593787B (zh) * 2013-06-27 2019-07-05 视力移动科技公司 用于与数字设备交互的直接指向检测的系统和方法
EP3283938B1 (en) * 2015-04-16 2020-10-07 Rakuten, Inc. Gesture interface
JP2021015637A (ja) * 2020-11-05 2021-02-12 マクセル株式会社 表示装置

Also Published As

Publication number Publication date
WO2023176034A1 (ja) 2023-09-21

Similar Documents

Publication Publication Date Title
JP5981591B1 (ja) 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム
US10949057B2 (en) Position-dependent modification of descriptive content in a virtual reality environment
JP6046729B2 (ja) 全方向ジェスチャー入力
JP7150108B2 (ja) ゲームプログラム、情報処理装置、情報処理システム、および、ゲーム処理方法
WO2007053116A1 (en) Virtual interface system
JP2023089287A (ja) ゲームプログラム、情報処理装置、情報処理システム、および、ゲーム処理方法
KR20070035082A (ko) 전자 장치의 기능을 제어하기 위한 전자 장치 및 방법 및상기 방법을 구현하기 위한 프로그램 생성물
KR102170638B1 (ko) 손가락 마디의 추적을 통한 가상현실 내 상호작용 제어방법 및 이를 이용한 vr 시스템
JP2016224686A (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP6563596B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP4364861B2 (ja) 情報表示装置
JP6874149B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2021176104A (ja) プログラム、画像処理方法及び画像処理システム
JP6549066B2 (ja) 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム
WO2023176034A1 (ja) 制御装置および制御方法
CN113760085A (zh) 虚拟环境构建和应用方法、vr设备及虚拟现实交互系统
KR102448108B1 (ko) 객체 제어를 지원하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
CN113778242B (zh) 一种控制方法、遥控设备及存储介质
WO2023181549A1 (ja) 制御装置、制御方法、プログラム
WO2023238663A1 (ja) 情報処理装置および情報処理方法
JP6255525B1 (ja) 電子ゲーム装置及び電子ゲームプログラム
JP2023143634A (ja) 制御装置、制御方法、プログラム
JP2021062251A (ja) プログラム及びゲーム装置
CN117944031A (en) Control method of flexible mechanical arm, equipment and medium
CN114077309A (zh) 用于辅助对象控制的方法、系统和非暂时性计算机可读记录介质

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20240227