JP2023184001A - Method for controlling control device, control device and display system - Google Patents
Method for controlling control device, control device and display system Download PDFInfo
- Publication number
- JP2023184001A JP2023184001A JP2022097873A JP2022097873A JP2023184001A JP 2023184001 A JP2023184001 A JP 2023184001A JP 2022097873 A JP2022097873 A JP 2022097873A JP 2022097873 A JP2022097873 A JP 2022097873A JP 2023184001 A JP2023184001 A JP 2023184001A
- Authority
- JP
- Japan
- Prior art keywords
- operator
- image
- captured image
- detection area
- detecting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000001514 detection method Methods 0.000 claims abstract description 117
- 238000003384 imaging method Methods 0.000 claims abstract description 19
- 238000012545 processing Methods 0.000 description 49
- 210000003811 finger Anatomy 0.000 description 29
- 230000015654 memory Effects 0.000 description 17
- 230000008569 process Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 14
- 239000004973 liquid crystal related substance Substances 0.000 description 14
- 238000004891 communication Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000005401 electroluminescence Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000035515 penetration Effects 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 210000004932 little finger Anatomy 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 238000002834 transmittance Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- QSHDDOUJBYECFT-UHFFFAOYSA-N mercury Chemical compound [Hg] QSHDDOUJBYECFT-UHFFFAOYSA-N 0.000 description 1
- 229910052753 mercury Inorganic materials 0.000 description 1
- 229910001507 metal halide Inorganic materials 0.000 description 1
- 150000005309 metal halides Chemical class 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Abstract
Description
本発明は、制御装置の制御方法、制御装置及び表示システムに関する。 The present invention relates to a control method for a control device, a control device, and a display system.
従来、ユーザーのジェスチャーをカメラの撮像画像から検出し、検出したジェスチャーに対応した処理を実行する技術が知られている。
例えば、特許文献1に開示の表示装置は、ユーザーを含む範囲を撮影する2つのカメラを備え、これら2つのカメラの撮影映像に基づいて、設定した仮想空間におけるユーザーの手指の進入度合いを検出する。さらに、表示装置は、検出した手指の進入度合いに基づきユーザーの操作を判定し、判定した操作により表示装置の動作を制御する。
2. Description of the Related Art Conventionally, a technique is known that detects a user's gesture from an image captured by a camera and executes processing corresponding to the detected gesture.
For example, the display device disclosed in
しかしながら、特許文献1の表示装置は、2つのカメラを用いてユーザーの手指の進入度合いを示す3次元位置座標を検出する構成であるため、システム構成が複雑になる。
However, since the display device of
本開示の制御装置の制御方法は、第1画像を表示装置に表示させることと、操作者を撮像した撮像画像を取得することと、前記撮像画像に基づき、前記操作者の身体的な特徴点群を検出することと、前記特徴点群に基づく大きさの、前記操作者の操作を検出する検出領域を前記撮像画像内に設定することと、前記撮像画像の前記検出領域内から前記操作者により指示される第1指示位置を検出することと、前記第1指示位置に対応する前記第1画像における位置である第2指示位置を取得することと、前記第2指示位置に基づき第2画像を生成することと、前記第2画像を前記表示装置に表示させることと、を含む制御装置の制御方法である。 A control method for a control device according to the present disclosure includes displaying a first image on a display device, acquiring a captured image of an operator, and determining physical characteristic points of the operator based on the captured image. detecting a group of feature points, setting a detection area for detecting an operation of the operator in the captured image, the size of which is based on the group of feature points, and detecting the operation of the operator from within the detection area of the captured image detecting a first indicated position indicated by the first indicated position; obtaining a second indicated position that is a position in the first image corresponding to the first indicated position; and detecting a second indicated position in the second image based on the second indicated position. A control method for a control device includes: generating a second image; and displaying the second image on the display device.
本開示の制御装置は、第1画像を表示装置に表示させることと、操作者を撮像した撮像画像を取得することと、前記撮像画像に基づき、前記操作者の身体的な特徴点群を検出することと、前記特徴点群に基づく大きさの、前記操作者の操作を検出する検出領域を前記撮像画像内に設定することと、前記撮像画像の前記検出領域内から前記操作者により指示される第1指示位置を検出することと、前記第1指示位置に対応する前記第1画像における位置である第2指示位置を取得することと、前記第2指示位置に基づき第2画像を生成することと、前記第2画像を前記表示装置に表示させることと、を実行する制御装置である。 The control device of the present disclosure displays a first image on a display device, acquires a captured image of an operator, and detects a group of physical feature points of the operator based on the captured image. setting a detection area for detecting an operation by the operator in the captured image, the size of which is based on the feature point group; detecting a first indicated position corresponding to the first indicated position; obtaining a second indicated position that is a position in the first image corresponding to the first indicated position; and generating a second image based on the second indicated position. and displaying the second image on the display device.
本開示の表示システムは、第1画像を表示する表示装置と、操作者を撮像する撮像装置と、前記撮像装置から、操作者を撮像した撮像画像を取得することと、前記撮像画像に基づき、前記操作者の身体的な特徴点群を検出することと、前記特徴点群に基づく大きさの、前記操作者の操作を検出する検出領域を前記撮像画像内に設定することと、前記撮像画像の前記検出領域内から前記操作者により指示される第1指示位置を検出することと、前記第1指示位置に対応する前記第1画像における位置である第2指示位置を取得することと、前記第2指示位置に基づき第2画像を生成することと、を実行する制御装置と、を備え、前記表示装置は、前記第2画像を表示することと、を実行する表示システムである。 The display system of the present disclosure includes: a display device that displays a first image; an imaging device that captures an image of an operator; a captured image that captures the operator from the imaging device; and based on the captured image, detecting a group of physical feature points of the operator; setting a detection area in the captured image for detecting an operation of the operator having a size based on the group of feature points; and detecting a first designated position designated by the operator from within the detection area; and obtaining a second designated position that is a position in the first image corresponding to the first designated position; The display device is a display system that includes: a control device that executes the following: generating a second image based on a second designated position; and the display device executes the following operations: displaying the second image.
1.表示システムの構成
図1は、表示システム1のシステム構成を示す図である。
表示システム1は、ユーザー30を撮像するカメラ100と、投写面10に画像を表示するプロジェクター200と、カメラ100及びプロジェクター200を制御する制御装置300と、を備える。制御装置300は、プロジェクター200に画像を供給する画像供給装置としても動作する。
1. Configuration of Display System FIG. 1 is a diagram showing the system configuration of a
The
図1には、カメラ100と制御装置300とを無線により接続し、プロジェクター200と制御装置300とを有線により接続した例を示す。カメラ100と制御装置300との接続は有線であってもよいし、プロジェクター200と制御装置300との接続は無線であってもよい。
FIG. 1 shows an example in which a
カメラ100は、制御装置300からの指示、又は、ユーザー30の操作を受け付けると、予め設定された範囲を撮像して撮像画像を生成する。カメラ100は、例えば、ユーザー30の上半身が画角内に含まれるように設置される。カメラ100は、生成した撮像画像を制御装置300に送信する。
When the
プロジェクター200は、制御装置300から供給される画像データに基づいて画像光を生成する。プロジェクター200は、生成した画像光を投写面10に投写する。これにより投写面10には、画像データに基づく画像が表示される。
制御装置300は、例えば、ノート型やデスクトップ型、タブレット型のパーソナルコンピューターである。制御装置300としてスマートフォンを用いることもできる。
The
制御装置300は、カメラ100の撮像画像を受信し、受信した撮像画像を解析してユーザー30が行うジェスチャーを検出する。制御装置300は、検出したジェスチャーに対応づけられた処理を実行し、実行した処理の処理結果を示す画像データをプロジェクター200に送信する。プロジェクター200は、制御装置300から受信した画像データに基づく画像を投写面10に表示する。これにより投写面10には、ユーザー30が行ったジェスチャーに対応づけられた処理を実行した結果の画像が表示される。
The
2.カメラの構成
図2は、カメラ100の構成を示すブロック図である。
図2を参照しながらカメラ100の構成について説明する。
カメラ100は、第1無線インターフェイス110、撮像部130及び第1制御部150を備える。以下、インターフェイスをI/Fとも略記する。
2. Camera Configuration FIG. 2 is a block diagram showing the configuration of the
The configuration of the
The
第1無線I/F110は、例えば、BluetoothやWi-Fi等の規格に対応した通信回路を備える無線通信デバイスである。Bluetooth及びWi-Fiは、登録商標である。第1無線I/F110は、制御装置300に無線接続し、制御装置300との間で相互にデータ通信を行う。また、第1無線I/F110に代えて、例えば、USB(Universal Serial Bus)等の規格に対応した有線I/Fをカメラ100が備え、カメラ100と制御装置300とを有線で接続する構成であってもよい。
The first wireless I/F 110 is, for example, a wireless communication device including a communication circuit compatible with standards such as Bluetooth and Wi-Fi. Bluetooth and Wi-Fi are registered trademarks. The first wireless I/F 110 is wirelessly connected to the
撮像部130は、レンズ群、イメージセンサー、信号処理回路等を備える。レンズ群、イメージセンサー、信号処理回路の図示は省略する。
レンズ群は、撮像レンズ、フォーカスレンズ等の各種レンズを備える。
イメージセンサーは、CMOS(Complementary Metal Oxide Semiconductor)センサーや、CCD(Charge Coupled Device)センサー等により構成される。イメージセンサーは、入射される被写体光を光電変換して赤、緑及び青の3原色の画像信号を生成する。画像信号は、信号処理回路に入力される。
信号処理回路は、イメージセンサーから入力される画像信号に対してゲイン調整、A/D変換、ノイズ除去、色補正、ガンマ補正等の信号処理を行う。信号処理回路は、画像信号を信号処理して撮像画像を生成する。信号処理回路は、生成した撮像画像を第1制御部150に出力する。
The
The lens group includes various lenses such as an imaging lens and a focus lens.
The image sensor includes a CMOS (Complementary Metal Oxide Semiconductor) sensor, a CCD (Charge Coupled Device) sensor, and the like. The image sensor photoelectrically converts incident light from an object to generate image signals of three primary colors: red, green, and blue. The image signal is input to a signal processing circuit.
The signal processing circuit performs signal processing such as gain adjustment, A/D conversion, noise removal, color correction, and gamma correction on the image signal input from the image sensor. The signal processing circuit performs signal processing on the image signal to generate a captured image. The signal processing circuit outputs the generated captured image to the
第1制御部150は、第1記憶部160と、第1プロセッサー170とを備えるコンピューター装置である。
The
第1記憶部160は、ROM(Read Only Memory)等の不揮発性のメモリーと、RAM(Random Access Memory)等の揮発性のメモリーとを備える。ROMは、カメラ100の動作を制御する制御プログラム165や各種設定情報を記憶する。RAMは、第1プロセッサー170の演算領域として使用され、各種のデータの一時記憶に用いられる。
The
第1プロセッサー170は、1以上のCPU(Central Processing Unit)や、MPU(Micro-Processing Unit)等のプロセッサーを含む演算処理装置である。第1プロセッサー170は、制御プログラム165を実行してカメラ100の各部の動作を制御する。
第1プロセッサー170は、第1無線I/F110や撮像部130の動作を制御する。第1プロセッサー170は、制御装置300から受信した指示、又は、ユーザー30の操作に基づいて撮像部130を制御し、撮像部130に撮像画像を生成させる。第1プロセッサー170は、撮像部130から入力される撮像画像を、制御装置300に送信する。
The
The
3.プロジェクターの構成
図3は、プロジェクター200の構成を示すブロック図である。
図3を参照しながらプロジェクター200の構成について説明する。
プロジェクター200は、第1有線I/F210、画像処理部220、フレームメモリー225、画像投写部230及び第2制御部250を備える。
3. Configuration of Projector FIG. 3 is a block diagram showing the configuration of the
The configuration of the
The
第1有線I/F210は、例えば、HDMI(High-Definition Multimedia Interface)やUSB(Universal Serial Bus)等の規格に対応した接続端子と、I/F回路とを備える。HDMIは、登録商標である。第1有線I/F210は、制御装置300に有線接続し、制御装置300から供給される画像データを受信する。第1有線I/F210は、受信した画像データを画像処理部220に出力する。
The first wired I/
画像処理部220には、フレームメモリー225が接続される。画像処理部220は、第2制御部250や第1有線I/F210から入力される画像データをフレームメモリー225に展開する。フレームメモリー225は、例えば、SDRAM(Synchronous Dynamic Random Access Memory)により構成される。
A
画像処理部220は、フレームメモリー225に展開した画像データに対して、例えば、解像度変換処理又はリサイズ処理、歪曲収差の補正、形状補正処理、デジタルズーム処理、画像の色合いや輝度の調整等の画像処理を行う。画像処理部220は、第2制御部250により指定された画像処理を実行し、必要に応じて、第2制御部250から入力されるパラメーターを使用して処理を行う。また、画像処理部220は、上記のうち複数の画像処理を組み合わせて実行することも勿論可能である。画像処理部220は、処理の終了した画像データをフレームメモリー225から読み出し、読み出した画像データを画像投写部230に出力する。
The
画像処理部220及びフレームメモリー225は、例えば、集積回路により構成される。集積回路には、LSI(Large Scale Integrated Circuit)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field-Programmable Gate Array)、SoC(System-on-a-chip)等が含まれる。また、集積回路の構成の一部にアナログ回路が含まれていてもよく、第2制御部250と集積回路とが組み合わされた構成であってもよい。
The
画像投写部230は、光源231、光変調装置233及び光学ユニット237を備える。
The
光源231は、超高圧水銀ランプやメタルハライドランプ等の放電型の光源ランプ、又は発光ダイオードや半導体レーザー等の固体光源を備える。光源231が射出した光は、光変調装置233に入射される。
The
光変調装置233は、光源231が射出した光を変調する光変調素子として、一対の透明基板間に液晶が封入された透過型の液晶パネル235を備える。液晶パネル235は、マトリクス状に配列された複数の画素を備える。光変調装置233は、入力された画像データに対応した駆動電圧を液晶パネル235の各画素に印加し、各画素の光透過率を画像データに対応した透過率に変更する。光源231から射出された光が液晶パネル235を透過することで光源231が射出した光が変調され、画像データに対応した画像光が生成される。
The
光変調装置233が備える光変調素子は、透過型の液晶パネルに限定されず、例えば、反射型の液晶パネルでもよいし、DMD(Digital Micromirror Device)でもよい。
The light modulation element included in the
光学ユニット237は、不図示の投写レンズ等を備え、光変調装置233により変調された画像光を投写面10に拡大投写する。これにより投写面10には、画像光に対応した画像が表示される。
The
第2制御部250は、第2記憶部260と、第2プロセッサー270とを備えるコンピューター装置である。
The
第2記憶部260は、ROM等の不揮発性のメモリーと、RAM等の揮発性のメモリーとを備える。ROMは、プロジェクター200の動作の制御に使用する制御プログラム265や、各種設定情報を記憶する。RAMは、第2プロセッサー270の演算領域として使用され、各種のデータの一時記憶に用いられる。
The
第2プロセッサー270は、1以上のCPUや、MPU等のプロセッサーを含む演算処理装置である。第2プロセッサー270は、制御プログラム265を実行してプロジェクター200の各部の動作を制御する。
The
4.制御装置の構成
図4は、制御装置300の構成を示すブロック図である。
図4を参照しながら制御装置300の構成について説明する。
制御装置300は、第2無線I/F310、第2有線I/F320、操作部330、表示部340及び第3制御部350を備える。
4. Configuration of Control Device FIG. 4 is a block diagram showing the configuration of the
The configuration of the
The
第2無線I/F310は、例えば、BluetoothやWi-Fi等の規格に対応した通信回路を備える無線通信デバイスである。第2無線I/F310は、カメラ100に無線接続し、カメラ100との間で相互にデータ通信を行う。
The second wireless I/
第2有線I/F320は、例えば、HDMIやUSB等の規格に対応した接続端子と、I/F回路とを備える。第2有線I/F320は、プロジェクター200と有線接続し、プロジェクター200に画像データを送信する。
The second wired I/
操作部330は、例えば、マウスやキーボード等の入力デバイスを備え、ユーザー30の操作を受け付ける。操作部330は、受け付けた操作に対応した操作信号を第3制御部350に出力する。
The
タッチパネル340は、液晶パネルや有機EL(Electro Luminescence)等の表示パネル341と、タッチセンサー343とを含む。タッチセンサー343は、タッチ操作を検出し、検出したタッチ操作の操作位置を含む操作信号を第3制御部350に出力する。
The
第3制御部350は、第3記憶部360と、第3プロセッサー370とを備えるコンピューター装置である。
The
第3記憶部360は、ROM等の不揮発性のメモリーと、RAM等の揮発性のメモリーとを備える。また、第3記憶部360は、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の補助記憶装置を備える構成であってもよい。ROMは、制御装置300の動作を制御するOS(Operating System)361や、アプリケーションプログラム363、学習モデル365及びキャリブレーションデータ367を記憶する。以下、アプリケーションプログラムをAPPという。RAMは、各種データ等の一時記憶に用いられる。また、RAMには、カメラ100から受信した撮像画像が一時的に記憶される。
The
学習モデル365は、教師データを用いた機械学習、すなわち教師あり学習によって、人の特徴点を検出する機械学習モデルである。機械学習モデルはアルゴリズム及びデータ構造を用いて構築することができる。機械学習の手法は何ら限定されず、例えば、ニューラルネットワーク、ディープラーニングなどの様々な手法が用いられてよい。教師データは、機械学習モデルに入力される入力ベクトルと、その入力ベクトルから得られるべき正しいラベル情報との多数の組合せによって構成されるデータである。本実施形態では、入力ベクトルは、撮像画像に相当し、ラベル情報は、人の特徴点である。特徴点には、人の手のひらや腕、足、腰等の関節や、肩、瞳孔、目尻、目頭、口等が含まれる。
The
キャリブレーションデータ367は、後述する検出領域500の座標と、タッチパネル340に表示される表示画像の座標とを対応づけるデータである。つまり、キャリブレーションデータ367は、検出領域500の座標を、表示画像の座標に変換する変換データである。キャリブレーションデータ367は、表示画像の画素数と、検出領域500の画素数とに基づいて設定される。
The
第3プロセッサー370は、1以上のCPUや、MPU等のプロセッサーを含む演算処理装置である。第3プロセッサー370は、OS361やAPP363を実行してプロジェクター200の各部の動作を制御する。また、第3プロセッサー370は、学習モデル365を用いてユーザー30が行ったジェスチャーを検出する。第3プロセッサー370は、ジェスチャーの検出結果に基づき、制御装置300の動作モードを変更したり、検出したジェスチャーに対応した処理を実行したりする。
The
5.制御装置の動作
次に、制御装置300の動作について説明する。
第3制御部350は、カメラ100に撮像を開始させ、カメラ100から撮像画像を受信すると、受信した撮像画像を第3記憶部360に一時的に記憶させる。
5. Operation of Control Device Next, the operation of the
The
次に、第3制御部350は、第3記憶部360から撮像画像を取得する。
第3制御部350は、学習モデル365を用いて、撮像画像に含まれる手のひらや腕等に含まれる関節や、肩、瞳孔、目尻、目頭、口、鼻等の特徴点を検出する。
Next, the
The
次に、第3制御部350は、検出した特徴点に基づき、ウェイクアップジェスチャー、スリープジェスチャー及び操作ジェスチャーを検出する。
ウェイクアップジェスチャーは、制御装置300の動作モードをデバイス操作モードから、ジェスチャー操作モードに変更するときに行うジェスチャーである。
スリープジェスチャーは、制御装置300の動作モードをジェスチャー操作モードから、デバイス操作モードに変更するときに行うジェスチャーである。
Next, the
The wake-up gesture is a gesture performed when changing the operation mode of the
The sleep gesture is a gesture performed when changing the operation mode of the
制御装置300は、動作モードとして、デバイス操作モードと、ジェスチャー操作モードとを備える。
デバイス操作モードは、ユーザー30の操作を、操作部330やタッチパネル340により受け付けるモードである。第3制御部350は、操作を受け付けた操作部330やタッチパネル340から入力される操作信号に基づき、例えば、APP363の起動や終了、ファイルを開く、閉じる、APP363が備える操作メニューを選択する、等の処理を実行する。
The
The device operation mode is a mode in which operations by the
ジェスチャー操作モードは、ユーザー30のジェスチャーによる操作を受け付けるモードである。
第3制御部350は、制御装置300の動作モードがジェスチャー操作モードである場合、撮像画像を画像解析して操作ジェスチャーを検出し、検出した操作ジェスチャーに対応した処理を実行する。
操作ジェスチャーは、第3制御部350が受け付け可能な操作が対応づけられたジェスチャーである。第3制御部350が受け付け可能な操作には、上述したAPP363の起動や終了、ファイルを開く、閉じる、APP363が備える操作メニューを選択する等の操作である。
The gesture operation mode is a mode in which operations by gestures from the
When the operation mode of the
The operation gesture is a gesture associated with an operation that the
図5は、ウェイクアップジェスチャーの一例を示す図である。
本実施形態のウェイクアップジェスチャーは、手のひらがカメラ100に撮像されるようにカメラ100に向け、人差し指を立てた状態で、手をユーザー30の肩より低い位置から、肩より高い位置に移動させる動作である。
ウェイクアップジェスチャーは、人差し指と中指等の複数本の指を立てた状態で行ってもよい。また、ウェイクアップジェスチャーは、親指や小指等、人差し指以外の指を立てた状態で行ってもよい。立てた状態とは、指の関節を曲げずに伸ばした状態を意味する。
FIG. 5 is a diagram illustrating an example of a wake-up gesture.
The wake-up gesture of this embodiment is an action of moving the hand from a position lower than the user's 30 shoulder to a position higher than the shoulder with the palm facing the
The wake-up gesture may be performed with multiple fingers, such as the index finger and middle finger, held up. Further, the wake-up gesture may be performed with a finger other than the index finger, such as the thumb or little finger, held up. Upright state means a state in which the joints of the fingers are extended without being bent.
図6は、スリープジェスチャーの一例を示す図である。
本実施形態のスリープジェスチャーは、手の形状を、ウェイクアップジェスチャーと同様に、手のひらがカメラ100に撮像されるようにカメラ100に向け、人差し指を立てた状態で、手をユーザー30の肩より高い位置から、肩より低い位置に移動させる動作である。
スリープジェスチャーも人差し指と中指等の複数本の指を立てた状態で行ってもよいし、親指や小指等、人差し指以外の指を立てた状態で行ってもよい。
FIG. 6 is a diagram illustrating an example of a sleep gesture.
In the sleep gesture of this embodiment, the hand is raised higher than the shoulder of the
The sleep gesture may also be performed with multiple fingers such as the index finger and middle finger held up, or may be performed with any finger other than the index finger held up, such as the thumb or little finger.
第3制御部350は、制御装置300の動作モードがデバイス操作モードの場合、カメラ100に撮像を実行させて、カメラ100から受信した撮像画像を、学習モデル365を用いて画像解析し、ウェイクアップジェスチャーを検出する。
また、第3制御部350は、制御装置300の動作モードがジェスチャー操作モードである場合、カメラ100から受信した撮像画像を、学習モデル365を用いて画像解析し、操作ジェスチャーや、指示操作及びスリープジェスチャーを検出する。指示操作の詳細については後述する。
When the operation mode of the
Further, when the operation mode of the
第3制御部350は、デバイス操作モードにおいて、ウェイクアップジェスチャーを検出すると、撮像画像内に検出領域500を設定する。検出領域500は、撮像画像において、操作ジェスチャーを検出する領域である。検出領域500を設定することで、撮像画像の全体から操作ジェスチャーを検出する場合と比較して、処理負荷を軽減し、操作ジェスチャーの検出精度を高めることができる。
When the
まず、第3制御部350は、学習モデル365を用いて、ユーザー30の手のひらの人差し指の付け根に対応する特徴点を撮像画像から検出する。ユーザー30の手のひらから検出される特徴点は、第2特徴点に相当する。
第3制御部350は、検出した特徴点、又は特徴点の中心を、検出領域500の縦方向及び横方向の中心に設定する。縦方向は、撮像画像の縦辺に平行な方向であり、横方向は、撮像画像の横辺に平行な方向である。
First, the
The
また、第3制御部350は、学習モデル365に基づいて検出したユーザーの左右の眼の特徴点を検出する。左右の眼の特徴点は、例えば、左右の眼の瞳孔であってもよいし、目頭や目尻であってもよい。左右の眼の特徴点は、第1特徴点に相当する。
第3制御部350は、左右の眼の特徴点を検出すると、検出した左眼と右眼との特徴点間の距離L1、又は、左眼と右眼との特徴点の中心間の距離L2を求める。第3制御部350は、左眼と右眼との特徴点間の距離L1、又は、左眼と右眼との特徴点の中心間の距離L2に対応する撮像画像の画素数を算出する。特定した左眼と右眼との特徴点によって求めた距離のことを、以降は特徴点間の距離Lと記載する。特徴点間の距離Lとして、左眼と右眼との特徴点間の距離L1、又は、左眼と右眼との特徴点の中心間の距離L2の、いずれかを用いることができる。
Further, the
When the
次に、第3制御部350は、求めた特徴点間の距離Lに基づき、矩形の検出領域500の横幅及び縦幅を設定する。第3制御部350は、求めた特徴点間の距離Lに、予め設定された設定値を乗算して、検出領域500の横幅を算出する。つまり、矩形の検出領域500の対向する2辺である上辺及び下辺の長さが設定される。設定値は、例えば、3以上、10以下の範囲で変更が可能である。また、この設定値は、ユーザー30が操作部330を操作することで変更が可能である。例えば、ユーザー30は、検出領域500を大きく設定したい場合には、設定値を3以上、10以下の範囲で大きな値に設定し、検出領域500を小さく設定したい場合には、設定値を3以上、10以下の範囲で小さな値に設定する。
Next, the
図7は、撮像画像に設定された検出領域500を示す図である。
第3制御部350は、中心が、人差し指の付け根に対応する特徴点又は特徴点の中心に位置し、横幅が、算出した横幅となるように検出領域500を撮像画像内に設定する。また、第3制御部350は、検出領域500の縦幅を、算出した横幅と、タッチパネル340に表示された表示画像の縦横比とに基づいて設定する。具体的には、第3制御部350は、検出領域500の縦横比が、表示画像の縦横比と同一となるように、検出領域500の縦幅を設定する。検出領域500の縦幅は、撮像画像の画素数で設定される。
FIG. 7 is a diagram showing a
The
第3制御部350は、検出領域500を設定すると、キャリブレーションデータ367を生成する。検出領域500の縦幅及び横幅の画素数と、タッチパネル340の表示画像の縦幅及び横幅の画素数とに基づいてキャリブレーションデータ367を生成する。
キャリブレーションデータ367により、検出領域500から検出したユーザー30の指示位置と、画像データでの指示位置とが対応づけられる。
After setting the
The
キャリブレーションデータ367は、検出領域500の縦幅の画素数に対するタッチパネル340の表示画像の縦幅の画素数の比と、検出領域500の横幅の画素数に対するタッチパネル340の表示画像の横幅の画素数の比を含む。この場合、検出領域500における指示位置の座標値に、前述の画素数の比をそれぞれ乗算することで、タッチパネル340の表示画像における指示位置の座標値を算出することができる。また、キャリブレーションデータ367は画素数の比に限定されず、例えば、撮像画像における検出領域500の四隅の点の座標を、タッチパネル340における表示画像の四隅の点の座標へ射影変換する変換式をキャリブレーションデータ367として用いてもよい。
The
第3制御部350は、検出領域500を設定すると、設定した検出領域500内を検出して、指示操作や、操作ジェスチャーを検出する。
指示操作は、ユーザー30によって指示された検出領域500内の位置を第1指示位置として検出し、検出した第1指示位置に対応する表示画像の位置をキャリブレーションデータ367により求める処理である。キャリブレーションデータ367により変換された表示画像の位置を第2指示位置という。第3制御部350は、表示画像の第2指示位置に基づいて実行する処理を判定し、判定した処理を実行する。
例えば、第3制御部350は、表示画像の第2指示位置に対応する位置に、マウスカーソルを移動させる処理を実行する。
After setting the
The instruction operation is a process of detecting a position within the
For example, the
第3制御部350は、操作ジェスチャーを検出した場合、検出した操作ジェスチャーに対応した処理を実行する。例えば、マウスカーソルがアイコンに重ねて表示されている状態で、左クリックに対応づけられた操作ジェスチャーを検出した場合、このアイコンに対応するAPP363を実行する。
第3制御部350は、選択されたAPP363を実行してAPP画面をタッチパネル340に表示させる。また、第3制御部350は、APP画面の画像データをプロジェクター200に送信する。プロジェクター200は、制御装置300から受信した画像データに基づく画像光を生成し、生成した画像光を投写面10に投写する。これにより、投写面10には、APP画面が表示される。
When the
The
また、第3制御部350は、撮像画像からスリープジェスチャーを検出すると、制御装置300の動作モードを、ジェスチャー操作モードからデバイス操作モードに変更する。
Furthermore, when the
図8は、制御装置300の動作を示すフローチャートである。
図8に示すフローチャートを参照しながら制御装置300の動作について説明する。
制御装置300にプロジェクター200がケーブルを介して接続され、プロジェクター200の電源がオンされると、第3制御部350は、プロジェクター200に画像データを送信する(ステップS1)。この画像データは、例えば、タッチパネル340に表示される表示画像の元となる画像データである。プロジェクター200は、制御装置300から受信した画像データに基づく画像を投写面10に表示する。これにより投写面10には、タッチパネル340に表示される表示画像が表示される。投写面10に表示される表示画像が第1画像に相当する。
FIG. 8 is a flowchart showing the operation of the
The operation of the
When the
次に、第3制御部350は、カメラ100に撮像を指示する(ステップS2)。カメラ100は、制御装置300により撮像を指示されると撮像を開始し、所定の撮像間隔で撮像画像を生成する。カメラ100は、生成した撮像画像を制御装置300に送信する。第3制御部350は、カメラ100から受信した撮像画像を第3記憶部360に一時的に記憶させる。
Next, the
次に、第3制御部350は、第3記憶部360から撮像画像を取得し(ステップS3)、学習モデル365を用いて撮像画像から特徴点を検出する(ステップS4)。
第3制御部350は、特徴点の検出結果に基づいてウェイクアップジェスチャーを検出したか否かを判定する(ステップS5)。第3制御部350は、検出した特徴点が属するユーザー30の身体の部位を特定し、ウェイクアップジェスチャーを検出したか否かを判定する。
Next, the
The
第3制御部350は、以下の3つの条件が成立した場合に、ウェイクアップジェスチャーを検出したと判定する。
第1条件は、手のひらに含まれる特徴点が検出されること、である。
第2条件は、人差し指の関節の特徴点が検出され、人差し指を立てた状態であると判定されること、である。
第3条件は、手のひらに含まれる特徴点が、肩位置を示す特徴点よりも低い位置から、肩位置を示す特徴点よりも高い位置に移動したこと、である。
The
The first condition is that feature points included in the palm of the hand are detected.
The second condition is that the feature point of the joint of the index finger is detected and it is determined that the index finger is in an upright position.
The third condition is that the feature point included in the palm has moved from a position lower than the feature point indicating the shoulder position to a position higher than the feature point indicating the shoulder position.
第3制御部350は、ウェイクアップジェスチャーを検出しなかった場合(ステップS5/NO)、操作部330が操作を受け付けたか否かを判定する(ステップS6)。つまり、第3制御部350は、マウスやキーボード等の入力デバイスから操作信号が入力されたか否かを判定する。第3制御部350は、操作部330が操作を受け付けていない場合(ステップS6/NO)、ステップS3の処理に戻る。
If the
第3制御部350は、操作部330が操作を受け付けた場合(ステップS6/YES)、受け付けた操作が、プロジェクター200による画像の表示を終了させる終了操作であるか否かを判定する(ステップS7)。第3制御部350は、受け付けた操作が終了操作である場合(ステップS7/YES)、この処理フローを終了させる。
第3制御部350は、受け付けた操作が終了操作ではない場合(ステップS7/NO)、受け付けた操作に対応した処理を実行し(ステップS8)、ステップS3の処理に戻る。
When the
If the received operation is not an end operation (step S7/NO), the
第3制御部350は、ウェイクアップジェスチャーを検出した場合(ステップS5/YES)、検出した特徴点に基づき検出領域500を設定可能であるか否かを判定する(ステップS9)。第3制御部350は、例えば、左右の眼の特徴点のいずれか一方を検出できない等の理由により検出領域500を設定できなかった場合、検出領域500を設定できないと判定する。第3制御部350は、検出領域500を設定できなかった場合(ステップS9/NO)、撮像画像を再度、取得する(ステップS10)。第3制御部350は、取得した撮像画像から学習モデル365を用いて撮像画像から特徴点を検出し(ステップS11)、検出領域500を再度、設定可能か否かを判定する(ステップS9)。
When the
第3制御部350は、検出領域500を設定可能であると判定すると(ステップS9/YES)、撮像画像内に検出領域500を設定する(ステップS12)。また、ステップS12にて、設定した検出領域500とタッチパネル340の表示画像に基づき、キャリブレーションデータ367を生成する。
第3制御部350は、ユーザー30の左右の眼の特徴点を特定して、左右の眼の特徴点間の距離Lを算出する。第3制御部350は、算出した距離に、設定値を乗算して検出領域500の横幅を算出する。また、第3制御部350は、中心が、人差し指の付け根に対応する特徴点又は特徴点の中心に位置し、横幅が、算出した横幅となるように検出領域500を撮像画像内に設定する。また、第3制御部350は、検出領域500の縦幅を、算出した横幅と、制御装置300がプロジェクター200に供給する画像データの縦横比とに基づいて設定する。具体的には、第3制御部350は、検出領域500の縦横比が、画像データの縦横比と同一となるように、検出領域500の縦幅を設定する。
If the
The
次に、第3制御部350は、制御装置300の動作モードを、デバイス操作モードからジェスチャー操作モードに変更し(ステップS13)、第3記憶部360から次の撮像画像を取得する(ステップS14)。第3制御部350は、学習モデル365を用いて撮像画像から特徴点を検出し(ステップS15)、特徴点の検出結果に基づいて指示操作又は操作ジェスチャーを検出したか否かを判定する(ステップS16)。
Next, the
第3制御部350は、指示操作又は操作ジェスチャーを検出した場合(ステップS16/YES)、検出した操作ジェスチャーが、プロジェクター200による画像の表示を終了させる終了操作であるか否かを判定する(ステップS17)。第3制御部350は、検出した操作ジェスチャーが終了操作である場合(ステップS17/YES)、プロジェクター200への画像データの送信を停止し、この処理フローを終了させる。
When the
また、第3制御部350は、検出した操作ジェスチャーが終了操作ではない場合(ステップS17/NO)、検出した指示操作、又は操作ジェスチャーに対応した処理を実行する(ステップS18)。指示操作を検出している場合、第3制御部350は、ステップS18にて、キャリブレーションデータ367に基づき、タッチパネル340の表示画像における指示位置を算出し、算出した指示位置に応じた処理を実行する。
また、第3制御部350は、処理の実行結果に対応した画像データを生成する(ステップS19)。第3制御部350は、生成した画像データをプロジェクター200に送信する(ステップS20)。プロジェクター200が受信した画像データに基づく画像を投写面10に表示することで、投写面10には、タッチパネル340に表示される表示画像である第2画像が表示される。
Further, if the detected operation gesture is not an end operation (step S17/NO), the
Further, the
また、第3制御部350は、ステップS16において指示操作又は操作ジェスチャーが検出されなかった場合(ステップS16/NO)、スリープジェスチャーを検出したか否かを判定する(ステップS21)。第3制御部350は、以下の3つの条件が成立した場合、スリープジェスチャーを検出したと判定する。
第1条件は、手のひらに含まれる特徴点が検出されること、である。
第2条件は、人差し指の関節の特徴点が検出され、人差し指を立てた状態であると判定されること、である。
第3条件は、手のひらに含まれる特徴点が、肩位置を示す特徴点よりも高い位置から、肩位置を示す特徴点よりも低い位置に移動したこと、である。
Further, if the instruction operation or operation gesture is not detected in step S16 (step S16/NO), the
The first condition is that feature points included in the palm of the hand are detected.
The second condition is that the feature point of the joint of the index finger is detected and it is determined that the index finger is in an upright position.
The third condition is that the feature point included in the palm has moved from a position higher than the feature point indicating the shoulder position to a position lower than the feature point indicating the shoulder position.
第3制御部350は、スリープジェスチャーを検出しなかった場合(ステップS21/NO)、ステップS14の処理に戻る。
また、第3制御部350は、スリープジェスチャーを検出した場合(ステップS21)、制御装置300の動作モードを、ジェスチャー操作モードからデバイス操作モードに変更し(ステップS22)、ステップS3の処理に戻る。
If the
Further, when the
6.本開示のまとめ
以下、本開示のまとめを付記する。
(付記1)
第1画像を表示装置に表示させることと、
操作者を撮像した撮像画像を取得することと、
前記撮像画像に基づき、前記操作者の身体的な特徴点群を検出することと、
前記特徴点群に基づく大きさの、前記操作者の操作を検出する検出領域を前記撮像画像内に設定することと、
前記撮像画像の前記検出領域内から前記操作者により指示される第1指示位置を検出することと、
前記第1指示位置に対応する前記第1画像における位置である第2指示位置を取得することと、
前記第2指示位置に基づき第2画像を生成することと、
前記第2画像を前記表示装置に表示させることと、
を含む制御装置の制御方法。
6. Summary of the present disclosure A summary of the present disclosure is appended below.
(Additional note 1)
Displaying the first image on a display device;
Obtaining a captured image of the operator;
Detecting a group of physical feature points of the operator based on the captured image;
setting a detection area in the captured image for detecting the operation of the operator, the size of which is based on the feature point group;
detecting a first designated position designated by the operator from within the detection area of the captured image;
obtaining a second designated position that is a position in the first image corresponding to the first designated position;
generating a second image based on the second designated position;
Displaying the second image on the display device;
A control method for a control device including:
これにより、撮像画像に設定される検出領域の大きさが、撮像画像から検出される操作者の身体的な特徴点に基づいて設定される。このため、検出領域から第1指示位置を検出することで、簡易な構成であっても、操作者の操作を検出することができる。 Thereby, the size of the detection area set in the captured image is set based on the physical feature points of the operator detected from the captured image. Therefore, by detecting the first designated position from the detection area, the operator's operation can be detected even with a simple configuration.
(付記2)
前記操作者の身体的な前記特徴点群を検出することは、
前記特徴点群に含まれる第1特徴点群として前記操作者の左眼の位置及び右眼の位置を検出することと、
を含み、
前記検出領域を前記撮像画像に設定することは、
前記撮像画像における、前記操作者の左眼の位置から右眼の位置までの距離に基づいて前記撮像画像での前記検出領域の大きさを設定する、ことを含む、付記1記載の表示方法。
(Additional note 2)
Detecting the group of physical feature points of the operator includes:
detecting the position of the left eye and the position of the right eye of the operator as a first feature point group included in the feature point group;
including;
Setting the detection area in the captured image includes:
The display method according to
これにより、操作者の左右の眼の距離に基づいて検出領域の大きさが設定される。このため、撮像画像の撮像位置と、操作者との距離に左右されずに、撮像画像における検出領域の大きさを、操作者の操作に適した大きさに設定することができる。 Thereby, the size of the detection area is set based on the distance between the left and right eyes of the operator. Therefore, the size of the detection area in the captured image can be set to a size suitable for the operator's operation, regardless of the imaging position of the captured image and the distance from the operator.
(付記3)
前記操作者の身体的な前記特徴点群を検出することは、
前記特徴点群に含まれる第1特徴点群として前記操作者の左肩の位置及び右肩の位置を検出することと、
を含み、
前記検出領域を前記撮像画像に設定することは、
前記撮像画像における、前記操作者の左肩の位置から右肩の位置までの距離に基づいて前記撮像画像での前記検出領域の大きさを設定する、ことを含む、付記1記載の表示方法。
(Additional note 3)
Detecting the group of physical feature points of the operator includes:
detecting the position of the left shoulder and the position of the right shoulder of the operator as a first feature point group included in the feature point group;
including;
Setting the detection area in the captured image includes:
The display method according to
これにより、操作者の左右の肩の距離に基づいて検出領域のサイズが設定される。このため、撮像画像の撮像位置と、操作者との距離に左右されずに、撮像画像における検出領域のサイズを、操作者の操作に適した大きさに設定することができる。 Thereby, the size of the detection area is set based on the distance between the left and right shoulders of the operator. Therefore, the size of the detection area in the captured image can be set to a size suitable for the operator's operation, regardless of the imaging position of the captured image and the distance from the operator.
(付記4)
前記操作者の身体的な前記特徴点群を検出することは、
前記特徴点群に含まれる第2特徴点として、前記操作者の手に含まれる特徴点を検出すること、
を含み、
前記検出領域を前記撮像画像に設定することは、
前記第2特徴点の位置に基づいて前記検出領域を設定する、
ことを含む、付記1から3のいずれか一項に記載の表示方法。
(Additional note 4)
Detecting the group of physical feature points of the operator includes:
Detecting a feature point included in the operator's hand as a second feature point included in the feature point group;
including;
Setting the detection area in the captured image includes:
setting the detection area based on the position of the second feature point;
The display method according to any one of
これにより、操作者の手に含まれる特徴点の位置に基づいて検出領域が設定される。このため、使用者の手を含む範囲に検出領域を設定することができる。 Thereby, the detection area is set based on the position of the feature point included in the operator's hand. Therefore, the detection area can be set in a range that includes the user's hand.
(付記5)
前記操作者の身体的な前記特徴点群を検出することは、
前記特徴点群に含まれる第2特徴点として、前記操作者の手に含まれる特徴点を検出すること、
を含み、
前記検出領域を前記撮像画像に設定することは、
前記第2特徴点に基づき、予め設定された操作を検出した場合に、前記特徴点群に基づいて前記検出領域を前記撮像画像に設定すること、
を含む、付記1から3のいずれか一項に記載の表示方法。
(Appendix 5)
Detecting the group of physical feature points of the operator includes:
Detecting a feature point included in the operator's hand as a second feature point included in the feature point group;
including;
Setting the detection area in the captured image includes:
setting the detection area in the captured image based on the group of feature points when a preset operation is detected based on the second feature point;
The display method according to any one of
これにより、操作者の手に含まれる第2特徴点に基づいて予め設定された操作を検出した場合に、検出領域が撮像画像に設定される。
このため、操作者が予め設定された操作を行うことで、撮像画像に検出領域を設定することができる。
Thereby, when a preset operation is detected based on the second feature point included in the operator's hand, the detection area is set in the captured image.
Therefore, the detection area can be set in the captured image by the operator performing a preset operation.
(付記6)
前記操作者の身体的な前記特徴点群を検出することは、
前記特徴点群に含まれる第2特徴点として、前記操作者の人差し指の関節位置を検出することと、
を含み、
前記検出領域を前記撮像画像に設定することは、
前記人差し指の関節位置に基づいて前記検出領域を設定する、
ことを含む、付記1から3のいずれか一項に記載の表示方法。
(Appendix 6)
Detecting the group of physical feature points of the operator includes:
Detecting a joint position of the index finger of the operator as a second feature point included in the feature point group;
including;
Setting the detection area in the captured image includes:
setting the detection area based on the joint position of the index finger;
The display method according to any one of
これにより、操作者の人差し指の関節位置に基づいて検出領域が撮像画像に設定される。このため、操作者が検出領域で行う操作の検出精度を高めることができる。 Thereby, the detection area is set in the captured image based on the joint position of the operator's index finger. Therefore, the detection accuracy of the operation performed by the operator in the detection area can be improved.
(付記7)
前記検出領域を前記撮像画像に設定することは、
前記撮像画像における、前記操作者の左眼の位置から右眼の位置までの距離に、予め設定された設定値を乗算した値を、対向する2辺の長さとする矩形の前記検出領域を設定すること、
を含む、付記2記載の表示方法。
(Appendix 7)
Setting the detection area in the captured image includes:
The detection area is set as a rectangle whose length on two opposing sides is a value obtained by multiplying the distance from the position of the operator's left eye to the position of the right eye in the captured image by a preset setting value. to do,
The display method described in
これにより、検出領域の大きさが、操作者の左右の眼の距離に基づいて設定される。このため、検出領域の大きさを操作者の操作に適した大きさに設定することができる。 Thereby, the size of the detection area is set based on the distance between the left and right eyes of the operator. Therefore, the size of the detection area can be set to a size suitable for the operator's operations.
(付記8)
第1画像を表示装置に表示させることと、
操作者を撮像した撮像画像を取得することと、
前記撮像画像に基づき、前記操作者の身体的な特徴点群を検出することと、
前記特徴点群に基づく大きさの、前記操作者の操作を検出する検出領域を前記撮像画像内に設定することと、
前記撮像画像の前記検出領域内から前記操作者により指示される第1指示位置を検出することと、
前記第1指示位置に対応する前記第1画像における位置である第2指示位置を取得することと、
前記第2指示位置に基づき第2画像を生成することと、
前記第2画像を前記表示装置に表示させることと、
を実行する制御装置。
(Appendix 8)
Displaying the first image on a display device;
Obtaining a captured image of the operator;
Detecting a group of physical feature points of the operator based on the captured image;
setting a detection area in the captured image for detecting the operation of the operator, the size of which is based on the feature point group;
detecting a first designated position designated by the operator from within the detection area of the captured image;
obtaining a second designated position that is a position in the first image corresponding to the first designated position;
generating a second image based on the second designated position;
Displaying the second image on the display device;
A control device that executes.
これにより、撮像画像に設定される検出領域の大きさが、撮像画像から検出される操作者の身体的な特徴点に基づいて設定される。このため、検出領域から第1指示位置を検出することで、簡易な構成であっても、操作者の操作の検出精度を高めることができる。 Thereby, the size of the detection area set in the captured image is set based on the physical feature points of the operator detected from the captured image. Therefore, by detecting the first designated position from the detection area, the detection accuracy of the operator's operation can be improved even with a simple configuration.
(付記9)
第1画像を表示する表示装置と、
操作者を撮像する撮像装置と、
前記撮像装置から、操作者を撮像した撮像画像を取得することと、
前記撮像画像に基づき、前記操作者の身体的な特徴点群を検出することと、
前記特徴点群に基づく大きさの、前記操作者の操作を検出する検出領域を前記撮像画像内に設定することと、
前記撮像画像の前記検出領域内から前記操作者により指示される第1指示位置を検出することと、
前記第1指示位置に対応する前記第1画像における位置である第2指示位置を取得することと、
前記第2指示位置に基づき第2画像を生成することと、
を実行する制御装置と、
を備え、
前記表示装置は、
前記第2画像を表示することと、
を実行する、表示システム。
(Appendix 9)
a display device that displays a first image;
an imaging device that captures an image of an operator;
Obtaining a captured image of the operator from the imaging device;
Detecting a group of physical feature points of the operator based on the captured image;
setting a detection area in the captured image for detecting the operation of the operator, the size of which is based on the feature point group;
detecting a first designated position designated by the operator from within the detection area of the captured image;
obtaining a second designated position that is a position in the first image corresponding to the first designated position;
generating a second image based on the second designated position;
a control device that performs
Equipped with
The display device includes:
Displaying the second image;
A display system that runs.
これにより、撮像画像に設定される検出領域の大きさが、撮像画像から検出される操作者の身体的な特徴点に基づいて設定される。このため、検出領域から第1指示位置を検出することで、簡易な構成であっても、操作者の操作の検出精度を高めることができる。 Thereby, the size of the detection area set in the captured image is set based on the physical feature points of the operator detected from the captured image. Therefore, by detecting the first designated position from the detection area, the detection accuracy of the operator's operation can be improved even with a simple configuration.
上述した実施形態は本発明の好適な実施の形態である。ただし、この実施形態に限定されることなく、本発明の要旨を逸脱しない範囲内で種々の変形実施が可能である。
例えば、上述した実施形態では、制御装置300がウェイクアップジェスチャー、スリープジェスチャー及び操作ジェスチャーを検出する場合について説明したが、カメラ100又はプロジェクター200によりジェスチャーを検出してもよい。制御装置300は、カメラ100又はプロジェクター200が検出したウェイクアップジェスチャーやスリープジェスチャージェスチャーに基づいて動作モードを変更する。また、制御装置300は、カメラ100又はプロジェクター200が検出した操作ジェスチャーに対応づけられた処理を実行する。
The embodiments described above are preferred embodiments of the present invention. However, the present invention is not limited to this embodiment, and various modifications can be made without departing from the gist of the present invention.
For example, in the embodiment described above, a case has been described in which the
また、上述した実施形態では、ユーザー30の手のひらの人差し指の付け根に対応する特徴点を特定し、特定した特徴点を、検出領域500の縦方向及び横方向の中心に設定した。検出領域500の縦方向及び横方向の中心に設定する特徴点は、人差し指等の指の先端であってもよい。
Furthermore, in the embodiment described above, a feature point corresponding to the base of the index finger of the user's 30 palm is identified, and the identified feature point is set at the center of the
また、上述した実施形態では、ユーザー30の左右の眼を第2特徴点として検出し、検出した左右の眼の距離に基づいて検出領域500の横幅を設定した。
変形例として、第3制御部350は、ユーザー30の左右の肩位置を第2特徴点として検出し、検出した左右の肩位置に、予め設定された設定値を乗算して、検出領域500の横幅を算出する。
Furthermore, in the embodiment described above, the left and right eyes of the
As a modified example, the
また、図2に示すカメラ100や、図3に示すプロジェクター200、図4に示す制御装置300の各機能部は、ハードウェアとソフトウェアとの協働により実現される機能的構成を示すものであって、具体的な実装形態は特に制限されない。従って、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現されている機能の一部をハードウェアで実現してもよく、また、ハードウェアで実現されている機能の一部をソフトウェアで実現してもよい。
Further, each functional unit of the
また、上述した制御装置の制御方法を、制御装置300に搭載されたコンピューターを用いて実現する場合、このコンピューターに実行させるプログラムを記録媒体の態様で構成することも可能である。また、コンピューターに実行させるプログラムは、プログラムを伝送する伝送媒体の態様で構成することも可能である。記録媒体には、磁気的、光学的記録媒体又は半導体メモリーデバイスを用いることができる。具体的には、フレキシブルディスク、HDD、CD-ROM(compact disc read-only memory)、DVD(Digital Vversatile Disc)、Blu-ray Disc、光磁気ディスク、フラッシュメモリー、カード型記録媒体等の可搬型、或いは固定式の記録媒体が挙げられる。また、上記記録媒体は、サーバー装置が備える内部記憶装置であるRAM、ROM、HDD等の不揮発性記憶装置であってもよい。Blu-rayは、登録商標である。
Further, when the above-described control method for the control device is implemented using a computer installed in the
また、図8及び図9に示すフローチャートの処理単位は、第3制御部350の処理を理解容易にするために、主な処理内容に応じて分割したものであり、図8及び図9のフローチャートに示す処理単位の分割の仕方や名称によって本発明が制限されることはない。また、第2制御部250の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできるし、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、上記のフローチャートの処理順序も、図示した例に限られるものではない。
Furthermore, the processing units in the flowcharts shown in FIGS. 8 and 9 are divided according to the main processing contents in order to facilitate understanding of the processing of the
また、上述した実施形態では、表示装置としてプロジェクター200を用いる構成を例示したが、表示装置はプロジェクター200に限定されない。例えば、液晶表示パネルに画像を表示する液晶表示装置や、有機ELパネルに画像を表示する表示装置など、モニター若しくは液晶テレビ等の自発光型の表示装置であってもよい。
Further, in the embodiment described above, a configuration in which the
また、上述した実施形態では、カメラ100、プロジェクター200及び制御装置300がそれぞれ別体である表示システム1を例示したが、この表示システム1に限定されない。例えば、プロジェクター200がカメラ100を内蔵する構成であってもよいし、制御装置300がカメラ100を内蔵する構成であってもよい。また、プロジェクター200が制御装置300を内蔵する構成であってもよいし、プロジェクター200が制御装置300及びカメラ100を内蔵する構成であってもよい。
Further, in the embodiment described above, the
ここで、プロジェクター200が制御装置300を内蔵する場合、タッチパネル340を備えない構成としてもよい。この場合、検出領域500の縦幅を、算出した横幅と、プロジェクター200が備える液晶パネル235が表示する表示画像の縦横比とに基づいて設定してもよい。また、検出領域500の縦幅及び横幅の画素数と、液晶パネル235が表示する表示画像の縦幅及び横幅の画素数とに基づいてキャリブレーションデータ367を生成してもよい。
Here, when the
1…表示システム、10…投写面、30…ユーザー、100…カメラ、110…第1無線インターフェイス、130…撮像部、150…第1制御部、160…第1記憶部、165…制御プログラム、170…第1プロセッサー、200…プロジェクター、210…第1有線I/F、220…画像処理部、225…フレームメモリー、230…画像投写部、231…光源、233…光変調装置、235…液晶パネル、237…光学ユニット、250…第2制御部、260…第2記憶部、265…制御プログラム、270…第2プロセッサー、300…制御装置、310…第2無線I/F、320…第2有線I/F、330…操作部、340…タッチパネル、343…タッチセンサー、350…第3制御部、360…第3記憶部、361…OS、363…APP、365…学習モデル、367…キャリブレーションデータ、370…第3プロセッサー、500…検出領域。
DESCRIPTION OF
Claims (9)
操作者を撮像した撮像画像を取得することと、
前記撮像画像に基づき、前記操作者の身体的な特徴点群を検出することと、
前記特徴点群に基づく大きさの、前記操作者の操作を検出する検出領域を前記撮像画像内に設定することと、
前記撮像画像の前記検出領域内から前記操作者により指示される第1指示位置を検出することと、
前記第1指示位置に対応する前記第1画像における位置である第2指示位置を取得することと、
前記第2指示位置に基づき第2画像を生成することと、
前記第2画像を前記表示装置に表示させることと、
を含む制御装置の制御方法。 Displaying the first image on a display device;
Obtaining a captured image of the operator;
Detecting a group of physical feature points of the operator based on the captured image;
setting a detection area in the captured image for detecting the operation of the operator, the size of which is based on the feature point group;
detecting a first designated position designated by the operator from within the detection area of the captured image;
obtaining a second designated position that is a position in the first image corresponding to the first designated position;
generating a second image based on the second designated position;
Displaying the second image on the display device;
A control method for a control device including:
前記特徴点群に含まれる第1特徴点群として前記操作者の左眼の位置及び右眼の位置を検出することと、
を含み、
前記検出領域を前記撮像画像に設定することは、
前記撮像画像における、前記操作者の左眼の位置から右眼の位置までの距離に基づいて前記撮像画像での前記検出領域の大きさを設定する、ことを含む、請求項1記載の制御装置の制御方法。 Detecting the group of physical feature points of the operator includes:
detecting the position of the left eye and the position of the right eye of the operator as a first feature point group included in the feature point group;
including;
Setting the detection area in the captured image includes:
The control device according to claim 1, further comprising: setting the size of the detection area in the captured image based on a distance from the position of the left eye to the position of the right eye of the operator in the captured image. control method.
前記特徴点群に含まれる第1特徴点群として前記操作者の左肩の位置及び右肩の位置を検出することと、
を含み、
前記検出領域を前記撮像画像に設定することは、
前記撮像画像における、前記操作者の左肩の位置から右肩の位置までの距離に基づいて前記撮像画像での前記検出領域の大きさを設定する、ことを含む、請求項1記載の制御装置の制御方法。 Detecting the group of physical feature points of the operator includes:
detecting the position of the left shoulder and the position of the right shoulder of the operator as a first feature point group included in the feature point group;
including;
Setting the detection area in the captured image includes:
The control device according to claim 1, further comprising: setting the size of the detection area in the captured image based on a distance from a left shoulder position to a right shoulder position of the operator in the captured image. Control method.
前記特徴点群に含まれる第2特徴点として、前記操作者の手に含まれる特徴点を検出すること、
を含み、
前記検出領域を前記撮像画像に設定することは、
前記第2特徴点の位置に基づいて前記検出領域を設定する、
ことを含む、請求項1から3のいずれか一項に記載の制御装置の制御方法。 Detecting the group of physical feature points of the operator includes:
Detecting a feature point included in the operator's hand as a second feature point included in the feature point group;
including;
Setting the detection area in the captured image includes:
setting the detection area based on the position of the second feature point;
A method for controlling a control device according to any one of claims 1 to 3, comprising:
前記特徴点群に含まれる第2特徴点として、前記操作者の手に含まれる特徴点を検出すること、
を含み、
前記検出領域を前記撮像画像に設定することは、
前記第2特徴点に基づき、予め設定された操作を検出した場合に、前記特徴点群に基づいて前記検出領域を前記撮像画像に設定すること、
を含む、請求項1から3のいずれか一項に記載の制御装置の制御方法。 Detecting the group of physical feature points of the operator includes:
Detecting a feature point included in the operator's hand as a second feature point included in the feature point group;
including;
Setting the detection area in the captured image includes:
setting the detection area in the captured image based on the group of feature points when a preset operation is detected based on the second feature point;
A method for controlling a control device according to any one of claims 1 to 3, comprising:
前記特徴点群に含まれる第2特徴点として、前記操作者の人差し指の関節位置を検出することと、
を含み、
前記検出領域を前記撮像画像に設定することは、
前記人差し指の関節位置に基づいて前記検出領域を設定する、
ことを含む、請求項1から3のいずれか一項記載の制御装置の制御方法。 Detecting the group of physical feature points of the operator includes:
Detecting a joint position of the index finger of the operator as a second feature point included in the feature point group;
including;
Setting the detection area in the captured image includes:
setting the detection area based on the joint position of the index finger;
A method for controlling a control device according to any one of claims 1 to 3, comprising:
前記撮像画像における、前記操作者の左眼の位置から右眼の位置までの距離に、予め設定された設定値を乗算した値を、対向する2辺の長さとする矩形の前記検出領域を設定すること、
を含む、請求項2記載の制御装置の制御方法。 Setting the detection area in the captured image includes:
The detection area is set as a rectangle whose length on two opposing sides is a value obtained by multiplying the distance from the position of the operator's left eye to the position of the right eye in the captured image by a preset setting value. to do,
A method for controlling a control device according to claim 2, comprising:
操作者を撮像した撮像画像を取得することと、
前記撮像画像に基づき、前記操作者の身体的な特徴点群を検出することと、
前記特徴点群に基づく大きさの、前記操作者の操作を検出する検出領域を前記撮像画像内に設定することと、
前記撮像画像の前記検出領域内から前記操作者により指示される第1指示位置を検出することと、
前記第1指示位置に対応する前記第1画像における位置である第2指示位置を取得することと、
前記第2指示位置に基づき第2画像を生成することと、
前記第2画像を前記表示装置に表示させることと、
を実行する制御装置。 Displaying the first image on a display device;
Obtaining a captured image of the operator;
Detecting a group of physical feature points of the operator based on the captured image;
setting a detection area in the captured image for detecting the operation of the operator, the size of which is based on the feature point group;
detecting a first designated position designated by the operator from within the detection area of the captured image;
obtaining a second designated position that is a position in the first image corresponding to the first designated position;
generating a second image based on the second designated position;
Displaying the second image on the display device;
A control device that executes.
操作者を撮像する撮像装置と、
前記撮像装置から、操作者を撮像した撮像画像を取得することと、
前記撮像画像に基づき、前記操作者の身体的な特徴点群を検出することと、
前記特徴点群に基づく大きさの、前記操作者の操作を検出する検出領域を前記撮像画像内に設定することと、
前記撮像画像の前記検出領域内から前記操作者により指示される第1指示位置を検出することと、
前記第1指示位置に対応する前記第1画像における位置である第2指示位置を取得することと、
前記第2指示位置に基づき第2画像を生成することと、
を実行する制御装置と、
を備え、
前記表示装置は、
前記第2画像を表示することと、
を実行する、
表示システム。 a display device that displays a first image;
an imaging device that captures an image of an operator;
Obtaining a captured image of the operator from the imaging device;
Detecting a group of physical feature points of the operator based on the captured image;
setting a detection area in the captured image for detecting the operation of the operator, the size of which is based on the feature point group;
detecting a first designated position designated by the operator from within the detection area of the captured image;
obtaining a second designated position that is a position in the first image corresponding to the first designated position;
generating a second image based on the second designated position;
a control device that performs
Equipped with
The display device includes:
Displaying the second image;
execute,
display system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022097873A JP2023184001A (en) | 2022-06-17 | 2022-06-17 | Method for controlling control device, control device and display system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022097873A JP2023184001A (en) | 2022-06-17 | 2022-06-17 | Method for controlling control device, control device and display system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023184001A true JP2023184001A (en) | 2023-12-28 |
Family
ID=89333297
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022097873A Pending JP2023184001A (en) | 2022-06-17 | 2022-06-17 | Method for controlling control device, control device and display system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023184001A (en) |
-
2022
- 2022-06-17 JP JP2022097873A patent/JP2023184001A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102429427B1 (en) | Image capturing apparatus and method for the same | |
JP4507281B2 (en) | Image display device, imaging device, and image display method | |
US11082672B2 (en) | Image blending method, projection system and processing device thereof | |
US9396520B2 (en) | Projector system and control method thereof | |
KR101457976B1 (en) | Input user interface device, projecting device, command deciding method and program storage medium storing command deciding method program | |
JP2004222153A (en) | Image processing system, projector, program, information storage medium and image processing method | |
US11600003B2 (en) | Image processing apparatus and control method for an image processing apparatus that extract a region of interest based on a calculated confidence of unit regions and a modified reference value | |
US20160275338A1 (en) | Image processing apparatus, image processing method, and computer-readable storing medium | |
JP2016224173A (en) | Control device and control method | |
JP6098133B2 (en) | Face component extraction device, face component extraction method and program | |
TWI653540B (en) | Display apparatus, projector, and display control method | |
JP2023184001A (en) | Method for controlling control device, control device and display system | |
US11750778B2 (en) | Method for adjusting pixel values of blending image and projection system thereof | |
JP2023184002A (en) | Method for controlling control device, control device and display system | |
JP5740888B2 (en) | Image processing apparatus, electronic camera, and program | |
JP2014187515A (en) | Projector and control method therefor | |
US20240069691A1 (en) | Display method, display apparatus, and non-transitory computer-readable storage medium storing program | |
US20230276036A1 (en) | Method of adjusting projection image, projection system, and control apparatus | |
JP2015164238A (en) | Projection device and image processing method | |
CN106027894B (en) | Handle the method and device of the sensing image of polyphaser mould group | |
JP6668646B2 (en) | Image processing apparatus, image processing method, and program | |
JP2009237611A (en) | Detection of face area from target image | |
CN115857848A (en) | Display system control method and display system | |
JP2009245165A (en) | Face recognition device, face recognition program, face recognition method | |
JP2009245166A (en) | Face recognition device, face recognition program, face recognition method |