JP2023184001A - Method for controlling control device, control device and display system - Google Patents

Method for controlling control device, control device and display system Download PDF

Info

Publication number
JP2023184001A
JP2023184001A JP2022097873A JP2022097873A JP2023184001A JP 2023184001 A JP2023184001 A JP 2023184001A JP 2022097873 A JP2022097873 A JP 2022097873A JP 2022097873 A JP2022097873 A JP 2022097873A JP 2023184001 A JP2023184001 A JP 2023184001A
Authority
JP
Japan
Prior art keywords
operator
image
captured image
detection area
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022097873A
Other languages
Japanese (ja)
Inventor
哲雄 眞野
Tetsuo Mano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2022097873A priority Critical patent/JP2023184001A/en
Publication of JP2023184001A publication Critical patent/JP2023184001A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a method for controlling a control device in which the operation of an operator is detected even if the configuration is simple.SOLUTION: A third control part 350 of a control device 300 executes the steps of: displaying a first image based on the image data on the projection surface 10 by a projector 200; acquiring the captured image obtained by imaging an operator; detecting a physical feature point of the operator based on the captured image; setting a detection region 500 for detecting the operation of the operator in the captured image and then, setting the size of the detection region 500 based on a feature point; detecting a first indication position indicated by the operator from within the detection region 500 of the captured image; acquiring a second indication position which is a position of a first image corresponding to the first indication position; generating a second image based on the second indication position; and displaying the second image by the projector 200.SELECTED DRAWING: Figure 4

Description

本発明は、制御装置の制御方法、制御装置及び表示システムに関する。 The present invention relates to a control method for a control device, a control device, and a display system.

従来、ユーザーのジェスチャーをカメラの撮像画像から検出し、検出したジェスチャーに対応した処理を実行する技術が知られている。
例えば、特許文献1に開示の表示装置は、ユーザーを含む範囲を撮影する2つのカメラを備え、これら2つのカメラの撮影映像に基づいて、設定した仮想空間におけるユーザーの手指の進入度合いを検出する。さらに、表示装置は、検出した手指の進入度合いに基づきユーザーの操作を判定し、判定した操作により表示装置の動作を制御する。
2. Description of the Related Art Conventionally, a technique is known that detects a user's gesture from an image captured by a camera and executes processing corresponding to the detected gesture.
For example, the display device disclosed in Patent Document 1 includes two cameras that photograph an area including the user, and detects the degree of penetration of the user's fingers into a set virtual space based on images taken by these two cameras. . Furthermore, the display device determines the user's operation based on the detected degree of penetration of the finger, and controls the operation of the display device based on the determined operation.

国際公開第2018/142524号International Publication No. 2018/142524

しかしながら、特許文献1の表示装置は、2つのカメラを用いてユーザーの手指の進入度合いを示す3次元位置座標を検出する構成であるため、システム構成が複雑になる。 However, since the display device of Patent Document 1 uses two cameras to detect three-dimensional position coordinates indicating the degree of penetration of the user's fingers, the system configuration becomes complicated.

本開示の制御装置の制御方法は、第1画像を表示装置に表示させることと、操作者を撮像した撮像画像を取得することと、前記撮像画像に基づき、前記操作者の身体的な特徴点群を検出することと、前記特徴点群に基づく大きさの、前記操作者の操作を検出する検出領域を前記撮像画像内に設定することと、前記撮像画像の前記検出領域内から前記操作者により指示される第1指示位置を検出することと、前記第1指示位置に対応する前記第1画像における位置である第2指示位置を取得することと、前記第2指示位置に基づき第2画像を生成することと、前記第2画像を前記表示装置に表示させることと、を含む制御装置の制御方法である。 A control method for a control device according to the present disclosure includes displaying a first image on a display device, acquiring a captured image of an operator, and determining physical characteristic points of the operator based on the captured image. detecting a group of feature points, setting a detection area for detecting an operation of the operator in the captured image, the size of which is based on the group of feature points, and detecting the operation of the operator from within the detection area of the captured image detecting a first indicated position indicated by the first indicated position; obtaining a second indicated position that is a position in the first image corresponding to the first indicated position; and detecting a second indicated position in the second image based on the second indicated position. A control method for a control device includes: generating a second image; and displaying the second image on the display device.

本開示の制御装置は、第1画像を表示装置に表示させることと、操作者を撮像した撮像画像を取得することと、前記撮像画像に基づき、前記操作者の身体的な特徴点群を検出することと、前記特徴点群に基づく大きさの、前記操作者の操作を検出する検出領域を前記撮像画像内に設定することと、前記撮像画像の前記検出領域内から前記操作者により指示される第1指示位置を検出することと、前記第1指示位置に対応する前記第1画像における位置である第2指示位置を取得することと、前記第2指示位置に基づき第2画像を生成することと、前記第2画像を前記表示装置に表示させることと、を実行する制御装置である。 The control device of the present disclosure displays a first image on a display device, acquires a captured image of an operator, and detects a group of physical feature points of the operator based on the captured image. setting a detection area for detecting an operation by the operator in the captured image, the size of which is based on the feature point group; detecting a first indicated position corresponding to the first indicated position; obtaining a second indicated position that is a position in the first image corresponding to the first indicated position; and generating a second image based on the second indicated position. and displaying the second image on the display device.

本開示の表示システムは、第1画像を表示する表示装置と、操作者を撮像する撮像装置と、前記撮像装置から、操作者を撮像した撮像画像を取得することと、前記撮像画像に基づき、前記操作者の身体的な特徴点群を検出することと、前記特徴点群に基づく大きさの、前記操作者の操作を検出する検出領域を前記撮像画像内に設定することと、前記撮像画像の前記検出領域内から前記操作者により指示される第1指示位置を検出することと、前記第1指示位置に対応する前記第1画像における位置である第2指示位置を取得することと、前記第2指示位置に基づき第2画像を生成することと、を実行する制御装置と、を備え、前記表示装置は、前記第2画像を表示することと、を実行する表示システムである。 The display system of the present disclosure includes: a display device that displays a first image; an imaging device that captures an image of an operator; a captured image that captures the operator from the imaging device; and based on the captured image, detecting a group of physical feature points of the operator; setting a detection area in the captured image for detecting an operation of the operator having a size based on the group of feature points; and detecting a first designated position designated by the operator from within the detection area; and obtaining a second designated position that is a position in the first image corresponding to the first designated position; The display device is a display system that includes: a control device that executes the following: generating a second image based on a second designated position; and the display device executes the following operations: displaying the second image.

表示システムのシステム構成を示す図。FIG. 1 is a diagram showing the system configuration of a display system. カメラの構成を示すブロック図。FIG. 2 is a block diagram showing the configuration of a camera. プロジェクターの構成を示すブロック図。FIG. 2 is a block diagram showing the configuration of a projector. 制御装置の構成を示すブロック図。FIG. 2 is a block diagram showing the configuration of a control device. ウェイクアップジェスチャーを示す図。Diagram showing a wake-up gesture. スリープジェスチャーを示す図。Diagram showing a sleep gesture. 検出領域を示す図。A diagram showing a detection area. 制御装置の動作を示すフローチャート。Flowchart showing the operation of the control device. 制御装置の動作を示すフローチャート。Flowchart showing the operation of the control device.

1.表示システムの構成
図1は、表示システム1のシステム構成を示す図である。
表示システム1は、ユーザー30を撮像するカメラ100と、投写面10に画像を表示するプロジェクター200と、カメラ100及びプロジェクター200を制御する制御装置300と、を備える。制御装置300は、プロジェクター200に画像を供給する画像供給装置としても動作する。
1. Configuration of Display System FIG. 1 is a diagram showing the system configuration of a display system 1. As shown in FIG.
The display system 1 includes a camera 100 that images a user 30, a projector 200 that displays an image on a projection surface 10, and a control device 300 that controls the camera 100 and the projector 200. The control device 300 also operates as an image supply device that supplies images to the projector 200.

図1には、カメラ100と制御装置300とを無線により接続し、プロジェクター200と制御装置300とを有線により接続した例を示す。カメラ100と制御装置300との接続は有線であってもよいし、プロジェクター200と制御装置300との接続は無線であってもよい。 FIG. 1 shows an example in which a camera 100 and a control device 300 are connected wirelessly, and a projector 200 and a control device 300 are connected by a wire. The connection between camera 100 and control device 300 may be wired, and the connection between projector 200 and control device 300 may be wireless.

カメラ100は、制御装置300からの指示、又は、ユーザー30の操作を受け付けると、予め設定された範囲を撮像して撮像画像を生成する。カメラ100は、例えば、ユーザー30の上半身が画角内に含まれるように設置される。カメラ100は、生成した撮像画像を制御装置300に送信する。 When the camera 100 receives an instruction from the control device 300 or an operation from the user 30, the camera 100 captures a preset range and generates a captured image. For example, the camera 100 is installed so that the upper body of the user 30 is included within the angle of view. Camera 100 transmits the generated captured image to control device 300.

プロジェクター200は、制御装置300から供給される画像データに基づいて画像光を生成する。プロジェクター200は、生成した画像光を投写面10に投写する。これにより投写面10には、画像データに基づく画像が表示される。 Projector 200 generates image light based on image data supplied from control device 300. The projector 200 projects the generated image light onto the projection surface 10. As a result, an image based on the image data is displayed on the projection surface 10.

制御装置300は、例えば、ノート型やデスクトップ型、タブレット型のパーソナルコンピューターである。制御装置300としてスマートフォンを用いることもできる。 The control device 300 is, for example, a notebook, desktop, or tablet personal computer. A smartphone can also be used as the control device 300.

制御装置300は、カメラ100の撮像画像を受信し、受信した撮像画像を解析してユーザー30が行うジェスチャーを検出する。制御装置300は、検出したジェスチャーに対応づけられた処理を実行し、実行した処理の処理結果を示す画像データをプロジェクター200に送信する。プロジェクター200は、制御装置300から受信した画像データに基づく画像を投写面10に表示する。これにより投写面10には、ユーザー30が行ったジェスチャーに対応づけられた処理を実行した結果の画像が表示される。 The control device 300 receives an image captured by the camera 100, analyzes the received image, and detects a gesture performed by the user 30. The control device 300 executes a process associated with the detected gesture, and transmits image data indicating the result of the executed process to the projector 200. The projector 200 displays an image on the projection surface 10 based on the image data received from the control device 300. As a result, an image resulting from execution of the process associated with the gesture performed by the user 30 is displayed on the projection surface 10.

2.カメラの構成
図2は、カメラ100の構成を示すブロック図である。
図2を参照しながらカメラ100の構成について説明する。
カメラ100は、第1無線インターフェイス110、撮像部130及び第1制御部150を備える。以下、インターフェイスをI/Fとも略記する。
2. Camera Configuration FIG. 2 is a block diagram showing the configuration of the camera 100.
The configuration of the camera 100 will be described with reference to FIG. 2.
The camera 100 includes a first wireless interface 110, an imaging section 130, and a first control section 150. Hereinafter, the interface will also be abbreviated as I/F.

第1無線I/F110は、例えば、BluetoothやWi-Fi等の規格に対応した通信回路を備える無線通信デバイスである。Bluetooth及びWi-Fiは、登録商標である。第1無線I/F110は、制御装置300に無線接続し、制御装置300との間で相互にデータ通信を行う。また、第1無線I/F110に代えて、例えば、USB(Universal Serial Bus)等の規格に対応した有線I/Fをカメラ100が備え、カメラ100と制御装置300とを有線で接続する構成であってもよい。 The first wireless I/F 110 is, for example, a wireless communication device including a communication circuit compatible with standards such as Bluetooth and Wi-Fi. Bluetooth and Wi-Fi are registered trademarks. The first wireless I/F 110 is wirelessly connected to the control device 300 and performs data communication with the control device 300. Alternatively, instead of the first wireless I/F 110, the camera 100 is provided with a wired I/F compatible with standards such as USB (Universal Serial Bus), and the camera 100 and the control device 300 are connected by wire. There may be.

撮像部130は、レンズ群、イメージセンサー、信号処理回路等を備える。レンズ群、イメージセンサー、信号処理回路の図示は省略する。
レンズ群は、撮像レンズ、フォーカスレンズ等の各種レンズを備える。
イメージセンサーは、CMOS(Complementary Metal Oxide Semiconductor)センサーや、CCD(Charge Coupled Device)センサー等により構成される。イメージセンサーは、入射される被写体光を光電変換して赤、緑及び青の3原色の画像信号を生成する。画像信号は、信号処理回路に入力される。
信号処理回路は、イメージセンサーから入力される画像信号に対してゲイン調整、A/D変換、ノイズ除去、色補正、ガンマ補正等の信号処理を行う。信号処理回路は、画像信号を信号処理して撮像画像を生成する。信号処理回路は、生成した撮像画像を第1制御部150に出力する。
The imaging unit 130 includes a lens group, an image sensor, a signal processing circuit, and the like. Illustrations of the lens group, image sensor, and signal processing circuit are omitted.
The lens group includes various lenses such as an imaging lens and a focus lens.
The image sensor includes a CMOS (Complementary Metal Oxide Semiconductor) sensor, a CCD (Charge Coupled Device) sensor, and the like. The image sensor photoelectrically converts incident light from an object to generate image signals of three primary colors: red, green, and blue. The image signal is input to a signal processing circuit.
The signal processing circuit performs signal processing such as gain adjustment, A/D conversion, noise removal, color correction, and gamma correction on the image signal input from the image sensor. The signal processing circuit performs signal processing on the image signal to generate a captured image. The signal processing circuit outputs the generated captured image to the first control unit 150.

第1制御部150は、第1記憶部160と、第1プロセッサー170とを備えるコンピューター装置である。 The first control unit 150 is a computer device including a first storage unit 160 and a first processor 170.

第1記憶部160は、ROM(Read Only Memory)等の不揮発性のメモリーと、RAM(Random Access Memory)等の揮発性のメモリーとを備える。ROMは、カメラ100の動作を制御する制御プログラム165や各種設定情報を記憶する。RAMは、第1プロセッサー170の演算領域として使用され、各種のデータの一時記憶に用いられる。 The first storage unit 160 includes a nonvolatile memory such as a ROM (Read Only Memory) and a volatile memory such as a RAM (Random Access Memory). The ROM stores a control program 165 that controls the operation of the camera 100 and various setting information. The RAM is used as a calculation area for the first processor 170 and is used for temporary storage of various data.

第1プロセッサー170は、1以上のCPU(Central Processing Unit)や、MPU(Micro-Processing Unit)等のプロセッサーを含む演算処理装置である。第1プロセッサー170は、制御プログラム165を実行してカメラ100の各部の動作を制御する。
第1プロセッサー170は、第1無線I/F110や撮像部130の動作を制御する。第1プロセッサー170は、制御装置300から受信した指示、又は、ユーザー30の操作に基づいて撮像部130を制御し、撮像部130に撮像画像を生成させる。第1プロセッサー170は、撮像部130から入力される撮像画像を、制御装置300に送信する。
The first processor 170 is an arithmetic processing device including one or more processors such as a CPU (Central Processing Unit) and an MPU (Micro-Processing Unit). The first processor 170 executes the control program 165 to control the operation of each part of the camera 100.
The first processor 170 controls the operations of the first wireless I/F 110 and the imaging unit 130. The first processor 170 controls the imaging unit 130 based on an instruction received from the control device 300 or an operation by the user 30, and causes the imaging unit 130 to generate a captured image. The first processor 170 transmits the captured image input from the imaging unit 130 to the control device 300.

3.プロジェクターの構成
図3は、プロジェクター200の構成を示すブロック図である。
図3を参照しながらプロジェクター200の構成について説明する。
プロジェクター200は、第1有線I/F210、画像処理部220、フレームメモリー225、画像投写部230及び第2制御部250を備える。
3. Configuration of Projector FIG. 3 is a block diagram showing the configuration of the projector 200.
The configuration of the projector 200 will be described with reference to FIG. 3.
The projector 200 includes a first wired I/F 210, an image processing section 220, a frame memory 225, an image projection section 230, and a second control section 250.

第1有線I/F210は、例えば、HDMI(High-Definition Multimedia Interface)やUSB(Universal Serial Bus)等の規格に対応した接続端子と、I/F回路とを備える。HDMIは、登録商標である。第1有線I/F210は、制御装置300に有線接続し、制御装置300から供給される画像データを受信する。第1有線I/F210は、受信した画像データを画像処理部220に出力する。 The first wired I/F 210 includes, for example, a connection terminal compatible with standards such as HDMI (High-Definition Multimedia Interface) and USB (Universal Serial Bus), and an I/F circuit. HDMI is a registered trademark. The first wired I/F 210 is connected to the control device 300 by wire and receives image data supplied from the control device 300. The first wired I/F 210 outputs the received image data to the image processing section 220.

画像処理部220には、フレームメモリー225が接続される。画像処理部220は、第2制御部250や第1有線I/F210から入力される画像データをフレームメモリー225に展開する。フレームメモリー225は、例えば、SDRAM(Synchronous Dynamic Random Access Memory)により構成される。 A frame memory 225 is connected to the image processing section 220 . The image processing unit 220 develops image data input from the second control unit 250 and the first wired I/F 210 into the frame memory 225. The frame memory 225 is configured by, for example, SDRAM (Synchronous Dynamic Random Access Memory).

画像処理部220は、フレームメモリー225に展開した画像データに対して、例えば、解像度変換処理又はリサイズ処理、歪曲収差の補正、形状補正処理、デジタルズーム処理、画像の色合いや輝度の調整等の画像処理を行う。画像処理部220は、第2制御部250により指定された画像処理を実行し、必要に応じて、第2制御部250から入力されるパラメーターを使用して処理を行う。また、画像処理部220は、上記のうち複数の画像処理を組み合わせて実行することも勿論可能である。画像処理部220は、処理の終了した画像データをフレームメモリー225から読み出し、読み出した画像データを画像投写部230に出力する。 The image processing unit 220 performs image processing on the image data developed in the frame memory 225, such as resolution conversion processing or resizing processing, correction of distortion aberration, shape correction processing, digital zoom processing, and adjustment of image hue and brightness. I do. The image processing section 220 executes image processing specified by the second control section 250, and performs the processing using parameters input from the second control section 250 as necessary. Furthermore, it is of course possible for the image processing unit 220 to perform a combination of a plurality of image processes among the above. The image processing unit 220 reads the processed image data from the frame memory 225 and outputs the read image data to the image projection unit 230.

画像処理部220及びフレームメモリー225は、例えば、集積回路により構成される。集積回路には、LSI(Large Scale Integrated Circuit)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field-Programmable Gate Array)、SoC(System-on-a-chip)等が含まれる。また、集積回路の構成の一部にアナログ回路が含まれていてもよく、第2制御部250と集積回路とが組み合わされた構成であってもよい。 The image processing unit 220 and the frame memory 225 are configured by, for example, an integrated circuit. Integrated circuits include LSI (Large Scale Integrated Circuit), ASIC (Application Specific Integrated Circuit), PLD (Programmable Logic Device), and FPGA ( Field-Programmable Gate Array), SoC (System-on-a-chip), etc. It will be done. Further, an analog circuit may be included as part of the integrated circuit configuration, or a configuration in which the second control section 250 and the integrated circuit are combined may be used.

画像投写部230は、光源231、光変調装置233及び光学ユニット237を備える。 The image projection section 230 includes a light source 231, a light modulation device 233, and an optical unit 237.

光源231は、超高圧水銀ランプやメタルハライドランプ等の放電型の光源ランプ、又は発光ダイオードや半導体レーザー等の固体光源を備える。光源231が射出した光は、光変調装置233に入射される。 The light source 231 includes a discharge type light source lamp such as an ultra-high pressure mercury lamp or a metal halide lamp, or a solid state light source such as a light emitting diode or a semiconductor laser. The light emitted by the light source 231 is incident on the light modulation device 233.

光変調装置233は、光源231が射出した光を変調する光変調素子として、一対の透明基板間に液晶が封入された透過型の液晶パネル235を備える。液晶パネル235は、マトリクス状に配列された複数の画素を備える。光変調装置233は、入力された画像データに対応した駆動電圧を液晶パネル235の各画素に印加し、各画素の光透過率を画像データに対応した透過率に変更する。光源231から射出された光が液晶パネル235を透過することで光源231が射出した光が変調され、画像データに対応した画像光が生成される。 The light modulation device 233 includes a transmissive liquid crystal panel 235 in which liquid crystal is sealed between a pair of transparent substrates, as a light modulation element that modulates the light emitted by the light source 231. The liquid crystal panel 235 includes a plurality of pixels arranged in a matrix. The light modulator 233 applies a driving voltage corresponding to the input image data to each pixel of the liquid crystal panel 235, and changes the light transmittance of each pixel to a transmittance corresponding to the image data. When the light emitted from the light source 231 passes through the liquid crystal panel 235, the light emitted from the light source 231 is modulated, and image light corresponding to image data is generated.

光変調装置233が備える光変調素子は、透過型の液晶パネルに限定されず、例えば、反射型の液晶パネルでもよいし、DMD(Digital Micromirror Device)でもよい。 The light modulation element included in the light modulation device 233 is not limited to a transmissive liquid crystal panel, and may be, for example, a reflective liquid crystal panel or a DMD (Digital Micromirror Device).

光学ユニット237は、不図示の投写レンズ等を備え、光変調装置233により変調された画像光を投写面10に拡大投写する。これにより投写面10には、画像光に対応した画像が表示される。 The optical unit 237 includes a projection lens (not shown) and the like, and enlarges and projects the image light modulated by the light modulation device 233 onto the projection surface 10 . As a result, an image corresponding to the image light is displayed on the projection surface 10.

第2制御部250は、第2記憶部260と、第2プロセッサー270とを備えるコンピューター装置である。 The second control unit 250 is a computer device including a second storage unit 260 and a second processor 270.

第2記憶部260は、ROM等の不揮発性のメモリーと、RAM等の揮発性のメモリーとを備える。ROMは、プロジェクター200の動作の制御に使用する制御プログラム265や、各種設定情報を記憶する。RAMは、第2プロセッサー270の演算領域として使用され、各種のデータの一時記憶に用いられる。 The second storage unit 260 includes a nonvolatile memory such as a ROM, and a volatile memory such as a RAM. The ROM stores a control program 265 used to control the operation of the projector 200 and various setting information. The RAM is used as a calculation area for the second processor 270 and is used for temporary storage of various data.

第2プロセッサー270は、1以上のCPUや、MPU等のプロセッサーを含む演算処理装置である。第2プロセッサー270は、制御プログラム265を実行してプロジェクター200の各部の動作を制御する。 The second processor 270 is an arithmetic processing device including one or more CPUs, processors such as MPUs, and the like. The second processor 270 executes the control program 265 to control the operation of each part of the projector 200.

4.制御装置の構成
図4は、制御装置300の構成を示すブロック図である。
図4を参照しながら制御装置300の構成について説明する。
制御装置300は、第2無線I/F310、第2有線I/F320、操作部330、表示部340及び第3制御部350を備える。
4. Configuration of Control Device FIG. 4 is a block diagram showing the configuration of the control device 300.
The configuration of the control device 300 will be explained with reference to FIG. 4.
The control device 300 includes a second wireless I/F 310 , a second wired I/F 320 , an operation section 330 , a display section 340 , and a third control section 350 .

第2無線I/F310は、例えば、BluetoothやWi-Fi等の規格に対応した通信回路を備える無線通信デバイスである。第2無線I/F310は、カメラ100に無線接続し、カメラ100との間で相互にデータ通信を行う。 The second wireless I/F 310 is, for example, a wireless communication device including a communication circuit compatible with standards such as Bluetooth and Wi-Fi. The second wireless I/F 310 is wirelessly connected to the camera 100 and performs data communication with the camera 100.

第2有線I/F320は、例えば、HDMIやUSB等の規格に対応した接続端子と、I/F回路とを備える。第2有線I/F320は、プロジェクター200と有線接続し、プロジェクター200に画像データを送信する。 The second wired I/F 320 includes, for example, a connection terminal compatible with standards such as HDMI and USB, and an I/F circuit. The second wired I/F 320 is connected to the projector 200 by wire and transmits image data to the projector 200.

操作部330は、例えば、マウスやキーボード等の入力デバイスを備え、ユーザー30の操作を受け付ける。操作部330は、受け付けた操作に対応した操作信号を第3制御部350に出力する。 The operation unit 330 includes, for example, an input device such as a mouse and a keyboard, and receives operations from the user 30. The operation unit 330 outputs an operation signal corresponding to the received operation to the third control unit 350.

タッチパネル340は、液晶パネルや有機EL(Electro Luminescence)等の表示パネル341と、タッチセンサー343とを含む。タッチセンサー343は、タッチ操作を検出し、検出したタッチ操作の操作位置を含む操作信号を第3制御部350に出力する。 The touch panel 340 includes a display panel 341 such as a liquid crystal panel or an organic EL (Electro Luminescence), and a touch sensor 343. The touch sensor 343 detects a touch operation and outputs an operation signal including the operation position of the detected touch operation to the third control unit 350.

第3制御部350は、第3記憶部360と、第3プロセッサー370とを備えるコンピューター装置である。 The third control unit 350 is a computer device including a third storage unit 360 and a third processor 370.

第3記憶部360は、ROM等の不揮発性のメモリーと、RAM等の揮発性のメモリーとを備える。また、第3記憶部360は、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の補助記憶装置を備える構成であってもよい。ROMは、制御装置300の動作を制御するOS(Operating System)361や、アプリケーションプログラム363、学習モデル365及びキャリブレーションデータ367を記憶する。以下、アプリケーションプログラムをAPPという。RAMは、各種データ等の一時記憶に用いられる。また、RAMには、カメラ100から受信した撮像画像が一時的に記憶される。 The third storage unit 360 includes a nonvolatile memory such as a ROM, and a volatile memory such as a RAM. Further, the third storage unit 360 may be configured to include an auxiliary storage device such as a HDD (Hard Disk Drive) or an SSD (Solid State Drive). The ROM stores an OS (Operating System) 361 that controls the operation of the control device 300, an application program 363, a learning model 365, and calibration data 367. Hereinafter, the application program will be referred to as APP. RAM is used for temporary storage of various data and the like. Further, captured images received from the camera 100 are temporarily stored in the RAM.

学習モデル365は、教師データを用いた機械学習、すなわち教師あり学習によって、人の特徴点を検出する機械学習モデルである。機械学習モデルはアルゴリズム及びデータ構造を用いて構築することができる。機械学習の手法は何ら限定されず、例えば、ニューラルネットワーク、ディープラーニングなどの様々な手法が用いられてよい。教師データは、機械学習モデルに入力される入力ベクトルと、その入力ベクトルから得られるべき正しいラベル情報との多数の組合せによって構成されるデータである。本実施形態では、入力ベクトルは、撮像画像に相当し、ラベル情報は、人の特徴点である。特徴点には、人の手のひらや腕、足、腰等の関節や、肩、瞳孔、目尻、目頭、口等が含まれる。 The learning model 365 is a machine learning model that detects feature points of a person by machine learning using teacher data, that is, supervised learning. Machine learning models can be constructed using algorithms and data structures. The machine learning method is not limited at all, and various methods such as neural networks and deep learning may be used. The training data is data composed of many combinations of input vectors input to the machine learning model and correct label information to be obtained from the input vectors. In this embodiment, the input vector corresponds to a captured image, and the label information is a feature point of a person. Feature points include joints such as a person's palms, arms, legs, and waist, shoulders, pupils, outer and inner corners of the eyes, and mouth.

キャリブレーションデータ367は、後述する検出領域500の座標と、タッチパネル340に表示される表示画像の座標とを対応づけるデータである。つまり、キャリブレーションデータ367は、検出領域500の座標を、表示画像の座標に変換する変換データである。キャリブレーションデータ367は、表示画像の画素数と、検出領域500の画素数とに基づいて設定される。 The calibration data 367 is data that associates the coordinates of a detection area 500, which will be described later, with the coordinates of a display image displayed on the touch panel 340. That is, the calibration data 367 is conversion data that converts the coordinates of the detection area 500 into the coordinates of the display image. The calibration data 367 is set based on the number of pixels of the display image and the number of pixels of the detection area 500.

第3プロセッサー370は、1以上のCPUや、MPU等のプロセッサーを含む演算処理装置である。第3プロセッサー370は、OS361やAPP363を実行してプロジェクター200の各部の動作を制御する。また、第3プロセッサー370は、学習モデル365を用いてユーザー30が行ったジェスチャーを検出する。第3プロセッサー370は、ジェスチャーの検出結果に基づき、制御装置300の動作モードを変更したり、検出したジェスチャーに対応した処理を実行したりする。 The third processor 370 is an arithmetic processing device including one or more CPUs, processors such as MPUs, and the like. The third processor 370 executes the OS 361 and the APP 363 to control the operations of each part of the projector 200. Further, the third processor 370 uses the learning model 365 to detect gestures performed by the user 30. The third processor 370 changes the operation mode of the control device 300 or executes processing corresponding to the detected gesture based on the gesture detection result.

5.制御装置の動作
次に、制御装置300の動作について説明する。
第3制御部350は、カメラ100に撮像を開始させ、カメラ100から撮像画像を受信すると、受信した撮像画像を第3記憶部360に一時的に記憶させる。
5. Operation of Control Device Next, the operation of the control device 300 will be explained.
The third control unit 350 causes the camera 100 to start capturing an image, and upon receiving a captured image from the camera 100, causes the third storage unit 360 to temporarily store the received captured image.

次に、第3制御部350は、第3記憶部360から撮像画像を取得する。
第3制御部350は、学習モデル365を用いて、撮像画像に含まれる手のひらや腕等に含まれる関節や、肩、瞳孔、目尻、目頭、口、鼻等の特徴点を検出する。
Next, the third control unit 350 acquires the captured image from the third storage unit 360.
The third control unit 350 uses the learning model 365 to detect feature points such as joints included in the palm or arm, shoulders, pupils, outer corners of the eyes, inner corners of the eyes, mouth, nose, etc. included in the captured image.

次に、第3制御部350は、検出した特徴点に基づき、ウェイクアップジェスチャー、スリープジェスチャー及び操作ジェスチャーを検出する。
ウェイクアップジェスチャーは、制御装置300の動作モードをデバイス操作モードから、ジェスチャー操作モードに変更するときに行うジェスチャーである。
スリープジェスチャーは、制御装置300の動作モードをジェスチャー操作モードから、デバイス操作モードに変更するときに行うジェスチャーである。
Next, the third control unit 350 detects a wake-up gesture, a sleep gesture, and an operation gesture based on the detected feature points.
The wake-up gesture is a gesture performed when changing the operation mode of the control device 300 from the device operation mode to the gesture operation mode.
The sleep gesture is a gesture performed when changing the operation mode of the control device 300 from the gesture operation mode to the device operation mode.

制御装置300は、動作モードとして、デバイス操作モードと、ジェスチャー操作モードとを備える。
デバイス操作モードは、ユーザー30の操作を、操作部330やタッチパネル340により受け付けるモードである。第3制御部350は、操作を受け付けた操作部330やタッチパネル340から入力される操作信号に基づき、例えば、APP363の起動や終了、ファイルを開く、閉じる、APP363が備える操作メニューを選択する、等の処理を実行する。
The control device 300 has a device operation mode and a gesture operation mode as operation modes.
The device operation mode is a mode in which operations by the user 30 are accepted using the operation unit 330 or the touch panel 340. The third control unit 350 can, for example, start or terminate the APP 363, open or close a file, select an operation menu included in the APP 363, etc. based on an operation signal input from the operation unit 330 or the touch panel 340 that has received the operation. Execute the process.

ジェスチャー操作モードは、ユーザー30のジェスチャーによる操作を受け付けるモードである。
第3制御部350は、制御装置300の動作モードがジェスチャー操作モードである場合、撮像画像を画像解析して操作ジェスチャーを検出し、検出した操作ジェスチャーに対応した処理を実行する。
操作ジェスチャーは、第3制御部350が受け付け可能な操作が対応づけられたジェスチャーである。第3制御部350が受け付け可能な操作には、上述したAPP363の起動や終了、ファイルを開く、閉じる、APP363が備える操作メニューを選択する等の操作である。
The gesture operation mode is a mode in which operations by gestures from the user 30 are accepted.
When the operation mode of the control device 300 is the gesture operation mode, the third control unit 350 analyzes the captured image to detect an operation gesture, and executes processing corresponding to the detected operation gesture.
The operation gesture is a gesture associated with an operation that the third control unit 350 can accept. Operations that can be accepted by the third control unit 350 include operations such as starting and terminating the APP 363 described above, opening and closing a file, and selecting an operation menu included in the APP 363.

図5は、ウェイクアップジェスチャーの一例を示す図である。
本実施形態のウェイクアップジェスチャーは、手のひらがカメラ100に撮像されるようにカメラ100に向け、人差し指を立てた状態で、手をユーザー30の肩より低い位置から、肩より高い位置に移動させる動作である。
ウェイクアップジェスチャーは、人差し指と中指等の複数本の指を立てた状態で行ってもよい。また、ウェイクアップジェスチャーは、親指や小指等、人差し指以外の指を立てた状態で行ってもよい。立てた状態とは、指の関節を曲げずに伸ばした状態を意味する。
FIG. 5 is a diagram illustrating an example of a wake-up gesture.
The wake-up gesture of this embodiment is an action of moving the hand from a position lower than the user's 30 shoulder to a position higher than the shoulder with the palm facing the camera 100 so that the image is captured by the camera 100 and the index finger raised. It is.
The wake-up gesture may be performed with multiple fingers, such as the index finger and middle finger, held up. Further, the wake-up gesture may be performed with a finger other than the index finger, such as the thumb or little finger, held up. Upright state means a state in which the joints of the fingers are extended without being bent.

図6は、スリープジェスチャーの一例を示す図である。
本実施形態のスリープジェスチャーは、手の形状を、ウェイクアップジェスチャーと同様に、手のひらがカメラ100に撮像されるようにカメラ100に向け、人差し指を立てた状態で、手をユーザー30の肩より高い位置から、肩より低い位置に移動させる動作である。
スリープジェスチャーも人差し指と中指等の複数本の指を立てた状態で行ってもよいし、親指や小指等、人差し指以外の指を立てた状態で行ってもよい。
FIG. 6 is a diagram illustrating an example of a sleep gesture.
In the sleep gesture of this embodiment, the hand is raised higher than the shoulder of the user 30, with the palm facing the camera 100 so that the palm is imaged by the camera 100, and the index finger raised. This is the movement of moving the body from one position to a position lower than the shoulder level.
The sleep gesture may also be performed with multiple fingers such as the index finger and middle finger held up, or may be performed with any finger other than the index finger held up, such as the thumb or little finger.

第3制御部350は、制御装置300の動作モードがデバイス操作モードの場合、カメラ100に撮像を実行させて、カメラ100から受信した撮像画像を、学習モデル365を用いて画像解析し、ウェイクアップジェスチャーを検出する。
また、第3制御部350は、制御装置300の動作モードがジェスチャー操作モードである場合、カメラ100から受信した撮像画像を、学習モデル365を用いて画像解析し、操作ジェスチャーや、指示操作及びスリープジェスチャーを検出する。指示操作の詳細については後述する。
When the operation mode of the control device 300 is the device operation mode, the third control unit 350 causes the camera 100 to perform imaging, analyzes the captured image received from the camera 100 using the learning model 365, and performs wake-up. Detect gestures.
Further, when the operation mode of the control device 300 is the gesture operation mode, the third control unit 350 analyzes the captured image received from the camera 100 using the learning model 365, and analyzes the operation gesture, instruction operation, and sleep mode. Detect gestures. Details of the instruction operation will be described later.

第3制御部350は、デバイス操作モードにおいて、ウェイクアップジェスチャーを検出すると、撮像画像内に検出領域500を設定する。検出領域500は、撮像画像において、操作ジェスチャーを検出する領域である。検出領域500を設定することで、撮像画像の全体から操作ジェスチャーを検出する場合と比較して、処理負荷を軽減し、操作ジェスチャーの検出精度を高めることができる。 When the third control unit 350 detects a wake-up gesture in the device operation mode, it sets a detection area 500 within the captured image. The detection area 500 is an area in which an operation gesture is detected in the captured image. By setting the detection area 500, the processing load can be reduced and the accuracy of detecting the operation gesture can be increased compared to the case where the operation gesture is detected from the entire captured image.

まず、第3制御部350は、学習モデル365を用いて、ユーザー30の手のひらの人差し指の付け根に対応する特徴点を撮像画像から検出する。ユーザー30の手のひらから検出される特徴点は、第2特徴点に相当する。
第3制御部350は、検出した特徴点、又は特徴点の中心を、検出領域500の縦方向及び横方向の中心に設定する。縦方向は、撮像画像の縦辺に平行な方向であり、横方向は、撮像画像の横辺に平行な方向である。
First, the third control unit 350 uses the learning model 365 to detect a feature point corresponding to the base of the index finger of the user's 30 palm from the captured image. The feature point detected from the palm of the user 30 corresponds to the second feature point.
The third control unit 350 sets the detected feature point or the center of the feature point to the center of the detection area 500 in the vertical and horizontal directions. The vertical direction is a direction parallel to the vertical side of the captured image, and the horizontal direction is a direction parallel to the horizontal side of the captured image.

また、第3制御部350は、学習モデル365に基づいて検出したユーザーの左右の眼の特徴点を検出する。左右の眼の特徴点は、例えば、左右の眼の瞳孔であってもよいし、目頭や目尻であってもよい。左右の眼の特徴点は、第1特徴点に相当する。
第3制御部350は、左右の眼の特徴点を検出すると、検出した左眼と右眼との特徴点間の距離L1、又は、左眼と右眼との特徴点の中心間の距離L2を求める。第3制御部350は、左眼と右眼との特徴点間の距離L1、又は、左眼と右眼との特徴点の中心間の距離L2に対応する撮像画像の画素数を算出する。特定した左眼と右眼との特徴点によって求めた距離のことを、以降は特徴点間の距離Lと記載する。特徴点間の距離Lとして、左眼と右眼との特徴点間の距離L1、又は、左眼と右眼との特徴点の中心間の距離L2の、いずれかを用いることができる。
Further, the third control unit 350 detects feature points of the user's left and right eyes detected based on the learning model 365. The feature points of the left and right eyes may be, for example, the pupils of the left and right eyes, or the inner and outer corners of the eyes. The feature points of the left and right eyes correspond to the first feature points.
When the third control unit 350 detects the feature points of the left and right eyes, it determines the distance L1 between the detected feature points of the left eye and the right eye, or the distance L2 between the centers of the feature points of the left eye and the right eye. seek. The third control unit 350 calculates the number of pixels of the captured image corresponding to the distance L1 between the feature points of the left eye and the right eye, or the distance L2 between the centers of the feature points of the left eye and the right eye. The distance determined by the identified feature points between the left eye and the right eye will hereinafter be referred to as the distance L between the feature points. As the distance L between the feature points, either the distance L1 between the feature points of the left eye and the right eye, or the distance L2 between the centers of the feature points of the left eye and the right eye can be used.

次に、第3制御部350は、求めた特徴点間の距離Lに基づき、矩形の検出領域500の横幅及び縦幅を設定する。第3制御部350は、求めた特徴点間の距離Lに、予め設定された設定値を乗算して、検出領域500の横幅を算出する。つまり、矩形の検出領域500の対向する2辺である上辺及び下辺の長さが設定される。設定値は、例えば、3以上、10以下の範囲で変更が可能である。また、この設定値は、ユーザー30が操作部330を操作することで変更が可能である。例えば、ユーザー30は、検出領域500を大きく設定したい場合には、設定値を3以上、10以下の範囲で大きな値に設定し、検出領域500を小さく設定したい場合には、設定値を3以上、10以下の範囲で小さな値に設定する。 Next, the third control unit 350 sets the horizontal and vertical widths of the rectangular detection area 500 based on the determined distance L between the feature points. The third control unit 350 calculates the width of the detection area 500 by multiplying the distance L between the feature points obtained by a preset setting value. That is, the lengths of the upper and lower sides, which are two opposing sides of the rectangular detection area 500, are set. The set value can be changed within a range of, for example, 3 or more and 10 or less. Further, this setting value can be changed by the user 30 operating the operation unit 330. For example, if the user 30 wants to set the detection area 500 large, the user 30 sets the setting value to a large value in the range of 3 or more and 10 or less, and if the user 30 wants to set the detection area 500 small, the setting value is set to 3 or more. , set to a small value within the range of 10 or less.

図7は、撮像画像に設定された検出領域500を示す図である。
第3制御部350は、中心が、人差し指の付け根に対応する特徴点又は特徴点の中心に位置し、横幅が、算出した横幅となるように検出領域500を撮像画像内に設定する。また、第3制御部350は、検出領域500の縦幅を、算出した横幅と、タッチパネル340に表示された表示画像の縦横比とに基づいて設定する。具体的には、第3制御部350は、検出領域500の縦横比が、表示画像の縦横比と同一となるように、検出領域500の縦幅を設定する。検出領域500の縦幅は、撮像画像の画素数で設定される。
FIG. 7 is a diagram showing a detection area 500 set in a captured image.
The third control unit 350 sets the detection area 500 in the captured image so that the center is located at the feature point corresponding to the base of the index finger or the center of the feature point, and the width is the calculated width. Further, the third control unit 350 sets the vertical width of the detection area 500 based on the calculated horizontal width and the aspect ratio of the display image displayed on the touch panel 340. Specifically, the third control unit 350 sets the vertical width of the detection area 500 so that the aspect ratio of the detection area 500 is the same as the aspect ratio of the display image. The vertical width of the detection area 500 is set by the number of pixels of the captured image.

第3制御部350は、検出領域500を設定すると、キャリブレーションデータ367を生成する。検出領域500の縦幅及び横幅の画素数と、タッチパネル340の表示画像の縦幅及び横幅の画素数とに基づいてキャリブレーションデータ367を生成する。
キャリブレーションデータ367により、検出領域500から検出したユーザー30の指示位置と、画像データでの指示位置とが対応づけられる。
After setting the detection area 500, the third control unit 350 generates calibration data 367. Calibration data 367 is generated based on the number of pixels in the vertical and horizontal widths of the detection area 500 and the number of pixels in the vertical and horizontal widths of the display image on the touch panel 340.
The calibration data 367 associates the designated position of the user 30 detected from the detection area 500 with the designated position in the image data.

キャリブレーションデータ367は、検出領域500の縦幅の画素数に対するタッチパネル340の表示画像の縦幅の画素数の比と、検出領域500の横幅の画素数に対するタッチパネル340の表示画像の横幅の画素数の比を含む。この場合、検出領域500における指示位置の座標値に、前述の画素数の比をそれぞれ乗算することで、タッチパネル340の表示画像における指示位置の座標値を算出することができる。また、キャリブレーションデータ367は画素数の比に限定されず、例えば、撮像画像における検出領域500の四隅の点の座標を、タッチパネル340における表示画像の四隅の点の座標へ射影変換する変換式をキャリブレーションデータ367として用いてもよい。 The calibration data 367 is the ratio of the number of pixels in the vertical width of the display image of the touch panel 340 to the number of pixels in the vertical width of the detection area 500, and the number of pixels in the horizontal width of the display image on the touch panel 340 to the number of pixels in the horizontal width of the detection area 500. including the ratio of In this case, by multiplying the coordinate values of the designated position in the detection area 500 by the ratio of the number of pixels described above, the coordinate value of the designated position in the display image of the touch panel 340 can be calculated. In addition, the calibration data 367 is not limited to the ratio of the number of pixels, but is, for example, a conversion formula for projectively converting the coordinates of the four corner points of the detection area 500 in the captured image to the coordinates of the four corner points of the display image on the touch panel 340. It may also be used as calibration data 367.

第3制御部350は、検出領域500を設定すると、設定した検出領域500内を検出して、指示操作や、操作ジェスチャーを検出する。
指示操作は、ユーザー30によって指示された検出領域500内の位置を第1指示位置として検出し、検出した第1指示位置に対応する表示画像の位置をキャリブレーションデータ367により求める処理である。キャリブレーションデータ367により変換された表示画像の位置を第2指示位置という。第3制御部350は、表示画像の第2指示位置に基づいて実行する処理を判定し、判定した処理を実行する。
例えば、第3制御部350は、表示画像の第2指示位置に対応する位置に、マウスカーソルを移動させる処理を実行する。
After setting the detection area 500, the third control unit 350 detects the inside of the set detection area 500 and detects an instruction operation or an operation gesture.
The instruction operation is a process of detecting a position within the detection area 500 instructed by the user 30 as a first instruction position, and determining the position of the display image corresponding to the detected first instruction position using the calibration data 367. The position of the display image converted by the calibration data 367 is referred to as a second designated position. The third control unit 350 determines the process to be executed based on the second designated position of the display image, and executes the determined process.
For example, the third control unit 350 executes a process of moving the mouse cursor to a position corresponding to the second designated position on the display image.

第3制御部350は、操作ジェスチャーを検出した場合、検出した操作ジェスチャーに対応した処理を実行する。例えば、マウスカーソルがアイコンに重ねて表示されている状態で、左クリックに対応づけられた操作ジェスチャーを検出した場合、このアイコンに対応するAPP363を実行する。
第3制御部350は、選択されたAPP363を実行してAPP画面をタッチパネル340に表示させる。また、第3制御部350は、APP画面の画像データをプロジェクター200に送信する。プロジェクター200は、制御装置300から受信した画像データに基づく画像光を生成し、生成した画像光を投写面10に投写する。これにより、投写面10には、APP画面が表示される。
When the third control unit 350 detects an operation gesture, it executes processing corresponding to the detected operation gesture. For example, when an operation gesture associated with a left click is detected while the mouse cursor is displayed overlapping an icon, the APP 363 corresponding to this icon is executed.
The third control unit 350 executes the selected APP 363 and causes the APP screen to be displayed on the touch panel 340. Further, the third control unit 350 transmits image data of the APP screen to the projector 200. The projector 200 generates image light based on the image data received from the control device 300 and projects the generated image light onto the projection surface 10. As a result, the APP screen is displayed on the projection surface 10.

また、第3制御部350は、撮像画像からスリープジェスチャーを検出すると、制御装置300の動作モードを、ジェスチャー操作モードからデバイス操作モードに変更する。 Furthermore, when the third control unit 350 detects a sleep gesture from the captured image, the third control unit 350 changes the operation mode of the control device 300 from the gesture operation mode to the device operation mode.

図8は、制御装置300の動作を示すフローチャートである。
図8に示すフローチャートを参照しながら制御装置300の動作について説明する。
制御装置300にプロジェクター200がケーブルを介して接続され、プロジェクター200の電源がオンされると、第3制御部350は、プロジェクター200に画像データを送信する(ステップS1)。この画像データは、例えば、タッチパネル340に表示される表示画像の元となる画像データである。プロジェクター200は、制御装置300から受信した画像データに基づく画像を投写面10に表示する。これにより投写面10には、タッチパネル340に表示される表示画像が表示される。投写面10に表示される表示画像が第1画像に相当する。
FIG. 8 is a flowchart showing the operation of the control device 300.
The operation of the control device 300 will be described with reference to the flowchart shown in FIG.
When the projector 200 is connected to the control device 300 via a cable and the power of the projector 200 is turned on, the third control unit 350 transmits image data to the projector 200 (step S1). This image data is, for example, image data that is the source of a display image displayed on the touch panel 340. The projector 200 displays an image on the projection surface 10 based on the image data received from the control device 300. As a result, the display image displayed on the touch panel 340 is displayed on the projection surface 10. The display image displayed on the projection surface 10 corresponds to the first image.

次に、第3制御部350は、カメラ100に撮像を指示する(ステップS2)。カメラ100は、制御装置300により撮像を指示されると撮像を開始し、所定の撮像間隔で撮像画像を生成する。カメラ100は、生成した撮像画像を制御装置300に送信する。第3制御部350は、カメラ100から受信した撮像画像を第3記憶部360に一時的に記憶させる。 Next, the third control unit 350 instructs the camera 100 to take an image (step S2). The camera 100 starts capturing images when instructed to capture images by the control device 300, and generates captured images at predetermined imaging intervals. Camera 100 transmits the generated captured image to control device 300. The third control unit 350 temporarily stores the captured image received from the camera 100 in the third storage unit 360.

次に、第3制御部350は、第3記憶部360から撮像画像を取得し(ステップS3)、学習モデル365を用いて撮像画像から特徴点を検出する(ステップS4)。
第3制御部350は、特徴点の検出結果に基づいてウェイクアップジェスチャーを検出したか否かを判定する(ステップS5)。第3制御部350は、検出した特徴点が属するユーザー30の身体の部位を特定し、ウェイクアップジェスチャーを検出したか否かを判定する。
Next, the third control unit 350 acquires the captured image from the third storage unit 360 (step S3), and detects feature points from the captured image using the learning model 365 (step S4).
The third control unit 350 determines whether a wake-up gesture has been detected based on the detection result of the feature points (step S5). The third control unit 350 identifies the body part of the user 30 to which the detected feature point belongs, and determines whether a wake-up gesture is detected.

第3制御部350は、以下の3つの条件が成立した場合に、ウェイクアップジェスチャーを検出したと判定する。
第1条件は、手のひらに含まれる特徴点が検出されること、である。
第2条件は、人差し指の関節の特徴点が検出され、人差し指を立てた状態であると判定されること、である。
第3条件は、手のひらに含まれる特徴点が、肩位置を示す特徴点よりも低い位置から、肩位置を示す特徴点よりも高い位置に移動したこと、である。
The third control unit 350 determines that a wake-up gesture has been detected when the following three conditions are met.
The first condition is that feature points included in the palm of the hand are detected.
The second condition is that the feature point of the joint of the index finger is detected and it is determined that the index finger is in an upright position.
The third condition is that the feature point included in the palm has moved from a position lower than the feature point indicating the shoulder position to a position higher than the feature point indicating the shoulder position.

第3制御部350は、ウェイクアップジェスチャーを検出しなかった場合(ステップS5/NO)、操作部330が操作を受け付けたか否かを判定する(ステップS6)。つまり、第3制御部350は、マウスやキーボード等の入力デバイスから操作信号が入力されたか否かを判定する。第3制御部350は、操作部330が操作を受け付けていない場合(ステップS6/NO)、ステップS3の処理に戻る。 If the third control unit 350 does not detect a wake-up gesture (step S5/NO), the third control unit 350 determines whether the operation unit 330 has accepted the operation (step S6). That is, the third control unit 350 determines whether an operation signal is input from an input device such as a mouse or a keyboard. If the operation unit 330 does not accept the operation (step S6/NO), the third control unit 350 returns to the process of step S3.

第3制御部350は、操作部330が操作を受け付けた場合(ステップS6/YES)、受け付けた操作が、プロジェクター200による画像の表示を終了させる終了操作であるか否かを判定する(ステップS7)。第3制御部350は、受け付けた操作が終了操作である場合(ステップS7/YES)、この処理フローを終了させる。
第3制御部350は、受け付けた操作が終了操作ではない場合(ステップS7/NO)、受け付けた操作に対応した処理を実行し(ステップS8)、ステップS3の処理に戻る。
When the operation unit 330 receives the operation (step S6/YES), the third control unit 350 determines whether the received operation is a termination operation for terminating the image display by the projector 200 (step S7). ). If the received operation is an end operation (step S7/YES), the third control unit 350 ends this processing flow.
If the received operation is not an end operation (step S7/NO), the third control unit 350 executes a process corresponding to the received operation (step S8), and returns to the process of step S3.

第3制御部350は、ウェイクアップジェスチャーを検出した場合(ステップS5/YES)、検出した特徴点に基づき検出領域500を設定可能であるか否かを判定する(ステップS9)。第3制御部350は、例えば、左右の眼の特徴点のいずれか一方を検出できない等の理由により検出領域500を設定できなかった場合、検出領域500を設定できないと判定する。第3制御部350は、検出領域500を設定できなかった場合(ステップS9/NO)、撮像画像を再度、取得する(ステップS10)。第3制御部350は、取得した撮像画像から学習モデル365を用いて撮像画像から特徴点を検出し(ステップS11)、検出領域500を再度、設定可能か否かを判定する(ステップS9)。 When the third control unit 350 detects a wake-up gesture (step S5/YES), the third control unit 350 determines whether the detection area 500 can be set based on the detected feature points (step S9). The third control unit 350 determines that the detection area 500 cannot be set, for example, if the detection area 500 cannot be set due to a reason such as not being able to detect either one of the feature points of the left or right eyes. If the detection area 500 cannot be set (step S9/NO), the third control unit 350 acquires the captured image again (step S10). The third control unit 350 detects feature points from the acquired captured image using the learning model 365 (step S11), and determines whether the detection area 500 can be set again (step S9).

第3制御部350は、検出領域500を設定可能であると判定すると(ステップS9/YES)、撮像画像内に検出領域500を設定する(ステップS12)。また、ステップS12にて、設定した検出領域500とタッチパネル340の表示画像に基づき、キャリブレーションデータ367を生成する。
第3制御部350は、ユーザー30の左右の眼の特徴点を特定して、左右の眼の特徴点間の距離Lを算出する。第3制御部350は、算出した距離に、設定値を乗算して検出領域500の横幅を算出する。また、第3制御部350は、中心が、人差し指の付け根に対応する特徴点又は特徴点の中心に位置し、横幅が、算出した横幅となるように検出領域500を撮像画像内に設定する。また、第3制御部350は、検出領域500の縦幅を、算出した横幅と、制御装置300がプロジェクター200に供給する画像データの縦横比とに基づいて設定する。具体的には、第3制御部350は、検出領域500の縦横比が、画像データの縦横比と同一となるように、検出領域500の縦幅を設定する。
If the third control unit 350 determines that the detection area 500 can be set (step S9/YES), the third control unit 350 sets the detection area 500 within the captured image (step S12). Further, in step S12, calibration data 367 is generated based on the set detection area 500 and the display image of the touch panel 340.
The third control unit 350 specifies the feature points of the left and right eyes of the user 30 and calculates the distance L between the feature points of the left and right eyes. The third control unit 350 calculates the width of the detection area 500 by multiplying the calculated distance by the set value. Further, the third control unit 350 sets the detection area 500 in the captured image so that the center is located at the feature point corresponding to the base of the index finger or the center of the feature point, and the width is the calculated width. Further, the third control unit 350 sets the vertical width of the detection area 500 based on the calculated horizontal width and the aspect ratio of the image data that the control device 300 supplies to the projector 200. Specifically, the third control unit 350 sets the vertical width of the detection area 500 so that the aspect ratio of the detection area 500 is the same as the aspect ratio of the image data.

次に、第3制御部350は、制御装置300の動作モードを、デバイス操作モードからジェスチャー操作モードに変更し(ステップS13)、第3記憶部360から次の撮像画像を取得する(ステップS14)。第3制御部350は、学習モデル365を用いて撮像画像から特徴点を検出し(ステップS15)、特徴点の検出結果に基づいて指示操作又は操作ジェスチャーを検出したか否かを判定する(ステップS16)。 Next, the third control unit 350 changes the operation mode of the control device 300 from the device operation mode to the gesture operation mode (step S13), and acquires the next captured image from the third storage unit 360 (step S14). . The third control unit 350 detects feature points from the captured image using the learning model 365 (step S15), and determines whether an instruction operation or an operation gesture has been detected based on the detection result of the feature points (step S15). S16).

第3制御部350は、指示操作又は操作ジェスチャーを検出した場合(ステップS16/YES)、検出した操作ジェスチャーが、プロジェクター200による画像の表示を終了させる終了操作であるか否かを判定する(ステップS17)。第3制御部350は、検出した操作ジェスチャーが終了操作である場合(ステップS17/YES)、プロジェクター200への画像データの送信を停止し、この処理フローを終了させる。 When the third control unit 350 detects an instruction operation or an operation gesture (step S16/YES), the third control unit 350 determines whether or not the detected operation gesture is an end operation that ends the display of the image by the projector 200 (step S16/YES). S17). If the detected operation gesture is an end operation (step S17/YES), the third control unit 350 stops transmitting the image data to the projector 200, and ends this processing flow.

また、第3制御部350は、検出した操作ジェスチャーが終了操作ではない場合(ステップS17/NO)、検出した指示操作、又は操作ジェスチャーに対応した処理を実行する(ステップS18)。指示操作を検出している場合、第3制御部350は、ステップS18にて、キャリブレーションデータ367に基づき、タッチパネル340の表示画像における指示位置を算出し、算出した指示位置に応じた処理を実行する。
また、第3制御部350は、処理の実行結果に対応した画像データを生成する(ステップS19)。第3制御部350は、生成した画像データをプロジェクター200に送信する(ステップS20)。プロジェクター200が受信した画像データに基づく画像を投写面10に表示することで、投写面10には、タッチパネル340に表示される表示画像である第2画像が表示される。
Further, if the detected operation gesture is not an end operation (step S17/NO), the third control unit 350 executes a process corresponding to the detected instruction operation or operation gesture (step S18). If an instruction operation is detected, the third control unit 350 calculates the instruction position in the display image of the touch panel 340 based on the calibration data 367 in step S18, and executes processing according to the calculated instruction position. do.
Further, the third control unit 350 generates image data corresponding to the execution result of the process (step S19). The third control unit 350 transmits the generated image data to the projector 200 (step S20). By displaying an image based on the image data received by the projector 200 on the projection surface 10, the second image, which is the display image displayed on the touch panel 340, is displayed on the projection surface 10.

また、第3制御部350は、ステップS16において指示操作又は操作ジェスチャーが検出されなかった場合(ステップS16/NO)、スリープジェスチャーを検出したか否かを判定する(ステップS21)。第3制御部350は、以下の3つの条件が成立した場合、スリープジェスチャーを検出したと判定する。
第1条件は、手のひらに含まれる特徴点が検出されること、である。
第2条件は、人差し指の関節の特徴点が検出され、人差し指を立てた状態であると判定されること、である。
第3条件は、手のひらに含まれる特徴点が、肩位置を示す特徴点よりも高い位置から、肩位置を示す特徴点よりも低い位置に移動したこと、である。
Further, if the instruction operation or operation gesture is not detected in step S16 (step S16/NO), the third control unit 350 determines whether a sleep gesture has been detected (step S21). The third control unit 350 determines that a sleep gesture has been detected when the following three conditions are met.
The first condition is that feature points included in the palm of the hand are detected.
The second condition is that the feature point of the joint of the index finger is detected and it is determined that the index finger is in an upright position.
The third condition is that the feature point included in the palm has moved from a position higher than the feature point indicating the shoulder position to a position lower than the feature point indicating the shoulder position.

第3制御部350は、スリープジェスチャーを検出しなかった場合(ステップS21/NO)、ステップS14の処理に戻る。
また、第3制御部350は、スリープジェスチャーを検出した場合(ステップS21)、制御装置300の動作モードを、ジェスチャー操作モードからデバイス操作モードに変更し(ステップS22)、ステップS3の処理に戻る。
If the third control unit 350 does not detect a sleep gesture (step S21/NO), the process returns to step S14.
Further, when the third control unit 350 detects a sleep gesture (step S21), the third control unit 350 changes the operation mode of the control device 300 from the gesture operation mode to the device operation mode (step S22), and returns to the process of step S3.

6.本開示のまとめ
以下、本開示のまとめを付記する。
(付記1)
第1画像を表示装置に表示させることと、
操作者を撮像した撮像画像を取得することと、
前記撮像画像に基づき、前記操作者の身体的な特徴点群を検出することと、
前記特徴点群に基づく大きさの、前記操作者の操作を検出する検出領域を前記撮像画像内に設定することと、
前記撮像画像の前記検出領域内から前記操作者により指示される第1指示位置を検出することと、
前記第1指示位置に対応する前記第1画像における位置である第2指示位置を取得することと、
前記第2指示位置に基づき第2画像を生成することと、
前記第2画像を前記表示装置に表示させることと、
を含む制御装置の制御方法。
6. Summary of the present disclosure A summary of the present disclosure is appended below.
(Additional note 1)
Displaying the first image on a display device;
Obtaining a captured image of the operator;
Detecting a group of physical feature points of the operator based on the captured image;
setting a detection area in the captured image for detecting the operation of the operator, the size of which is based on the feature point group;
detecting a first designated position designated by the operator from within the detection area of the captured image;
obtaining a second designated position that is a position in the first image corresponding to the first designated position;
generating a second image based on the second designated position;
Displaying the second image on the display device;
A control method for a control device including:

これにより、撮像画像に設定される検出領域の大きさが、撮像画像から検出される操作者の身体的な特徴点に基づいて設定される。このため、検出領域から第1指示位置を検出することで、簡易な構成であっても、操作者の操作を検出することができる。 Thereby, the size of the detection area set in the captured image is set based on the physical feature points of the operator detected from the captured image. Therefore, by detecting the first designated position from the detection area, the operator's operation can be detected even with a simple configuration.

(付記2)
前記操作者の身体的な前記特徴点群を検出することは、
前記特徴点群に含まれる第1特徴点群として前記操作者の左眼の位置及び右眼の位置を検出することと、
を含み、
前記検出領域を前記撮像画像に設定することは、
前記撮像画像における、前記操作者の左眼の位置から右眼の位置までの距離に基づいて前記撮像画像での前記検出領域の大きさを設定する、ことを含む、付記1記載の表示方法。
(Additional note 2)
Detecting the group of physical feature points of the operator includes:
detecting the position of the left eye and the position of the right eye of the operator as a first feature point group included in the feature point group;
including;
Setting the detection area in the captured image includes:
The display method according to supplementary note 1, including setting the size of the detection area in the captured image based on the distance from the position of the operator's left eye to the position of the right eye in the captured image.

これにより、操作者の左右の眼の距離に基づいて検出領域の大きさが設定される。このため、撮像画像の撮像位置と、操作者との距離に左右されずに、撮像画像における検出領域の大きさを、操作者の操作に適した大きさに設定することができる。 Thereby, the size of the detection area is set based on the distance between the left and right eyes of the operator. Therefore, the size of the detection area in the captured image can be set to a size suitable for the operator's operation, regardless of the imaging position of the captured image and the distance from the operator.

(付記3)
前記操作者の身体的な前記特徴点群を検出することは、
前記特徴点群に含まれる第1特徴点群として前記操作者の左肩の位置及び右肩の位置を検出することと、
を含み、
前記検出領域を前記撮像画像に設定することは、
前記撮像画像における、前記操作者の左肩の位置から右肩の位置までの距離に基づいて前記撮像画像での前記検出領域の大きさを設定する、ことを含む、付記1記載の表示方法。
(Additional note 3)
Detecting the group of physical feature points of the operator includes:
detecting the position of the left shoulder and the position of the right shoulder of the operator as a first feature point group included in the feature point group;
including;
Setting the detection area in the captured image includes:
The display method according to supplementary note 1, including setting the size of the detection area in the captured image based on the distance from the left shoulder position to the right shoulder position of the operator in the captured image.

これにより、操作者の左右の肩の距離に基づいて検出領域のサイズが設定される。このため、撮像画像の撮像位置と、操作者との距離に左右されずに、撮像画像における検出領域のサイズを、操作者の操作に適した大きさに設定することができる。 Thereby, the size of the detection area is set based on the distance between the left and right shoulders of the operator. Therefore, the size of the detection area in the captured image can be set to a size suitable for the operator's operation, regardless of the imaging position of the captured image and the distance from the operator.

(付記4)
前記操作者の身体的な前記特徴点群を検出することは、
前記特徴点群に含まれる第2特徴点として、前記操作者の手に含まれる特徴点を検出すること、
を含み、
前記検出領域を前記撮像画像に設定することは、
前記第2特徴点の位置に基づいて前記検出領域を設定する、
ことを含む、付記1から3のいずれか一項に記載の表示方法。
(Additional note 4)
Detecting the group of physical feature points of the operator includes:
Detecting a feature point included in the operator's hand as a second feature point included in the feature point group;
including;
Setting the detection area in the captured image includes:
setting the detection area based on the position of the second feature point;
The display method according to any one of Supplementary Notes 1 to 3, including:

これにより、操作者の手に含まれる特徴点の位置に基づいて検出領域が設定される。このため、使用者の手を含む範囲に検出領域を設定することができる。 Thereby, the detection area is set based on the position of the feature point included in the operator's hand. Therefore, the detection area can be set in a range that includes the user's hand.

(付記5)
前記操作者の身体的な前記特徴点群を検出することは、
前記特徴点群に含まれる第2特徴点として、前記操作者の手に含まれる特徴点を検出すること、
を含み、
前記検出領域を前記撮像画像に設定することは、
前記第2特徴点に基づき、予め設定された操作を検出した場合に、前記特徴点群に基づいて前記検出領域を前記撮像画像に設定すること、
を含む、付記1から3のいずれか一項に記載の表示方法。
(Appendix 5)
Detecting the group of physical feature points of the operator includes:
Detecting a feature point included in the operator's hand as a second feature point included in the feature point group;
including;
Setting the detection area in the captured image includes:
setting the detection area in the captured image based on the group of feature points when a preset operation is detected based on the second feature point;
The display method according to any one of Supplementary Notes 1 to 3, including:

これにより、操作者の手に含まれる第2特徴点に基づいて予め設定された操作を検出した場合に、検出領域が撮像画像に設定される。
このため、操作者が予め設定された操作を行うことで、撮像画像に検出領域を設定することができる。
Thereby, when a preset operation is detected based on the second feature point included in the operator's hand, the detection area is set in the captured image.
Therefore, the detection area can be set in the captured image by the operator performing a preset operation.

(付記6)
前記操作者の身体的な前記特徴点群を検出することは、
前記特徴点群に含まれる第2特徴点として、前記操作者の人差し指の関節位置を検出することと、
を含み、
前記検出領域を前記撮像画像に設定することは、
前記人差し指の関節位置に基づいて前記検出領域を設定する、
ことを含む、付記1から3のいずれか一項に記載の表示方法。
(Appendix 6)
Detecting the group of physical feature points of the operator includes:
Detecting a joint position of the index finger of the operator as a second feature point included in the feature point group;
including;
Setting the detection area in the captured image includes:
setting the detection area based on the joint position of the index finger;
The display method according to any one of Supplementary Notes 1 to 3, including:

これにより、操作者の人差し指の関節位置に基づいて検出領域が撮像画像に設定される。このため、操作者が検出領域で行う操作の検出精度を高めることができる。 Thereby, the detection area is set in the captured image based on the joint position of the operator's index finger. Therefore, the detection accuracy of the operation performed by the operator in the detection area can be improved.

(付記7)
前記検出領域を前記撮像画像に設定することは、
前記撮像画像における、前記操作者の左眼の位置から右眼の位置までの距離に、予め設定された設定値を乗算した値を、対向する2辺の長さとする矩形の前記検出領域を設定すること、
を含む、付記2記載の表示方法。
(Appendix 7)
Setting the detection area in the captured image includes:
The detection area is set as a rectangle whose length on two opposing sides is a value obtained by multiplying the distance from the position of the operator's left eye to the position of the right eye in the captured image by a preset setting value. to do,
The display method described in Appendix 2, including.

これにより、検出領域の大きさが、操作者の左右の眼の距離に基づいて設定される。このため、検出領域の大きさを操作者の操作に適した大きさに設定することができる。 Thereby, the size of the detection area is set based on the distance between the left and right eyes of the operator. Therefore, the size of the detection area can be set to a size suitable for the operator's operations.

(付記8)
第1画像を表示装置に表示させることと、
操作者を撮像した撮像画像を取得することと、
前記撮像画像に基づき、前記操作者の身体的な特徴点群を検出することと、
前記特徴点群に基づく大きさの、前記操作者の操作を検出する検出領域を前記撮像画像内に設定することと、
前記撮像画像の前記検出領域内から前記操作者により指示される第1指示位置を検出することと、
前記第1指示位置に対応する前記第1画像における位置である第2指示位置を取得することと、
前記第2指示位置に基づき第2画像を生成することと、
前記第2画像を前記表示装置に表示させることと、
を実行する制御装置。
(Appendix 8)
Displaying the first image on a display device;
Obtaining a captured image of the operator;
Detecting a group of physical feature points of the operator based on the captured image;
setting a detection area in the captured image for detecting the operation of the operator, the size of which is based on the feature point group;
detecting a first designated position designated by the operator from within the detection area of the captured image;
obtaining a second designated position that is a position in the first image corresponding to the first designated position;
generating a second image based on the second designated position;
Displaying the second image on the display device;
A control device that executes.

これにより、撮像画像に設定される検出領域の大きさが、撮像画像から検出される操作者の身体的な特徴点に基づいて設定される。このため、検出領域から第1指示位置を検出することで、簡易な構成であっても、操作者の操作の検出精度を高めることができる。 Thereby, the size of the detection area set in the captured image is set based on the physical feature points of the operator detected from the captured image. Therefore, by detecting the first designated position from the detection area, the detection accuracy of the operator's operation can be improved even with a simple configuration.

(付記9)
第1画像を表示する表示装置と、
操作者を撮像する撮像装置と、
前記撮像装置から、操作者を撮像した撮像画像を取得することと、
前記撮像画像に基づき、前記操作者の身体的な特徴点群を検出することと、
前記特徴点群に基づく大きさの、前記操作者の操作を検出する検出領域を前記撮像画像内に設定することと、
前記撮像画像の前記検出領域内から前記操作者により指示される第1指示位置を検出することと、
前記第1指示位置に対応する前記第1画像における位置である第2指示位置を取得することと、
前記第2指示位置に基づき第2画像を生成することと、
を実行する制御装置と、
を備え、
前記表示装置は、
前記第2画像を表示することと、
を実行する、表示システム。
(Appendix 9)
a display device that displays a first image;
an imaging device that captures an image of an operator;
Obtaining a captured image of the operator from the imaging device;
Detecting a group of physical feature points of the operator based on the captured image;
setting a detection area in the captured image for detecting the operation of the operator, the size of which is based on the feature point group;
detecting a first designated position designated by the operator from within the detection area of the captured image;
obtaining a second designated position that is a position in the first image corresponding to the first designated position;
generating a second image based on the second designated position;
a control device that performs
Equipped with
The display device includes:
Displaying the second image;
A display system that runs.

これにより、撮像画像に設定される検出領域の大きさが、撮像画像から検出される操作者の身体的な特徴点に基づいて設定される。このため、検出領域から第1指示位置を検出することで、簡易な構成であっても、操作者の操作の検出精度を高めることができる。 Thereby, the size of the detection area set in the captured image is set based on the physical feature points of the operator detected from the captured image. Therefore, by detecting the first designated position from the detection area, the detection accuracy of the operator's operation can be improved even with a simple configuration.

上述した実施形態は本発明の好適な実施の形態である。ただし、この実施形態に限定されることなく、本発明の要旨を逸脱しない範囲内で種々の変形実施が可能である。
例えば、上述した実施形態では、制御装置300がウェイクアップジェスチャー、スリープジェスチャー及び操作ジェスチャーを検出する場合について説明したが、カメラ100又はプロジェクター200によりジェスチャーを検出してもよい。制御装置300は、カメラ100又はプロジェクター200が検出したウェイクアップジェスチャーやスリープジェスチャージェスチャーに基づいて動作モードを変更する。また、制御装置300は、カメラ100又はプロジェクター200が検出した操作ジェスチャーに対応づけられた処理を実行する。
The embodiments described above are preferred embodiments of the present invention. However, the present invention is not limited to this embodiment, and various modifications can be made without departing from the gist of the present invention.
For example, in the embodiment described above, a case has been described in which the control device 300 detects a wake-up gesture, a sleep gesture, and an operation gesture, but the camera 100 or the projector 200 may also detect the gesture. The control device 300 changes the operation mode based on a wake-up gesture or a sleep gesture detected by the camera 100 or the projector 200. Further, the control device 300 executes processing associated with the operation gesture detected by the camera 100 or the projector 200.

また、上述した実施形態では、ユーザー30の手のひらの人差し指の付け根に対応する特徴点を特定し、特定した特徴点を、検出領域500の縦方向及び横方向の中心に設定した。検出領域500の縦方向及び横方向の中心に設定する特徴点は、人差し指等の指の先端であってもよい。 Furthermore, in the embodiment described above, a feature point corresponding to the base of the index finger of the user's 30 palm is identified, and the identified feature point is set at the center of the detection area 500 in the vertical and horizontal directions. The feature point set at the center of the detection area 500 in the vertical and horizontal directions may be the tip of a finger such as an index finger.

また、上述した実施形態では、ユーザー30の左右の眼を第2特徴点として検出し、検出した左右の眼の距離に基づいて検出領域500の横幅を設定した。
変形例として、第3制御部350は、ユーザー30の左右の肩位置を第2特徴点として検出し、検出した左右の肩位置に、予め設定された設定値を乗算して、検出領域500の横幅を算出する。
Furthermore, in the embodiment described above, the left and right eyes of the user 30 are detected as the second feature points, and the width of the detection area 500 is set based on the detected distance between the left and right eyes.
As a modified example, the third control unit 350 detects the left and right shoulder positions of the user 30 as the second feature points, and multiplies the detected left and right shoulder positions by a preset value to determine the area of the detection area 500. Calculate the width.

また、図2に示すカメラ100や、図3に示すプロジェクター200、図4に示す制御装置300の各機能部は、ハードウェアとソフトウェアとの協働により実現される機能的構成を示すものであって、具体的な実装形態は特に制限されない。従って、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現されている機能の一部をハードウェアで実現してもよく、また、ハードウェアで実現されている機能の一部をソフトウェアで実現してもよい。 Further, each functional unit of the camera 100 shown in FIG. 2, the projector 200 shown in FIG. 3, and the control device 300 shown in FIG. 4 shows a functional configuration realized by cooperation between hardware and software. Therefore, the specific implementation form is not particularly limited. Therefore, it is not necessarily necessary to implement hardware corresponding to each functional unit individually, and it is of course possible to have a configuration in which one processor executes a program to realize the functions of a plurality of functional units. Moreover, some of the functions realized by software in the above embodiments may be realized by hardware, and some of the functions realized by hardware may be realized by software.

また、上述した制御装置の制御方法を、制御装置300に搭載されたコンピューターを用いて実現する場合、このコンピューターに実行させるプログラムを記録媒体の態様で構成することも可能である。また、コンピューターに実行させるプログラムは、プログラムを伝送する伝送媒体の態様で構成することも可能である。記録媒体には、磁気的、光学的記録媒体又は半導体メモリーデバイスを用いることができる。具体的には、フレキシブルディスク、HDD、CD-ROM(compact disc read-only memory)、DVD(Digital Vversatile Disc)、Blu-ray Disc、光磁気ディスク、フラッシュメモリー、カード型記録媒体等の可搬型、或いは固定式の記録媒体が挙げられる。また、上記記録媒体は、サーバー装置が備える内部記憶装置であるRAM、ROM、HDD等の不揮発性記憶装置であってもよい。Blu-rayは、登録商標である。 Further, when the above-described control method for the control device is implemented using a computer installed in the control device 300, it is also possible to configure a program to be executed by the computer in the form of a recording medium. Further, the program executed by the computer can also be configured in the form of a transmission medium that transmits the program. A magnetic or optical recording medium or a semiconductor memory device can be used as the recording medium. Specifically, portable types such as flexible discs, HDDs, CD-ROMs (compact disc read-only memory), DVDs (digital versatile discs), Blu-ray discs, magneto-optical discs, flash memories, and card-type recording media; Alternatively, a fixed recording medium may be used. Further, the recording medium may be a nonvolatile storage device such as a RAM, ROM, or HDD, which is an internal storage device included in the server device. Blu-ray is a registered trademark.

また、図8及び図9に示すフローチャートの処理単位は、第3制御部350の処理を理解容易にするために、主な処理内容に応じて分割したものであり、図8及び図9のフローチャートに示す処理単位の分割の仕方や名称によって本発明が制限されることはない。また、第2制御部250の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできるし、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、上記のフローチャートの処理順序も、図示した例に限られるものではない。 Furthermore, the processing units in the flowcharts shown in FIGS. 8 and 9 are divided according to the main processing contents in order to facilitate understanding of the processing of the third control unit 350. The present invention is not limited by the method of dividing the processing units or the names shown in FIG. Further, the processing of the second control unit 250 can be divided into more processing units depending on the processing content, or can be divided so that one processing unit includes even more processing. Furthermore, the processing order in the above flowchart is not limited to the illustrated example.

また、上述した実施形態では、表示装置としてプロジェクター200を用いる構成を例示したが、表示装置はプロジェクター200に限定されない。例えば、液晶表示パネルに画像を表示する液晶表示装置や、有機ELパネルに画像を表示する表示装置など、モニター若しくは液晶テレビ等の自発光型の表示装置であってもよい。 Further, in the embodiment described above, a configuration in which the projector 200 is used as the display device is illustrated, but the display device is not limited to the projector 200. For example, a self-luminous display device such as a monitor or a liquid crystal television, such as a liquid crystal display device that displays images on a liquid crystal display panel, or a display device that displays images on an organic EL panel, may be used.

また、上述した実施形態では、カメラ100、プロジェクター200及び制御装置300がそれぞれ別体である表示システム1を例示したが、この表示システム1に限定されない。例えば、プロジェクター200がカメラ100を内蔵する構成であってもよいし、制御装置300がカメラ100を内蔵する構成であってもよい。また、プロジェクター200が制御装置300を内蔵する構成であってもよいし、プロジェクター200が制御装置300及びカメラ100を内蔵する構成であってもよい。 Further, in the embodiment described above, the display system 1 in which the camera 100, the projector 200, and the control device 300 are each separate bodies is illustrated, but the present invention is not limited to this display system 1. For example, the projector 200 may have a built-in camera 100, or the control device 300 may have a built-in camera 100. Furthermore, the projector 200 may have a configuration in which the control device 300 is built in, or the projector 200 may have a configuration in which the control device 300 and the camera 100 are built in.

ここで、プロジェクター200が制御装置300を内蔵する場合、タッチパネル340を備えない構成としてもよい。この場合、検出領域500の縦幅を、算出した横幅と、プロジェクター200が備える液晶パネル235が表示する表示画像の縦横比とに基づいて設定してもよい。また、検出領域500の縦幅及び横幅の画素数と、液晶パネル235が表示する表示画像の縦幅及び横幅の画素数とに基づいてキャリブレーションデータ367を生成してもよい。 Here, when the projector 200 includes the control device 300, it may be configured without the touch panel 340. In this case, the vertical width of the detection area 500 may be set based on the calculated horizontal width and the aspect ratio of the display image displayed by the liquid crystal panel 235 included in the projector 200. Further, the calibration data 367 may be generated based on the number of pixels in the vertical and horizontal widths of the detection area 500 and the number of pixels in the vertical and horizontal widths of the display image displayed by the liquid crystal panel 235.

1…表示システム、10…投写面、30…ユーザー、100…カメラ、110…第1無線インターフェイス、130…撮像部、150…第1制御部、160…第1記憶部、165…制御プログラム、170…第1プロセッサー、200…プロジェクター、210…第1有線I/F、220…画像処理部、225…フレームメモリー、230…画像投写部、231…光源、233…光変調装置、235…液晶パネル、237…光学ユニット、250…第2制御部、260…第2記憶部、265…制御プログラム、270…第2プロセッサー、300…制御装置、310…第2無線I/F、320…第2有線I/F、330…操作部、340…タッチパネル、343…タッチセンサー、350…第3制御部、360…第3記憶部、361…OS、363…APP、365…学習モデル、367…キャリブレーションデータ、370…第3プロセッサー、500…検出領域。 DESCRIPTION OF SYMBOLS 1... Display system, 10... Projection surface, 30... User, 100... Camera, 110... First wireless interface, 130... Imaging section, 150... First control section, 160... First storage section, 165... Control program, 170 ... first processor, 200 ... projector, 210 ... first wired I/F, 220 ... image processing section, 225 ... frame memory, 230 ... image projection section, 231 ... light source, 233 ... light modulation device, 235 ... liquid crystal panel, 237...Optical unit, 250...Second control section, 260...Second storage section, 265...Control program, 270...Second processor, 300...Control device, 310...Second wireless I/F, 320...Second wired I /F, 330...Operation unit, 340...Touch panel, 343...Touch sensor, 350...Third control unit, 360...Third storage unit, 361...OS, 363...APP, 365...Learning model, 367...Calibration data, 370...Third processor, 500...Detection area.

Claims (9)

第1画像を表示装置に表示させることと、
操作者を撮像した撮像画像を取得することと、
前記撮像画像に基づき、前記操作者の身体的な特徴点群を検出することと、
前記特徴点群に基づく大きさの、前記操作者の操作を検出する検出領域を前記撮像画像内に設定することと、
前記撮像画像の前記検出領域内から前記操作者により指示される第1指示位置を検出することと、
前記第1指示位置に対応する前記第1画像における位置である第2指示位置を取得することと、
前記第2指示位置に基づき第2画像を生成することと、
前記第2画像を前記表示装置に表示させることと、
を含む制御装置の制御方法。
Displaying the first image on a display device;
Obtaining a captured image of the operator;
Detecting a group of physical feature points of the operator based on the captured image;
setting a detection area in the captured image for detecting the operation of the operator, the size of which is based on the feature point group;
detecting a first designated position designated by the operator from within the detection area of the captured image;
obtaining a second designated position that is a position in the first image corresponding to the first designated position;
generating a second image based on the second designated position;
Displaying the second image on the display device;
A control method for a control device including:
前記操作者の身体的な前記特徴点群を検出することは、
前記特徴点群に含まれる第1特徴点群として前記操作者の左眼の位置及び右眼の位置を検出することと、
を含み、
前記検出領域を前記撮像画像に設定することは、
前記撮像画像における、前記操作者の左眼の位置から右眼の位置までの距離に基づいて前記撮像画像での前記検出領域の大きさを設定する、ことを含む、請求項1記載の制御装置の制御方法。
Detecting the group of physical feature points of the operator includes:
detecting the position of the left eye and the position of the right eye of the operator as a first feature point group included in the feature point group;
including;
Setting the detection area in the captured image includes:
The control device according to claim 1, further comprising: setting the size of the detection area in the captured image based on a distance from the position of the left eye to the position of the right eye of the operator in the captured image. control method.
前記操作者の身体的な前記特徴点群を検出することは、
前記特徴点群に含まれる第1特徴点群として前記操作者の左肩の位置及び右肩の位置を検出することと、
を含み、
前記検出領域を前記撮像画像に設定することは、
前記撮像画像における、前記操作者の左肩の位置から右肩の位置までの距離に基づいて前記撮像画像での前記検出領域の大きさを設定する、ことを含む、請求項1記載の制御装置の制御方法。
Detecting the group of physical feature points of the operator includes:
detecting the position of the left shoulder and the position of the right shoulder of the operator as a first feature point group included in the feature point group;
including;
Setting the detection area in the captured image includes:
The control device according to claim 1, further comprising: setting the size of the detection area in the captured image based on a distance from a left shoulder position to a right shoulder position of the operator in the captured image. Control method.
前記操作者の身体的な前記特徴点群を検出することは、
前記特徴点群に含まれる第2特徴点として、前記操作者の手に含まれる特徴点を検出すること、
を含み、
前記検出領域を前記撮像画像に設定することは、
前記第2特徴点の位置に基づいて前記検出領域を設定する、
ことを含む、請求項1から3のいずれか一項に記載の制御装置の制御方法。
Detecting the group of physical feature points of the operator includes:
Detecting a feature point included in the operator's hand as a second feature point included in the feature point group;
including;
Setting the detection area in the captured image includes:
setting the detection area based on the position of the second feature point;
A method for controlling a control device according to any one of claims 1 to 3, comprising:
前記操作者の身体的な前記特徴点群を検出することは、
前記特徴点群に含まれる第2特徴点として、前記操作者の手に含まれる特徴点を検出すること、
を含み、
前記検出領域を前記撮像画像に設定することは、
前記第2特徴点に基づき、予め設定された操作を検出した場合に、前記特徴点群に基づいて前記検出領域を前記撮像画像に設定すること、
を含む、請求項1から3のいずれか一項に記載の制御装置の制御方法。
Detecting the group of physical feature points of the operator includes:
Detecting a feature point included in the operator's hand as a second feature point included in the feature point group;
including;
Setting the detection area in the captured image includes:
setting the detection area in the captured image based on the group of feature points when a preset operation is detected based on the second feature point;
A method for controlling a control device according to any one of claims 1 to 3, comprising:
前記操作者の身体的な前記特徴点群を検出することは、
前記特徴点群に含まれる第2特徴点として、前記操作者の人差し指の関節位置を検出することと、
を含み、
前記検出領域を前記撮像画像に設定することは、
前記人差し指の関節位置に基づいて前記検出領域を設定する、
ことを含む、請求項1から3のいずれか一項記載の制御装置の制御方法。
Detecting the group of physical feature points of the operator includes:
Detecting a joint position of the index finger of the operator as a second feature point included in the feature point group;
including;
Setting the detection area in the captured image includes:
setting the detection area based on the joint position of the index finger;
A method for controlling a control device according to any one of claims 1 to 3, comprising:
前記検出領域を前記撮像画像に設定することは、
前記撮像画像における、前記操作者の左眼の位置から右眼の位置までの距離に、予め設定された設定値を乗算した値を、対向する2辺の長さとする矩形の前記検出領域を設定すること、
を含む、請求項2記載の制御装置の制御方法。
Setting the detection area in the captured image includes:
The detection area is set as a rectangle whose length on two opposing sides is a value obtained by multiplying the distance from the position of the operator's left eye to the position of the right eye in the captured image by a preset setting value. to do,
A method for controlling a control device according to claim 2, comprising:
第1画像を表示装置に表示させることと、
操作者を撮像した撮像画像を取得することと、
前記撮像画像に基づき、前記操作者の身体的な特徴点群を検出することと、
前記特徴点群に基づく大きさの、前記操作者の操作を検出する検出領域を前記撮像画像内に設定することと、
前記撮像画像の前記検出領域内から前記操作者により指示される第1指示位置を検出することと、
前記第1指示位置に対応する前記第1画像における位置である第2指示位置を取得することと、
前記第2指示位置に基づき第2画像を生成することと、
前記第2画像を前記表示装置に表示させることと、
を実行する制御装置。
Displaying the first image on a display device;
Obtaining a captured image of the operator;
Detecting a group of physical feature points of the operator based on the captured image;
setting a detection area in the captured image for detecting the operation of the operator, the size of which is based on the feature point group;
detecting a first designated position designated by the operator from within the detection area of the captured image;
obtaining a second designated position that is a position in the first image corresponding to the first designated position;
generating a second image based on the second designated position;
Displaying the second image on the display device;
A control device that executes.
第1画像を表示する表示装置と、
操作者を撮像する撮像装置と、
前記撮像装置から、操作者を撮像した撮像画像を取得することと、
前記撮像画像に基づき、前記操作者の身体的な特徴点群を検出することと、
前記特徴点群に基づく大きさの、前記操作者の操作を検出する検出領域を前記撮像画像内に設定することと、
前記撮像画像の前記検出領域内から前記操作者により指示される第1指示位置を検出することと、
前記第1指示位置に対応する前記第1画像における位置である第2指示位置を取得することと、
前記第2指示位置に基づき第2画像を生成することと、
を実行する制御装置と、
を備え、
前記表示装置は、
前記第2画像を表示することと、
を実行する、
表示システム。
a display device that displays a first image;
an imaging device that captures an image of an operator;
Obtaining a captured image of the operator from the imaging device;
Detecting a group of physical feature points of the operator based on the captured image;
setting a detection area in the captured image for detecting the operation of the operator, the size of which is based on the feature point group;
detecting a first designated position designated by the operator from within the detection area of the captured image;
obtaining a second designated position that is a position in the first image corresponding to the first designated position;
generating a second image based on the second designated position;
a control device that performs
Equipped with
The display device includes:
Displaying the second image;
execute,
display system.
JP2022097873A 2022-06-17 2022-06-17 Method for controlling control device, control device and display system Pending JP2023184001A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022097873A JP2023184001A (en) 2022-06-17 2022-06-17 Method for controlling control device, control device and display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022097873A JP2023184001A (en) 2022-06-17 2022-06-17 Method for controlling control device, control device and display system

Publications (1)

Publication Number Publication Date
JP2023184001A true JP2023184001A (en) 2023-12-28

Family

ID=89333297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022097873A Pending JP2023184001A (en) 2022-06-17 2022-06-17 Method for controlling control device, control device and display system

Country Status (1)

Country Link
JP (1) JP2023184001A (en)

Similar Documents

Publication Publication Date Title
KR102429427B1 (en) Image capturing apparatus and method for the same
JP4507281B2 (en) Image display device, imaging device, and image display method
US11082672B2 (en) Image blending method, projection system and processing device thereof
US9396520B2 (en) Projector system and control method thereof
KR101457976B1 (en) Input user interface device, projecting device, command deciding method and program storage medium storing command deciding method program
JP2004222153A (en) Image processing system, projector, program, information storage medium and image processing method
US11600003B2 (en) Image processing apparatus and control method for an image processing apparatus that extract a region of interest based on a calculated confidence of unit regions and a modified reference value
US20160275338A1 (en) Image processing apparatus, image processing method, and computer-readable storing medium
JP2016224173A (en) Control device and control method
JP6098133B2 (en) Face component extraction device, face component extraction method and program
TWI653540B (en) Display apparatus, projector, and display control method
JP2023184001A (en) Method for controlling control device, control device and display system
US11750778B2 (en) Method for adjusting pixel values of blending image and projection system thereof
JP2023184002A (en) Method for controlling control device, control device and display system
JP5740888B2 (en) Image processing apparatus, electronic camera, and program
JP2014187515A (en) Projector and control method therefor
US20240069691A1 (en) Display method, display apparatus, and non-transitory computer-readable storage medium storing program
US20230276036A1 (en) Method of adjusting projection image, projection system, and control apparatus
JP2015164238A (en) Projection device and image processing method
CN106027894B (en) Handle the method and device of the sensing image of polyphaser mould group
JP6668646B2 (en) Image processing apparatus, image processing method, and program
JP2009237611A (en) Detection of face area from target image
CN115857848A (en) Display system control method and display system
JP2009245165A (en) Face recognition device, face recognition program, face recognition method
JP2009245166A (en) Face recognition device, face recognition program, face recognition method