JP2023010138A - Input device, input method, and input program - Google Patents

Input device, input method, and input program Download PDF

Info

Publication number
JP2023010138A
JP2023010138A JP2021114051A JP2021114051A JP2023010138A JP 2023010138 A JP2023010138 A JP 2023010138A JP 2021114051 A JP2021114051 A JP 2021114051A JP 2021114051 A JP2021114051 A JP 2021114051A JP 2023010138 A JP2023010138 A JP 2023010138A
Authority
JP
Japan
Prior art keywords
input
user
processing unit
hand
reference point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021114051A
Other languages
Japanese (ja)
Inventor
輝彦 松岡
Teruhiko Matsuoka
知弥 石倉
Tomoya Ishikura
真彦 高島
Masahiko Takashima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2021114051A priority Critical patent/JP2023010138A/en
Publication of JP2023010138A publication Critical patent/JP2023010138A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an input device configured to prevent an input position from being changed in a direction not intended by a user due to a change of a gesture operation of the user, in an input device that detects the gesture operation of a user and executes input processing to an input position on a display screen, an input method, and an input program.SOLUTION: An input device includes: an acquisition processing unit which acquires a captured image obtained by imaging a user; a detection processing unit which detects a hand of the user from the captured image acquired by the acquisition processing unit; a determination processing unit which determines a shape of the hand of the user detected by the detection processing unit; a reference point setting processing unit which sets a reference point in a predetermined position on a lower side of a specific region surrounding the hand of the user detected by the detection processing unit; and an input processing unit which executes, when the shape of the hand of the user detected by the detection processing unit is a predetermined shape, input processing using the reference point set by the reference point setting processing unit, as an input position.SELECTED DRAWING: Figure 1

Description

特許法第30条第2項適用申請有り 1.リテールテック JAPAN 2021 令和3年3月9日発表 2.シャープドキュメントサークル 令和3年4月22日発表There is an application for the application of Article 30, Paragraph 2 of the Patent Act. Retail Tech JAPAN 2021 announced on March 9, 2021 2. Sharp Document Circle Announced on April 22, 2021

本発明は、ユーザーの手によるジェスチャー操作を検出して表示画面の入力位置に対して入力処理を行う入力装置、入力方法、及び入力プログラムに関する。 The present invention relates to an input device, an input method, and an input program for detecting a gesture operation by a user's hand and performing input processing on an input position on a display screen.

従来、表示パネルの表示画面に対してジェスチャー操作による入力(画面操作)を行なうことが可能な入力装置が知られている。例えば、特許文献1には、仮想空間内のユーザーの手を撮像した画像から手の形状、動き、及び位置の少なくともいずれかを把握して、入力情報を判定する装置が開示されている。 2. Description of the Related Art Conventionally, there is known an input device capable of performing input (screen operation) by gesture operation on a display screen of a display panel. For example, Patent Literature 1 discloses an apparatus for determining input information by grasping at least one of the shape, movement, and position of a user's hand from an image of the user's hand in virtual space.

特開2000-75991号公報JP-A-2000-75991

ここで、前記入力装置は、例えばユーザーの手によるジェスチャー操作により指示された表示画面上の位置(入力位置)を、手の位置に基づいて特定する。例えば、前記入力装置は、ユーザーの指の関節の位置や、ジェスチャー操作時の手を投影した全体領域の中心(重心)位置などを入力位置として特定する。しかし、この方法では、例えばユーザーが手を開く操作(第1ジェスチャー操作)から手を閉じる(握る)操作(第2ジェスチャー操作)に変化させた場合に前記入力位置がユーザーの意図しない方向に変化する問題が生じる。 Here, the input device specifies, for example, a position (input position) on the display screen indicated by gesture operation by the user's hand, based on the position of the hand. For example, the input device specifies, as input positions, the position of the user's finger joints, the center (center of gravity) position of the entire area where the hand is projected during the gesture operation, and the like. However, in this method, for example, when the user changes from opening the hand (first gesture operation) to closing (holding) the hand (second gesture operation), the input position changes in a direction not intended by the user. problem arises.

本発明の目的は、ユーザーのジェスチャー操作を検出して表示画面の入力位置に対して入力処理を行う入力装置においてユーザーのジェスチャー操作の変化によって入力位置がユーザーの意図しない方向に変化することを防止することが可能な入力装置、入力方法、及び入力プログラムを提供することにある。 An object of the present invention is to prevent the input position from changing in an unintended direction due to changes in the user's gesture operation in an input device that detects a user's gesture operation and performs input processing on the input position on the display screen. To provide an input device, an input method, and an input program capable of

本発明の一の態様に係る入力装置は、ユーザーの手によるジェスチャー操作を検出して表示画面の入力位置に対して入力処理を行う入力装置であって、前記ユーザーを撮像した撮像画像を取得する取得処理部と、前記取得処理部により取得される前記撮像画像から前記ユーザーの手を検出する検出処理部と、前記検出処理部により検出される前記ユーザーの手の形状を判定する判定処理部と、前記検出処理部により検出される前記ユーザーの手を囲む特定領域の下辺の所定位置に基準点を設定する基準点設定処理部と、前記検出処理部により検出される前記ユーザーの手の形状が所定の形状である場合に、前記基準点設定処理部により設定される前記基準点に対応する前記入力位置に対して前記入力処理を実行する入力処理部と、を備える装置である。 An input device according to one aspect of the present invention is an input device that detects a gesture operation by a user's hand and performs input processing at an input position on a display screen, and acquires a captured image of the user. an acquisition processing unit, a detection processing unit that detects the user's hand from the captured image acquired by the acquisition processing unit, and a determination processing unit that determines the shape of the user's hand detected by the detection processing unit; a reference point setting processing unit for setting a reference point at a predetermined position on the lower side of the specific area surrounding the user's hand detected by the detection processing unit; and a shape of the user's hand detected by the detection processing unit. and an input processing unit that executes the input processing for the input position corresponding to the reference point set by the reference point setting processing unit when the object has a predetermined shape.

本発明の他の態様に係る入力方法は、ユーザーの手によるジェスチャー操作を検出して表示画面の入力位置に対して入力処理を行う入力方法であって、一又は複数のプロセッサーが、前記ユーザーを撮像した撮像画像を取得する取得ステップと、前記取得ステップにより取得される前記撮像画像から前記ユーザーの手を検出する検出ステップと、前記検出ステップにおいて検出される前記ユーザーの手の形状を判定する判定ステップと、前記検出ステップにおいてより検出される前記ユーザーの手を囲む特定領域の下辺の所定位置に基準点を設定する設定ステップと、前記検出ステップにより検出される前記ユーザーの手の形状が所定の形状である場合に、前記設定ステップにより設定される前記基準点に対応する前記入力位置に対して前記入力処理を実行する入力ステップと、を実行する方法である。 An input method according to another aspect of the present invention is an input method that detects a gesture operation by a user's hand and performs input processing on an input position on a display screen, wherein one or more processors input the user's an acquisition step of acquiring an imaged captured image; a detection step of detecting the user's hand from the captured image acquired by the acquisition step; and a determination of determining the shape of the user's hand detected in the detection step. a setting step of setting a reference point at a predetermined position on the lower side of the specific area surrounding the user's hand detected in the detection step; an input step of executing the input process with respect to the input position corresponding to the reference point set by the setting step, if the shape is a shape.

本発明の他の態様に係る入力プログラムは、前記ユーザーを撮像した撮像画像を取得する取得ステップと、前記取得ステップにより取得される前記撮像画像から前記ユーザーの手を検出する検出ステップと、前記検出ステップにおいて検出される前記ユーザーの手の形状を判定する判定ステップと、前記検出ステップにおいてより検出される前記ユーザーの手を囲む特定領域の下辺の所定位置に基準点を設定する設定ステップと、前記検出ステップにより検出される前記ユーザーの手の形状が所定の形状である場合に、前記設定ステップにより設定される前記基準点に対応する前記入力位置に対して前記入力処理を実行する入力ステップと、を一又は複数のプロセッサーに実行させるためのプログラムである。 An input program according to another aspect of the present invention includes an acquisition step of acquiring a captured image of the user; a detection step of detecting the user's hand from the captured image acquired by the acquisition step; a determining step of determining the shape of the user's hand detected in the step; a setting step of setting a reference point at a predetermined position on the lower side of the specific area surrounding the user's hand detected in the detecting step; an input step of performing the input process on the input position corresponding to the reference point set by the setting step when the shape of the user's hand detected by the detection step is a predetermined shape; is executed by one or more processors.

本発明によれば、ユーザーのジェスチャー操作を検出して表示画面の入力位置に対して入力処理を行う入力装置においてユーザーのジェスチャー操作の変化によって入力位置がユーザーの意図しない方向に変化することを防止することが可能な入力装置、入力方法、及び入力プログラムを提供することができる。 According to the present invention, in an input device that detects a user's gesture operation and performs input processing on the input position on the display screen, it is possible to prevent the input position from changing in a direction not intended by the user due to a change in the user's gesture operation. It is possible to provide an input device, an input method, and an input program that can

図1は、本発明の実施形態に係る表示装置の構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of a display device according to an embodiment of the invention. 図2は、本発明の実施形態に係る表示装置における表示画面13Aの一例を示す模式図である。FIG. 2 is a schematic diagram showing an example of the display screen 13A in the display device according to the embodiment of the invention. 図3は、本発明の実施形態に係る表示装置に表示される撮像画像の一例を示す図である。FIG. 3 is a diagram showing an example of a captured image displayed on the display device according to the embodiment of the present invention. 図4は、本発明の実施形態に係る第1設定方法による基準点の設定方法を示す図である。FIG. 4 is a diagram showing a method of setting reference points according to the first setting method according to the embodiment of the present invention. 図5は、本発明の実施形態に係る表示装置に表示される撮像画像の一例を示す図である。FIG. 5 is a diagram showing an example of a captured image displayed on the display device according to the embodiment of the present invention. 図6は、本発明の実施形態に係る第1設定方法による基準点の設定方法を示す図である。FIG. 6 is a diagram showing a method of setting reference points according to the first setting method according to the embodiment of the present invention. 図7は、本発明の実施形態に係る第2設定方法による基準点の設定方法を示す図である。FIG. 7 is a diagram showing a method of setting reference points according to the second setting method according to the embodiment of the present invention. 図8は、本発明の実施形態に係る第3設定方法による基準点の設定方法を示す図である。FIG. 8 is a diagram showing a method of setting reference points according to the third setting method according to the embodiment of the present invention. 図9は、本発明の実施形態に係る表示装置に表示される撮像画像内の矩形領域の一例を示す図である。FIG. 9 is a diagram showing an example of a rectangular area within a captured image displayed on the display device according to the embodiment of the present invention. 図10は、本発明の実施形態に係る表示装置に表示される撮像画像内の操作領域の一例を示す図である。FIG. 10 is a diagram showing an example of an operation area within a captured image displayed on the display device according to the embodiment of the present invention. 図11は、本発明の実施形態に係る表示装置に表示される撮像画像内の操作領域の一例を示す図である。FIG. 11 is a diagram showing an example of an operation area within a captured image displayed on the display device according to the embodiment of the present invention. 図12は、本発明の実施形態に係る第1算出方法による入力位置の算出方法を示す図である。FIG. 12 is a diagram showing a method of calculating an input position by the first calculation method according to the embodiment of the present invention. 図13は、本発明の実施形態に係る第2算出方法による入力位置の算出方法を示す図である。FIG. 13 is a diagram showing a method of calculating an input position by the second calculation method according to the embodiment of the present invention. 図14は、本発明の実施形態に係る第3算出方法による入力位置の算出方法を示す図である。FIG. 14 is a diagram showing an input position calculation method according to the third calculation method according to the embodiment of the present invention. 図15は、本発明の実施形態に係る表示装置で実行される表示制御処理の手順の一例を説明するためのフローチャートである。FIG. 15 is a flowchart for explaining an example of the procedure of display control processing executed by the display device according to the embodiment of the present invention. 図16は、本発明の実施形態に係る第1設定方法による基準点設定処理の手順の一例を説明するためのフローチャートである。FIG. 16 is a flow chart for explaining an example of the procedure of reference point setting processing by the first setting method according to the embodiment of the present invention. 図17は、本発明の実施形態に係る第2設定方法による基準点設定処理の手順の一例を説明するためのフローチャートである。FIG. 17 is a flowchart for explaining an example of the reference point setting process procedure by the second setting method according to the embodiment of the present invention. 図18は、本発明の実施形態に係る第3設定方法による基準点設定処理の手順の一例を説明するためのフローチャートである。FIG. 18 is a flowchart for explaining an example of the procedure of reference point setting processing by the third setting method according to the embodiment of the present invention. 図19は、本発明の実施形態に係る第1算出方法による入力位置算出処理の手順の一例を説明するためのフローチャートである。FIG. 19 is a flowchart for explaining an example of the procedure of input position calculation processing by the first calculation method according to the embodiment of the present invention. 図20は、本発明の実施形態に係る第2算出方法による入力位置算出処理の手順の一例を説明するためのフローチャートである。FIG. 20 is a flowchart for explaining an example of the procedure of input position calculation processing by the second calculation method according to the embodiment of the present invention. 図21は、本発明の実施形態に係る第3算出方法による入力位置算出処理の手順の一例を説明するためのフローチャートである。FIG. 21 is a flowchart for explaining an example of the procedure of input position calculation processing by the third calculation method according to the embodiment of the present invention.

以下、添付図面を参照しながら、本発明の実施形態について説明する。なお、以下の実施形態は、本発明を具体化した一例であって、本発明の技術的範囲を限定する性格を有さない。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. It should be noted that the following embodiment is an example that embodies the present invention, and does not have the character of limiting the technical scope of the present invention.

図1に示すように、本発明の実施形態に係る表示装置1は、制御部11と、記憶部12と、表示パネル13と、操作部14と、カメラ15とを備えている。図2には、表示装置1の模式図を示している。カメラ15は、表示パネル13の上部に設置され、表示パネル13の前方の所定エリアを撮像する。表示装置1は、本発明の入力装置の一例である。本発明の入力装置は、表示装置に限定されず、表示パネル13及びカメラ15とデータ通信可能なサーバーなどの情報処理装置であってもよい。 As shown in FIG. 1 , the display device 1 according to the embodiment of the invention includes a control section 11 , a storage section 12 , a display panel 13 , an operation section 14 and a camera 15 . FIG. 2 shows a schematic diagram of the display device 1. As shown in FIG. The camera 15 is installed above the display panel 13 and captures an image of a predetermined area in front of the display panel 13 . The display device 1 is an example of the input device of the present invention. The input device of the present invention is not limited to the display device, and may be an information processing device such as a server capable of data communication with the display panel 13 and camera 15 .

表示装置1は、表示画面13Aに対するユーザーの非接触による入力操作を受け付ける。例えば、表示装置1は、カメラ15の前方においてユーザーのジェスチャーによる入力操作(ジェスチャー操作)を検出すると、表示画面13Aに対するユーザーの前記入力操作に応じた入力処理を実行する。例えば、ユーザーがカメラ15の前方で手を閉じる操作(グーの状態)をした場合に、表示装置1は、表示画面13A上のマウスカーソルM1の位置においてタッチ入力を受け付ける。以下、表示装置1の具体的構成について説明する。 The display device 1 receives a user's non-contact input operation on the display screen 13A. For example, when detecting an input operation (gesture operation) by a user's gesture in front of the camera 15, the display device 1 executes input processing according to the user's input operation on the display screen 13A. For example, when the user closes his hand in front of the camera 15 (goo state), the display device 1 receives a touch input at the position of the mouse cursor M1 on the display screen 13A. A specific configuration of the display device 1 will be described below.

カメラ15は、被写体の画像を撮像してデジタル画像データとして出力するデジタルカメラである。カメラ15は、所定のフレームレートで画像を撮像し、デジタル画像データを制御部11に順次出力する。カメラ15は、1台であってもよいし複数台であってもよい。具体的には、カメラ15は、表示パネル13の上部に設置され、表示パネル13の前方の所定エリアを撮像する。 The camera 15 is a digital camera that takes an image of a subject and outputs it as digital image data. The camera 15 captures images at a predetermined frame rate and sequentially outputs digital image data to the control section 11 . The number of cameras 15 may be one or plural. Specifically, the camera 15 is installed above the display panel 13 and captures an image of a predetermined area in front of the display panel 13 .

表示パネル13は、表示画面13Aに画像を表示するディスプレイであり、例えば液晶ディスプレイである。操作部14は、マウス、キーボードなどの操作機器である。なお、操作部14は、タッチパネルで構成されてもよい。 The display panel 13 is a display that displays an image on the display screen 13A, such as a liquid crystal display. The operation unit 14 is operation equipment such as a mouse and a keyboard. Note that the operation unit 14 may be configured by a touch panel.

表示パネル13は、制御部11の指示に従って各種の画像を表示する。例えば図2に示すように、表示パネル13は、ユーザーの手に追従して移動するマウスカーソルM1(本発明の入力操作用アイコンの一例)、ユーザーの手による所定のジェスチャー操作に応じてタッチ入力を受け付ける操作ボタン(ここでは「Yes」ボタン、「No」ボタン)、カメラ15が撮像した撮像画像Wp(ワイプ画面)などを表示する。図3には、撮像画像Wpの拡大図を示している。詳細は後述するが、撮像画像Wpには、ユーザーの手を囲む矩形領域A1(本発明の特定領域の一例)の外枠を表す枠画像と、表示画面13Aにおける入力可能な入力可能領域F1(図2参照)に対応する操作領域A11の外枠を表す枠画像とが表示される。ユーザーは、表示画面13Aに重ねて表示される撮像画像Wpを見ながら、マウスカーソルM1の位置を移動させたり、マウスカーソルM1により操作ボタンを選択(クリック)したりする。例えば、ユーザーは、手を開いた状態(パーの状態)(図3参照)で動かすことによりマウスカーソルM1の表示位置を移動させ、マウスカーソルM1が「Yes」ボタンに重なる位置にある場合に手を閉じた状態(グーの状態)(図5参照)にすることにより「Yes」ボタンを選択(クリック)する。手を開く操作は本発明の第1ジェスチャー操作の一例であり、手を閉じる操作は本発明の第2ジェスチャー操作の一例である。 The display panel 13 displays various images according to instructions from the control unit 11 . For example, as shown in FIG. 2, the display panel 13 includes a mouse cursor M1 (an example of an input operation icon of the present invention) that moves following the user's hand, and touch input in response to a predetermined gesture operation by the user's hand. Operation buttons (here, "Yes" button and "No" button) for accepting, captured image Wp (wipe screen) captured by camera 15, and the like are displayed. FIG. 3 shows an enlarged view of the captured image Wp. Although the details will be described later, the captured image Wp includes a frame image representing the outer frame of a rectangular area A1 (an example of the specific area of the present invention) surrounding the user's hand, and an input-enabled area F1 ( (see FIG. 2) is displayed. The user moves the position of the mouse cursor M1 or selects (clicks) an operation button with the mouse cursor M1 while viewing the captured image Wp superimposed on the display screen 13A. For example, the user moves the display position of the mouse cursor M1 by moving the hand in the open state (par state) (see FIG. 3), and when the mouse cursor M1 is positioned over the "Yes" button, the hand is moved. is closed (goo state) (see FIG. 5) to select (click) the "Yes" button. The operation of opening the hand is an example of the first gesture operation of the present invention, and the operation of closing the hand is an example of the second gesture operation of the present invention.

記憶部12は、各種の情報を記憶するHDD(Hard Disk Drive)又はSSD(Solid State Drive)などの不揮発性の記憶部である。記憶部12には、制御部11に後述の表示制御処理(図15等参照)を実行させるための表示制御プログラムなどの制御プログラムが記憶されている。例えば、前記表示制御プログラムは、CD又はDVDなどのコンピュータ読取可能な記録媒体に非一時的に記録され、表示装置1が備えるCDドライブ又はDVDドライブなどの読取装置(不図示)で読み取られて記憶部12に記憶される。なお、前記表示制御プログラムは、クラウドサーバーから配信されて記憶部12に記憶されてもよい。 The storage unit 12 is a non-volatile storage unit such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive) that stores various types of information. The storage unit 12 stores a control program such as a display control program for causing the control unit 11 to execute display control processing (see FIG. 15 and the like), which will be described later. For example, the display control program is non-temporarily recorded on a computer-readable recording medium such as a CD or DVD, read and stored by a reading device (not shown) such as a CD drive or DVD drive included in the display device 1. stored in the unit 12; Note that the display control program may be distributed from a cloud server and stored in the storage unit 12 .

制御部11は、CPU、ROM、及びRAMなどの制御機器を有する。前記CPUは、各種の演算処理を実行するプロセッサーである。前記ROMは、前記CPUに各種の演算処理を実行させるためのBIOS及びOSなどの制御プログラムが予め記憶される不揮発性の記憶部である。前記RAMは、各種の情報を記憶する揮発性又は不揮発性の記憶部であり、前記CPUが実行する各種の処理の一時記憶メモリー(作業領域)として使用される。そして、制御部11は、前記ROM又は記憶部12に予め記憶された各種の制御プログラムを前記CPUで実行することにより表示装置1を制御する。 The control unit 11 has control devices such as a CPU, ROM, and RAM. The CPU is a processor that executes various kinds of arithmetic processing. The ROM is a non-volatile storage unit in which control programs such as BIOS and OS for causing the CPU to execute various arithmetic processes are stored in advance. The RAM is a volatile or nonvolatile storage unit that stores various information, and is used as a temporary storage memory (work area) for various processes executed by the CPU. The control unit 11 controls the display device 1 by causing the CPU to execute various control programs pre-stored in the ROM or storage unit 12 .

ところで、従来の技術では、例えばユーザーが手を開く操作(図3参照)から手を閉じる操作(図5参照)に変化させた場合に表示画面13Aに対する入力位置がユーザーの意図しない方向に変化する問題が生じる。以下、この問題の具体例を説明する。 By the way, in the conventional technology, for example, when the user changes from opening the hand (see FIG. 3) to closing the hand (see FIG. 5), the input position on the display screen 13A changes in a direction not intended by the user. A problem arises. A specific example of this problem will be described below.

図4には、手を開いた状態の拡大図を示し、図6には、手を閉じた状態の拡大図を示している。従来の技術では、ジェスチャー操作時の手を投影した全体領域(矩形領域A1)の中心位置P0を入力位置として特定しているため、手を開いた状態から閉じた状態に変化させた場合に、図6に示すように中心位置P0が矩形領域A2の中心位置P0´に移動してしまう。このため、ユーザーが手を開いた状態から閉じた状態に変化させた場合に、中心位置P0に対応するマウスカーソルM1の位置も移動してしまい、ユーザーが意図した操作、例えば「Yes」ボタンの選択操作を正しく行うことができなくなる。これに対して、本実施形態に係る表示装置1では、以下に示すように、ユーザーのジェスチャー操作の変化によって入力位置がユーザーの意図しない方向に変化することを防止することが可能である。 FIG. 4 shows an enlarged view of the open hand, and FIG. 6 shows an enlarged view of the closed hand. In the conventional technology, since the center position P0 of the entire area (rectangular area A1) where the hand is projected at the time of gesture operation is specified as the input position, when the hand is changed from the open state to the closed state, As shown in FIG. 6, the central position P0 moves to the central position P0' of the rectangular area A2. Therefore, when the user changes the hand from the open state to the closed state, the position of the mouse cursor M1 corresponding to the center position P0 also moves, resulting in an operation intended by the user, such as pressing the "Yes" button. Selection operations cannot be performed correctly. On the other hand, in the display device 1 according to the present embodiment, as described below, it is possible to prevent the input position from changing in a direction not intended by the user due to a change in the user's gesture operation.

具体的に、制御部11は、図1に示すように、表示処理部111、取得処理部112、検出処理部113、判定処理部114、基準点設定処理部115、操作領域設定処理部116、仮想入力可能領域設定処理部117、及び入力処理部118などの各種の処理部を含む。なお、制御部11は、前記CPUで前記表示制御プログラム及びに従った各種の処理を実行することによって各処理部として機能する。また、制御部11に含まれる一部又は全部の処理部が電子回路で構成されていてもよい。なお、前記表示制御プログラムは、複数のプロセッサーを前記各種の処理部として機能させるためのプログラムであってもよい。 Specifically, as shown in FIG. 1, the control unit 11 includes a display processing unit 111, an acquisition processing unit 112, a detection processing unit 113, a determination processing unit 114, a reference point setting processing unit 115, an operation area setting processing unit 116, It includes various processing units such as a virtual inputtable area setting processing unit 117 and an input processing unit 118 . The control unit 11 functions as each processing unit by executing various processes according to the display control program by the CPU. Also, part or all of the processing units included in the control unit 11 may be configured by electronic circuits. The display control program may be a program for causing a plurality of processors to function as the various processing units.

表示処理部111は、各種情報を表示パネル13に表示させる。表示処理部111は、各種アプリケーションの実行に従って各種画像を表示させる。例えば、表示処理部111は、図2に示す表示画面13Aを表示パネル13に表示させる。また、表示処理部111は、撮像画像Wpを表示画面13Aの端部(隅部)に表示させる。撮像画像Wpは、カメラ15により撮像された所定エリアの撮像画像のうち、検出されたユーザーの顔画像を含む特定の範囲の部分画像である。表示処理部111は、表示画面13Aの隅部の小画面に撮像画像Wpを表示させる。また、表示処理部111は、カメラ15から取得される撮像画像に応じて撮像画像Wpをリアルタイムで更新する。また、表示処理部111は、表示画面13Aにおいて、撮像画像Wpを表示させるとともに、操作領域A11に対応する枠画像(本発明の操作領域画像の一例)を撮像画像Wpに重ねて表示させる。なお、撮像画像Wpの表示位置は限定されない。また表示処理部111は、ユーザーの顔又は手が検出されたことを条件として撮像画像Wpを表示させてもよい。 The display processing unit 111 causes the display panel 13 to display various information. The display processing unit 111 displays various images according to execution of various applications. For example, the display processing unit 111 causes the display panel 13 to display a display screen 13A shown in FIG. Further, the display processing unit 111 displays the captured image Wp at the end (corner) of the display screen 13A. The captured image Wp is a partial image of a specific range including the detected face image of the user in the captured image of the predetermined area captured by the camera 15 . The display processing unit 111 displays the captured image Wp on the small screen at the corner of the display screen 13A. Further, the display processing unit 111 updates the captured image Wp in real time according to the captured image acquired from the camera 15 . Further, the display processing unit 111 displays the captured image Wp on the display screen 13A, and also displays a frame image (an example of the operation area image of the present invention) corresponding to the operation area A11 so as to be superimposed on the captured image Wp. Note that the display position of the captured image Wp is not limited. The display processing unit 111 may display the captured image Wp on condition that the user's face or hand is detected.

また、表示処理部111は、表示画面13Aの下端から所定幅だけ内側に設定された入力可能領域F1内において、基準点P1に対応する入力位置にマウスカーソルM1(入力操作用アイコン)を表示させる。前記所定幅は、例えば撮像画像Wpの縦幅に設定される。ユーザーは、入力可能領域F1内においてマウスカーソルM1を移動させることが可能である。表示処理部111は、本発明の表示処理部の一例である。 Further, the display processing unit 111 displays the mouse cursor M1 (input operation icon) at the input position corresponding to the reference point P1 in the input possible area F1 set inside the lower end of the display screen 13A by a predetermined width. . The predetermined width is set, for example, to the vertical width of the captured image Wp. The user can move the mouse cursor M1 within the enterable area F1. The display processing section 111 is an example of the display processing section of the present invention.

取得処理部112は、ユーザーを撮像した撮像画像を取得する。具体的には、取得処理部112は、カメラ15が所定のフレームレートで撮像した画像のデジタル画像データをカメラ15から順次取得する。取得処理部112は、本発明の取得処理部の一例である。 The acquisition processing unit 112 acquires a captured image of the user. Specifically, the acquisition processing unit 112 sequentially acquires digital image data of images captured by the camera 15 at a predetermined frame rate from the camera 15 . Acquisition processing unit 112 is an example of the acquisition processing unit of the present invention.

検出処理部113は、取得処理部112により取得される前記撮像画像からユーザー(例えば顔)を検出する。また、検出処理部113は、前記撮像画像からユーザーの手を検出する。ユーザーの顔及び手を検出する方法は、周知の方法を適用することができる。例えば、検出処理部113は、デジタル画像データに対してクロップ、リサイズ、反転、回転などの処理を実行し、ユーザーの顔及び手を検出する。検出処理部113は、手を検出すると、手の動きをトラッキング(追跡)する。検出処理部113は、本発明の検出処理部の一例である。 The detection processing unit 113 detects a user (for example, face) from the captured image acquired by the acquisition processing unit 112 . Further, the detection processing unit 113 detects the user's hand from the captured image. A well-known method can be applied to the method of detecting the user's face and hands. For example, the detection processing unit 113 performs processing such as cropping, resizing, inversion, and rotation on digital image data to detect the user's face and hands. When detecting the hand, the detection processing unit 113 tracks the movement of the hand. The detection processing unit 113 is an example of the detection processing unit of the present invention.

判定処理部114は、検出処理部113により検出されるユーザーの手の形状を判定する。例えば、判定処理部114は、ユーザーの手が開いた状態(パーの状態)(図3参照)であるか、又は、閉じた状態(グーの状態)(図5参照)であるかを判定する。また、判定処理部114は、検出処理部113により検出されるユーザーの手が右手であるか、又は、左手であるかを判定する。判定処理部114は、本発明の判定処理部の一例である。 The determination processing unit 114 determines the shape of the user's hand detected by the detection processing unit 113 . For example, the determination processing unit 114 determines whether the user's hand is open (par state) (see FIG. 3) or closed (goo state) (see FIG. 5). . Further, the determination processing unit 114 determines whether the user's hand detected by the detection processing unit 113 is the right hand or the left hand. The determination processing unit 114 is an example of the determination processing unit of the present invention.

基準点設定処理部115は、検出処理部113により検出されるユーザーの手を囲む矩形領域A1の下辺の所定位置に基準点P1を設定する。具体的には、基準点設定処理部115は、矩形領域A1の下辺における一方の端部E1から他方の端部E2までの間を所定の比率で分割した位置を基準点P1に設定する。基準点設定処理部115は、本発明の基準点設定処理部の一例である。 The reference point setting processing unit 115 sets the reference point P1 at a predetermined position on the lower side of the rectangular area A1 surrounding the user's hand detected by the detection processing unit 113 . Specifically, the reference point setting processing unit 115 sets a position obtained by dividing the lower side of the rectangular area A1 from one end E1 to the other end E2 at a predetermined ratio as the reference point P1. The reference point setting processing section 115 is an example of the reference point setting processing section of the present invention.

基準点P1は、表示画面13Aにおける入力位置に対応する仮想空間の位置である。入力処理部118は、基準点P1に対応する入力位置に対して入力処理を実行する。具体的には、入力処理部118は、検出処理部113により検出されるユーザーの手の形状が所定の形状である場合に、基準点設定処理部115により設定される基準点P1に対応する入力位置に対して入力処理を実行する。例えば、入力処理部118は、表示画面13Aにおいて、基準点P1を表示画面13Aに対応する領域にマッピングした位置にマウスカーソルM1を表示させる。入力処理部118は、本発明の入力処理部の一例である。 The reference point P1 is a position in the virtual space corresponding to the input position on the display screen 13A. The input processing unit 118 executes input processing with respect to the input position corresponding to the reference point P1. Specifically, when the shape of the user's hand detected by the detection processing unit 113 is a predetermined shape, the input processing unit 118 performs input corresponding to the reference point P1 set by the reference point setting processing unit 115. Perform input processing on a position. For example, the input processing unit 118 displays the mouse cursor M1 on the display screen 13A at a position where the reference point P1 is mapped to the area corresponding to the display screen 13A. The input processing section 118 is an example of the input processing section of the present invention.

以下、基準点P1の具体的な設定方法を説明する。ここでは、前記設定方法の具体例として、第1設定方法、第2設定方法、及び第3設定方法を挙げる。 A specific method for setting the reference point P1 will be described below. Here, a first setting method, a second setting method, and a third setting method are given as specific examples of the setting method.

[第1設定方法]
図4には、第1設定方法の一例を示している。図4に示すように、基準点設定処理部115は、矩形領域A1の下辺L1の中心位置を基準点P1に設定する。ここで、矩形領域A1は、手が開いた状態で手の最外端部に接する矩形の領域であり、基準点P1は手が開いた状態における矩形領域A1の下辺L1の中心位置である。このため、図6に示すように、手を閉じた状態にした場合でも、基準点P1の位置は変化しない。このように、基準点設定処理部115は、手の形状の変化に関わらず、手が開いた状態における矩形領域A1の下辺L1の中心位置を基準点P1に設定する。なお、基準点設定処理部115は、手が閉じた状態における矩形領域A1の下辺L1の中心位置を基準点P1に設定してもよい。
[First setting method]
FIG. 4 shows an example of the first setting method. As shown in FIG. 4, the reference point setting processing unit 115 sets the center position of the lower side L1 of the rectangular area A1 as the reference point P1. Here, the rectangular area A1 is a rectangular area in contact with the outermost end of the hand when the hand is open, and the reference point P1 is the center position of the lower side L1 of the rectangular area A1 when the hand is open. Therefore, as shown in FIG. 6, even when the hand is closed, the position of the reference point P1 does not change. In this way, the reference point setting processing unit 115 sets the center position of the lower side L1 of the rectangular area A1 in the state where the hand is open as the reference point P1 regardless of the change in the shape of the hand. Note that the reference point setting processing unit 115 may set the center position of the lower side L1 of the rectangular area A1 with the hand closed as the reference point P1.

第1設定方法では、入力処理部118は、矩形領域A1の下辺L1の中心位置の座標を入力位置の座標として算出する。例えば、矩形領域A1の横幅をW1、縦幅をH1、左上端部E0を原点[x,y]とした場合に、入力処理部118は、基準点P1の座標として、[x+(W1)/2,y+H1]を算出する。入力処理部118は、算出した基準点P1の座標に基づいてマウスカーソルM1の位置座標を算出する。表示処理部111は、表示画面13Aにおいて、算出された位置座標にマウスカーソルM1を表示させる。 In the first setting method, the input processing unit 118 calculates the coordinates of the center position of the lower side L1 of the rectangular area A1 as the coordinates of the input position. For example, when the horizontal width of the rectangular area A1 is W1, the vertical width is H1, and the upper left end E0 is the origin [x, y], the input processing unit 118 calculates [x+(W1)/ 2, y+H1]. The input processing unit 118 calculates the position coordinates of the mouse cursor M1 based on the calculated coordinates of the reference point P1. The display processing unit 111 displays the mouse cursor M1 at the calculated position coordinates on the display screen 13A.

[第2設定方法]
図7には、第2設定方法の一例を示している。図7に示すように、基準点設定処理部115は、矩形領域A1の下辺L1におけるユーザーの手の小指側の端部から1:2の比率の位置を基準点P1に設定する。ここで、手を開いた状態(図4参照)から手を閉じた状態(図6参照)に変化させると、中心位置P0の横方向位置は小指側に移動する。この移動量は、親指の面積及び移動量の影響を受け易い。そこで、基準点設定処理部115は、矩形領域A1のうち親指側から1/3の領域を親指の領域と仮定し、親指の領域を除く掌の領域(矩形領域A1のうち小指側の2/3の領域)を抽出し、当該掌の領域の下辺L1の中心位置を基準点P1に設定する。すなわち、基準点設定処理部115は、矩形領域A1の下辺L1におけるユーザーの手の小指側の端部E1から1:2の比率の位置を基準点P1に設定する。
[Second setting method]
FIG. 7 shows an example of the second setting method. As shown in FIG. 7, the reference point setting processing unit 115 sets a reference point P1 at a position at a ratio of 1:2 from the end of the user's hand on the little finger side in the lower side L1 of the rectangular area A1. Here, when the hand is changed from the open state (see FIG. 4) to the closed state (see FIG. 6), the lateral position of the central position P0 moves toward the little finger. This amount of movement is susceptible to the area and amount of movement of the thumb. Therefore, the reference point setting processing unit 115 assumes that 1/3 of the rectangular area A1 from the thumb side is the thumb area, and assumes that the area of the palm excluding the thumb area (2/2 of the rectangular area A1 on the little finger side) 3) is extracted, and the center position of the lower side L1 of the palm area is set as the reference point P1. That is, the reference point setting processing unit 115 sets the reference point P1 to a position at a ratio of 1:2 from the end E1 on the little finger side of the user's hand on the lower side L1 of the rectangular area A1.

第2設定方法では、入力処理部118は、矩形領域A1の下辺L1におけるユーザーの手の小指側の端部E1から1:2の比率の座標を入力位置の座標として算出する。例えば、入力処理部118は、基準点P1の座標として、[x+(W1)/3,y+H1]を算出する。入力処理部118は、算出した基準点P1の座標に基づいてマウスカーソルM1の位置座標を算出する。表示処理部111は、表示画面13Aにおいて、算出された位置座標にマウスカーソルM1を表示させる。 In the second setting method, the input processing unit 118 calculates coordinates at a ratio of 1:2 from the end E1 of the user's hand on the little finger side in the lower side L1 of the rectangular area A1 as the coordinates of the input position. For example, the input processing unit 118 calculates [x+(W1)/3, y+H1] as the coordinates of the reference point P1. The input processing unit 118 calculates the position coordinates of the mouse cursor M1 based on the calculated coordinates of the reference point P1. The display processing unit 111 displays the mouse cursor M1 at the calculated position coordinates on the display screen 13A.

[第3設定方法]
図8には、第3設定方法の一例を示している。図8に示すように、基準点設定処理部115は、矩形領域A1に含まれる複数の画素のうちユーザーの手の色を表示する特定画素を特定し、矩形領域A1の上辺から下辺L1に向かう列方向の画素列ごとの前記特定画素の合計画素数を算出し、下辺L1のうち前記合計画素数が閾値Cthを超える前記画素列の範囲に対応する部分辺の中心位置Xcを基準点P1に設定する。図8に示すグラフは、画素列ごとの前記特定画素の合計画素数を示している。基準点設定処理部115は、合計画素数が閾値Cthを超える画素列の最小位置Xmin及び最大位置Xmaxを算出し、最小位置Xminから最大位置Xmaxまでの部分辺の中心位置Xcを算出する。そして、基準点設定処理部115は、算出した中心位置Xcを基準点P1に設定する。
[Third setting method]
FIG. 8 shows an example of the third setting method. As shown in FIG. 8, the reference point setting processing unit 115 identifies a specific pixel that displays the color of the user's hand among a plurality of pixels included in the rectangular area A1, and selects a pixel from the upper side of the rectangular area A1 toward the lower side L1. The total pixel number of the specific pixels for each pixel row in the column direction is calculated, and the central position Xc of the partial side corresponding to the range of the pixel row where the total pixel number exceeds the threshold value Cth on the lower side L1 is set as the reference point P1. set. The graph shown in FIG. 8 indicates the total number of pixels of the specific pixels for each pixel column. The reference point setting processing unit 115 calculates the minimum position Xmin and the maximum position Xmax of the pixel row in which the total number of pixels exceeds the threshold Cth, and calculates the center position Xc of the partial side from the minimum position Xmin to the maximum position Xmax. Then, the reference point setting processing unit 115 sets the calculated center position Xc as the reference point P1.

第3設定方法では、入力処理部118は、下辺L1のうち前記合計画素数が閾値Cthを超える前記画素列の範囲に対応する部分辺の中心位置Xcの座標を入力位置の座標として算出する。例えば、前記最小位置の座標を[Xmin,y+H1]とした場合に、入力処理部118は、基準点P1の座標として、[Xmin+(Xmax-Xmin)/2,y+H1]を算出する。入力処理部118は、算出した基準点P1の座標に基づいてマウスカーソルM1の位置座標を算出する。表示処理部111は、表示画面13Aにおいて、算出された位置座標にマウスカーソルM1を表示させる。 In the third setting method, the input processing unit 118 calculates the coordinates of the center position Xc of the partial side corresponding to the range of the pixel row in which the total number of pixels exceeds the threshold value Cth in the lower side L1 as the coordinates of the input position. For example, if the coordinates of the minimum position are [Xmin, y+H1], the input processing unit 118 calculates [Xmin+(Xmax-Xmin)/2, y+H1] as the coordinates of the reference point P1. The input processing unit 118 calculates the position coordinates of the mouse cursor M1 based on the calculated coordinates of the reference point P1. The display processing unit 111 displays the mouse cursor M1 at the calculated position coordinates on the display screen 13A.

基準点設定処理部115は、上述の第1設定方法、第2設定方法、及び第3設定方法のいずれかの方法により基準点P1を設定する。 The reference point setting processing unit 115 sets the reference point P1 by any one of the above-described first setting method, second setting method, and third setting method.

前記各設定方法によれば、基準点P1を矩形領域A1の下辺L1上に設定することにより、縦方向の位置ズレを生じ難くすることができる。また、手を開いた状態(第1ジェスチャー操作)の形状の矩形領域A1の情報を使用することにより、手を閉じた状態(第2ジェスチャー操作)の形状の矩形領域A2(図6参照)に変化した場合であっても、マウスカーソルM1の位置ズレを防止することができる。 According to each of the setting methods described above, by setting the reference point P1 on the lower side L1 of the rectangular area A1, it is possible to make the positional deviation in the vertical direction less likely to occur. Further, by using the information of the rectangular area A1 in the shape of the open hand (first gesture operation), the rectangular area A2 (see FIG. 6) in the shape of the closed hand (second gesture operation) can be obtained. Even if it changes, it is possible to prevent the mouse cursor M1 from being displaced.

また、前記第1設定方法によれば、基準点P1を下辺L1の中心に固定することができるため、入力位置の計算量を少なくすることができる。よって、CPUの処理能力が低い場合や、処理の高速化が必要とされる場合に有効である。 Further, according to the first setting method, the reference point P1 can be fixed at the center of the lower side L1, so the amount of calculation of the input position can be reduced. Therefore, it is effective when the processing power of the CPU is low or when high speed processing is required.

また、前記第2設定方法によれば、親指の領域が手の矩形領域A1の約1/3の領域と想定することにより、領域の変化の少ない掌の領域に着目して基準点P1を設定することができる。よって、横方向の入力位置を高精度かつ安定的に算出することができる。 Further, according to the second setting method, by assuming that the area of the thumb is about 1/3 of the rectangular area A1 of the hand, the reference point P1 is set focusing on the area of the palm where the area changes little. can do. Therefore, it is possible to stably calculate the input position in the lateral direction with high accuracy.

また、前記第3設定方法によれば、親指の領域を除外することにより、掌の領域に絞り込んで基準点P1を設定することができる。よって、横方向の入力位置をより高精度かつ安定的に算出することができる。 Further, according to the third setting method, by excluding the thumb area, the reference point P1 can be set by narrowing down to the palm area. Therefore, the horizontal input position can be calculated more accurately and stably.

入力処理部118は、基準点設定処理部115により上述したいずれかの設定方法により設定される基準点P1に対応する入力位置に対して入力処理を実行する。具体的には、入力処理部118は、検出処理部113により検出されるユーザーの手の形状が手を開いた形状(第1形状)である場合に、基準点P1の移動に応じて、表示画面13Aに表示されるマウスカーソルM1を移動させる移動処理を実行する。また、入力処理部118は、検出処理部113により検出されるユーザーの手の形状が手を開いた形状から閉じた形状(第2形状)に変化した場合に、基準点P1に対応するマウスカーソルM1の表示位置における選択対象(例えば図2の「Yes」ボタン又は「No」ボタン)の選択処理を実行する。 The input processing unit 118 executes input processing for the input position corresponding to the reference point P1 set by the reference point setting processing unit 115 by any of the setting methods described above. Specifically, when the shape of the user's hand detected by the detection processing unit 113 is the open hand shape (first shape), the input processing unit 118 displays the A movement process is executed to move the mouse cursor M1 displayed on the screen 13A. Further, when the shape of the user's hand detected by the detection processing unit 113 changes from an open hand shape to a closed hand shape (second shape), the input processing unit 118 moves the mouse cursor corresponding to the reference point P1. A selection process for a selection target (for example, the “Yes” button or “No” button in FIG. 2) at the display position of M1 is executed.

ここで、表示装置1は、例えばユーザーの手によるジェスチャー操作により指示された表示画面13A上の位置(入力位置)を、手の位置に基づいて特定する。ユーザーは、表示画面13Aに表示されるマウスカーソルM1を見ながら手を動かしたり手の形状を変化させたりすることによって入力操作を行う。しかし、従来の技術では、ユーザーは、自身の手を動かす範囲と、ユーザーの手の動きに応じて表示画面13A上で移動するマウスカーソルM1の表示画面13A内で移動可能な範囲との対応関係を把握し難い問題が生じる。例えばユーザーは、自身の手を所定距離だけ動かした場合に、表示画面13A上のマウスカーソルM1がどの程度移動するのかを把握し難い。このように、従来の技術では、ユーザーにとって操作性が低い問題がある。これに対して、本実施形態に係る表示装置1では、以下に示すように、表示装置1の操作性を向上させることが可能である。 Here, the display device 1 identifies, for example, a position (input position) on the display screen 13A indicated by gesture operation by the user's hand, based on the position of the hand. The user performs an input operation by moving the hand or changing the shape of the hand while looking at the mouse cursor M1 displayed on the display screen 13A. However, in the conventional technology, the user has a correspondence relationship between the range in which the user can move his or her hand and the range in which the mouse cursor M1 that moves on the display screen 13A according to the movement of the user's hand can be moved within the display screen 13A. is difficult to grasp. For example, it is difficult for the user to grasp how much the mouse cursor M1 on the display screen 13A will move when he/she moves his or her hand by a predetermined distance. Thus, the conventional technique has a problem of low operability for the user. On the other hand, in the display device 1 according to this embodiment, it is possible to improve the operability of the display device 1 as described below.

具体的には、操作領域設定処理部116は、検出処理部113により検出されるユーザーの手を含む領域であって、表示画面13A内のジェスチャー操作により入力可能な入力可能領域F1(図2参照)に対応するジェスチャー操作の操作領域A11を設定する。具体的には、操作領域設定処理部116は、検出処理部113がユーザーの手を検出すると手の外形を囲む矩形領域A1を設定し(図9参照)、予め設定されたマージンを用いて矩形領域A1よりも大きい操作領域A11を設定する(図10参照)。例えば、操作領域設定処理部116は、撮像画像Wpのうち前記検出された手の矩形領域A1を含む部分画像(W×3/5の領域)において、予め設定された上下左右のマージンm1~m4(図10参照)の位置に操作領域A11を設定する。また、操作領域設定処理部116は、左手又は右手を判定して、操作領域A11を設定する方向(左側又は右側)を決定する。なお、マージンm1~m4は、ユーザーが操作領域A11内の全領域において左右方向及び上下方向に手を移動させた場合に、マウスカーソルM1を入力可能領域F1(図2参照)内の全領域において左右方向及び上下方向に移動させることが可能となる値に設定される。 Specifically, the operation area setting processing unit 116 is an area including the user's hand detected by the detection processing unit 113, and is an input possible area F1 (see FIG. 2 ), an operation area A11 for a gesture operation corresponding to ) is set. Specifically, when the detection processing unit 113 detects the user's hand, the operation area setting processing unit 116 sets a rectangular area A1 surrounding the outline of the hand (see FIG. 9), and uses a preset margin to set the rectangular area A1. An operation area A11 larger than the area A1 is set (see FIG. 10). For example, the operation area setting processing unit 116 sets predetermined upper, lower, left, and right margins m1 to m4 in a partial image (W×3/5 area) including the detected rectangular area A1 of the hand in the captured image Wp. An operation area A11 is set at the position (see FIG. 10). Further, the operation area setting processing unit 116 determines the left hand or the right hand, and determines the direction (left side or right side) in which the operation area A11 is set. Note that the margins m1 to m4 are such that when the user moves the hand in the left/right direction and the up/down direction in the entire area within the operation area A11, the mouse cursor M1 can be moved over the entire area within the input area F1 (see FIG. 2). It is set to a value that allows it to be moved in the left-right direction and the up-down direction.

また例えば、操作領域設定処理部116は、矩形領域A1の横幅W1の半分の長さ(W1)/2を矩形領域A1の小指側に加算し、矩形領域A1の縦幅H1の半分の長さ(H1)/2を矩形領域A1の上側に加算し、矩形領域A1の縦幅H1の長さを矩形領域A1の下側に加算した領域を操作領域A11に設定してもよい。操作領域設定処理部116は、本発明の第1設定処理部の一例である。 Further, for example, the operation area setting processing unit 116 adds half the width W1 of the rectangular area A1 (W1)/2 to the little finger side of the rectangular area A1, and adds half the length H1 of the rectangular area A1 to the little finger side of the rectangular area A1. An area obtained by adding (H1)/2 to the upper side of the rectangular area A1 and adding the length of the vertical width H1 of the rectangular area A1 to the lower side of the rectangular area A1 may be set as the operation area A11. The operation area setting processing section 116 is an example of the first setting processing section of the present invention.

ここで、手の矩形領域A1の下辺の位置(基準点P1)をマウスカーソルM1の位置に対応付けているため、基準点P1を基準として操作領域A11を設定するとユーザーが手を上方に動かした場合に手が操作領域A11より上側にはみ出る状態まで動かさないとマウスカーソルM1を表示画面13Aの上端まで移動させることができず、ユーザーに違和感を与えてしまう。そこで、操作領域A11を実際の位置よりも上側に表示させることにより、ユーザーが違和感なく操作領域A11内でマウスカーソルM1を移動させることを可能にする。具体的には、表示処理部111は、表示画面13Aにおいて、撮像画像Wpを表示させるとともに、操作領域A11の外枠を表す枠画像を撮像画像Wpに対して実際の位置よりも上側にずらして表示させる。例えば図11に示すように、表示処理部111は、表示画面13Aにおいて、操作領域A11の外枠を表す枠画像を撮像画像Wpに対して、矩形領域A1の上下方向の半分の幅h((H1)/2)分だけ実際の位置(図11の点線枠)よりも上側にずらして表示させる。これにより、ユーザーは、掌の中心位置がマウスカーソルM1の位置に対応する感覚で、手の動作に応じたマウスカーソルM1を移動させることが可能となる。 Here, since the position of the lower side of the rectangular area A1 of the hand (reference point P1) is associated with the position of the mouse cursor M1, when the operation area A11 is set with the reference point P1 as the reference, the user moves the hand upward. In this case, the mouse cursor M1 cannot be moved to the upper end of the display screen 13A unless the hand is moved above the operation area A11, which gives the user a sense of discomfort. Therefore, by displaying the operation area A11 above the actual position, the user can move the mouse cursor M1 within the operation area A11 without discomfort. Specifically, the display processing unit 111 displays the captured image Wp on the display screen 13A, and shifts the frame image representing the outer frame of the operation area A11 to the upper side of the captured image Wp relative to the actual position. display. For example, as shown in FIG. 11, the display processing unit 111 displays a frame image representing the outer frame of the operation area A11 on the display screen 13A with respect to the captured image Wp, which is half the width h (( H1)/2) is shifted upward from the actual position (dotted line frame in FIG. 11). As a result, the user can move the mouse cursor M1 according to the motion of the hand with the feeling that the center position of the palm corresponds to the position of the mouse cursor M1.

仮想入力可能領域設定処理部117は、入力可能領域F1よりも大きい仮想入力可能領域F2(仮想画面)を設定する。例えば図12に示すように、表示画面13Aの横幅をW2、縦幅をH2とした場合に、仮想入力可能領域設定処理部117は、表示画面13Aの横幅W2の半分の長さ((W2)/2)を表示画面13Aの右側及び左側のそれぞれに加算し、表示画面13Aの縦幅H2の半分の長さ((H2)/2)を表示画面13Aの上側及び下側のそれぞれに加算した領域(入力可能領域F1の縦横2倍の領域)を仮想入力可能領域F2に設定する。仮想入力可能領域設定処理部117は、本発明の第2設定処理部の一例である。 The virtual input-enabled area setting unit 117 sets a virtual input-enabled area F2 (virtual screen) that is larger than the input-enabled area F1. For example, as shown in FIG. 12, when the horizontal width of the display screen 13A is W2 and the vertical width is H2, the virtual input enable area setting unit 117 sets the display screen 13A to a half length of the horizontal width W2 ((W2) /2) was added to each of the right and left sides of the display screen 13A, and the half length of the vertical width H2 of the display screen 13A ((H2)/2) was added to each of the upper and lower sides of the display screen 13A. An area (double the vertical and horizontal dimensions of the input-enabled area F1) is set as the virtual input-enabled area F2. The virtual input enabled area setting processing unit 117 is an example of the second setting processing unit of the present invention.

入力処理部118は、操作領域A11、入力可能領域F1、及び仮想入力可能領域F2を利用して、表示画面13Aにおける入力位置を算出して入力処理を実行する。 The input processing unit 118 uses the operation area A11, the input-enabled area F1, and the virtual input-enabled area F2 to calculate an input position on the display screen 13A and execute input processing.

以下、入力位置の具体的な算出方法を説明する。ここでは、前記算出方法の具体例として、第1算出方法、第2算出方法、及び第3算出方法を挙げる。 A specific method of calculating the input position will be described below. Here, a first calculation method, a second calculation method, and a third calculation method are given as specific examples of the calculation method.

[第1算出方法]
図12には、第1算出方法の一例を示している。図12に示すように、表示処理部111は、操作領域A11の外枠の枠画像を撮像画像Wp内に表示させる。また、入力処理部118は、基準点P1に対応する操作領域A11内の位置を仮想入力可能領域F2内に対応付けた位置を、前記入力位置として算出する。具体的には、入力処理部118は、操作領域A11の基準点P1を仮想入力可能領域F2にマッピングする。そして、マッピングした位置(マウスカーソルM1の位置)が入力可能領域F1内に収まっている場合は、入力処理部118は、当該位置を入力位置に決定し、当該入力位置にマウスカーソルM1を表示させる。一方、マッピングした位置(マウスカーソルM1の位置)が入力可能領域F1外にはみ出る場合には、入力処理部118は、入力可能領域F1内に再マッピングして、入力可能領域F1の端部の位置を入力位置に決定し、当該入力位置にマウスカーソルM1を表示させる。
[First calculation method]
FIG. 12 shows an example of the first calculation method. As shown in FIG. 12, the display processing unit 111 displays the frame image of the outer frame of the operation area A11 in the captured image Wp. Further, the input processing unit 118 calculates a position in which the position in the operation area A11 corresponding to the reference point P1 is associated with the virtual input possible area F2 as the input position. Specifically, the input processing unit 118 maps the reference point P1 of the operation area A11 to the virtual input enabled area F2. Then, when the mapped position (the position of the mouse cursor M1) is within the input-enabled area F1, the input processing unit 118 determines the position as the input position and displays the mouse cursor M1 at the input position. . On the other hand, if the mapped position (the position of the mouse cursor M1) protrudes outside the input-enabled area F1, the input processing unit 118 re-maps it within the input-enabled area F1 to map the position of the edge of the input-enabled area F1. is determined as the input position, and the mouse cursor M1 is displayed at the input position.

このように、第1算出方法では、入力処理部118は、操作領域A11と入力可能領域F1とをマッピングする際に、操作領域A11を実際の表示画面13Aの画面サイズに対して縦横2倍の仮想入力可能領域F2に対してマッピングを行い、入力可能領域F1外にマウスカーソルM1がマッピングされた場合には入力可能領域F1内に再マッピングする。 As described above, in the first calculation method, when mapping the operation area A11 and the input-enabled area F1, the input processing unit 118 makes the operation area A11 twice as large as the screen size of the actual display screen 13A. Mapping is performed on the virtual input-enabled area F2, and when the mouse cursor M1 is mapped outside the input-enabled area F1, it is re-mapped within the input-enabled area F1.

[第2算出方法]
図13には、第2算出方法の一例を示している。図13に示すように、表示処理部111は、操作領域A11よりも大きい仮想操作領域B1の外枠の枠画像を撮像画像Wp内に表示させる。例えば、表示処理部111は、操作領域A11の横幅の半分の長さを操作領域A11の右側及び左側のそれぞれに加算し、操作領域A11の縦幅の半分の長さを操作領域A11の上側及び下側のそれぞれに加算した拡張領域(仮想操作領域B1)の枠画像を撮像画像Wp内に表示させる。すなわち、表示処理部111は、撮像画像Wpにおいて、操作領域A11の枠画像を表示させず、操作領域A11を拡張した仮想の仮想操作領域B1の枠画像を表示させる。これにより、ユーザーは、撮像画像Wp内に表示される仮想操作領域B1の枠画像を見ながら手を動かす。
[Second calculation method]
FIG. 13 shows an example of the second calculation method. As shown in FIG. 13, the display processing unit 111 displays a frame image of the outer frame of the virtual operation area B1, which is larger than the operation area A11, in the captured image Wp. For example, the display processing unit 111 adds half the horizontal width of the operation area A11 to each of the right and left sides of the operation area A11, and adds half the vertical width of the operation area A11 to the upper side and the left side of the operation area A11. The frame image of the extended area (virtual operation area B1) added to each lower side is displayed in the captured image Wp. That is, the display processing unit 111 does not display the frame image of the operation area A11 in the captured image Wp, and displays the frame image of the virtual virtual operation area B1 obtained by extending the operation area A11. As a result, the user moves his or her hand while looking at the frame image of the virtual operation area B1 displayed within the captured image Wp.

入力処理部118は、基準点P1に対応する操作領域A11内の位置を入力可能領域F1内に対応付けた位置を、前記入力位置として算出する。具体的には、入力処理部118は、操作領域A11の基準点P1を入力可能領域F1にマッピングする。そして、マッピングした位置(マウスカーソルM1の位置)が入力可能領域F1内に収まっている場合は、入力処理部118は、当該位置を入力位置に決定し、当該入力位置にマウスカーソルM1を表示させる。一方、マッピングした位置(マウスカーソルM1の位置)が入力可能領域F1外にはみ出る場合には、入力処理部118は、入力可能領域F1内に再マッピングして、入力可能領域F1の端部の位置を入力位置に決定し、当該入力位置にマウスカーソルM1を表示させる。 The input processing unit 118 calculates the input position by associating the position within the operation area A11 corresponding to the reference point P1 with the input possible area F1. Specifically, the input processing unit 118 maps the reference point P1 of the operation area A11 to the input possible area F1. Then, when the mapped position (the position of the mouse cursor M1) is within the input-enabled area F1, the input processing unit 118 determines the position as the input position and displays the mouse cursor M1 at the input position. . On the other hand, if the mapped position (the position of the mouse cursor M1) protrudes outside the input-enabled area F1, the input processing unit 118 re-maps it within the input-enabled area F1 to map the position of the edge of the input-enabled area F1. is determined as the input position, and the mouse cursor M1 is displayed at the input position.

このように、第2算出方法では、操作領域A11の大きさに対して縦横2倍の仮想操作領域B1の枠画像を撮像画像Wp内に表示させつつ、入力処理部118は、操作領域A11を入力可能領域F1にマッピングを行い、入力可能領域F1外にマウスカーソルM1がマッピングされた場合には入力可能領域F1内に再マッピングする。 As described above, in the second calculation method, the input processing unit 118 displays the frame image of the virtual operation area B1 twice the size of the operation area A11 in the captured image Wp. Mapping is performed on the input-enabled area F1, and when the mouse cursor M1 is mapped outside the input-enabled area F1, it is re-mapped within the input-enabled area F1.

[第3算出方法]
図14には、第3算出方法の一例を示している。図14に示すように、表示処理部111は、前記第2算出方法と同様に、操作領域A11よりも大きい仮想操作領域B1の枠画像を撮像画像Wp内に表示させる。すなわち、表示処理部111は、撮像画像Wpにおいて、操作領域A11の枠画像を表示させず、仮想操作領域B1の枠画像を表示させる。また、入力処理部118は、基準点P1に対応する仮想操作領域B1内の位置を仮想入力可能領域F2内に対応付けた位置を、前記入力位置として算出する。具体的には、入力処理部118は、仮想操作領域B1の基準点P1を仮想入力可能領域F2にマッピングする。そして、マッピングした位置(マウスカーソルM1の位置)が入力可能領域F1内に収まっている場合は、入力処理部118は、当該位置を入力位置に決定し、当該入力位置にマウスカーソルM1を表示させる。一方、マッピングした位置(マウスカーソルM1の位置)が入力可能領域F1外にはみ出る場合には、入力処理部118は、入力可能領域F1内に再マッピングして、入力可能領域F1の端部の位置を入力位置に決定し、当該入力位置にマウスカーソルM1を表示させる。
[Third calculation method]
FIG. 14 shows an example of the third calculation method. As shown in FIG. 14, the display processing unit 111 causes the frame image of the virtual operation area B1 larger than the operation area A11 to be displayed in the captured image Wp, similarly to the second calculation method. That is, the display processing unit 111 displays the frame image of the virtual operation area B1 without displaying the frame image of the operation area A11 in the captured image Wp. Further, the input processing unit 118 calculates a position in which the position in the virtual operation area B1 corresponding to the reference point P1 is associated with the virtual input possible area F2 as the input position. Specifically, the input processing unit 118 maps the reference point P1 of the virtual operation area B1 to the virtual input enabled area F2. Then, when the mapped position (the position of the mouse cursor M1) is within the input-enabled area F1, the input processing unit 118 determines the position as the input position and displays the mouse cursor M1 at the input position. . On the other hand, if the mapped position (the position of the mouse cursor M1) protrudes outside the input-enabled area F1, the input processing unit 118 re-maps it within the input-enabled area F1 to map the position of the edge of the input-enabled area F1. is determined as the input position, and the mouse cursor M1 is displayed at the input position.

このように、第3算出方法では、操作領域A11の大きさに対して縦横2倍の仮想操作領域B1の枠画像を撮像画像Wp内に表示させつつ、入力処理部118は、仮想操作領域B1を仮想入力可能領域F2にマッピングを行い、入力可能領域F1外にマウスカーソルM1がマッピングされた場合には入力可能領域F1内に再マッピングする。 As described above, in the third calculation method, the input processing unit 118 displays the frame image of the virtual operation area B1 twice as large as the size of the operation area A11 in the captured image Wp. is mapped to the virtual input-enabled area F2, and when the mouse cursor M1 is mapped outside the input-enabled area F1, it is re-mapped within the input-enabled area F1.

入力処理部118は、上述の第1算出方法、第2算出方法、及び第3算出方法のいずれかの方法により入力位置を算出する。 The input processing unit 118 calculates the input position by any one of the above-described first calculation method, second calculation method, and third calculation method.

前記第1算出方法によれば、操作領域A11を入力可能領域F1に対して比較的狭く取ることになるため、ユーザーは、小さな手の動きによりマウスカーソルM1を移動させることができ、小さい領域内における手の動きにより表示画面13A全体にマウスカーソルM1を移動させることが可能となる。 According to the first calculation method, the operation area A11 is set relatively narrower than the input area F1. It is possible to move the mouse cursor M1 over the entire display screen 13A by moving the hand in .

また、前記第2算出方法によれば、操作領域A11を入力可能領域F1に対して広めに取ることができるため、ユーザーは、前記第1算出方法よりも手の細かい動きをマウスカーソルM1の移動に反映させることができる。 In addition, according to the second calculation method, the operation area A11 can be set wider than the input-enabled area F1. can be reflected in

また、前記第3算出方法によれば、操作領域A11を入力可能領域F1に対して適度な大きさに取ることができるため、前記第1算出方法よりも手の細かい動きをマウスカーソルM1の移動に反映させることができ、かつ、前記第2算出方法ほど手や腕を動かさなくても、表示画面13A全体にマウスカーソルM1を移動させることが可能となる。 In addition, according to the third calculation method, since the operation area A11 can be appropriately sized with respect to the input-enabled area F1, finer movements of the hand than the first calculation method can be applied to the movement of the mouse cursor M1. , and the mouse cursor M1 can be moved over the entire display screen 13A without moving the hand or arm as much as in the second calculation method.

また、前記各算出方法によれば、マウスカーソルM1が表示画面13Aからはみ出たり、表示画面13Aの下側の撮像画像Wp(ワイプ画面)にマウスカーソルM1が移動して誤動作を引き起こしたりすることを防止することができる。 Further, according to each of the calculation methods described above, it is possible to prevent the mouse cursor M1 from protruding from the display screen 13A, or the mouse cursor M1 from moving to the captured image Wp (wipe screen) on the lower side of the display screen 13A and causing a malfunction. can be prevented.

以上のように、表示装置1は、カメラ15の撮像画像からユーザーの手を検出すると、手の矩形領域A1の下辺L1上に所定の設定方法(前記第1~第3設定方法)により基準点P1を設定し、基準点P1を所定の算出方法(前記第1~第3算出方法)により入力可能領域F1における入力位置を算出して、算出した入力位置において、ユーザーのジェスチャー操作に応じた入力処理を実行する。 As described above, when the display device 1 detects the user's hand from the captured image of the camera 15, the reference point is placed on the lower side L1 of the rectangular area A1 of the hand by the predetermined setting method (the first to third setting methods). P1 is set, the input position in the input possible area F1 is calculated by a predetermined calculation method (the above-described first to third calculation methods) of the reference point P1, and the input corresponding to the user's gesture operation is performed at the calculated input position. Execute the process.

[表示制御処理]
以下、図15を参照しつつ、表示装置1の制御部11によって実行される表示制御処理について説明する。
[Display control processing]
Display control processing executed by the control unit 11 of the display device 1 will be described below with reference to FIG. 15 .

なお、本発明は、前記表示制御処理に含まれる一又は複数のステップを実行する表示制御方法(本発明の入力方法の一例)の発明として捉えることができ、ここで説明する表示制御処理に含まれる一又は複数のステップが適宜省略されてもよい。なお、前記表示制御処理における各ステップは同様の作用効果を生じる範囲で実行順序が異なってもよい。さらに、ここでは制御部11が前記表示制御処理における各ステップを実行する場合を例に挙げて説明するが、複数のプロセッサーが当該表示制御処理における各ステップを分散して実行する表示制御方法も他の実施形態として考えられる。 The present invention can be regarded as an invention of a display control method (an example of an input method of the present invention) for executing one or more steps included in the display control process. may be omitted as appropriate. It should be noted that the steps in the display control process may differ in execution order as long as similar effects are produced. Furthermore, here, a case where the control unit 11 executes each step in the display control process will be described as an example, but there is another display control method in which a plurality of processors execute each step in the display control process in a distributed manner. can be considered as an embodiment of

先ずステップS1において、制御部11は、カメラ15から撮像画像を取得したか否かを判定する。制御部11がカメラ15から撮像画像を取得すると(S1:Yes)、処理はステップS2に移行する。 First, in step S<b>1 , the control unit 11 determines whether or not a captured image has been acquired from the camera 15 . When the control unit 11 acquires the captured image from the camera 15 (S1: Yes), the process proceeds to step S2.

ステップS2において、制御部11は、ユーザーを検出したか否かを判定する。制御部11がユーザーを検出すると(S2:Yes)、処理はステップS3に移行する。 In step S2, the control unit 11 determines whether or not the user has been detected. When the control unit 11 detects the user (S2: Yes), the process proceeds to step S3.

ステップS3において、制御部11は、ユーザーの顔及び手を検出したか否かを判定する。制御部11がユーザーの顔及び手を検出すると(S3:Yes)、処理はステップS4に移行する。 In step S3, the control unit 11 determines whether or not the user's face and hands have been detected. When the control unit 11 detects the user's face and hands (S3: Yes), the process proceeds to step S4.

ステップS4において、制御部11は、撮像画像Wp(ワイプ画面)を表示画面13Aに表示させる。具体的には、制御部11は、カメラ15により撮像された所定エリアの撮像画像のうち、検出したユーザーの顔及び手を含む特定の範囲の部分画像(撮像画像Wp)を表示画面13Aの端部(隅部)に表示させる(図2参照)。また、制御部11は、撮像画像Wpに、ユーザーの手を囲む矩形領域A1を表す枠画像と、表示画面13Aの入力可能領域F1(図2参照)に対応する操作領域A11の枠画像(操作領域画像)とを重ねて表示させる(図3参照)。なお、表示処理部111は、操作領域A11の枠画像を撮像画像Wpに対して実際の位置よりも上側にずらして表示させてもよい(図11参照)。 In step S4, the control unit 11 displays the captured image Wp (wipe screen) on the display screen 13A. Specifically, the control unit 11 displays a partial image (captured image Wp) of a specific range including the detected user's face and hands from the captured image of a predetermined area captured by the camera 15 at the edge of the display screen 13A. (See FIG. 2). In addition, the control unit 11 adds a frame image representing a rectangular area A1 surrounding the user's hand to the captured image Wp, and a frame image (operation area image) are superimposed and displayed (see FIG. 3). Note that the display processing unit 111 may display the frame image of the operation area A11 so as to be shifted upward from the actual position with respect to the captured image Wp (see FIG. 11).

ステップS5において、制御部11は、基準点P1を設定する処理(基準点設定処理)を実行する。制御部11は、前記第1設定方法、前記第2設定方法、及び前記第3設定方法のいずれかの方法に対応する基準点設定処理を実行する。 In step S5, the control section 11 executes processing for setting the reference point P1 (reference point setting processing). The control unit 11 executes reference point setting processing corresponding to any one of the first setting method, the second setting method, and the third setting method.

図16には、前記第1設定方法に対応する基準点設定処理の具体例を示している。具体的には、ステップS11において、制御部11は、カメラ15から取得した撮像画像から検出した手の検出結果を取得する。次にステップS12において、制御部11は、手の形状を判定する。例えば、制御部11が、手が開いた状態(パーの状態)の形状(第1形状)を判定した場合、処理はステップS13に移行する。一方、制御部11が、手が閉じた状態(グーの状態)の形状(第2形状)を判定した場合、処理はステップS121に移行する。 FIG. 16 shows a specific example of the reference point setting process corresponding to the first setting method. Specifically, in step S<b>11 , the control unit 11 acquires the detection result of the hand detected from the captured image acquired from the camera 15 . Next, in step S12, the control unit 11 determines the shape of the hand. For example, when the control unit 11 determines the shape (first shape) when the hand is open (par state), the process proceeds to step S13. On the other hand, when the control unit 11 determines the shape (second shape) of the hand closed state (goo state), the process proceeds to step S121.

ステップS13では、制御部11は、矩形領域A1の下辺L1の中心位置(図4参照)を基準点P1に設定する。ステップS13の後、処理はステップS6に移行する。 In step S13, the control unit 11 sets the center position (see FIG. 4) of the lower side L1 of the rectangular area A1 as the reference point P1. After step S13, the process proceeds to step S6.

ステップS121では、制御部11は、前回算出した第1形状(パーの状態)の位置(図6参照)を基準点P1に設定する。ステップS121の後、処理はステップS6に移行する。 In step S121, the control unit 11 sets the previously calculated position of the first shape (par state) (see FIG. 6) as the reference point P1. After step S121, the process proceeds to step S6.

図17には、前記第2設定方法に対応する基準点設定処理の具体例を示している。具体的には、ステップS21において、制御部11は、カメラ15から取得した撮像画像から検出した手の検出結果を取得する。次にステップS22において、制御部11は、手の形状を判定する。例えば、制御部11が、手が開いた状態(パーの状態)の形状(第1形状)を判定した場合、処理はステップS23に移行する。一方、制御部11が、手が閉じた状態(グーの状態)の形状(第2形状)を判定した場合、処理はステップS221に移行する。 FIG. 17 shows a specific example of reference point setting processing corresponding to the second setting method. Specifically, in step S<b>21 , the control unit 11 acquires the detection result of the hand detected from the captured image acquired from the camera 15 . Next, in step S22, the control unit 11 determines the shape of the hand. For example, when the control unit 11 determines the shape (first shape) when the hand is open (par state), the process proceeds to step S23. On the other hand, when the control unit 11 determines the shape (second shape) of the hand closed state (goo state), the process proceeds to step S221.

ステップS23では、制御部11は、矩形領域A1の下辺L1におけるユーザーの手の小指側の端部から1:2の比率の位置(図7参照)を基準点P1に設定する。ステップS23の後、処理はステップS6に移行する。 In step S23, the control unit 11 sets the reference point P1 to a position at a ratio of 1:2 from the end of the user's hand on the little finger side in the lower side L1 of the rectangular area A1 (see FIG. 7). After step S23, the process proceeds to step S6.

ステップS221では、制御部11は、前回算出した第1形状(パーの状態)の位置を基準点P1に設定する。ステップS221の後、処理はステップS6に移行する。 In step S221, the control unit 11 sets the previously calculated position of the first shape (par state) as the reference point P1. After step S221, the process proceeds to step S6.

図18には、前記第3設定方法に対応する基準点設定処理の具体例を示している。具体的には、ステップS31において、制御部11は、カメラ15から取得した撮像画像から検出した手の検出結果を取得する。次にステップS32において、制御部11は、手の形状を判定する。例えば、制御部11が、手が開いた状態(パーの状態)の形状(第1形状)を判定した場合、処理はステップS33に移行する。一方、制御部11が、手が閉じた状態(グーの状態)の形状(第2形状)を判定した場合、処理はステップS321に移行する。 FIG. 18 shows a specific example of reference point setting processing corresponding to the third setting method. Specifically, in step S<b>31 , the control unit 11 acquires the detection result of the hand detected from the captured image acquired from the camera 15 . Next, in step S32, the control unit 11 determines the shape of the hand. For example, when the control unit 11 determines the shape (first shape) of the hand open state (par state), the process proceeds to step S33. On the other hand, when the control unit 11 determines the shape (second shape) of the hand closed state (goo state), the process proceeds to step S321.

ステップS33では、制御部11は、矩形領域A1に含まれる複数の画素のうちユーザーの手の色を表示する特定画素を特定し、矩形領域A1の上辺から下辺L1に向かう列方向の画素列ごとの前記特定画素の合計画素数を算出する(図8参照)。次にステップS34において、制御部11は、下辺L1のうち前記合計画素数が閾値Cthを超える前記画素列を抽出する。次にステップS35において、制御部11は、抽出した画素列に対応する部分辺の最小位置Xmin及び最大位置Xmaxの座標を算出する。次にステップS36において、制御部11は、最小位置Xmin及び最大位置Xmaxの中心位置Xcを基準点P1に設定する。ステップS36の後、処理はステップS6に移行する。 In step S33, the control unit 11 identifies a specific pixel that displays the color of the user's hand among the plurality of pixels included in the rectangular area A1, and selects a pixel row in the column direction from the upper side to the lower side L1 of the rectangular area A1. is calculated (see FIG. 8). Next, in step S34, the control unit 11 extracts the pixel row in which the total number of pixels exceeds the threshold value Cth on the lower side L1. Next, in step S35, the control unit 11 calculates the coordinates of the minimum position Xmin and the maximum position Xmax of the partial side corresponding to the extracted pixel row. Next, in step S36, the control unit 11 sets the central position Xc between the minimum position Xmin and the maximum position Xmax as the reference point P1. After step S36, the process proceeds to step S6.

ステップS321では、制御部11は、前回算出した第1形状(パーの状態)の位置を基準点P1に設定する。ステップS321の後、処理はステップS6に移行する。 In step S321, the control unit 11 sets the previously calculated position of the first shape (par state) as the reference point P1. After step S321, the process proceeds to step S6.

ステップS6(図15参照)では、制御部11は、基準点P1に対応する入力位置を算出する処理(入力位置算出処理)を実行する。制御部11は、前記第1算出方法、前記第2算出方法、及び前記第3算出方法のいずれかの方法に対応する入力位置算出処理を実行する。 In step S6 (see FIG. 15), the control unit 11 executes processing (input position calculation processing) for calculating the input position corresponding to the reference point P1. The control unit 11 executes input position calculation processing corresponding to any one of the first calculation method, the second calculation method, and the third calculation method.

図19には、前記第1算出方法に対応する入力位置算出処理の具体例を示している。なお、前記第1算出方法では、制御部11は、ステップS4(図15参照)において、操作領域A11の枠画像を撮像画像Wpに表示させる(図12参照)。 FIG. 19 shows a specific example of input position calculation processing corresponding to the first calculation method. In the first calculation method, in step S4 (see FIG. 15), the control unit 11 causes the frame image of the operation area A11 to be displayed in the captured image Wp (see FIG. 12).

ステップS41において、制御部11は、入力可能領域F1よりも大きい仮想入力可能領域F2を設定する(図12参照)。次にステップS42において、制御部11は、操作領域A11の基準点P1を仮想入力可能領域F2にマッピングする。 In step S41, the control unit 11 sets a virtual input-enabled area F2 larger than the input-enabled area F1 (see FIG. 12). Next, in step S42, the control unit 11 maps the reference point P1 of the operation area A11 to the virtual input enabled area F2.

次にステップS43において、制御部11は、仮想入力可能領域F2にマッピングした位置が入力可能領域F1内に収まっているか否かを判定する。仮想入力可能領域F2にマッピングした位置が入力可能領域F1内に収まっている場合(S43:Yes)、処理はステップS45に移行する。一方、仮想入力可能領域F2にマッピングした位置が入力可能領域F1内に収まっていない場合(S43:No)、処理はステップS44に移行する。 Next, in step S43, the control unit 11 determines whether or not the position mapped to the virtual input-enabled area F2 is within the input-enabled area F1. If the position mapped to the virtual input-enabled area F2 is within the input-enabled area F1 (S43: Yes), the process proceeds to step S45. On the other hand, if the position mapped to the virtual input-enabled area F2 is not within the input-enabled area F1 (S43: No), the process proceeds to step S44.

ステップS44では、制御部11は、入力可能領域F1内に再マッピングする。その後、処理はステップS45に移行する。 In step S44, the control unit 11 remaps within the inputtable area F1. After that, the process moves to step S45.

ステップS45では、制御部11は、マッピングした位置を入力位置に決定する。仮想入力可能領域F2にマッピングした位置が入力可能領域F1内に収まっている場合(S43:Yes)、制御部11は、当該位置を入力位置に決定する。仮想入力可能領域F2にマッピングした位置が入力可能領域F1内に収まっていない場合(S43:No)、制御部11は、入力可能領域F1の端部の位置を入力位置に決定する。その後、処理はステップS7に移行する。 In step S45, the control unit 11 determines the mapped position as the input position. If the position mapped to the virtual input-enabled area F2 is within the input-enabled area F1 (S43: Yes), the control unit 11 determines the position as the input position. If the position mapped to the virtual input-enabled area F2 does not fit within the input-enabled area F1 (S43: No), the control unit 11 determines the position of the edge of the input-enabled area F1 as the input position. After that, the process moves to step S7.

図20には、前記第2算出方法に対応する入力位置算出処理の具体例を示している。なお、前記第2算出方法では、制御部11は、ステップS4(図15参照)において、操作領域A11よりも大きい仮想操作領域B1の枠画像を撮像画像Wpに表示させる(図13参照)。 FIG. 20 shows a specific example of input position calculation processing corresponding to the second calculation method. In the second calculation method, in step S4 (see FIG. 15), the control unit 11 causes the captured image Wp to display a frame image of the virtual operation area B1 larger than the operation area A11 (see FIG. 13).

ステップS51において、制御部11は、操作領域A11の基準点P1を入力可能領域F1にマッピングする。 In step S51, the control unit 11 maps the reference point P1 of the operation area A11 to the input possible area F1.

次にステップS52において、制御部11は、入力可能領域F1にマッピングした位置が入力可能領域F1内に収まっているか否かを判定する。入力可能領域F1にマッピングした位置が入力可能領域F1内に収まっている場合(S52:Yes)、処理はステップS54に移行する。一方、入力可能領域F1にマッピングした位置が入力可能領域F1内に収まっていない場合(S52:No)、処理はステップS53に移行する。 Next, in step S52, the control unit 11 determines whether or not the position mapped to the input-enabled area F1 is within the input-enabled area F1. If the position mapped to the input-enabled area F1 is within the input-enabled area F1 (S52: Yes), the process proceeds to step S54. On the other hand, if the position mapped to the input-enabled area F1 is not within the input-enabled area F1 (S52: No), the process proceeds to step S53.

ステップS53では、制御部11は、入力可能領域F1内に再マッピングする。その後、処理はステップS54に移行する。 In step S53, the control unit 11 performs remapping within the enterable area F1. After that, the process moves to step S54.

ステップS54では、制御部11は、マッピングした位置を入力位置に決定する。入力可能領域F1にマッピングした位置が入力可能領域F1内に収まっている場合(S52:Yes)、制御部11は、当該位置を入力位置に決定する。入力可能領域F1にマッピングした位置が入力可能領域F1内に収まっていない場合(S52:No)、制御部11は、入力可能領域F1の端部の位置を入力位置に決定する。その後、処理はステップS7に移行する。 In step S54, the control unit 11 determines the mapped position as the input position. When the position mapped to the input-enabled area F1 is within the input-enabled area F1 (S52: Yes), the control unit 11 determines the position as the input position. If the position mapped to the input-enabled area F1 does not fit within the input-enabled area F1 (S52: No), the control unit 11 determines the position of the edge of the input-enabled area F1 as the input position. After that, the process moves to step S7.

図21には、前記第3算出方法に対応する入力位置算出処理の具体例を示している。なお、前記第3算出方法では、制御部11は、ステップS4(図15参照)において、仮想操作領域B1の枠画像を撮像画像Wpに表示させる(図14参照)。 FIG. 21 shows a specific example of input position calculation processing corresponding to the third calculation method. In the third calculation method, in step S4 (see FIG. 15), the control section 11 causes the frame image of the virtual operation area B1 to be displayed in the captured image Wp (see FIG. 14).

ステップS61において、制御部11は、入力可能領域F1よりも大きい仮想入力可能領域F2を設定する(図14参照)。次にステップS62において、制御部11は、仮想操作領域B1の基準点P1を仮想入力可能領域F2にマッピングする。 In step S61, the control unit 11 sets a virtual input-enabled area F2 that is larger than the input-enabled area F1 (see FIG. 14). Next, in step S62, the control section 11 maps the reference point P1 of the virtual operation area B1 to the virtual input enabled area F2.

次にステップS63において、制御部11は、仮想入力可能領域F2にマッピングした位置が入力可能領域F1内に収まっているか否かを判定する。仮想入力可能領域F2にマッピングした位置が入力可能領域F1内に収まっている場合(S63:Yes)、処理はステップS65に移行する。一方、仮想入力可能領域F2にマッピングした位置が入力可能領域F1内に収まっていない場合(S63:No)、処理はステップS64に移行する。 Next, in step S63, the control unit 11 determines whether or not the position mapped to the virtual input-enabled area F2 is within the input-enabled area F1. If the position mapped to the virtual input-enabled area F2 is within the input-enabled area F1 (S63: Yes), the process proceeds to step S65. On the other hand, if the position mapped to the virtual input-enabled area F2 is not within the input-enabled area F1 (S63: No), the process proceeds to step S64.

ステップS64では、制御部11は、入力可能領域F1内に再マッピングする。その後、処理はステップS65に移行する。 In step S64, the control unit 11 remaps within the inputtable area F1. After that, the process moves to step S65.

ステップS65では、制御部11は、マッピングした位置を入力位置に決定する。仮想入力可能領域F2にマッピングした位置が入力可能領域F1内に収まっている場合(S63:Yes)、制御部11は、当該位置を入力位置に決定する。仮想入力可能領域F2にマッピングした位置が入力可能領域F1内に収まっていない場合(S63:No)、制御部11は、入力可能領域F1の端部の位置を入力位置に決定する。その後、処理はステップS7に移行する。 In step S65, the control unit 11 determines the mapped position as the input position. If the position mapped to the virtual input-enabled area F2 is within the input-enabled area F1 (S63: Yes), the control unit 11 determines that position as the input position. If the position mapped to the virtual input-enabled area F2 is not within the input-enabled area F1 (S63: No), the control unit 11 determines the position of the edge of the input-enabled area F1 as the input position. After that, the process moves to step S7.

ステップS7(図15参照)では、制御部11は、決定した入力位置に基づいて入力処理を実行する。具体的には、制御部11は、決定した入力位置にマウスカーソルM1を表示させる。また、例えば決定した入力位置が「Yes」ボタン上の位置であって、マウスカーソルM1が「Yes」ボタン上に位置する状態でユーザーが手を閉じる操作を行うと、制御部11は、「Yes」ボタン操作を受け付けて所定の処理を実行する。 In step S7 (see FIG. 15), the control unit 11 executes input processing based on the determined input position. Specifically, the control unit 11 displays the mouse cursor M1 at the determined input position. Further, for example, when the determined input position is on the "Yes" button and the user performs an operation of closing the hand while the mouse cursor M1 is positioned on the "Yes" button, the control unit 11 outputs "Yes ” button operation is accepted and a predetermined process is executed.

ステップS8において、制御部11は、ユーザーによる入力操作が終了したか否かを判定する。前記入力操作が終了した場合(S8:Yes)、制御部11は前記表示制御処理を終了する。前記入力操作が終了しない場合(S8:No)、制御部11はステップS1に戻る。以上のようにして、制御部11は、前記表示制御処理を実行する。 In step S8, the control unit 11 determines whether or not the input operation by the user has ended. When the input operation ends (S8: Yes), the control unit 11 ends the display control process. If the input operation is not finished (S8: No), the control section 11 returns to step S1. As described above, the control unit 11 executes the display control process.

以上説明したように、本実施形態に係る表示装置1は、ユーザーの手によるジェスチャー操作を検出して表示画面の入力位置に対して入力処理を行う。具体的には、表示装置1は、ユーザーを撮像した撮像画像を取得し、取得した前記撮像画像からユーザーの手を検出し、ユーザーの手の形状を判定する。また、表示装置1は、検出したユーザーの手を囲む特定領域(矩形領域A1)の下辺L1の所定位置に基準点P1を設定し、検出したユーザーの手の形状が所定の形状である場合に、設定した基準点P1を入力位置として入力処理を実行する。 As described above, the display device 1 according to the present embodiment detects a user's hand gesture operation and performs input processing on an input position on the display screen. Specifically, the display device 1 acquires a captured image of the user, detects the user's hand from the acquired captured image, and determines the shape of the user's hand. Further, the display device 1 sets a reference point P1 at a predetermined position of the lower side L1 of the specific area (rectangular area A1) surrounding the detected user's hand, and when the detected user's hand has a predetermined shape, , the input processing is executed with the set reference point P1 as the input position.

この構成によれば、手の形状(ジェスチャー操作)の変化(例えばパーの状態からグーの状態への変化)に関わらず、入力位置に対応する基準点P1を固定することができる。このため、ユーザーのジェスチャー操作の変化によって入力位置がユーザーの意図しない方向に変化することを防止することが可能となる。 According to this configuration, the reference point P1 corresponding to the input position can be fixed regardless of the change in the shape of the hand (gesture operation) (for example, the change from the par state to the goo state). Therefore, it is possible to prevent the input position from changing in a direction not intended by the user due to a change in the user's gesture operation.

また、本実施形態に係る表示装置1は、ユーザーを撮像した撮像画像を取得し、取得した前記撮像画像からユーザーの手を検出し、検出したユーザーの手を含む領域であって、表示画面13A内のジェスチャー操作により入力可能な入力可能領域F1に対応するジェスチャー操作の操作領域A11を設定する。また表示装置1は、表示画面13Aにおいて、取得した撮像画像Wpを表示させるとともに、設定した操作領域A11に対応する操作領域画像(枠画像)を撮像画像Wpに重ねて表示させる。例えば、表示装置1は、操作領域A11の枠画像(図12参照)、又は、仮想操作領域B1(図13、図14参照)を撮像画像Wpに表示させる。 Further, the display device 1 according to the present embodiment acquires a captured image of a user, detects the user's hand from the acquired captured image, and detects the user's hand in an area including the detected user's hand on the display screen 13A. An operation area A11 for a gesture operation corresponding to the enterable area F1 in which input is possible by gesture operation is set. In addition, the display device 1 displays the acquired captured image Wp on the display screen 13A, and displays an operation area image (frame image) corresponding to the set operation area A11 superimposed on the captured image Wp. For example, the display device 1 displays the frame image of the operation area A11 (see FIG. 12) or the virtual operation area B1 (see FIGS. 13 and 14) in the captured image Wp.

この構成によれば、ユーザーは、撮像画像Wpに表示される前記枠画像を確認することにより、自身の手を動かす範囲と、ユーザーの手の動きに応じて表示画面13A上で移動するマウスカーソルM1の表示画面13A内で移動可能な範囲との対応関係を把握し易くなる。よって、表示装置1の操作性を向上させることが可能となる。 According to this configuration, by checking the frame image displayed in the captured image Wp, the user can move the mouse cursor on the display screen 13A according to the movement range of the user's hand and the movement of the user's hand. It becomes easy to grasp the correspondence relationship with the movable range within the display screen 13A of M1. Therefore, it is possible to improve the operability of the display device 1 .

本発明は、上述した実施形態に示すように、前記第1~第3設定方法のいずれかを実行する処理と、前記第1~第3算出方法のいずれかを実行する処理とを備えた表示装置である。但し、本発明は上述の実施形態に限定されず、少なくとも前記第1~第3設定方法のいずれかを実行する処理を備えた表示装置であってもよい。また、本発明は、少なくとも前記第1~第3算出方法のいずれかを実行する処理を備えた表示装置であってもよい。 According to the present invention, as shown in the above-described embodiment, a display including a process for executing any one of the first to third setting methods and a process for executing any one of the first to third calculation methods is provided. It is a device. However, the present invention is not limited to the above-described embodiments, and the display device may include processing for executing at least one of the first to third setting methods. Further, the present invention may be a display device including processing for executing at least one of the first to third calculation methods.

なお、本発明の表示装置は、各請求項に記載された発明の範囲において、以上に示された各実施形態を自由に組み合わせること、或いは各実施形態を適宜、変形又は一部を省略することによって構成されることも可能である。 It should be noted that the display device of the present invention may be obtained by freely combining each of the embodiments shown above within the scope of the invention described in each claim, or by appropriately modifying or omitting a part of each embodiment. It is also possible to be configured by

1 :表示装置
11 :制御部
12 :記憶部
13 :表示パネル
13A :表示画面
14 :操作部
15 :カメラ
111 :表示処理部
112 :取得処理部
113 :検出処理部
114 :判定処理部
115 :基準点設定処理部
116 :操作領域設定処理部
117 :仮想入力可能領域設定処理部
118 :入力処理部
1: display device 11: control unit 12: storage unit 13: display panel 13A: display screen 14: operation unit 15: camera 111: display processing unit 112: acquisition processing unit 113: detection processing unit 114: determination processing unit 115: reference Point setting processing unit 116: Operation area setting processing unit 117: Virtual input possible area setting processing unit 118: Input processing unit

Claims (10)

ユーザーの手によるジェスチャー操作を検出して表示画面の入力位置に対して入力処理を行う入力装置であって、
前記ユーザーを撮像した撮像画像を取得する取得処理部と、
前記取得処理部により取得される前記撮像画像から前記ユーザーの手を検出する検出処理部と、
前記検出処理部により検出される前記ユーザーの手の形状を判定する判定処理部と、
前記検出処理部により検出される前記ユーザーの手を囲む特定領域の下辺の所定位置に基準点を設定する基準点設定処理部と、
前記検出処理部により検出される前記ユーザーの手の形状が所定の形状である場合に、前記基準点設定処理部により設定される前記基準点に対応する前記入力位置に対して前記入力処理を実行する入力処理部と、
を備える入力装置。
An input device that detects a gesture operation by a user's hand and performs input processing on an input position on a display screen,
an acquisition processing unit that acquires a captured image of the user;
a detection processing unit that detects the hand of the user from the captured image acquired by the acquisition processing unit;
a determination processing unit that determines the shape of the user's hand detected by the detection processing unit;
a reference point setting processing unit that sets a reference point at a predetermined position on the lower side of the specific area surrounding the user's hand detected by the detection processing unit;
When the shape of the user's hand detected by the detection processing unit is a predetermined shape, the input processing is performed on the input position corresponding to the reference point set by the reference point setting processing unit. an input processing unit that
An input device comprising
前記基準点設定処理部は、前記特定領域の下辺における一方の端部から他方の端部までの間を所定の比率で分割した位置を前記基準点に設定する、
請求項1に記載の入力装置。
The reference point setting processing unit sets a position obtained by dividing a lower side of the specific region from one end to the other end by a predetermined ratio as the reference point.
The input device according to claim 1.
前記基準点設定処理部は、前記特定領域の下辺の中心位置を前記基準点に設定する、
請求項2に記載の入力装置。
The reference point setting processing unit sets the center position of the lower side of the specific area as the reference point.
The input device according to claim 2.
前記基準点設定処理部は、前記特定領域の下辺における前記ユーザーの手の小指側の端部から1:2の比率の位置を前記基準点に設定する、
請求項2に記載の入力装置。
The reference point setting processing unit sets a position at a ratio of 1:2 from the end of the little finger side of the user's hand on the lower side of the specific area as the reference point.
The input device according to claim 2.
前記基準点設定処理部は、前記特定領域に含まれる複数の画素のうち前記ユーザーの手の色を表示する特定画素を特定し、前記特定領域の上辺から下辺に向かう列方向の画素列ごとの前記特定画素の合計画素数を算出し、前記下辺のうち前記合計画素数が閾値を超える前記画素列の範囲に対応する部分辺の中心位置を前記基準点に設定する、
請求項2に記載の入力装置。
The reference point setting processing unit identifies a specific pixel that displays the color of the user's hand among a plurality of pixels included in the specific region, and sets each pixel row in the column direction from the upper side to the lower side of the specific region. calculating the total number of pixels of the specific pixels, and setting the center position of the partial side corresponding to the range of the pixel row in which the total number of pixels exceeds a threshold value as the reference point;
The input device according to claim 2.
前記表示画面の下端から所定幅だけ内側に設定された入力可能領域内において、前記基準点に対応する前記入力位置に入力操作用アイコンを表示させる表示処理部をさらに備える、
請求項1から請求項5のいずれか1項に記載の入力装置。
further comprising a display processing unit that displays an input operation icon at the input position corresponding to the reference point in an input-enabled area set inside a lower end of the display screen by a predetermined width;
The input device according to any one of claims 1 to 5.
前記入力処理部は、前記検出処理部により検出される前記ユーザーの手の形状が第1形状である場合に、前記基準点の移動に応じて、前記表示画面に表示される入力操作用アイコンを移動させる移動処理を実行し、前記検出処理部により検出される前記ユーザーの手の形状が前記第1形状から第2形状に変化した場合に、前記基準点に対応する前記入力操作用アイコンの表示位置における選択対象の選択処理を実行する、
請求項1から請求項6のいずれか1項に記載の入力装置。
When the shape of the user's hand detected by the detection processing unit is the first shape, the input processing unit changes the input operation icon displayed on the display screen according to the movement of the reference point. When the shape of the user's hand detected by the detection processing unit changes from the first shape to the second shape, the input operation icon corresponding to the reference point is displayed. perform the selection process for the selection at the position,
The input device according to any one of claims 1 to 6.
前記特定領域は、前記ユーザーの手を囲む矩形領域である、
請求項1から請求項7のいずれか1項に記載の入力装置。
The specific area is a rectangular area surrounding the user's hand,
The input device according to any one of claims 1 to 7.
ユーザーの手によるジェスチャー操作を検出して表示画面の入力位置に対して入力処理を行う入力方法であって、
一又は複数のプロセッサーが、
前記ユーザーを撮像した撮像画像を取得する取得ステップと、
前記取得ステップにより取得される前記撮像画像から前記ユーザーの手を検出する検出ステップと、
前記検出ステップにおいて検出される前記ユーザーの手の形状を判定する判定ステップと、
前記検出ステップにおいてより検出される前記ユーザーの手を囲む特定領域の下辺の所定位置に基準点を設定する設定ステップと、
前記検出ステップにより検出される前記ユーザーの手の形状が所定の形状である場合に、前記設定ステップにより設定される前記基準点に対応する前記入力位置に対して前記入力処理を実行する入力ステップと、
を実行する入力方法。
An input method for detecting a gesture operation by a user's hand and performing input processing for an input position on a display screen,
one or more processors
an acquisition step of acquiring a captured image of the user;
a detection step of detecting the hand of the user from the captured image acquired by the acquisition step;
a determination step of determining the shape of the user's hand detected in the detection step;
a setting step of setting a reference point at a predetermined position on the lower side of the specific area surrounding the user's hand detected in the detecting step;
an input step of executing the input process with respect to the input position corresponding to the reference point set by the setting step when the shape of the user's hand detected by the detection step is a predetermined shape; ,
The input method that executes the
ユーザーの手によるジェスチャー操作を検出して表示画面の入力位置に対して入力処理を行う入力プログラムであって、
前記ユーザーを撮像した撮像画像を取得する取得ステップと、
前記取得ステップにより取得される前記撮像画像から前記ユーザーの手を検出する検出ステップと、
前記検出ステップにおいて検出される前記ユーザーの手の形状を判定する判定ステップと、
前記検出ステップにおいてより検出される前記ユーザーの手を囲む特定領域の下辺の所定位置に基準点を設定する設定ステップと、
前記検出ステップにより検出される前記ユーザーの手の形状が所定の形状である場合に、前記設定ステップにより設定される前記基準点に対応する前記入力位置に対して前記入力処理を実行する入力ステップと、
を一又は複数のプロセッサーに実行させるための入力プログラム。
An input program that detects a gesture operation by a user's hand and performs input processing for an input position on a display screen,
an acquisition step of acquiring a captured image of the user;
a detection step of detecting the hand of the user from the captured image acquired by the acquisition step;
a determination step of determining the shape of the user's hand detected in the detection step;
a setting step of setting a reference point at a predetermined position on the lower side of the specific area surrounding the user's hand detected in the detecting step;
an input step of executing the input process with respect to the input position corresponding to the reference point set by the setting step when the shape of the user's hand detected by the detection step is a predetermined shape; ,
input program for execution by one or more processors.
JP2021114051A 2021-07-09 2021-07-09 Input device, input method, and input program Pending JP2023010138A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021114051A JP2023010138A (en) 2021-07-09 2021-07-09 Input device, input method, and input program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021114051A JP2023010138A (en) 2021-07-09 2021-07-09 Input device, input method, and input program

Publications (1)

Publication Number Publication Date
JP2023010138A true JP2023010138A (en) 2023-01-20

Family

ID=85118961

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021114051A Pending JP2023010138A (en) 2021-07-09 2021-07-09 Input device, input method, and input program

Country Status (1)

Country Link
JP (1) JP2023010138A (en)

Similar Documents

Publication Publication Date Title
US7415676B2 (en) Visual field changing method
US9871962B2 (en) Movable user interface shutter button for camera
JP4686150B2 (en) Multi-monitor system, multi-monitor method, and mark display program
KR100851977B1 (en) Controlling Method and apparatus for User Interface of electronic machine using Virtual plane.
JP5839220B2 (en) Information processing apparatus, information processing method, and program
JP6146094B2 (en) Information operation display system, display program, and display method
US9544556B2 (en) Projection control apparatus and projection control method
US8769409B2 (en) Systems and methods for improving object detection
US11003340B2 (en) Display device
US11297303B2 (en) Control apparatus, control method, and storage medium
BR112019019526A2 (en) recording equipment, control method, and storage medium
CN104346072A (en) Display control apparatus and control method thereof
US7466304B2 (en) Image processing apparatus, storage medium having image processing program stored thereon, game apparatus and storage medium having game program stored thereon
TWI354223B (en)
CN112198929B (en) Control method and device
JP3355708B2 (en) Command processing device
JP6197559B2 (en) Object operation system, object operation control program, and object operation control method
JP2023010138A (en) Input device, input method, and input program
JP2023010137A (en) Input device, input method, and input program
US11543918B1 (en) Input apparatus, input method, and recording medium recording input program
JPWO2015029222A1 (en) Information processing apparatus, display control program, and display control method
US20220197498A1 (en) Display device, display method, and recording medium recording display program
US20220197396A1 (en) Display device, display method, and recording medium recording display program
US9082223B2 (en) Smooth manipulation of three-dimensional objects
JP2012221262A (en) Display device

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20210709

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240321