JP6900133B2 - Gesture operation device and gesture operation method - Google Patents

Gesture operation device and gesture operation method Download PDF

Info

Publication number
JP6900133B2
JP6900133B2 JP2019567457A JP2019567457A JP6900133B2 JP 6900133 B2 JP6900133 B2 JP 6900133B2 JP 2019567457 A JP2019567457 A JP 2019567457A JP 2019567457 A JP2019567457 A JP 2019567457A JP 6900133 B2 JP6900133 B2 JP 6900133B2
Authority
JP
Japan
Prior art keywords
display
gesture operation
operator
gesture
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019567457A
Other languages
Japanese (ja)
Other versions
JPWO2019146032A1 (en
Inventor
直志 宮原
直志 宮原
下谷 光生
光生 下谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2019146032A1 publication Critical patent/JPWO2019146032A1/en
Application granted granted Critical
Publication of JP6900133B2 publication Critical patent/JP6900133B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance

Description

本発明は、ジェスチャー操作装置およびジェスチャー操作方法に関し、特に、操作者にジェスチャー操作を誘導するジェスチャー操作装置およびジェスチャー操作方法に関する。 The present invention relates to a gesture operation device and a gesture operation method, and more particularly to a gesture operation device and a gesture operation method for inducing a gesture operation to an operator.

従来、運転者などの操作者がジェスチャー操作することによって、音量調整または着信応答などを行うジェスチャー操作装置が開発されている。ジェスチャー操作とは、三次元空間における任意の方向に自身の手などを動かすことによって、任意の機能を実行するための操作のことをいう。例えば、任意の機能を実行する際に、操作者が行うべきジェスチャー操作を誘導する情報を表示する技術が開示されている(例えば、特許文献1参照)。 Conventionally, a gesture operation device has been developed in which an operator such as a driver performs a gesture operation to adjust the volume or answer an incoming call. Gesture operation refers to an operation for executing an arbitrary function by moving one's own hand or the like in an arbitrary direction in a three-dimensional space. For example, a technique for displaying information for guiding a gesture operation to be performed by an operator when executing an arbitrary function is disclosed (see, for example, Patent Document 1).

国際公開第2012/011263号International Publication No. 2012/011263

特許文献1では、ジェスチャー操作を誘導する情報を二次元で表示している。従って、三次元方向の動きを伴うジェスチャー操作の場合、当該ジェスチャー操作を誘導する情報は二次元で表現されるため、操作者がジェスチャー操作を正確に理解することができないことがある。この場合、ジェスチャー操作装置は、操作者が行ったジェスチャー操作を精度良く判断することができない可能性がある。 In Patent Document 1, information for inducing a gesture operation is displayed in two dimensions. Therefore, in the case of a gesture operation that involves movement in a three-dimensional direction, the information that guides the gesture operation is expressed in two dimensions, so that the operator may not be able to accurately understand the gesture operation. In this case, the gesture operation device may not be able to accurately determine the gesture operation performed by the operator.

本発明は、このような問題を解決するためになされたものであり、操作者が行ったジェスチャー操作を精度良く判断することが可能なジェスチャー操作装置およびジェスチャー操作方法を提供することを目的とする。 The present invention has been made to solve such a problem, and an object of the present invention is to provide a gesture operation device and a gesture operation method capable of accurately determining a gesture operation performed by an operator. ..

上記の課題を解決するために、本発明によるジェスチャー操作装置は、イベントを検出するイベント検出部と、イベント検出部が検出したイベントに対して、当該イベントを進行させるために操作者が行うことが可能な動作に、操作者の意図を示すジェスチャー操作を誘導する操作オブジェクトを三次元で表示する制御を行う表示制御部とを備え、表示制御部は、操作オブジェクトとともにジェスチャー操作の対象となる機能を表す操作対象オブジェクトを表示する制御を行い、操作対象オブジェクトを手で操作する態様で操作オブジェクトを表示する制御を行い、操作オブジェクトは、操作者が裸眼で表示画面を見たときに三次元表示空間において奥行きを有し、操作者のジェスチャー操作を取得するジェスチャー操作取得部と、ジェスチャー操作取得部が取得したジェスチャー操作が操作オブジェクトに従う動きであるか否かを判断する操作判断部と、操作判断部が判断した結果を操作履歴情報として記憶する操作履歴情報記憶部とをさらに備える。 In order to solve the above problems, the gesture operation device according to the present invention may be performed by an operator to advance an event detection unit that detects an event and an event detected by the event detection unit. The possible operations include a display control unit that controls the display of the operation object that guides the gesture operation indicating the operator's intention in three dimensions, and the display control unit functions together with the operation object to be the target of the gesture operation. Controls the display of the operation target object to be represented, and controls the display of the operation object in a manner in which the operation target object is manually operated. The operation object is a three-dimensional display space when the operator views the display screen with the naked eye. It has a depth in a gesture operation acquisition unit for acquiring gesture operation by the operator, an operation determination unit that determines whether a gesture operation gesture operation acquisition unit has acquired a motion according to the operation object, the operation determination unit There further Ru and an operation history information storage unit for storing the result of determination as operation history information.

また、本発明によるジェスチャー操作方法は、イベントを検出し、検出したイベントに対して、当該イベントを進行させるために操作者が行うことが可能な動作に、操作者の意図を示すジェスチャー操作を誘導する操作オブジェクトを三次元で表示する制御を行い、操作オブジェクトとともにジェスチャー操作の対象となる機能を表す操作対象オブジェクトを表示する制御を行い、操作対象オブジェクトを手で操作する態様で操作オブジェクトを表示する制御を行い、操作オブジェクトは、操作者が裸眼で表示画面を見たときに三次元表示空間において奥行きを有し、操作者のジェスチャー操作を取得し、取得したジェスチャー操作が操作オブジェクトに従う動きであるか否かを判断し、判断した結果を操作履歴情報として記憶する。 Further, the gesture operation method according to the present invention detects an event and induces a gesture operation indicating the operator's intention to an action that can be performed by the operator to advance the detected event. Controls to display the operation object in three dimensions, controls to display the operation object that represents the function that is the target of the gesture operation together with the operation object, and displays the operation object in the manner of manually operating the operation object. and controls the operation object, have a depth in the three-dimensional display space when the operator watching the display screen with the naked eye, to get the gesture operation by the operator is the motion acquired gesture operation according to the operation object Whether or not it is determined, and the result of the determination is stored as operation history information .

本発明によると、ジェスチャー操作装置は、イベントを検出するイベント検出部と、イベント検出部が検出したイベントに対して、当該イベントを進行させるために操作者が行うことが可能な動作に、操作者の意図を示すジェスチャー操作を誘導する操作オブジェクトを三次元で表示する制御を行う表示制御部とを備え、表示制御部は、操作オブジェクトとともにジェスチャー操作の対象となる機能を表す操作対象オブジェクトを表示する制御を行い、操作対象オブジェクトを手で操作する態様で操作オブジェクトを表示する制御を行い、操作オブジェクトは、操作者が裸眼で表示画面を見たときに三次元表示空間において奥行きを有し、操作者のジェスチャー操作を取得するジェスチャー操作取得部と、ジェスチャー操作取得部が取得したジェスチャー操作が操作オブジェクトに従う動きであるか否かを判断する操作判断部と、操作判断部が判断した結果を操作履歴情報として記憶する操作履歴情報記憶部とをさらに備えるため、操作者が行ったジェスチャー操作を精度良く判断することが可能となる。 According to the present invention, the gesture operation device has an event detection unit that detects an event and an operation that the operator can perform in order to advance the event with respect to the event detected by the event detection unit. It is provided with a display control unit that controls the display of the operation object that guides the gesture operation indicating the intention of the gesture operation in three dimensions, and the display control unit displays the operation target object that represents the function that is the target of the gesture operation together with the operation object. performs control, performs control for displaying an operation object in a manner to operate manually controlled object, the control object may have a depth in the three-dimensional display space when the operator watching the display screen with the naked eye, the operation The operation history of the gesture operation acquisition unit that acquires the gesture operation of the person, the operation judgment unit that determines whether or not the gesture operation acquired by the gesture operation acquisition unit is a movement that follows the operation object, and the result of the determination by the operation judgment unit. further comprising because the operation history information storing section for storing as information, it is possible to accurately determine the operator gesture operation performed.

また、ジェスチャー操作方法は、イベントを検出し、検出したイベントに対して、当該イベントを進行させるために操作者が行うことが可能な動作に、操作者の意図を示すジェスチャー操作を誘導する操作オブジェクトを三次元で表示する制御を行い、操作オブジェクトとともにジェスチャー操作の対象となる機能を表す操作対象オブジェクトを表示する制御を行い、操作対象オブジェクトを手で操作する態様で操作オブジェクトを表示する制御を行い、操作オブジェクトは、操作者が裸眼で表示画面を見たときに三次元表示空間において奥行きを有し、操作者のジェスチャー操作を取得し、取得したジェスチャー操作が操作オブジェクトに従う動きであるか否かを判断し、判断した結果を操作履歴情報として記憶するため、操作者が行ったジェスチャー操作を精度良く判断することが可能となる。

Further, the gesture operation method is an operation object that detects an event and guides a gesture operation indicating the operator's intention to an action that can be performed by the operator to advance the detected event. Is controlled to be displayed in three dimensions, the operation target object representing the function to be gestured is displayed together with the operation object is controlled, and the operation object is displayed in the manner of manually operating the operation target object. , the operation object, have a depth in the three-dimensional display space when the operator watching the display screen with the naked eye, and obtains a gesture operation of the operator, whether the acquired gesture operation is a motion in accordance with the operation object Is determined, and the result of the determination is stored as operation history information, so that the gesture operation performed by the operator can be accurately determined.

本発明の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。 Objectives, features, aspects, and advantages of the present invention will be made more apparent with the following detailed description and accompanying drawings.

本発明の実施の形態1によるジェスチャー操作装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of the gesture operation apparatus according to Embodiment 1 of this invention. 本発明の実施の形態1によるジェスチャー操作の一例を示す図である。It is a figure which shows an example of the gesture operation by Embodiment 1 of this invention. 本発明の実施の形態1によるジェスチャー操作の一例を示す図である。It is a figure which shows an example of the gesture operation by Embodiment 1 of this invention. 本発明の実施の形態1によるジェスチャー操作の一例を示す図である。It is a figure which shows an example of the gesture operation by Embodiment 1 of this invention. 本発明の実施の形態1による表示装置の一例を示す図である。It is a figure which shows an example of the display device by Embodiment 1 of this invention. 本発明の実施の形態1による表示装置の一例を示す図である。It is a figure which shows an example of the display device by Embodiment 1 of this invention. 本発明の実施の形態1による表示装置の一例を示す図である。It is a figure which shows an example of the display device by Embodiment 1 of this invention. 本発明の実施の形態1によるジェスチャー操作装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of the gesture operation apparatus according to Embodiment 1 of this invention. 本発明の実施の形態1によるジェスチャー操作検出装置の構成の一例を示す図である。It is a figure which shows an example of the structure of the gesture operation detection apparatus according to Embodiment 1 of this invention. 本発明の実施の形態1によるジェスチャー操作検出装置の構成の一例を示す図である。It is a figure which shows an example of the structure of the gesture operation detection apparatus according to Embodiment 1 of this invention. 本発明の実施の形態1によるジェスチャー操作装置のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware composition of the gesture operation apparatus according to Embodiment 1 of this invention. 本発明の実施の形態1によるジェスチャー操作装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation of the gesture operation apparatus by Embodiment 1 of this invention. 本発明の実施の形態1によるジェスチャー操作装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation of the gesture operation apparatus by Embodiment 1 of this invention. 本発明の実施の形態1による操作オブジェクトの表示の一例を示す図である。It is a figure which shows an example of the display of the operation object by Embodiment 1 of this invention. 本発明の実施の形態1によるジェスチャー操作装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation of the gesture operation apparatus by Embodiment 1 of this invention. 本発明の実施の形態1による操作オブジェクトの表示の一例を示す図である。It is a figure which shows an example of the display of the operation object by Embodiment 1 of this invention. 本発明の実施の形態1による操作オブジェクトの一例を示す図である。It is a figure which shows an example of the operation object by Embodiment 1 of this invention. 本発明の実施の形態1による操作オブジェクトの一例を示す図である。It is a figure which shows an example of the operation object by Embodiment 1 of this invention. 本発明の実施の形態1による操作オブジェクトの一例を示す図である。It is a figure which shows an example of the operation object by Embodiment 1 of this invention. 本発明の実施の形態1による携帯通信端末の操作画面の表示の一例を示す図である。It is a figure which shows an example of the display of the operation screen of the mobile communication terminal by Embodiment 1 of this invention. 本発明の実施の形態1による操作オブジェクトの一例を示す図である。It is a figure which shows an example of the operation object by Embodiment 1 of this invention. 本発明の実施の形態1による携帯通信端末の操作画面の表示の一例を示す図である。It is a figure which shows an example of the display of the operation screen of the mobile communication terminal by Embodiment 1 of this invention. 本発明の実施の形態1による操作オブジェクトの一例を示す図である。It is a figure which shows an example of the operation object by Embodiment 1 of this invention. 本発明の実施の形態1による階層化された画面の一例を示す図である。It is a figure which shows an example of the layered screen by Embodiment 1 of this invention. 本発明の実施の形態2によるジェスチャー操作装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of the gesture operation apparatus by Embodiment 2 of this invention. 本発明の実施の形態1による操作オブジェクトの一例を示す図である。It is a figure which shows an example of the operation object by Embodiment 1 of this invention. 本発明の実施の形態3によるジェスチャー操作装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of the gesture operation apparatus according to Embodiment 3 of this invention. 本発明の実施の形態4によるジェスチャー操作装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of the gesture operation apparatus according to Embodiment 4 of this invention. 本発明の実施の形態4によるジェスチャー操作装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation of the gesture operation apparatus according to Embodiment 4 of this invention. 本発明の実施の形態4によるジェスチャー操作装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation of the gesture operation apparatus according to Embodiment 4 of this invention. 本発明の実施の形態5によるジェスチャー操作装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of the gesture operation apparatus according to Embodiment 5 of this invention. 本発明の実施の形態5による操作オブジェクトの一例を示す図である。It is a figure which shows an example of the operation object by Embodiment 5 of this invention. 本発明の実施の形態6によるジェスチャー操作装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of the gesture operation apparatus according to Embodiment 6 of this invention. 本発明の実施の形態6による操作オブジェクトの一例を示す図である。It is a figure which shows an example of the operation object by Embodiment 6 of this invention. 本発明の実施の形態6による操作オブジェクトの一例を示す図である。It is a figure which shows an example of the operation object by Embodiment 6 of this invention. 本発明の実施の形態によるジェスチャー操作システムの構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of the gesture operation system by embodiment of this invention.

本発明の実施の形態について、図面に基づいて以下に説明する。 Embodiments of the present invention will be described below with reference to the drawings.

<実施の形態1>
<構成>
図1は、本実施の形態1によるジェスチャー操作装置1の構成の一例を示すブロック図である。なお、図1では、本実施の形態によるジェスチャー操作装置を構成する必要最小限の構成を示している。また、以下では、操作者が自身の手を動かすことによってジェスチャー操作を行う場合について説明するが、これに限るものではない。
<Embodiment 1>
<Structure>
FIG. 1 is a block diagram showing an example of the configuration of the gesture operation device 1 according to the first embodiment. Note that FIG. 1 shows the minimum necessary configuration for configuring the gesture operation device according to the present embodiment. Further, the following describes a case where the operator performs a gesture operation by moving his / her own hand, but the present invention is not limited to this.

図1に示すように、ジェスチャー操作装置1は、イベント検出部2と、表示制御部3とを備えている。イベント検出部2は、イベントを検出する。イベントしては、後述のように、例えばメール着信、電話着信、車載機器の操作時などが挙げられる。表示制御部3は、表示装置4に接続されており、イベント検出部2が検出したイベントに対して、当該イベントを進行させるために操作者が行うことが可能な動作に、操作者の意図を示すジェスチャー操作を誘導する操作オブジェクトを三次元で表示する制御を行う。 As shown in FIG. 1, the gesture operation device 1 includes an event detection unit 2 and a display control unit 3. The event detection unit 2 detects an event. Examples of the event include an incoming mail, an incoming call, and an operation of an in-vehicle device, as described later. The display control unit 3 is connected to the display device 4, and the intention of the operator is set to the operation that the operator can perform in order to advance the event detected by the event detection unit 2. Controls the display of the operation object that guides the gesture operation to be shown in three dimensions.

図2〜4は、ジェスチャー操作の一例を示す図である。図2〜4において、X軸は操作者から見て左右方向を示し、Y軸は操作者から見て上下方向を示し、Z軸は操作者から見て前後方向を示している。 2 to 4 are diagrams showing an example of gesture operation. In FIGS. 2 to 4, the X-axis indicates the left-right direction when viewed from the operator, the Y-axis indicates the vertical direction when viewed from the operator, and the Z-axis indicates the front-back direction when viewed from the operator.

図2に示すように、操作者は、自身の手を前後方向かつ上下方向に回転させるジェスチャー操作を行うことができる。図3に示すように、操作者は、自身の手を前後方向に移動させるジェスチャー操作を行うことができる。図4に示すように、操作者は、自身の手を左右方向に移動させるジェスチャー操作を行うことができる。このように、操作者は、三次元空間における任意の方向に手を動かすことによってジェスチャー操作を行うことができる。 As shown in FIG. 2, the operator can perform a gesture operation of rotating his / her hand in the front-back direction and the up-down direction. As shown in FIG. 3, the operator can perform a gesture operation of moving his / her hand in the front-back direction. As shown in FIG. 4, the operator can perform a gesture operation of moving his / her hand in the left-right direction. In this way, the operator can perform the gesture operation by moving his / her hand in any direction in the three-dimensional space.

図5〜7は、表示装置4の一例を示す図である。図5〜7において、X軸は操作者から見て左右方向を示し、Y軸は操作者から見て上下方向を示し、Z軸は操作者から見て前後方向を示している。 5 to 7 are views showing an example of the display device 4. In FIGS. 5 to 7, the X-axis indicates the left-right direction when viewed from the operator, the Y-axis indicates the vertical direction when viewed from the operator, and the Z-axis indicates the front-back direction when viewed from the operator.

図5は、裸眼立体表示を行う表示装置4の一例を示している。裸眼立体表示とは、操作者5が裸眼で表示画面を見たときに画像が立体的に表示されているように、すなわち三次元表示空間において奥行きを感じるように認識させることをいう。具体的には、図5に示すように、操作者5の右目用の表示オブジェクトと左目用の表示オブジェクトとをX−Y平面上に交互に表示することによって、操作者5に表示オブジェクトが立体的に表示されているように認識させる。 FIG. 5 shows an example of a display device 4 that performs stereoscopic display with the naked eye. The naked-eye stereoscopic display means that when the operator 5 looks at the display screen with the naked eye, the image is displayed three-dimensionally, that is, the image is recognized so as to feel the depth in the three-dimensional display space. Specifically, as shown in FIG. 5, the display object for the right eye and the display object for the left eye of the operator 5 are alternately displayed on the XY plane, so that the display object is three-dimensional to the operator 5. Recognize as if it is displayed as.

図6は、HUD(Head Up Display)など、虚像表示を行う表示装置4の一例を示している。図6に示すように、虚像である表示オブジェクトの焦点距離を変えることによって、操作者5は表示オブジェクトが立体的に表示されているように認識することができる。 FIG. 6 shows an example of a display device 4 that displays a virtual image, such as a HUD (Head Up Display). As shown in FIG. 6, by changing the focal length of the display object which is a virtual image, the operator 5 can recognize that the display object is displayed three-dimensionally.

図7は、透過型の表示面をz軸方向に複数重ねて構成される表示装置4の一例を示している。一の表示オブジェクトを各表示面に重ねて表示することによって、操作者5は表示オブジェクトが立体的に表示されているように認識することができる。 FIG. 7 shows an example of a display device 4 in which a plurality of transmissive display surfaces are stacked in the z-axis direction. By displaying one display object on each display surface, the operator 5 can recognize that the display object is displayed three-dimensionally.

表示装置4は、図5〜7に示すいずれかまたは任意の組み合わせの表示装置で構成され、表示制御部3の制御によって図2〜4に示すような三次元空間におけるジェスチャー操作を誘導する操作オブジェクトを三次元で表示する。操作オブジェクトの詳細については後述する。 The display device 4 is composed of any or any combination of display devices shown in FIGS. 5 to 7, and is an operation object that guides a gesture operation in a three-dimensional space as shown in FIGS. 2 to 4 under the control of the display control unit 3. Is displayed in three dimensions. The details of the operation object will be described later.

次に、図1に示すジェスチャー操作装置1を含むジェスチャー操作装置の他の構成について説明する。 Next, another configuration of the gesture operation device including the gesture operation device 1 shown in FIG. 1 will be described.

図8は、他の構成に係るジェスチャー操作装置6の構成の一例を示すブロック図である。 FIG. 8 is a block diagram showing an example of the configuration of the gesture operation device 6 according to another configuration.

図8に示すように、ジェスチャー操作装置6は、イベント検出部2と、表示制御部3と、通信部7と、ジェスチャー操作取得部8と、操作判断部9と、機器制御部10とを備えている。 As shown in FIG. 8, the gesture operation device 6 includes an event detection unit 2, a display control unit 3, a communication unit 7, a gesture operation acquisition unit 8, an operation determination unit 9, and a device control unit 10. ing.

通信部7は、携帯通信端末12と通信接続可能な端末通信部11を有している。端末通信部11は、携帯通信端末12から、例えばメールを着信した旨の情報、および電話を着信した旨の情報などを受信する。また、端末通信部11は、操作判断部9の判断結果に従って、携帯通信端末12に当該携帯通信端末12を操作する情報を送信する。 The communication unit 7 has a terminal communication unit 11 capable of communicating with the mobile communication terminal 12. The terminal communication unit 11 receives, for example, information indicating that an e-mail has been received, information indicating that a telephone has been received, and the like from the mobile communication terminal 12. Further, the terminal communication unit 11 transmits information for operating the mobile communication terminal 12 to the mobile communication terminal 12 according to the determination result of the operation determination unit 9.

イベント検出部2は、端末通信部11がメールを着信した旨の情報、または電話を着信した旨の情報などを携帯通信端末12から受信したことをイベントとして検出する。表示制御部3は、表示装置4に対して、イベント検出部2が検出したイベントに対して、当該イベントを進行させるために操作者が行うことが可能な動作に、操作者の意図を示すジェスチャー操作を誘導する操作オブジェクトを三次元で表示する制御を行う。 The event detection unit 2 detects as an event that the terminal communication unit 11 has received information indicating that an email has arrived, information indicating that a telephone has been received, or the like from the mobile communication terminal 12. The display control unit 3 makes a gesture indicating the intention of the operator to the display device 4 in an action that the operator can perform in order to advance the event for the event detected by the event detection unit 2. Controls the display of operation objects that guide operations in three dimensions.

ジェスチャー操作取得部8は、ジェスチャー操作検出装置13に接続されており、操作者5のジェスチャー操作をジェスチャー操作検出装置13から取得する。図9は、ジェスチャー操作検出装置13の構成の一例を示す図である。図9に示すように、ジェスチャー操作検出装置13は、例えば車内のフロアコンソールに設置されており、ToF(Time of Flight)センサ、画像センサ、および近接センサのうちの少なくとも1つを備えている。ジェスチャー操作空間17は、ジェスチャー操作検出装置13による検出範囲に相当する。すなわち、ジェスチャー操作検出装置13は、ジェスチャー操作空間17において操作者5が行ったジェスチャー操作を検出する。このとき、ジェスチャー操作検出装置13が検出するジェスチャー操作は、後述するイベントに対して、当該イベントを進行させるために操作者が行うことが可能な動作を行うためのジェスチャー操作だけでなく、その他の手の動きもジェスチャー操作として検出する。 The gesture operation acquisition unit 8 is connected to the gesture operation detection device 13, and acquires the gesture operation of the operator 5 from the gesture operation detection device 13. FIG. 9 is a diagram showing an example of the configuration of the gesture operation detection device 13. As shown in FIG. 9, the gesture operation detection device 13 is installed, for example, on a floor console in a vehicle, and includes at least one of a ToF (Time of Flight) sensor, an image sensor, and a proximity sensor. The gesture operation space 17 corresponds to the detection range by the gesture operation detection device 13. That is, the gesture operation detection device 13 detects the gesture operation performed by the operator 5 in the gesture operation space 17. At this time, the gesture operation detected by the gesture operation detection device 13 is not limited to the gesture operation for performing an operation that the operator can perform in order to advance the event, which will be described later, as well as other gesture operations. Hand movements are also detected as gesture operations.

なお、ジェスチャー操作検出装置13を構成するセンサは、1つでもよい。この場合、ジェスチャー操作検出装置13は一方向からジェスチャー操作を検出することになる。また、ジェスチャー操作検出装置13を構成するセンサは、複数でもよい。この場合、例えば図10に示すように3つのセンサをA点、B点、およびC点の3箇所に設ければ、ジェスチャー操作検出装置13は三方向からジェスチャー操作を検出することになるため、センサが1つの場合よりもジェスチャー操作の検出精度を高めることができる。 The number of sensors constituting the gesture operation detection device 13 may be one. In this case, the gesture operation detection device 13 detects the gesture operation from one direction. Further, the number of sensors constituting the gesture operation detection device 13 may be plurality. In this case, for example, if three sensors are provided at three points A, B, and C as shown in FIG. 10, the gesture operation detection device 13 will detect the gesture operation from three directions. It is possible to improve the detection accuracy of the gesture operation as compared with the case where there is only one sensor.

図8に戻り、操作判断部9は、ジェスチャー操作取得部8が取得したジェスチャー操作が操作オブジェクトに従う動きであるか否かを判断する。また、操作判断部9は、音声入力装置14と接続されており、操作者5が音声入力装置14を介して発話した内容に基づいて、どのような操作をするのかを判断することができる。このように、操作判断部9は、操作者5による音声操作の内容を判断することができる。 Returning to FIG. 8, the operation determination unit 9 determines whether or not the gesture operation acquired by the gesture operation acquisition unit 8 is a movement that follows the operation object. Further, the operation determination unit 9 is connected to the voice input device 14, and can determine what kind of operation is to be performed based on the content spoken by the operator 5 via the voice input device 14. In this way, the operation determination unit 9 can determine the content of the voice operation by the operator 5.

機器制御部10は、操作判断部9が操作オブジェクトに従うジェスチャー操作であると判断した場合、当該ジェスチャー操作に基づいて車載機器15および音声出力装置16などの機器を制御する。また、機器制御部10は、操作判断部9が操作オブジェクトに従うジェスチャー操作であると判断した場合、当該ジェスチャー操作に基づいて、通信部7と通信している携帯通信端末12を制御する。車載機器15としては、例えばナビゲーション装置、音響機器、および車両内に設けられた各種制御装置などが挙げられる。音声出力装置16としては、例えばスピーカなどが挙げられる。 When the operation determination unit 9 determines that the operation determination unit 9 is a gesture operation according to the operation object, the device control unit 10 controls devices such as the in-vehicle device 15 and the voice output device 16 based on the gesture operation. Further, when the operation determination unit 9 determines that the operation determination unit 9 is a gesture operation according to the operation object, the device control unit 10 controls the mobile communication terminal 12 communicating with the communication unit 7 based on the gesture operation. Examples of the in-vehicle device 15 include a navigation device, an audio device, and various control devices provided in the vehicle. Examples of the audio output device 16 include a speaker and the like.

図11は、ジェスチャー操作装置6のハードウェア構成の一例を示すブロック図である。なお、図1に示すジェスチャー操作装置1についても同様である。 FIG. 11 is a block diagram showing an example of the hardware configuration of the gesture operation device 6. The same applies to the gesture operation device 1 shown in FIG.

ジェスチャー操作装置6における端末通信部11、イベント検出部2、表示制御部3、ジェスチャー操作取得部8、操作判断部9、および機器制御部10の各機能は、処理回路により実現される。すなわち、ジェスチャー操作装置6は、携帯通信端末12と通信し、イベントを検出し、表示の制御を行い、ジェスチャー操作を取得し、ジェスチャー操作を判断し、機器を制御するための処理回路を備える。処理回路は、メモリ19に格納されたプログラムを実行するプロセッサ18(中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)ともいう)である。 Each function of the terminal communication unit 11, the event detection unit 2, the display control unit 3, the gesture operation acquisition unit 8, the operation determination unit 9, and the device control unit 10 in the gesture operation device 6 is realized by a processing circuit. That is, the gesture operation device 6 includes a processing circuit for communicating with the mobile communication terminal 12, detecting an event, controlling the display, acquiring the gesture operation, determining the gesture operation, and controlling the device. The processing circuit is a processor 18 (also referred to as a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, or a DSP (Digital Signal Processor)) that executes a program stored in the memory 19.

ジェスチャー操作装置6における端末通信部11、イベント検出部2、表示制御部3、ジェスチャー操作取得部8、操作判断部9、および機器制御部10の各機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアは、プログラムとして記述され、メモリ19に格納される。処理回路は、メモリ19に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、ジェスチャー操作装置6は、携帯通信端末12と通信するステップ、イベントを検出するステップ、表示の制御を行うステップ、ジェスチャー操作を取得するステップ、ジェスチャー操作を判断するステップ、機器を制御するステップが結果的に実行されることになるプログラムを格納するためのメモリ19を備える。また、これらのプログラムは、端末通信部11、イベント検出部2、表示制御部3、ジェスチャー操作取得部8、操作判断部9、および機器制御部10の手順または方法をコンピュータに実行させるものであるともいえる。ここで、メモリとは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)等の不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD等、または、今後使用されるあらゆる記憶媒体であってもよい。 The functions of the terminal communication unit 11, the event detection unit 2, the display control unit 3, the gesture operation acquisition unit 8, the operation judgment unit 9, and the device control unit 10 in the gesture operation device 6 are software, firmware, or software and firmware. It is realized by the combination of. The software or firmware is described as a program and stored in the memory 19. The processing circuit realizes the functions of each part by reading and executing the program stored in the memory 19. That is, the gesture operation device 6 has a step of communicating with the mobile communication terminal 12, a step of detecting an event, a step of controlling the display, a step of acquiring the gesture operation, a step of determining the gesture operation, and a step of controlling the device. A memory 19 for storing a program to be executed as a result is provided. Further, these programs cause the computer to execute the procedures or methods of the terminal communication unit 11, the event detection unit 2, the display control unit 3, the gesture operation acquisition unit 8, the operation judgment unit 9, and the device control unit 10. It can be said that. Here, the memory is, for example, non-volatile or volatile such as RAM (Random Access Memory), ROM (Read Only Memory), flash memory, EPROM (Erasable Programmable Read Only Memory), and EEPROM (Electrically Erasable Programmable Read Only Memory). It may be a sex semiconductor memory, a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, a DVD, or any storage medium that will be used in the future.

<動作>
図12は、図1に示すジェスチャー操作装置1の動作の一例を示すフローチャートである。
<Operation>
FIG. 12 is a flowchart showing an example of the operation of the gesture operation device 1 shown in FIG.

ステップS101において、イベント検出部2は、イベントを検出したか否かを判断する。イベント検出部2は、イベントを検出するまでステップS101の処理を繰り返し、イベントを検出したと判断するとステップS102に移行する。 In step S101, the event detection unit 2 determines whether or not an event has been detected. The event detection unit 2 repeats the process of step S101 until the event is detected, and when it is determined that the event has been detected, the process proceeds to step S102.

ステップS102において、表示制御部3は、イベント検出部2が検出したイベントに対して、当該イベントを進行させるために操作者5が行うことが可能な動作に、操作者5の意図を示すジェスチャー操作を誘導する操作オブジェクトを三次元で表示するように表示装置4を制御する。具体的には、表示制御部3の制御によって、図2〜4に示すような三次元のジェスチャー操作を誘導する三次元の操作オブジェクトを、三次元で表示可能な表示装置4に表示する。 In step S102, the display control unit 3 performs a gesture operation indicating the intention of the operator 5 in an action that the operator 5 can perform in order to advance the event for the event detected by the event detection unit 2. The display device 4 is controlled so that the operation object for guiding the user is displayed in three dimensions. Specifically, a three-dimensional operation object that guides a three-dimensional gesture operation as shown in FIGS. 2 to 4 under the control of the display control unit 3 is displayed on the display device 4 that can be displayed in three dimensions.

図13は、図8に示すジェスチャー操作装置6の動作の一例を示すフローチャートである。なお、図13では、操作オブジェクトをチュートリアルで表示する場合について、図14を用いて説明する。本実施の形態において、チュートリアルとは、イベントに対応して操作者5が行うべき一連のジェスチャー操作を操作オブジェクトとして表示装置4に表示することをいう。 FIG. 13 is a flowchart showing an example of the operation of the gesture operation device 6 shown in FIG. In addition, in FIG. 13, the case where the operation object is displayed in the tutorial will be described with reference to FIG. In the present embodiment, the tutorial means displaying a series of gesture operations to be performed by the operator 5 in response to an event on the display device 4 as an operation object.

ステップS201において、イベント検出部2は、イベントを検出したか否かを判断する。具体的には、イベント検出部2は、端末通信部11がメールまたは電話を着信した旨の情報を携帯通信端末12から受信するまでステップS201の処理を繰り返す。そして、イベント検出部2は、端末通信部11がメールまたは電話を着信した旨の情報を携帯通信端末12から受信したときにイベントを検出したと判断し、ステップS202に移行する。 In step S201, the event detection unit 2 determines whether or not an event has been detected. Specifically, the event detection unit 2 repeats the process of step S201 until the terminal communication unit 11 receives the information indicating that the mail or the telephone has arrived from the mobile communication terminal 12. Then, the event detection unit 2 determines that the event has been detected when the terminal communication unit 11 receives the information indicating that the mail or the telephone has arrived from the mobile communication terminal 12, and proceeds to step S202.

例えば、図14に示すように、端末通信部11が携帯通信端末12からメールが着信した旨の情報を受信すると、表示装置4には未読アイコン20が表示される。図14の例では、未読のメールが2件あることを示している。 For example, as shown in FIG. 14, when the terminal communication unit 11 receives the information that an email has arrived from the mobile communication terminal 12, the unread icon 20 is displayed on the display device 4. In the example of FIG. 14, it is shown that there are two unread emails.

ステップS202において、表示制御部3は、イベント検出部2が検出したイベントに対応して、当該イベントを進行させるために操作者5行うべき一連のジェスチャー操作を示す操作オブジェクトを三次元で表示するように表示装置4を制御する。 In step S202, the display control unit 3 displays in three dimensions an operation object indicating a series of gesture operations to be performed by the operator 5 in order to advance the event in response to the event detected by the event detection unit 2. Controls the display device 4.

図14の例では、操作者5が表示装置4に表示されている未読アイコン20を選択するジェスチャー操作を行うと未読メールの一覧が表示され、さらに操作者5が未読メールの一覧から特定のメールを選択するジェスチャー操作を行うと当該メールの内容を音声で読み上げる旨をチュートリアルで表示する。図14では、表示装置4には、未読アイコン20を選択するジェスチャー操作を示す操作オブジェクト21が三次元で表示されている。このとき、操作オブジェクト21は、表示装置4の手前から奥へ移動して未読アイコン20を選択するように動く。また、表示装置4には、「メールを選んで音声で読み上げ可能」の文字が表示されている。 In the example of FIG. 14, when the operator 5 performs a gesture operation to select the unread icon 20 displayed on the display device 4, a list of unread emails is displayed, and the operator 5 further displays a specific email from the list of unread emails. When you perform a gesture operation to select, the tutorial will display that the content of the email will be read aloud. In FIG. 14, the display device 4 displays the operation object 21 showing the gesture operation for selecting the unread icon 20 in three dimensions. At this time, the operation object 21 moves from the front to the back of the display device 4 to select the unread icon 20. Further, on the display device 4, the characters "A mail can be selected and read aloud by voice" are displayed.

ステップS203において、ジェスチャー操作取得部8は、ジェスチャー操作検出装置13から、当該ジェスチャー操作検出装置13が検出した操作者5によるジェスチャー操作を取得したか、すなわち操作者5がジェスチャー操作をしたか否かを判断する。ジェスチャー操作を取得した場合は、ステップS205に移行する。一方、ジェスチャー操作を取得していない場合は、ステップS204に移行する。 In step S203, the gesture operation acquisition unit 8 has acquired the gesture operation by the operator 5 detected by the gesture operation detection device 13 from the gesture operation detection device 13, that is, whether or not the operator 5 has performed the gesture operation. To judge. When the gesture operation is acquired, the process proceeds to step S205. On the other hand, if the gesture operation has not been acquired, the process proceeds to step S204.

ステップS204において、ジェスチャー操作取得部8は、一定時間が経過したか否かを判断する。なお、この時間は、予め設定された時間であってもよく、ユーザが任意に設定した時間であってもよい。一定時間が経過した場合は、図13に示す動作を終了する。一方、一定時間が経過していない場合は、ステップS203に戻る。 In step S204, the gesture operation acquisition unit 8 determines whether or not a certain time has elapsed. It should be noted that this time may be a preset time or a time arbitrarily set by the user. When a certain period of time has elapsed, the operation shown in FIG. 13 ends. On the other hand, if the fixed time has not elapsed, the process returns to step S203.

ステップS205において、操作判断部9は、ジェスチャー操作取得部8が取得した操作者5によるジェスチャー操作が、表示装置4に表示されたチュートリアルに従う動きであるか否かを判断する。すなわち、操作判断部9は、操作者5によるジェスチャー操作がチュートリアルで示された操作オブジェクトに従った操作であるか否かを判断する。ジェスチャー操作がチュートリアルに従った操作でない場合は、ステップS206に移行する。一方、ジェスチャー操作がチュートリアルに従った操作である場合は、ステップS207に移行する。 In step S205, the operation determination unit 9 determines whether or not the gesture operation by the operator 5 acquired by the gesture operation acquisition unit 8 is a movement according to the tutorial displayed on the display device 4. That is, the operation determination unit 9 determines whether or not the gesture operation by the operator 5 is an operation according to the operation object shown in the tutorial. If the gesture operation does not follow the tutorial, the process proceeds to step S206. On the other hand, if the gesture operation is an operation according to the tutorial, the process proceeds to step S207.

ステップS206において、表示制御部3は、ジェスチャー操作が失敗した旨を報知する制御を行う。具体的には、表示制御部3は、操作者5によるジェスチャー操作がチュートリアルに従った操作でない旨を表示装置4に表示する制御を行う。 In step S206, the display control unit 3 controls to notify that the gesture operation has failed. Specifically, the display control unit 3 controls the display device 4 to indicate that the gesture operation by the operator 5 is not an operation according to the tutorial.

ステップS207において、機器制御部10は、操作者5によるジェスチャー操作がチュートリアルに従った操作であると判断すると、当該ジェスチャー操作に基づいて対象となる機器を制御する。図14の例では、操作者5がジェスチャー操作で選択したメールの内容を読み上げる。このとき、機器制御部10は、音声出力装置16からメールの内容を読み上げるように音声出力装置16を制御してもよく、携帯通信端末12からメールの内容を読み上げるように端末通信部11を制御してもよい。 In step S207, when the device control unit 10 determines that the gesture operation by the operator 5 is an operation according to the tutorial, the device control unit 10 controls the target device based on the gesture operation. In the example of FIG. 14, the content of the mail selected by the operator 5 by the gesture operation is read aloud. At this time, the device control unit 10 may control the voice output device 16 so as to read the contents of the mail from the voice output device 16, and control the terminal communication unit 11 so as to read the contents of the mail from the mobile communication terminal 12. You may.

ステップS208において、操作判断部9は、操作者5によるジェスチャー操作が終了したか否かを判断する。具体的には、操作判断部9は、ジェスチャー操作取得部8が取得したジェスチャー操作が、表示装置4に表示したチュートリアルに従う全ての操作を行ったか否かを判断する。ジェスチャー操作が終了した場合は、図13に示す動作を終了する。一方、ジェスチャー操作が終了していない場合は、ステップS207に戻る。 In step S208, the operation determination unit 9 determines whether or not the gesture operation by the operator 5 is completed. Specifically, the operation determination unit 9 determines whether or not the gesture operation acquired by the gesture operation acquisition unit 8 has performed all the operations according to the tutorial displayed on the display device 4. When the gesture operation is completed, the operation shown in FIG. 13 is terminated. On the other hand, if the gesture operation is not completed, the process returns to step S207.

図13に示すように、チュートリアルを表示装置4に表示することによって、操作者5は、メールを着信したときにどのようなジェスチャー操作を行えば良いのかを正確に理解することができる。特に、表示装置4が図6に示すようなHUDである場合、操作者5である運転者は、前方から視線を逸らすことなくジェスチャー操作することが可能である。 By displaying the tutorial on the display device 4 as shown in FIG. 13, the operator 5 can accurately understand what kind of gesture operation should be performed when receiving an e-mail. In particular, when the display device 4 is a HUD as shown in FIG. 6, the driver who is the operator 5 can perform a gesture operation without diverting his / her line of sight from the front.

図15は、図8に示すジェスチャー操作装置6の動作の一例を示すフローチャートである。なお、図15では、イベントが生じたときに操作者5が次に行うべき一のジェスチャー操作を誘導する操作オブジェクトを表示する場合について、図16を用いて説明する。 FIG. 15 is a flowchart showing an example of the operation of the gesture operation device 6 shown in FIG. In addition, in FIG. 15, a case where an operation object for guiding one gesture operation to be performed next by the operator 5 when an event occurs is displayed will be described with reference to FIG.

ステップS301において、イベント検出部2は、図13のステップS201と同様、イベントを検出するまでステップS301の処理を繰り返す。そして、イベント検出部2がイベントを検出したと判断すると、ステップS302に移行する。 In step S301, the event detection unit 2 repeats the process of step S301 until the event is detected, as in step S201 of FIG. Then, when it is determined that the event detection unit 2 has detected the event, the process proceeds to step S302.

例えば、図16に示すように、端末通信部11が携帯通信端末12から電話を着信した旨の情報を受信すると、表示装置4には受話器のアイコンとともに、電話の発信元の情報が表示される。図16の例では、電話の発信元の情報として「岩崎さんからの電話」と表示される。 For example, as shown in FIG. 16, when the terminal communication unit 11 receives the information that a telephone has been received from the mobile communication terminal 12, the display device 4 displays the information of the originator of the telephone together with the handset icon. .. In the example of FIG. 16, "Call from Mr. Iwasaki" is displayed as the information of the originator of the call.

ステップS302において、表示制御部3は、イベント検出部2が検出したイベントに対して操作者5が次に行うべき一のジェスチャー操作を示す操作オブジェクトを三次元で表示するように表示装置4を制御する。 In step S302, the display control unit 3 controls the display device 4 so that the operation object indicating one gesture operation to be performed next by the operator 5 for the event detected by the event detection unit 2 is displayed in three dimensions. To do.

図16の例では、受話器のアイコンに手を掛けた操作オブジェクト21が表示される。なお、表示制御部3は、受話器のアイコンに手を掛ける動きを表現するように操作オブジェクト21を表示する制御を行ってもよい。 In the example of FIG. 16, the operation object 21 that touches the icon of the handset is displayed. The display control unit 3 may control the display of the operation object 21 so as to express the movement of touching the icon of the handset.

ステップS303において、ジェスチャー操作取得部8は、ジェスチャー操作検出装置13から、当該ジェスチャー操作検出装置13が検出した操作者5によるジェスチャー操作を取得したか、すなわち操作者5がジェスチャー操作をしたか否かを判断する。図16の例では、ジェスチャー操作検出装置13で検出された操作者5の手に対応する検出アイコン22が表示装置4に表示されている。このとき、表示装置4では、受話器のアイコン、操作オブジェクト21、および検出アイコン22を奥から手前に向かって順に表示してもよい。すなわち、表示制御部3は、操作オブジェクト21を三次元表示空間における奥側に表示し、ジェスチャー操作取得部8が取得した操作者5の手のアイコンである検出アイコン22を三次元表示空間における手前側に表示する制御を行う。ジェスチャー操作を取得した場合は、ステップS305に移行する。一方、ジェスチャー操作を取得していない場合は、ステップS304に移行する。 In step S303, the gesture operation acquisition unit 8 has acquired the gesture operation by the operator 5 detected by the gesture operation detection device 13 from the gesture operation detection device 13, that is, whether or not the operator 5 has performed the gesture operation. To judge. In the example of FIG. 16, the detection icon 22 corresponding to the hand of the operator 5 detected by the gesture operation detection device 13 is displayed on the display device 4. At this time, the display device 4 may display the handset icon, the operation object 21, and the detection icon 22 in order from the back to the front. That is, the display control unit 3 displays the operation object 21 on the back side in the three-dimensional display space, and the detection icon 22 which is the icon of the operator 5's hand acquired by the gesture operation acquisition unit 8 is on the front side in the three-dimensional display space. Controls the display on the side. When the gesture operation is acquired, the process proceeds to step S305. On the other hand, if the gesture operation has not been acquired, the process proceeds to step S304.

ステップS304において、図13のステップS204と同様、ジェスチャー操作取得部8は、一定時間が経過したか否かを判断する。一定時間が経過した場合は、図15に示す動作を終了する。一方、一定時間が経過していない場合は、ステップS303に戻る。 In step S304, as in step S204 of FIG. 13, the gesture operation acquisition unit 8 determines whether or not a certain time has elapsed. When a certain period of time has elapsed, the operation shown in FIG. 15 ends. On the other hand, if the fixed time has not elapsed, the process returns to step S303.

ステップS305において、操作判断部9は、ジェスチャー操作取得部8が取得した操作者5によるジェスチャー操作が、表示装置4に表示された操作オブジェクトに従う動きであるか否かを判断する。ジェスチャー操作が操作オブジェクトに従った操作でない場合は、ステップS306に移行する。一方、ジェスチャー操作が操作オブジェクトに従った操作である場合は、ステップS307に移行する。 In step S305, the operation determination unit 9 determines whether or not the gesture operation by the operator 5 acquired by the gesture operation acquisition unit 8 is a movement according to the operation object displayed on the display device 4. If the gesture operation does not follow the operation object, the process proceeds to step S306. On the other hand, if the gesture operation is an operation according to the operation object, the process proceeds to step S307.

ステップS306において、図13のステップS206と同様、表示制御部3は、ジェスチャー操作が失敗した旨を報知する制御を行う。具体的には、表示制御部3は、操作者5によるジェスチャー操作が操作オブジェクトに従った操作でない旨を表示装置4に表示する制御を行う。 In step S306, as in step S206 of FIG. 13, the display control unit 3 controls to notify that the gesture operation has failed. Specifically, the display control unit 3 controls the display device 4 to indicate that the gesture operation by the operator 5 is not an operation according to the operation object.

ステップS307において、機器制御部10は、操作者5によるジェスチャー操作が操作オブジェクトに従う操作であると判断すると、当該ジェスチャー操作に基づいて対象となる機器を制御する。図16の例では、検出アイコン22が受話器のアイコンに重なると、通話が可能となる。このとき、機器制御部10は、携帯通信端末12で通話が可能となるように端末通信部11を制御する。 In step S307, when the device control unit 10 determines that the gesture operation by the operator 5 is an operation according to the operation object, the device control unit 10 controls the target device based on the gesture operation. In the example of FIG. 16, when the detection icon 22 overlaps the icon of the handset, a call can be made. At this time, the device control unit 10 controls the terminal communication unit 11 so that the mobile communication terminal 12 can make a call.

ステップS308において、操作判断部9は、操作者5によるジェスチャー操作が終了したか否かを判断する。具体的には、操作判断部9は、ジェスチャー操作取得部8が取得したジェスチャー操作が、表示装置4に表示した操作オブジェクトに従う操作を行ったか否かを判断する。ジェスチャー操作が終了した場合は、図15に示す動作を終了する。一方、ジェスチャー操作が終了していない場合は、ステップS302に戻る。 In step S308, the operation determination unit 9 determines whether or not the gesture operation by the operator 5 is completed. Specifically, the operation determination unit 9 determines whether or not the gesture operation acquired by the gesture operation acquisition unit 8 has performed an operation according to the operation object displayed on the display device 4. When the gesture operation is completed, the operation shown in FIG. 15 is terminated. On the other hand, if the gesture operation is not completed, the process returns to step S302.

図15に示すように、イベントが生じたときに操作者5が次に行うべき一のジェスチャー操作を誘導する操作オブジェクトを表示することによって、操作者5は、電話を着信したときにどのようなジェスチャー操作を行えば良いのかを正確に理解することができる。 As shown in FIG. 15, by displaying an operation object that guides the operator 5 to perform one gesture operation to be performed next when an event occurs, the operator 5 may receive a call. You can understand exactly whether you should perform gesture operation.

<変形例1>
図13では操作オブジェクトをチュートリアルで表示する場合の動作を示し、図15ではイベントが生じたときに操作者5が次に行うべき一のジェスチャー操作を誘導する操作オブジェクトを表示する場合の動作を示しているが、これらの動作を組み合わせてもよい。例えば、操作者5が初めて経験するイベントの場合は図13の動作を行って操作オブジェクトをチュートリアルで表示し、次回以降に同様のイベントを経験したときは図15の動作を行って次に行うべき一のジェスチャー操作を誘導する操作オブジェクトを表示するようにしてもよい。操作者5が複数存在する場合は、操作者5ごとに図13または図15の動作を行ってもよい。この場合、操作者5を個別に認識する必要がある。
<Modification example 1>
FIG. 13 shows the operation when displaying the operation object in the tutorial, and FIG. 15 shows the operation when displaying the operation object that guides the operator 5 to perform one gesture operation when an event occurs. However, these operations may be combined. For example, in the case of the event that the operator 5 experiences for the first time, the operation of FIG. 13 should be performed to display the operation object in the tutorial, and when the operator experiences the same event after the next time, the operation of FIG. 15 should be performed and the next operation should be performed. An operation object that guides one gesture operation may be displayed. When there are a plurality of operators 5, the operation of FIG. 13 or FIG. 15 may be performed for each operator 5. In this case, it is necessary to individually recognize the operator 5.

<変形例2>
図13のステップS202または図15のステップS302において、表示制御部3は、例えば図17または図18に示すように、操作オブジェクトとともにジェスチャー操作の対象となる機能を表すオブジェクトを表示する制御を行ってもよい。図17では、時計回りまたは反時計回りのジェスチャー操作を誘導する操作オブジェクト21とともにダイヤルが表示されている。ダイヤルとしては、例えば音量調整を行うためのダイヤルなどが挙げられる。図18では、操作者5から見て前後方向に回転させるジェスチャー操作を誘導する操作オブジェクト21とともにフォルダA〜Cが表示されている。フォルダとしては、例えば電話帳などが挙げられる。このような表示を行うことによって、操作者5は、物理的な操作ボタンがなくてもどのような操作を行えばよいのかを正確に理解することができる。図17,18において、手は表示せず、矢印のみを表示してもよい。
<Modification 2>
In step S202 of FIG. 13 or step S302 of FIG. 15, the display control unit 3 controls to display the operation object and the object representing the function to be the target of the gesture operation together with the operation object, for example, as shown in FIG. 17 or FIG. May be good. In FIG. 17, a dial is displayed together with an operation object 21 that guides a clockwise or counterclockwise gesture operation. Examples of the dial include a dial for adjusting the volume. In FIG. 18, folders A to C are displayed together with an operation object 21 that guides a gesture operation of rotating in the front-back direction when viewed from the operator 5. Examples of the folder include a telephone directory. By performing such a display, the operator 5 can accurately understand what kind of operation should be performed without the physical operation buttons. In FIGS. 17 and 18, the hand may not be displayed and only the arrow may be displayed.

なお、図17,18の例は、図13のステップS202または図15のステップS302において静止画として表示されるが、図13のステップS205または図15のステップS305において操作者5が実際にジェスチャー操作を行った場合は、実際のジェスチャー操作に合わせてダイヤルが回転し、またはフォルダA〜Cの順序が変わるように動くことになる。すなわち、操作判断部9が操作者5によるジェスチャー操作が操作オブジェクトに従う動きであると判断した場合、表示制御部3はジェスチャー操作取得部8が取得したジェスチャー操作に合わせて操作オブジェクトが動くように制御する。 The examples of FIGS. 17 and 18 are displayed as still images in step S202 of FIG. 13 or step S302 of FIG. 15, but the operator 5 actually performs a gesture operation in step S205 of FIG. 13 or step S305 of FIG. If you do, the dial will rotate or move so that the order of folders A to C changes according to the actual gesture operation. That is, when the operation determination unit 9 determines that the gesture operation by the operator 5 is a movement according to the operation object, the display control unit 3 controls the operation object to move according to the gesture operation acquired by the gesture operation acquisition unit 8. To do.

また、実際のジェスチャー操作に合わせてフォルダA〜Cが動くとき、当該動きに合わせて効果音を加えてもよい。これにより、操作者5はより直感的にどのような操作を行えばよいのかを正確に理解することができる。 Further, when the folders A to C move according to the actual gesture operation, a sound effect may be added according to the movement. As a result, the operator 5 can more intuitively understand what kind of operation should be performed.

<変形例3>
図13のステップS202または図15のステップS302において、表示制御部3は、例えば図19に示すように、操作項目の一覧が手の動きに合わせて回転するように制御してもよい。操作項目の一覧は、例えば車載機器15の機能に対応している。図19では、操作項目の一覧が、操作者5から見て前後方向に輪を描くように配置されている。操作者5が「Setting」を選択すると各種設定を行うための画面に遷移し、「AM Radio」を選択するとAMラジオを視聴するための機能が実行され、「FM Radio」を選択するとFMラジオを視聴するための機能が実行され、「Music」を選択するとFMラジオを視聴するための機能が実行され、「Navigation」を選択すると目的地までの経路案内などのナビゲーション機能が実行される。このような表示を行うことによって、操作者5は、操作対象の動的な操作感を正確に理解することができる。図19において、手は表示せず、矢印のみを表示してもよい。
<Modification example 3>
In step S202 of FIG. 13 or step S302 of FIG. 15, the display control unit 3 may control the list of operation items to rotate according to the movement of the hand, for example, as shown in FIG. The list of operation items corresponds to, for example, the functions of the in-vehicle device 15. In FIG. 19, the list of operation items is arranged so as to draw a ring in the front-rear direction when viewed from the operator 5. When the operator 5 selects "Setting", the screen for making various settings is displayed, when "AM Radio" is selected, the function for watching AM radio is executed, and when "FM Radio" is selected, the FM radio is turned on. The function for viewing is executed, when "Music" is selected, the function for viewing FM radio is executed, and when "Navigation" is selected, the navigation function such as route guidance to the destination is executed. By performing such a display, the operator 5 can accurately understand the dynamic operation feeling of the operation target. In FIG. 19, the hand may not be displayed and only the arrow may be displayed.

なお、図13のステップS205または図15のステップS305において操作者5が実際にジェスチャー操作を行った場合は、実際のジェスチャー操作に合わせて操作項目の一覧が動くことになる。また、図19の例に限らず、図17においてダイヤルが回転する表示にしてもよく、図18においてフォルダA〜Cの順序が変わるように表示してもよい。 When the operator 5 actually performs the gesture operation in step S205 of FIG. 13 or step S305 of FIG. 15, the list of operation items moves according to the actual gesture operation. Further, not limited to the example of FIG. 19, the dial may be displayed to rotate in FIG. 17, or may be displayed so that the order of folders A to C is changed in FIG.

また、実際のジェスチャー操作に合わせて操作項目の一覧が動くとき、当該動きに合わせて効果音を加えてもよい。これにより、操作者5はより直感的にどのような操作を行えばよいのかを正確に理解することができる。 Further, when the list of operation items moves according to the actual gesture operation, a sound effect may be added according to the movement. As a result, the operator 5 can more intuitively understand what kind of operation should be performed.

<実施例1>
操作者5が普段使用している携帯通信端末12の操作と同様の操作でジェスチャー操作を行うようにしてもよい。
<Example 1>
The gesture operation may be performed by the same operation as the operation of the mobile communication terminal 12 that the operator 5 usually uses.

図20は、携帯通信端末12の操作画面を表示装置4に三次元で表示する一例を示している。図20に示す携帯通信端末12の操作画面は、電話を着信したときに表示される画面である。端末通信部11は、携帯通信端末12から電話を着信した旨の情報とともに、電話を着信したときに携帯通信端末12に表示される操作画面の情報を携帯通信端末12から取得する。そして、図13のステップS202または図15のステップS302において、表示制御部3は、例えば図21に示すように、応答することを示す受話器のアイコンを右方向にスライドさせることを示す操作オブジェクトを表示装置4に表示する制御を行う。操作者5は、図21に示す操作オブジェクトに従ってジェスチャー操作することによって、電話の着信に応答することができる。このとき、操作者5は、三次元で表示された操作画面を見ながらジェスチャー操作することになるため、操作者5が普段使用している携帯通信端末12と同様の操作感覚でジェスチャー操作をすることができる。 FIG. 20 shows an example of displaying the operation screen of the mobile communication terminal 12 on the display device 4 in three dimensions. The operation screen of the mobile communication terminal 12 shown in FIG. 20 is a screen displayed when an incoming call is received. The terminal communication unit 11 acquires from the mobile communication terminal 12 the information on the operation screen displayed on the mobile communication terminal 12 when the call is received, as well as the information indicating that the call has been received from the mobile communication terminal 12. Then, in step S202 of FIG. 13 or step S302 of FIG. 15, the display control unit 3 displays an operation object indicating that the icon of the handset indicating to answer is slid to the right, for example, as shown in FIG. Control the display on the device 4. The operator 5 can answer an incoming call by performing a gesture operation according to the operation object shown in FIG. At this time, since the operator 5 performs the gesture operation while looking at the operation screen displayed in three dimensions, the operator 5 performs the gesture operation with the same operation feeling as the mobile communication terminal 12 normally used by the operator 5. be able to.

また、他の例として、携帯通信端末12が電話を着信したとき、表示装置4に図22に示すような操作画面を表示してもよい。この場合、表示制御部3は、例えば図23に示すように、応答することを示す受話器のアイコンを選択することを示す操作オブジェクトを表示装置4に表示する制御を行う。操作者5は、図22に従ってジェスチャー操作することによって、電話の着信に応答することができる。 Further, as another example, when the mobile communication terminal 12 receives a telephone call, the display device 4 may display an operation screen as shown in FIG. 22. In this case, as shown in FIG. 23, for example, the display control unit 3 controls the display device 4 to display an operation object indicating that the icon of the handset indicating the response is selected. The operator 5 can answer an incoming call by performing a gesture operation according to FIG. 22.

なお、図20〜図23に示す携帯通信端末12の操作画面は、上記で説明したように電話の着信時に端末通信部11が携帯通信端末12から取得してもよいが、これに限るものではない。例えば、ジェスチャー操作装置6が図示しない記憶部に携帯通信端末12の操作画面を記憶しておいてもよく、通信部7が外部のサーバなどから携帯通信端末12に対応する操作画面の情報を取得してもよい。 The operation screen of the mobile communication terminal 12 shown in FIGS. 20 to 23 may be acquired by the terminal communication unit 11 from the mobile communication terminal 12 when a telephone call is received as described above, but the operation screen is not limited to this. Absent. For example, the operation screen of the mobile communication terminal 12 may be stored in a storage unit (not shown) of the gesture operation device 6, and the communication unit 7 acquires the information of the operation screen corresponding to the mobile communication terminal 12 from an external server or the like. You may.

<実施例2>
車載機器15がラジオおよび音楽を再生する機能を有している場合、これらの機能をジェスチャー操作で実行してもよい。例えば、操作者5が自身の手をかざしながら「音楽」、「ラジオ」、または「携帯の音楽」などと発話すると、イベント検出部2はこれらの動作をイベントとして検出する。
<Example 2>
When the in-vehicle device 15 has a function of playing a radio and music, these functions may be executed by a gesture operation. For example, when the operator 5 speaks "music", "radio", or "music on a mobile phone" while holding his / her hand, the event detection unit 2 detects these actions as events.

そして、操作者5が「音楽」と発話した場合、表示制御部3は、表示装置4に例えば音楽の再生リストおよび手のアイコンを操作オブジェクトとして表示する。このとき、表示制御部3は、上下方向にフリックするジェスチャー操作を行うと、リストのスクロールが可能であることを示す操作オブジェクトを表示してもよい。 Then, when the operator 5 utters "music", the display control unit 3 displays, for example, a music playlist and a hand icon on the display device 4 as operation objects. At this time, the display control unit 3 may display an operation object indicating that the list can be scrolled by performing a gesture operation of flicking in the vertical direction.

操作者5は、表示装置4に表示された操作オブジェクトに従って上下方向にフリックするジェスチャー操作を行うことによってリストをスクロールし、楽曲名を読み上げることによって特定の楽曲を選択する。なお、楽曲の選択は、ジェスチャー操作によって選択してもよく、表示装置4がタッチパネルを備えている場合はタッチ操作によって選択してもよい。 The operator 5 scrolls the list by performing a gesture operation of flicking up and down according to the operation object displayed on the display device 4, and selects a specific music by reading out the music name. The music may be selected by a gesture operation, or may be selected by a touch operation when the display device 4 is provided with a touch panel.

また、音量調整をする際は、例えば図17に示すような操作オブジェクトを表示装置4に表示してもよい。この場合、操作者5は、例えば自身の親指、人差し指、および中指でダイヤルを回転させるようなジェスチャー操作を行うことによって、音量調整をすることができる。このとき、操作者5の操作感覚を高めるために、ダイヤルの回転軸が操作者5側に傾いた形状であってもよい。 Further, when adjusting the volume, for example, an operation object as shown in FIG. 17 may be displayed on the display device 4. In this case, the operator 5 can adjust the volume by performing a gesture operation such as rotating the dial with his / her thumb, index finger, and middle finger, for example. At this time, in order to enhance the operation feeling of the operator 5, the rotation axis of the dial may be inclined toward the operator 5.

<実施例3>
車載機器15がナビゲーション機能を有している場合、当該機能をジェスチャー操作で実行してもよい。例えば、操作者5が自身の手をかざしながら「ナビゲーション」、「目的地」、または「地図」などと発話すると、イベント検出部2はこれらの動作をイベントとして検出する。
<Example 3>
When the in-vehicle device 15 has a navigation function, the function may be executed by a gesture operation. For example, when the operator 5 speaks "navigation", "destination", "map", etc. while holding his / her hand, the event detection unit 2 detects these actions as events.

そして、操作者5が「目的地」と発話した場合、表示制御部3は、例えば目的地のリストおよび手のアイコンを操作オブジェクトとして表示する。このとき、表示制御部3は、上下方向にフリックするジェスチャー操作を行うとリストのスクロールが可能であり、タッチするジェスチャー操作を行うと特定の目的を選択可能であることを示す操作オブジェクトを表示してもよい。操作者5は、表示装置4に表示された操作オブジェクトに従って上下方向にフリックするジェスチャー操作を行うことによってリストをスクロールし、タッチするジェスチャー操作を行うと特定の目的を選択する。なお、目的地の選択は、例えば目的地の地名を読み上げることによって選択してもよい。 Then, when the operator 5 speaks "destination", the display control unit 3 displays, for example, a list of destinations and a hand icon as operation objects. At this time, the display control unit 3 displays an operation object indicating that the list can be scrolled by performing a gesture operation of flicking up and down, and a specific purpose can be selected by performing a touch gesture operation. You may. The operator 5 scrolls the list by performing a gesture operation of flicking up and down according to the operation object displayed on the display device 4, and selects a specific purpose by performing the touch gesture operation. The destination may be selected, for example, by reading out the place name of the destination.

操作者5が「地図」と発話した場合、表示制御部3は、例えば地図および手のアイコンを操作オブジェクトとして表示する。このとき、表示制御部3は、ピンチインまたはピンチアウトするジェスチャー操作を行うと地図の拡大または縮小が可能であることを示す操作オブジェクトを表示してもよい。また、手のひらを下に向けたまま前後左右方向に移動させるジェスチャー操作を行うと地図のスクロールが可能であることを示す操作オブジェクトを表示してもよい。 When the operator 5 speaks "map", the display control unit 3 displays, for example, a map and a hand icon as operation objects. At this time, the display control unit 3 may display an operation object indicating that the map can be enlarged or reduced by performing a pinch-in or pinch-out gesture operation. In addition, an operation object indicating that the map can be scrolled may be displayed by performing a gesture operation of moving the map in the front-back, left-right directions with the palm facing down.

例えば、図24に示すように、ホーム画面23、現在地画面24、および地図スクロール画面25が階層化されている場合において、表示制御部3は、手のひらを上に向けたまま上方に動かすジェスチャー操作を行う度に、ホーム画面23、現在地画面24、および地図スクロール画面25の順序が変わることを示す操作オブジェクトを表示してもよい。この場合、手を裏返すジェスチャー操作を行うと、ホーム画面23が最上位に表示されるようにしてもよい。ホーム画面23において選択可能な項目がある場合、表示制御部3は、例えばタッチするジェスチャー操作を行うと特定の項目を選択することを示す操作オブジェクトを表示してもよい。 For example, as shown in FIG. 24, when the home screen 23, the current location screen 24, and the map scroll screen 25 are layered, the display control unit 3 performs a gesture operation of moving the palm upward while keeping the palm facing upward. Each time this is performed, an operation object indicating that the order of the home screen 23, the current location screen 24, and the map scroll screen 25 may be changed may be displayed. In this case, the home screen 23 may be displayed at the top when the gesture operation of turning over the hand is performed. When there is an item that can be selected on the home screen 23, the display control unit 3 may display an operation object indicating that a specific item is selected when, for example, a touch gesture operation is performed.

以上のことから、本実施の形態1によれば、三次元方向の動きを伴うジェスチャー操作を誘導する操作オブジェクトを三次元で表示しているため、操作者5はどのようなジェスチャー操作を行えばよいのかを正確に理解することができる。従って、ジェスチャー操作装置6は、操作者5が行ったジェスチャー操作を精度良く判断することができる。 From the above, according to the first embodiment, since the operation object for guiding the gesture operation accompanied by the movement in the three-dimensional direction is displayed in three dimensions, what kind of gesture operation should the operator 5 perform? Can understand exactly if it is good. Therefore, the gesture operation device 6 can accurately determine the gesture operation performed by the operator 5.

<実施の形態2>
図25は、本発明の実施の形態2によるジェスチャー操作装置26の構成の一例を示すブロック図である。
<Embodiment 2>
FIG. 25 is a block diagram showing an example of the configuration of the gesture operation device 26 according to the second embodiment of the present invention.

図25に示すように、本実施の形態2によるジェスチャー操作装置26は、機器制御部10が音像制御部27を有していることを特徴としている。その他の構成および動作は、実施の形態1と同様であるため、ここでは詳細な説明を省略する。 As shown in FIG. 25, the gesture operation device 26 according to the second embodiment is characterized in that the device control unit 10 has a sound image control unit 27. Since other configurations and operations are the same as those in the first embodiment, detailed description thereof will be omitted here.

音像制御部27は、音声出力装置16に接続されており、音声出力装置16から出力される音声の音像を制御する。具体的には、音像制御部27は、表示制御部3の制御によって表示装置4に表示された操作オブジェクトの表示位置に応じて音像を制御する。 The sound image control unit 27 is connected to the audio output device 16 and controls the sound image of the audio output from the audio output device 16. Specifically, the sound image control unit 27 controls the sound image according to the display position of the operation object displayed on the display device 4 under the control of the display control unit 3.

例えば、表示装置4に図26に示すような操作オブジェクトが表示されている場合について説明する。図26では、着信メールを保存フォルダとゴミ箱とに分別するときの操作オブジェクトを示している。表示装置4には、左手前には着信メールが表示され、右手前にはゴミ箱が表示され、右奥には保存フォルダが表示されている。操作オブジェクトにおいて、手のアイコンが、着信メールからゴミ箱または保存フォルダに向かう矢印に沿って移動する。このとき、音像制御部27は、手のアイコンの動きに合わせて音像を制御するため、手のアイコンがゴミ箱に向かって移動するときの音と、手のアイコンが保存フォルダに向かって移動するときの音とが異なる。 For example, a case where an operation object as shown in FIG. 26 is displayed on the display device 4 will be described. FIG. 26 shows an operation object for separating incoming mail into a storage folder and a trash can. On the display device 4, an incoming mail is displayed on the left front side, a trash can is displayed on the right front side, and a storage folder is displayed on the right back side. In the operation object, the hand icon moves along the arrow from the incoming mail to the trash or save folder. At this time, since the sound image control unit 27 controls the sound image according to the movement of the hand icon, the sound when the hand icon moves toward the trash can and when the hand icon moves toward the save folder. The sound is different.

なお、音像制御部27は、操作者5が実際にジェスチャー操作をする際に、当該ジェスチャー操作に合わせて音像を制御してもよい。 The sound image control unit 27 may control the sound image according to the gesture operation when the operator 5 actually performs the gesture operation.

以上のことから、本実施の形態2によれば、三次元方向の動きを伴うジェスチャー操作を誘導する操作オブジェクトを三次元で表示するとともに音場を制御しているため、操作者5はどのようなジェスチャー操作を行えばよいのかを直感的かつ正確に理解することができる。従って、ジェスチャー操作装置6は、操作者5が行ったジェスチャー操作を精度良く判断することができる。 From the above, according to the second embodiment, since the operation object for inducing the gesture operation accompanied by the movement in the three-dimensional direction is displayed in three dimensions and the sound field is controlled, how is the operator 5? You can intuitively and accurately understand whether you should perform various gesture operations. Therefore, the gesture operation device 6 can accurately determine the gesture operation performed by the operator 5.

<実施の形態3>
図27は、本発明の実施の形態3によるジェスチャー操作装置28の構成の一例を示すブロック図である。
<Embodiment 3>
FIG. 27 is a block diagram showing an example of the configuration of the gesture operation device 28 according to the third embodiment of the present invention.

図27に示すように、本実施の形態3によるジェスチャー操作装置28は、状態取得部29を備えることを特徴としている。その他の構成および動作は、実施の形態1と同様であるため、ここでは詳細な説明を省略する。 As shown in FIG. 27, the gesture operation device 28 according to the third embodiment is characterized by including a state acquisition unit 29. Since other configurations and operations are the same as those in the first embodiment, detailed description thereof will be omitted here.

状態取得部29は、状態検出装置30に接続されており、状態検出装置30が検出した少なくとも操作者5の目の位置および視線を含む操作者5の状態を取得する。状態検出装置30は、カメラで構成されており、操作者5の目の位置または視線をカメラで撮影された画像から特定する。表示制御部3は、状態取得部29が取得した操作者5の状態に基づいて操作オブジェクトの表示位置を制御する。 The state acquisition unit 29 is connected to the state detection device 30 and acquires the state of the operator 5 including at least the eye position and the line of sight of the operator 5 detected by the state detection device 30. The state detection device 30 is composed of a camera, and identifies the position or line of sight of the eyes of the operator 5 from an image taken by the camera. The display control unit 3 controls the display position of the operation object based on the state of the operator 5 acquired by the state acquisition unit 29.

以上のことから、本実施の形態3によれば、操作者5の状態に基づいて操作オブジェクトの表示位置を制御しているため、操作者5にとって見やすい操作オブジェクトを表示することができる。これにより、操作者5はどのようなジェスチャー操作を行えばよいのかを正確に理解することができる。従って、ジェスチャー操作装置6は、操作者5が行ったジェスチャー操作を精度良く判断することができる。 From the above, according to the third embodiment, since the display position of the operation object is controlled based on the state of the operator 5, the operation object that is easy for the operator 5 to see can be displayed. As a result, the operator 5 can accurately understand what kind of gesture operation should be performed. Therefore, the gesture operation device 6 can accurately determine the gesture operation performed by the operator 5.

<実施の形態4>
<構成>
図28は、本発明の実施の形態4によるジェスチャー操作装置31の構成の一例を示すブロック図である。
<Embodiment 4>
<Structure>
FIG. 28 is a block diagram showing an example of the configuration of the gesture operation device 31 according to the fourth embodiment of the present invention.

図28に示すように、本実施の形態4によるジェスチャー操作装置31は、操作履歴情報記憶部32を備えることを特徴としている。その他の構成および動作は、実施の形態3と同様であるため、ここでは詳細な説明を省略する。 As shown in FIG. 28, the gesture operation device 31 according to the fourth embodiment is characterized by including an operation history information storage unit 32. Since other configurations and operations are the same as those in the third embodiment, detailed description thereof will be omitted here.

操作履歴情報記憶部32は、例えばハードディスク(Hard Disk Drive:HDD)または半導体メモリ等の記憶装置から構成されており、操作判断部9によってジェスチャー操作が操作オブジェクトに従う動きであるか否かが判断された結果を記憶する。 The operation history information storage unit 32 is composed of a storage device such as a hard disk drive (HDD) or a semiconductor memory, and the operation determination unit 9 determines whether or not the gesture operation is a movement according to the operation object. Memorize the results.

<動作>
図29は、ジェスチャー操作装置31の動作の一例を示すフローチャートである。なお、図29のステップS401〜ステップS406は図13のステップS201〜ステップS206に対応し、図29のステップS408,ステップS409は図13のステップS207,ステップS208に対応しているため、ここでは説明を省略する。以下では、ステップS407について説明する。
<Operation>
FIG. 29 is a flowchart showing an example of the operation of the gesture operation device 31. Note that steps S401 to S406 in FIG. 29 correspond to steps S201 to S206 in FIG. 13, and steps S408 and S409 in FIG. 29 correspond to steps S207 and S208 in FIG. Is omitted. Hereinafter, step S407 will be described.

ステップS407において、操作履歴情報記憶部32は、操作判断部9が判断した結果を操作履歴情報として記憶する。具体的には、ステップS405において操作判断部9が操作者5によるジェスチャー操作がチュートリアルで示された操作オブジェクトに従った操作でないと判断すると、当該判断結果が操作履歴情報記憶部32に記憶される。操作履歴情報記憶部32に記憶される操作履歴情報は、操作者5ごとに記憶される。なお、各操作者5の識別は、状態検出装置30が検出した操作者5の顔の画像に基づくものであってもよい。 In step S407, the operation history information storage unit 32 stores the result determined by the operation determination unit 9 as the operation history information. Specifically, when the operation determination unit 9 determines in step S405 that the gesture operation by the operator 5 is not an operation according to the operation object shown in the tutorial, the determination result is stored in the operation history information storage unit 32. .. The operation history information stored in the operation history information storage unit 32 is stored for each operator 5. The identification of each operator 5 may be based on the image of the face of the operator 5 detected by the state detection device 30.

操作判断部9は、次回以降のステップS405において、操作履歴情報記憶部32に記憶された操作履歴情報を用いて、操作者5によるジェスチャー操作がチュートリアルで示された操作オブジェクトに従った操作であるか否かを判断することができる。また、操作判断部9は、蓄積された操作履歴情報を用いて機械学習を行うことができる。これにより、操作者5によるジェスチャー操作がチュートリアルで示した操作オブジェクトとは少し異なる場合であっても操作オブジェクトに従った操作であると判断するなど、操作者5によるジェスチャー操作の癖を考慮した判断をすることができる。 In step S405 from the next time onward, the operation determination unit 9 uses the operation history information stored in the operation history information storage unit 32, and the gesture operation by the operator 5 is an operation according to the operation object shown in the tutorial. It is possible to judge whether or not. In addition, the operation determination unit 9 can perform machine learning using the accumulated operation history information. As a result, even if the gesture operation by the operator 5 is slightly different from the operation object shown in the tutorial, it is determined that the operation follows the operation object, and the judgment in consideration of the habit of the gesture operation by the operator 5. Can be done.

図30は、ジェスチャー操作装置31の動作の一例を示すフローチャートである。なお、図30のステップS501〜ステップS506は図13のステップS201〜ステップS206に対応し、図30のステップS509,ステップS510は図13のステップS207,ステップS208に対応しているため、ここでは説明を省略する。以下では、ステップS507,ステップS508について説明する。 FIG. 30 is a flowchart showing an example of the operation of the gesture operation device 31. Note that steps S501 to S506 in FIG. 30 correspond to steps S201 to S206 in FIG. 13, and steps S509 and S510 in FIG. 30 correspond to steps S207 and S208 in FIG. Is omitted. Hereinafter, steps S507 and S508 will be described.

ステップS507において、状態取得部29は、操作判断部9が判断した結果に対する操作者5の反応を操作者5の状態として取得する。具体的には、ステップS505において操作判断部9が操作者5によるジェスチャー操作がチュートリアルで示された操作オブジェクトに従った操作でないと判断して、ステップS506においてジェスチャー操作が失敗した旨を報知したときの操作者5の反応を状態検出装置30が検出し、当該検出した操作者5の反応を状態取得部29が取得する。操作者5の反応としては、操作者5の表情、または動きなどが挙げられる。 In step S507, the state acquisition unit 29 acquires the reaction of the operator 5 to the result determined by the operation determination unit 9 as the state of the operator 5. Specifically, when the operation determination unit 9 determines in step S505 that the gesture operation by the operator 5 is not an operation according to the operation object shown in the tutorial, and notifies in step S506 that the gesture operation has failed. The state detection device 30 detects the reaction of the operator 5, and the state acquisition unit 29 acquires the reaction of the detected operator 5. Examples of the reaction of the operator 5 include the facial expression or movement of the operator 5.

ステップS508において、操作履歴情報記憶部32は、操作判断部9による判断結果と、状態取得部29が取得した操作者5の反応とを対応付けて操作履歴情報として記憶する。操作履歴情報記憶部32に記憶される操作履歴情報は、操作者5ごとに記憶される。なお、各操作者5の識別は、状態検出装置30が検出した操作者5の顔の画像に基づくものであってもよい。 In step S508, the operation history information storage unit 32 stores the determination result by the operation determination unit 9 and the reaction of the operator 5 acquired by the state acquisition unit 29 as operation history information in association with each other. The operation history information stored in the operation history information storage unit 32 is stored for each operator 5. The identification of each operator 5 may be based on the image of the face of the operator 5 detected by the state detection device 30.

操作判断部9は、次回以降のステップS505において、操作履歴情報記憶部32に記憶された操作履歴情報を用いて、操作者5によるジェスチャー操作がチュートリアルで示された操作オブジェクトに従った操作であるか否かを判断することができる。また、操作判断部9は、蓄積された操作履歴情報を用いて機械学習を行うことができる。これにより、操作者5によるジェスチャー操作がチュートリアルで示した操作オブジェクトとは少し異なる場合であっても操作オブジェクトに従った操作であると判断するなど、操作者5によるジェスチャー操作の癖を考慮した判断をすることができる。 In step S505 from the next time onward, the operation determination unit 9 uses the operation history information stored in the operation history information storage unit 32, and the gesture operation by the operator 5 is an operation according to the operation object shown in the tutorial. It is possible to judge whether or not. In addition, the operation determination unit 9 can perform machine learning using the accumulated operation history information. As a result, even if the gesture operation by the operator 5 is slightly different from the operation object shown in the tutorial, it is determined that the operation follows the operation object, and the judgment in consideration of the habit of the gesture operation by the operator 5. Can be done.

なお、図29,30では、チュートリアルを表示する場合について説明したが、イベントが生じたときに操作者5が次に行うべき一のジェスチャー操作を誘導する操作オブジェクトを表示する場合にも適用可能である。 Although the tutorial is described in FIGS. 29 and 30, it can also be applied to display an operation object that guides the operator 5 to perform one gesture operation to be performed next when an event occurs. is there.

操作者5がシフトレバーまたは遠隔操作装置などジェスチャー操作以外の他の操作を行った場合、操作判断部9は、図29のステップS405または図30のステップS505の処理を行わなくてもよい。 When the operator 5 performs an operation other than the gesture operation such as the shift lever or the remote control device, the operation determination unit 9 does not have to perform the process of step S405 of FIG. 29 or step S505 of FIG.

以上のことから、本実施の形態4によれば、操作履歴情報記憶部32に記憶された操作履歴情報を用いて、操作者5によるジェスチャー操作がチュートリアルで示された操作オブジェクトに従った操作であるか否かを判断するため、操作者5によるジェスチャー操作の癖を考慮した判断をすることができる。 From the above, according to the fourth embodiment, the gesture operation by the operator 5 is performed according to the operation object shown in the tutorial by using the operation history information stored in the operation history information storage unit 32. In order to determine whether or not there is, it is possible to make a determination in consideration of the habit of gesture operation by the operator 5.

<実施の形態5>
図31は、本発明の実施の形態5によるジェスチャー操作装置33の構成の一例を示すブロック図である。
<Embodiment 5>
FIG. 31 is a block diagram showing an example of the configuration of the gesture operation device 33 according to the fifth embodiment of the present invention.

図31に示すように、本実施の形態5によるジェスチャー操作装置33は、通信部7が外部情報取得部34を有することを特徴としている。その他の構成および動作は、実施の形態1と同様であるため、ここでは詳細な説明を省略する。 As shown in FIG. 31, the gesture operation device 33 according to the fifth embodiment is characterized in that the communication unit 7 has an external information acquisition unit 34. Since other configurations and operations are the same as those in the first embodiment, detailed description thereof will be omitted here.

外部情報取得部34は、外部から種々の外部情報を取得する。外部情報としては、例えば、操作者5に関連する情報、交通情報、天候情報などが挙げられる。操作者5に関連する情報としては、例えば、操作者5のスケジュール、連絡先、好みの楽曲、SNS(Social Networking Service)の情報、設定した目的地に関する交通情報または天候情報、POI(Point Of Interest)情報、購買行動情報、自宅のネットワークに接続された家電の情報などが挙げられる。 The external information acquisition unit 34 acquires various external information from the outside. Examples of the external information include information related to the operator 5, traffic information, weather information, and the like. Information related to the operator 5 includes, for example, the schedule of the operator 5, contact information, favorite music, SNS (Social Networking Service) information, traffic information or weather information regarding the set destination, and POI (Point Of Interest). ) Information, purchasing behavior information, information on home appliances connected to the home network, etc.

例えば、外部情報取得部34が操作者5の自宅のネットワークに接続された家電の情報を取得すると、イベント検出部2は外部情報取得部34が家電の情報を取得したことをイベントとして検出する。そして、表示制御部3は、図32に示すように、操作者5の自宅の1階に設置されているエアコンの電源をオンまたはオフする動作を示す操作オブジェクト21を表示装置4に表示するように制御する。例えば、手のアイコンがスイッチのアイコンを押すごとに電源のオンおよびオフが交互に繰り返して表示されるような操作オブジェクトを表示してもよい。これにより、操作者5は、自宅のどの部屋の家電を操作するのかを容易に把握することができるとともに、どのようなジェスチャー操作を行えばよいのかを正確に理解することができる。 For example, when the external information acquisition unit 34 acquires the information of the home appliances connected to the home network of the operator 5, the event detection unit 2 detects that the external information acquisition unit 34 has acquired the information of the home appliances as an event. Then, as shown in FIG. 32, the display control unit 3 displays the operation object 21 indicating the operation of turning on or off the power of the air conditioner installed on the first floor of the operator 5's home on the display device 4. To control. For example, the operation object may be displayed such that the power on and off are alternately displayed each time the hand icon presses the switch icon. As a result, the operator 5 can easily grasp which room in the home the home appliance is to be operated, and can accurately understand what kind of gesture operation should be performed.

以上のことから、本実施の形態5によれば、外部情報を用いて操作オブジェクトを表示しているため、操作者5は例えば自宅に設置された家電を制御するためのジェスチャー操作を正確に理解することができる。従って、ジェスチャー操作装置6は、操作者5が行ったジェスチャー操作を精度良く判断することができる。 From the above, according to the fifth embodiment, since the operation object is displayed using external information, the operator 5 accurately understands the gesture operation for controlling the home appliance installed at home, for example. can do. Therefore, the gesture operation device 6 can accurately determine the gesture operation performed by the operator 5.

<実施の形態6>
図33は、本発明の実施の形態6によるジェスチャー操作装置35の構成の一例を示すブロック図である。
<Embodiment 6>
FIG. 33 is a block diagram showing an example of the configuration of the gesture operation device 35 according to the sixth embodiment of the present invention.

図33に示すように、本実施の形態6によるジェスチャー操作装置35は、機器制御部10が車両情報取得部36を有することを特徴としている。その他の構成および動作は、実施の形態1と同様であるため、ここでは詳細な説明を省略する。 As shown in FIG. 33, the gesture operation device 35 according to the sixth embodiment is characterized in that the device control unit 10 has a vehicle information acquisition unit 36. Since other configurations and operations are the same as those in the first embodiment, detailed description thereof will be omitted here.

車両情報取得部36は、車載機器15である車両内に設けられた各種制御装置から車両情報を取得する。車両情報は、車両に関する種々の情報である。 The vehicle information acquisition unit 36 acquires vehicle information from various control devices provided in the vehicle, which is an in-vehicle device 15. Vehicle information is various information about a vehicle.

例えば、車両情報取得部36が車載機器15から車両のトランクの扉が開いていることを示す情報を取得すると、イベント検出部2は車両情報取得部36が車両情報を取得したことをイベントとして検出する。そして、表示制御部3は、図34に示すように、車両のトランクを閉める動作を示す操作オブジェクト21を表示装置4に表示するように制御する。これにより、操作者5は、車両のトランクを閉めるためのジェスチャー操作を正確に理解することができる。 For example, when the vehicle information acquisition unit 36 acquires information indicating that the door of the trunk of the vehicle is open from the in-vehicle device 15, the event detection unit 2 detects that the vehicle information acquisition unit 36 has acquired the vehicle information as an event. To do. Then, as shown in FIG. 34, the display control unit 3 controls the display device 4 to display the operation object 21 indicating the operation of closing the trunk of the vehicle. This allows the operator 5 to accurately understand the gesture operation for closing the trunk of the vehicle.

また、例えば、端末通信部11が携帯通信端末12から当該携帯通信端末12に関する情報を取得すると、イベント検出部2は端末通信部11が携帯通信端末12に関する情報を取得したことをイベントとして検出する。そして、表示制御部3は、図35に示すように、携帯通信端末12に関する情報の表示の切り替えを行う動作を示す操作オブジェクト21を表示装置4に表示するように制御する。これにより、操作者5は、携帯通信端末12に関する情報の表示の切り替えを行うためのジェスチャー操作を正確に理解することができる。 Further, for example, when the terminal communication unit 11 acquires information about the mobile communication terminal 12 from the mobile communication terminal 12, the event detection unit 2 detects that the terminal communication unit 11 has acquired the information about the mobile communication terminal 12 as an event. .. Then, as shown in FIG. 35, the display control unit 3 controls the display device 4 to display the operation object 21 indicating the operation of switching the display of the information related to the mobile communication terminal 12. As a result, the operator 5 can accurately understand the gesture operation for switching the display of the information regarding the mobile communication terminal 12.

以上のことから、本実施の形態6によれば、車載機器15または携帯通信端末12から取得した情報を用いて操作オブジェクトを表示しているため、操作者5は車載機器15または携帯通信端末12を制御するためのジェスチャー操作を正確に理解することができる。従って、ジェスチャー操作装置6は、操作者5が行ったジェスチャー操作を精度良く判断することができる。 From the above, according to the sixth embodiment, since the operation object is displayed using the information acquired from the in-vehicle device 15 or the mobile communication terminal 12, the operator 5 displays the operation object in the in-vehicle device 15 or the mobile communication terminal 12. Can accurately understand the gesture operation for controlling. Therefore, the gesture operation device 6 can accurately determine the gesture operation performed by the operator 5.

以上で説明したジェスチャー操作装置は、車載用ナビゲーション装置、すなわちカーナビゲーション装置だけでなく、車両に搭載可能なPND(Portable Navigation Device)、および車両の外部に設けられるサーバなどを適宜に組み合わせてシステムとして構築されるナビゲーション装置あるいはナビゲーション装置以外の装置にも適用することができる。この場合、ジェスチャー操作装置の各機能あるいは各構成要素は、上記システムを構築する各機能に分散して配置される。 The gesture operation device described above is a system in which not only an in-vehicle navigation device, that is, a car navigation device, but also a PND (Portable Navigation Device) that can be mounted on a vehicle, a server provided outside the vehicle, and the like are appropriately combined. It can also be applied to a navigation device to be constructed or a device other than the navigation device. In this case, each function or each component of the gesture operation device is distributed and arranged in each function for constructing the system.

具体的には、一例として、ジェスチャー操作装置の機能をサーバに配置することができる。例えば、図36に示すように、ユーザ側は、表示装置4、携帯通信端末12、ジェスチャー操作検出装置13、音声入力装置14、車載機器15、および音声出力装置16を備えている。サーバ37は、イベント検出部2、表示制御部3、通信部7、ジェスチャー操作取得部8、操作判断部9、機器制御部10、および端末通信部11を備えている。このような構成とすることによって、ジェスチャー操作システムを構築することができる。図25に示すジェスチャー操作装置26、図27に示すジェスチャー操作装置28、図28に示すジェスチャー操作装置31、図31に示すジェスチャー操作装置33、および図33に示すジェスチャー操作装置35についても同様である。 Specifically, as an example, the function of the gesture operation device can be arranged on the server. For example, as shown in FIG. 36, the user side includes a display device 4, a mobile communication terminal 12, a gesture operation detection device 13, a voice input device 14, an in-vehicle device 15, and a voice output device 16. The server 37 includes an event detection unit 2, a display control unit 3, a communication unit 7, a gesture operation acquisition unit 8, an operation determination unit 9, a device control unit 10, and a terminal communication unit 11. With such a configuration, a gesture operation system can be constructed. The same applies to the gesture operation device 26 shown in FIG. 25, the gesture operation device 28 shown in FIG. 27, the gesture operation device 31 shown in FIG. 28, the gesture operation device 33 shown in FIG. 31, and the gesture operation device 35 shown in FIG. 33. ..

このように、ジェスチャー操作装置の各機能を、システムを構築する各機能に分散して配置した構成であっても、上記の実施の形態と同様の効果が得られる。 As described above, even if each function of the gesture operation device is distributed and arranged in each function for constructing the system, the same effect as that of the above-described embodiment can be obtained.

また、上記の実施の形態における動作を実行するソフトウェアを、例えばサーバに組み込んでもよい。このソフトウェアをサーバが実行することにより実現されるジェスチャー操作方法は、イベントを検出し、検出したイベントに対して、当該イベントを進行させるために操作者が行うことが可能な動作に、操作者の意図を示すジェスチャー操作を誘導する操作オブジェクトを三次元で表示する制御を行うことである。 Further, software that executes the operation according to the above embodiment may be incorporated into, for example, a server. The gesture operation method realized by the server executing this software is to detect an event and, in response to the detected event, an operation that can be performed by the operator to advance the event. It is to control the display of the operation object that guides the gesture operation indicating the intention in three dimensions.

このように、上記の実施の形態における動作を実行するソフトウェアをサーバに組み込んで動作させることによって、上記の実施の形態と同様の効果が得られる。 As described above, by incorporating the software that executes the operation according to the above embodiment into the server and operating the server, the same effect as that of the above embodiment can be obtained.

なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略することが可能である。 In the present invention, each embodiment can be freely combined, and each embodiment can be appropriately modified or omitted within the scope of the invention.

本発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。 Although the present invention has been described in detail, the above description is exemplary in all embodiments and the invention is not limited thereto. It is understood that innumerable variations not illustrated can be assumed without departing from the scope of the present invention.

1 ジェスチャー操作装置、2 イベント検出部、3 表示制御部、4 表示装置、5 操作者、6 ジェスチャー操作装置、7 通信部、8 ジェスチャー操作取得部、9 操作判断部、10 機器制御部、11 端末通信部、12 携帯通信端末、13 ジェスチャー操作検出装置、14 音声入力装置、15 車載機器、16 音声出力装置、17 ジェスチャー操作空間、18 プロセッサ、19 メモリ、20 未読アイコン、21 操作オブジェクト、22 検出アイコン、23 ホーム画面、24 現在地画面、25 地図スクロール画面、26 ジェスチャー操作装置、27 音像制御部、28 ジェスチャー操作装置、29 状態取得部、30 状態検出装置、31 ジェスチャー操作装置、32 操作履歴情報記憶部、33 ジェスチャー操作装置、34 外部情報取得部、35 ジェスチャー操作装置、36 車両情報取得部、37 サーバ。 1 Gesture operation device, 2 Event detection unit, 3 Display control unit, 4 Display device, 5 Operator, 6 Gesture operation device, 7 Communication unit, 8 Gesture operation acquisition unit, 9 Operation judgment unit, 10 Device control unit, 11 terminals Communication unit, 12 mobile communication terminal, 13 gesture operation detection device, 14 voice input device, 15 in-vehicle device, 16 voice output device, 17 gesture operation space, 18 processor, 19 memory, 20 unread icon, 21 operation object, 22 detection icon , 23 Home screen, 24 Current location screen, 25 Map scroll screen, 26 Gesture operation device, 27 Sound image control unit, 28 Gesture operation device, 29 State acquisition unit, 30 State detection device, 31 Gesture operation device, 32 Operation history information storage unit , 33 Gesture operation device, 34 External information acquisition unit, 35 Gesture operation device, 36 Vehicle information acquisition unit, 37 Server.

Claims (19)

イベントを検出するイベント検出部と、
前記イベント検出部が検出した前記イベントに対して、当該イベントを進行させるために操作者が行うことが可能な動作に、前記操作者の意図を示すジェスチャー操作を誘導する操作オブジェクトを三次元で表示する制御を行う表示制御部と、
を備え、
前記表示制御部は、前記操作オブジェクトとともに前記ジェスチャー操作の対象となる機能を表す操作対象オブジェクトを表示する制御を行い、前記操作対象オブジェクトを手で操作する態様で前記操作オブジェクトを表示する制御を行い、
前記操作オブジェクトは、前記操作者が裸眼で表示画面を見たときに三次元表示空間において奥行きを有し、
前記操作者の前記ジェスチャー操作を取得するジェスチャー操作取得部と、
前記ジェスチャー操作取得部が取得した前記ジェスチャー操作が前記操作オブジェクトに従う動きであるか否かを判断する操作判断部と、
前記操作判断部が判断した結果を操作履歴情報として記憶する操作履歴情報記憶部と、
をさらに備える、ジェスチャー操作装置。
An event detector that detects events and
For the event detected by the event detection unit, an operation object that guides a gesture operation indicating the intention of the operator is displayed in three dimensions in an operation that can be performed by the operator to advance the event. Display control unit that controls
With
The display control unit controls to display the operation target object representing the function to be the target of the gesture operation together with the operation object, and controls to display the operation object in a manner of manually operating the operation target object. ,
The operation object is to have a depth in the three-dimensional display space when the operator is looking at the display screen with the naked eye,
A gesture operation acquisition unit that acquires the gesture operation of the operator, and a gesture operation acquisition unit.
An operation determination unit that determines whether or not the gesture operation acquired by the gesture operation acquisition unit is a movement that follows the operation object.
An operation history information storage unit that stores the result of determination by the operation determination unit as operation history information,
Further comprising Ru, gesture operation device.
前記表示制御部は、前記イベントに対応して前記操作者が行うべき一連の前記ジェスチャー操作を示す前記操作オブジェクトを表示する制御を行うことを特徴とする、請求項1に記載のジェスチャー操作装置。 The gesture operation device according to claim 1, wherein the display control unit controls to display the operation object indicating a series of gesture operations to be performed by the operator in response to the event. 前記表示制御部は、前記イベントに対して前記操作者が次に行うべき一の前記ジェスチャー操作を示す前記操作オブジェクトを表示する制御を行うことを特徴とする、請求項1に記載のジェスチャー操作装置。 The gesture operation device according to claim 1, wherein the display control unit controls to display the operation object indicating one of the gesture operations to be performed by the operator for the event. .. 記表示制御部は、前記操作オブジェクトを前記三次元表示空間における奥側に表示し、前記ジェスチャー操作取得部が取得した前記操作者の手のアイコンを前記三次元表示空間における手前側に表示する制御を行い、
前記表示制御部は、前記操作者の手のアイコンが、前記操作対象オブジェクトに対する前記操作者の手の位置に対応する位置に表示する制御を行い、
前記操作判断部は、前記操作者の手のアイコンが前記操作対象オブジェクトに重なったとき、前記ジェスチャー操作が前記操作オブジェクトに従う動きであると判断することを特徴とする、請求項3に記載のジェスチャー操作装置。
Before Symbol display control unit displays the operation object on the rear side of the three-dimensional display space to display the hand icon of the operator which the gesture operation acquisition unit has acquired to the front side of the three-dimensional display space Take control and
The display control unit controls the display of the operator's hand icon at a position corresponding to the position of the operator's hand with respect to the operation target object.
The gesture according to claim 3, wherein the operation determination unit determines that the gesture operation is a movement according to the operation object when the icon of the operator's hand overlaps with the operation target object. Operating device.
記操作判断部が前記操作オブジェクトに従う動きであると判断した場合、前記表示制御部は、前記ジェスチャー操作取得部が取得した前記ジェスチャー操作に合わせて前記操作オブジェクトが動くように制御することを特徴とする、請求項1に記載のジェスチャー操作装置。 If the previous SL operation determination unit determines that a movement according to the manipulation object, the display control unit, wherein the control object is controlled to move in accordance with the said gesture operation in which the gesture operation acquisition unit acquires The gesture operation device according to claim 1. 携帯通信端末と通信接続可能な端末通信部をさらに備え、
前記表示制御部は、前記端末通信部が通信している前記携帯通信端末の操作画面を前記操作対象オブジェクトとして表示する制御を行い、前記端末通信部を介して取得した前記携帯通信端末の情報に基づいて前記操作オブジェクトを表示する制御を行うことを特徴とする、請求項1に記載のジェスチャー操作装置。
It also has a terminal communication unit that can connect to mobile communication terminals.
The display control unit controls to display the operation screen of the mobile communication terminal with which the terminal communication unit is communicating as the operation target object, and obtains information on the mobile communication terminal via the terminal communication unit. The gesture operation device according to claim 1, wherein the operation object is controlled to be displayed based on the control.
音像を制御する音像制御部をさらに備え、
前記音像制御部は、前記操作オブジェクトの表示位置に応じて前記音像を制御することを特徴とする、請求項1に記載のジェスチャー操作装置。
It also has a sound image control unit that controls the sound image.
The gesture operation device according to claim 1, wherein the sound image control unit controls the sound image according to a display position of the operation object.
少なくとも前記操作者の目の位置および視線を含む前記操作者の状態を取得する状態取得部をさらに備え、
前記表示制御部は、前記状態取得部が取得した前記操作者の状態に基づいて前記操作オブジェクトの表示位置を制御することを特徴とする、請求項1に記載のジェスチャー操作装置。
A state acquisition unit for acquiring the state of the operator including at least the position of the eyes and the line of sight of the operator is further provided.
The gesture operation device according to claim 1, wherein the display control unit controls a display position of the operation object based on the state of the operator acquired by the state acquisition unit.
前記操作者の状態を取得する状態取得部をさらに備え、
前記状態取得部は、前記操作判断部が判断した結果に対する前記操作者の反応を取得し、
前記操作履歴情報記憶部は、前記操作者の反応を前記操作履歴情報に含めて記憶することを特徴とする、請求項に記載のジェスチャー操作装置。
A state acquisition unit for acquiring the state of the operator is further provided.
The state acquisition unit acquires the reaction of the operator to the result determined by the operation determination unit.
The operation history information storage unit, and to store, including reaction of the operator to the operation history information, the gesture control device according to claim 1.
前記操作判断部は、前記操作者が前記ジェスチャー操作以外の他の操作を行った場合は前記判断を行わないことを特徴とする、請求項に記載のジェスチャー操作装置。 The gesture operation device according to claim 1 , wherein the operation determination unit does not perform the determination when the operator performs an operation other than the gesture operation. 外部情報を取得する外部情報取得部をさらに備え、
前記表示制御部は、前記外部情報取得部が取得した前記外部情報に基づいて、前記操作オブジェクトを表示する制御を行うことを特徴とする、請求項1に記載のジェスチャー操作装置。
It also has an external information acquisition unit that acquires external information.
The gesture operation device according to claim 1, wherein the display control unit controls the display of the operation object based on the external information acquired by the external information acquisition unit.
車両情報を取得する車両情報取得部をさらに備え、
前記表示制御部は、前記車両情報取得部が取得した前記車両情報に基づいて、前記操作オブジェクトを表示する制御を行うことを特徴とする、請求項1に記載のジェスチャー操作装置。
It also has a vehicle information acquisition unit that acquires vehicle information.
The gesture operation device according to claim 1, wherein the display control unit controls to display the operation object based on the vehicle information acquired by the vehicle information acquisition unit.
音像を制御する音像制御部をさらに備え、
前記音像制御部は、前記操作者の手のアイコンの表示位置に応じて前記音像を制御することを特徴とする、請求項4に記載のジェスチャー操作装置。
It also has a sound image control unit that controls the sound image.
The gesture operation device according to claim 4, wherein the sound image control unit controls the sound image according to a display position of an icon of the operator's hand.
前記表示制御部は、裸眼立体表示を行う表示装置、虚像表示を行う表示装置、および透過型の表示面を複数重ねて構成される表示装置のうちの少なくとも1つに前記操作オブジェクトを表示する制御を行うことを特徴とする、請求項1に記載のジェスチャー操作装置。 The display control unit controls to display the operation object on at least one of a display device that performs a three-dimensional display with the naked eye, a display device that displays a virtual image, and a display device that is configured by stacking a plurality of transmissive display surfaces. The gesture operation device according to claim 1, wherein the gesture operation device is characterized in that. 記操作判断部が前記操作オブジェクトに従う動きであると判断した場合、前記ジェスチャー操作に基づいて機器を制御する機器制御部をさらに備える、請求項1に記載のジェスチャー操作装置。 If the previous SL operation determination unit determines that the motion according to the operation object, further comprising a device control unit for controlling the device based on the gesture operation, gesture operation device according to claim 1. 前記表示制御部は、前記イベントが進行する前記ジェスチャー操作に対応した動きとなるように前記操作オブジェクトを表示する制御を行うことを特徴とする、請求項1に記載のジェスチャー操作装置。 The gesture operation device according to claim 1, wherein the display control unit controls to display the operation object so that the movement corresponds to the gesture operation in which the event progresses. 前記表示制御部は、前記車両情報に基づく車両機構を前記操作対象オブジェクトとして表示する制御を行うことを特徴とする、請求項12に記載のジェスチャー操作装置。 The gesture operation device according to claim 12 , wherein the display control unit controls to display the vehicle mechanism based on the vehicle information as the operation target object. 前記操作オブジェクトは、時間的に奥行きが変化することを特徴とする、請求項1に記載のジェスチャー操作装置。 The gesture operation device according to claim 1, wherein the operation object changes in depth with time. イベントを検出し、
前記検出した前記イベントに対して、当該イベントを進行させるために操作者が行うことが可能な動作に、前記操作者の意図を示すジェスチャー操作を誘導する操作オブジェクトを三次元で表示する制御を行い、
前記操作オブジェクトとともに前記ジェスチャー操作の対象となる機能を表す操作対象オブジェクトを表示する制御を行い、
前記操作対象オブジェクトを手で操作する態様で前記操作オブジェクトを表示する制御を行い、
前記操作オブジェクトは、前記操作者が裸眼で表示画面を見たときに三次元表示空間において奥行きを有し、
前記操作者の前記ジェスチャー操作を取得し、
取得した前記ジェスチャー操作が前記操作オブジェクトに従う動きであるか否かを判断し、
判断した結果を操作履歴情報として記憶する、ジェスチャー操作方法。
Detects an event and
For the detected event, control is performed to display an operation object for inducing a gesture operation indicating the intention of the operator in three dimensions in an operation that can be performed by the operator to advance the event. ,
Control is performed to display the operation target object representing the function to be the target of the gesture operation together with the operation object.
Control the display of the operation object in a manner in which the operation target object is manually operated.
The operation object is to have a depth in the three-dimensional display space when the operator is looking at the display screen with the naked eye,
Acquire the gesture operation of the operator and
It is determined whether or not the acquired gesture operation is a movement that follows the operation object.
Gesture operation method that stores the judgment result as operation history information.
JP2019567457A 2018-01-25 2018-01-25 Gesture operation device and gesture operation method Active JP6900133B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/002242 WO2019146032A1 (en) 2018-01-25 2018-01-25 Gesture operation device and gesture operation method

Publications (2)

Publication Number Publication Date
JPWO2019146032A1 JPWO2019146032A1 (en) 2020-07-02
JP6900133B2 true JP6900133B2 (en) 2021-07-07

Family

ID=67395344

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019567457A Active JP6900133B2 (en) 2018-01-25 2018-01-25 Gesture operation device and gesture operation method

Country Status (2)

Country Link
JP (1) JP6900133B2 (en)
WO (1) WO2019146032A1 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017200571A1 (en) 2016-05-16 2017-11-23 Google Llc Gesture-based control of a user interface
CN113924568A (en) 2019-06-26 2022-01-11 谷歌有限责任公司 Radar-based authentication status feedback
JP7292437B2 (en) 2019-07-26 2023-06-16 グーグル エルエルシー Degradation based on IMU and radar
US11868537B2 (en) 2019-07-26 2024-01-09 Google Llc Robust radar-based gesture-recognition by user equipment
KR20210153695A (en) 2019-07-26 2021-12-17 구글 엘엘씨 Authentication management via IMU and radar
US11385722B2 (en) 2019-07-26 2022-07-12 Google Llc Robust radar-based gesture-recognition by user equipment
WO2021040748A1 (en) 2019-08-30 2021-03-04 Google Llc Visual indicator for paused radar gestures
CN112753005B (en) 2019-08-30 2024-03-01 谷歌有限责任公司 Input method of mobile device
US11467672B2 (en) 2019-08-30 2022-10-11 Google Llc Context-sensitive control of radar-based gesture-recognition
US20210103348A1 (en) * 2019-10-03 2021-04-08 Google Llc Facilitating User-Proficiency in Using Radar Gestures to Interact with an Electronic Device

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008089985A (en) * 2006-10-02 2008-04-17 Pioneer Electronic Corp Image display device
JP2009089068A (en) * 2007-09-28 2009-04-23 Victor Co Of Japan Ltd Control device for electronic apparatus, control method and control program
CN102099728A (en) * 2008-07-15 2011-06-15 株式会社Ip舍路信 Naked eye three-dimensional video image display system, naked eye three-dimensional video image display device, amusement game machine and parallax barrier sheet
US9134800B2 (en) * 2010-07-20 2015-09-15 Panasonic Intellectual Property Corporation Of America Gesture input device and gesture input method
US8970484B2 (en) * 2010-07-23 2015-03-03 Nec Corporation Three dimensional display device and three dimensional display method
JP2013211712A (en) * 2012-03-30 2013-10-10 Sony Corp Output controller, output control method, and program
EP3623924A1 (en) * 2013-09-17 2020-03-18 Amazon Technologies, Inc. Approaches for three-dimensional object display
EP3229128A4 (en) * 2014-12-02 2018-05-30 Sony Corporation Information processing device, information processing method, and program
JP2017027401A (en) * 2015-07-23 2017-02-02 株式会社デンソー Display operation device

Also Published As

Publication number Publication date
JPWO2019146032A1 (en) 2020-07-02
WO2019146032A1 (en) 2019-08-01

Similar Documents

Publication Publication Date Title
JP6900133B2 (en) Gesture operation device and gesture operation method
AU2019213441C1 (en) Device, method, and graphical user interface for synchronizing two or more displays
JP5238635B2 (en) Information processing apparatus and application program activation method
EP3000013B1 (en) Interactive multi-touch remote control
EP3099040B1 (en) Button operation processing method in single-hand mode, apparatus and electronic device
WO2016132876A1 (en) Information processing device
WO2016002872A1 (en) Information processing device
US11048401B2 (en) Device, computer program and method for gesture based scrolling
WO2014208691A1 (en) Portable device and method for controlling portable device
JP2010211500A (en) Operation device
US20150253887A1 (en) Information processing apparatus
US20150363083A1 (en) User Interface and Method for Adapting Semantic Scaling of a Tile
WO2016143613A1 (en) Mirror, in-vehicle operation device, and vehicle
CN109358929A (en) Multi-screen display method, device and storage medium
JP6844936B2 (en) Display control device
US9733725B2 (en) Control unit, input apparatus and method for an information and communication system
JP7338184B2 (en) Information processing device, information processing system, moving body, information processing method, and program
KR101511118B1 (en) Apparatus and method for displaying split screen
JP7340150B2 (en) Operation image display device, operation image display system, and operation image display program
US20150089451A1 (en) User terminal, electronic device, and control method thereof
US20200272325A1 (en) Input control device, input device, and input control method
CN111373359A (en) Electronic device capable of changing display portion of image
JP2014164388A (en) Information presentation device
JP2015011386A (en) Mobile device, control method thereof, and program
JPWO2019016878A1 (en) Operation support apparatus and operation support method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200114

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201215

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210203

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210302

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210405

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210405

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210414

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210615

R150 Certificate of patent or registration of utility model

Ref document number: 6900133

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150