JP2013239089A - Display control device, display control method, information display system, and program - Google Patents

Display control device, display control method, information display system, and program Download PDF

Info

Publication number
JP2013239089A
JP2013239089A JP2012112816A JP2012112816A JP2013239089A JP 2013239089 A JP2013239089 A JP 2013239089A JP 2012112816 A JP2012112816 A JP 2012112816A JP 2012112816 A JP2012112816 A JP 2012112816A JP 2013239089 A JP2013239089 A JP 2013239089A
Authority
JP
Japan
Prior art keywords
user
display
hand
display control
instruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012112816A
Other languages
Japanese (ja)
Other versions
JP5735453B2 (en
Inventor
Shinya Hasegawa
真也 長谷川
Hiroshi Machida
宏司 町田
Kohei Yokoi
孝平 横井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2012112816A priority Critical patent/JP5735453B2/en
Publication of JP2013239089A publication Critical patent/JP2013239089A/en
Application granted granted Critical
Publication of JP5735453B2 publication Critical patent/JP5735453B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an information display device that easily determines a user's hand finger used for operation.SOLUTION: A display control device for controlling display content of a display device in accordance with movement of a user's hand comprises: a specification unit that specifies the user's hand as a hand for operation in response to recognition that the user's hand is positioned in a direction of the user's face on the basis of a detection result from a detection sensor for detecting the position of the user's body in a space; an instruction acquisition unit that recognizes movement of the hand for operation to acquire an operation instruction for the display content of the display device; and a display control unit that controls the display content of the display device in accordance with the operation instruction.

Description

本発明は、表示制御装置、表示制御方法、情報表示システム、およびプログラムに関する。   The present invention relates to a display control device, a display control method, an information display system, and a program.

従来、使用者のジェスチャー等を検出して情報の選択および表示等の指示を入力させ、当該使用者と、当該使用者の指示等に応じた情報とを表示する情報表示装置が知られている。(例えば、特許文献1および2参照)。
特許文献1 特開2001−216527号公報
特許文献2 特開2010−72749号公報
特許文献3 特開2006−277666号公報
特許文献4 特表2008−511069号公報
特許文献5 特表2011−505639号公報
2. Description of the Related Art Conventionally, there is known an information display device that detects a user's gesture and the like, inputs an instruction for selecting and displaying information, and displays the user and information corresponding to the user's instruction and the like. . (For example, refer to Patent Documents 1 and 2).
Patent Literature 1 JP 2001-216527 A Patent Literature 2 JP 2010-72749 A Patent Literature 3 JP 2006-277666 A Patent Literature 4 JP 2008-51069 A Patent Literature 5 JP 2011-505539 A

しかしながら、このような情報表示装置において、使用者の操作に用いる手指を簡便に判断することは難しかった。また、使用者の熟練の度合いによって、当該使用者の操作入力に対して感じる難易度の差が大きく、初心者用の入力ガイド表示は、熟練者にとっては煩わしい表示となってしまい、熟練者用にガイドを表示しないと初心者は入力方法に手間取ってしまうことがあった。   However, in such an information display device, it has been difficult to easily determine a finger used for a user's operation. In addition, depending on the level of skill of the user, the difference in the degree of difficulty felt for the user's operation input is large, and the input guide display for beginners is an annoying display for the skilled person. If the guide is not displayed, the beginner sometimes takes time to input.

本発明の第1の態様においては、使用者の手の動きに応じて表示装置の表示内容を制御する表示制御装置であって、使用者の身体の空間上の位置を検出する検出センサからの検出結果に基づいて、使用者の顔の向きに使用者の手が位置したことを認識したことに応じて、当該使用者の手を操作用の手として特定する特定部と、前記操作用の手の動きを認識して、表示装置の表示内容に対する操作指示を取得する指示取得部と、操作指示に応じて表示装置の表示内容を制御する表示制御部と、を備える表示制御装置、表示制御方法、情報表示システム、およびプログラムを提供する。   According to a first aspect of the present invention, there is provided a display control device for controlling display contents of a display device in accordance with a movement of a user's hand, from a detection sensor for detecting a position of the user's body in space. Based on the detection result, in response to recognizing that the user's hand is positioned in the direction of the user's face, the identifying unit that identifies the user's hand as the operation hand, and the operation A display control device, comprising: an instruction acquisition unit that recognizes a hand movement and acquires an operation instruction for display content of the display device; and a display control unit that controls display content of the display device according to the operation instruction, display control A method, an information display system, and a program are provided.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

本実施形態に係る情報表示システム10の構成例を使用者20と共に示す。The structural example of the information display system 10 which concerns on this embodiment is shown with the user 20. FIG. 本実施形態に係る情報表示システム10の変形例を使用者20と共に示す。The modification of the information display system 10 which concerns on this embodiment is shown with the user 20. FIG. 本実施形態に係る情報表示システム10の動作フローを示す。The operation | movement flow of the information display system 10 which concerns on this embodiment is shown. 本実施形態に係る表示制御装置300として機能するコンピュータ1900のハードウェア構成の一例を示す。An example of a hardware configuration of a computer 1900 functioning as the display control apparatus 300 according to the present embodiment is shown.

以下、本発明の実施の形態を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。   Embodiments of the present invention will be described below, but the following embodiments do not limit the invention according to the claims.

図1は、本実施形態に係る情報表示システム10の構成例を使用者20と共に示す。情報表示システム10は、使用者の熟練度に応じて操作に用いる手指を判断し、当該使用者の操作指示等に応じた情報を表示する。本実施形態において、情報表示システム10は、使用者20の指示等に応じた情報を表示する例を説明する。   FIG. 1 shows a configuration example of an information display system 10 according to this embodiment together with a user 20. The information display system 10 determines the finger used for the operation according to the skill level of the user, and displays information according to the operation instruction of the user. In this embodiment, the information display system 10 demonstrates the example which displays the information according to the user's 20 instruction | indication.

使用者20は、情報表示システム10に手指等のジェスチャー等で指示を入力し、ゲーム、メールの送受信、Webの閲覧、ソーシャルネットワークへの参加、画像または動画の閲覧、および文書編集等、情報の表示およびアプリケーションの実行等を指示する。情報表示システム10は、表示装置100と、検出センサ装置200と、表示制御装置300とを備える。   The user 20 inputs an instruction to the information display system 10 with a gesture such as a finger, and receives information such as games, mail transmission / reception, Web browsing, participation in a social network, image or video browsing, and document editing. Instructs display and application execution. The information display system 10 includes a display device 100, a detection sensor device 200, and a display control device 300.

表示装置100は、表示領域110に、使用者20の指示に応じた情報を表示する。表示装置100は、当該情報と共に、使用者20を表示してもよい。表示装置100は、使用者が複数いる場合、表示領域110を複数に分割し、当該複数の使用者に対応する情報を対応する表示領域にそれぞれ表示してもよい。また、表示装置100は、使用者20のシルエットを表示してもよい。   The display device 100 displays information corresponding to the instruction of the user 20 in the display area 110. The display device 100 may display the user 20 together with the information. When there are a plurality of users, the display device 100 may divide the display area 110 into a plurality of pieces and display information corresponding to the plurality of users in the corresponding display areas. The display device 100 may display the silhouette of the user 20.

表示装置100は、二次元画像または三次元画像を表示する、液晶ディスプレイ、プラズマディスプレイまたは有機エレクトロルミネッセンスディスプレイ等の電子表示装置であってよい。図1に示す例における表示領域110には、第1使用者20の指示に応じて、カーソル、情報116およびアイコン等が表示される。   The display device 100 may be an electronic display device such as a liquid crystal display, a plasma display, or an organic electroluminescence display that displays a two-dimensional image or a three-dimensional image. In the example shown in FIG. 1, a cursor, information 116, icons, and the like are displayed in response to an instruction from the first user 20.

カーソルは、使用者20の操作用の手22に対応して表示される。表示装置100が使用者20の情報と共に使用者20の鏡像を表示する場合、カーソルは、使用者20の操作用の手22の鏡像でよい。また、カーソルは、矢印等の図形であってもよい。ここで、表示装置100が使用者20を表示しない場合、カーソルは、予め定められた形状のポインタ画像でよい。また、カーソルは、使用者20の指示または予め定めた設定により、表示されなくてもよい。図1は、カーソル表示をオフにした例を示す。   The cursor is displayed corresponding to the operation hand 22 of the user 20. When the display device 100 displays a mirror image of the user 20 together with the information of the user 20, the cursor may be a mirror image of the hand 22 for operating the user 20. The cursor may be a figure such as an arrow. Here, when the display device 100 does not display the user 20, the cursor may be a pointer image having a predetermined shape. Further, the cursor may not be displayed according to an instruction from the user 20 or a predetermined setting. FIG. 1 shows an example in which the cursor display is turned off.

情報116は、例えば、ウィンドウ表示される文書、画像、動画、またはWebコンテンツである。これに代えて、情報116は、使用者20が実行させたアプリケーションの実行画面であってもよい。   The information 116 is, for example, a document, image, moving image, or web content displayed in a window. Instead of this, the information 116 may be an execution screen of an application executed by the user 20.

検出センサ装置200は、使用者20の身体の空間上の位置を検出する。検出センサ装置200は、表示装置100を使用する使用者が複数いる場合、当該複数の使用者を検出してよい。検出センサ装置200は、使用者20の身体の一部または全体の二次元および/または三次元空間上の位置を検出してよい。検出センサ装置200は、例えば、光波測距センサおよび/またはビデオカメラ等の撮像部を有する。   The detection sensor device 200 detects the position of the user 20 in the body space. When there are a plurality of users who use the display device 100, the detection sensor device 200 may detect the plurality of users. The detection sensor device 200 may detect a position in a two-dimensional and / or three-dimensional space of a part or the whole of the body of the user 20. The detection sensor device 200 includes, for example, an imaging unit such as a light wave distance sensor and / or a video camera.

光波測距センサは、光波測距を用いて距離データの画像を生成し、生成した距離データの画像から使用者を検出する。一例として、光波測距センサは、赤外線等の光を照射する投光器、集光レンズ等の光学系、および、複数の画素を含み、画素毎に使用者からの反射光の検出時間を測定する測距素子を有する。光波測距センサは、使用者に赤外線等を照射し、その反射光を光学系により測距素子の受光面上に結像させ、測距素子の各画素が測定した反射光の検出時間を画像内の各画素の輝度値等に対応付けすることで、使用者の光波測距センサからの距離情報を含む画像を取得する。   The light wave ranging sensor generates an image of distance data using the light wave ranging, and detects a user from the generated image of distance data. As an example, an optical distance measuring sensor includes a projector that irradiates light such as infrared rays, an optical system such as a condenser lens, and a plurality of pixels, and measures a detection time of reflected light from a user for each pixel. It has a distance element. The optical distance measuring sensor irradiates the user with infrared rays and the like, forms an image of the reflected light on the light receiving surface of the distance measuring element by an optical system, and displays the detection time of the reflected light measured by each pixel of the distance measuring element. An image including distance information from the user's light wave distance measuring sensor is acquired by associating it with the luminance value of each of the pixels.

このように、光波測距センサは、三次元空間上の位置情報と共に使用者の画像を取得するので、使用者と背景画像とを分離することができる。また、光波測距センサは、このような検出を連続して実行することで、使用者の体の動き等を検出することができる。また、光波測距センサは、使用者を体、頭、上腕、下腕、手指、上腿、および下腿等に分離して各部を検出し、各部毎の検出を連続することで使用者のジェスチャーを精度よく検出してよい。   As described above, the optical distance measuring sensor acquires the image of the user together with the position information in the three-dimensional space, so that the user and the background image can be separated. Further, the light wave ranging sensor can detect the movement of the user's body and the like by continuously executing such detection. In addition, the optical distance measuring sensor separates the user into the body, head, upper arm, lower arm, fingers, upper thigh, lower thigh, etc., and detects each part. May be detected with high accuracy.

撮像部は、使用者を撮像する。撮像部は、1又は複数のビデオカメラを有し、使用者20を含む画像を取得して使用者20を検出する。撮像部は、撮像した画像より、画像処理によって各使用者を検出してよい。例えば、撮像部は、使用者20を時間的に連続して撮像した連続画像から、一つ前に撮像された画像との差分を算出した複数の差分画像を取得して、使用者20の動き等を検出する。これに代えて、撮像部は、2以上の視点から使用者20の画像を撮像して使用者20の視差画像を取得し、当該視差画像の視差情報に基づいて、使用者20の動き等を検出してもよい。   The imaging unit images the user. The imaging unit has one or a plurality of video cameras, acquires an image including the user 20 and detects the user 20. The imaging unit may detect each user from the captured image by image processing. For example, the imaging unit acquires a plurality of difference images obtained by calculating differences from the previous image captured from a continuous image obtained by continuously capturing the user 20 in time, and the movement of the user 20 Etc. are detected. Instead of this, the imaging unit captures the image of the user 20 from two or more viewpoints to obtain the parallax image of the user 20, and based on the parallax information of the parallax image, the movement of the user 20 and the like are determined. It may be detected.

ここで、検出センサ装置200は、上記の光波測距センサおよび撮像部を有し、使用者20の距離情報および動画像をそれぞれ検出し、使用者20の動きの検出感度を向上させてよい。検出センサ装置200は、使用者20の検出結果を表示制御装置300に供給する。   Here, the detection sensor device 200 may include the above-described light wave distance measuring sensor and imaging unit, detect distance information and a moving image of the user 20, and improve the motion detection sensitivity of the user 20. The detection sensor device 200 supplies the detection result of the user 20 to the display control device 300.

表示制御装置300は、使用者の手の動きに応じて表示装置100の表示内容を制御する。即ち、表示制御装置300は、検出センサ装置200の検出結果を入力し、使用者20の動きの検出結果から当該使用者20の指示を特定し、当該指示に応じて表示装置100の表示内容を制御する。表示制御装置300は、指示取得部310と、特定部320と、記憶部330と、実行部340と、表示制御部350と、カーソル制御部360と、を有する。   The display control device 300 controls the display content of the display device 100 according to the movement of the user's hand. That is, the display control device 300 inputs the detection result of the detection sensor device 200, specifies the instruction of the user 20 from the detection result of the movement of the user 20, and displays the display content of the display device 100 according to the instruction. Control. The display control apparatus 300 includes an instruction acquisition unit 310, a specifying unit 320, a storage unit 330, an execution unit 340, a display control unit 350, and a cursor control unit 360.

指示取得部310は、使用者20の操作用の手22の動きを認識して、表示装置100の表示内容に対する操作指示を取得する。指示取得部310は、検出センサ装置200に接続され、検出センサ装置200の検出結果に基づき、使用者20の動きから使用者20の指示を検出する。   The instruction acquisition unit 310 recognizes the movement of the operation hand 22 of the user 20 and acquires an operation instruction for the display content of the display device 100. The instruction acquisition unit 310 is connected to the detection sensor device 200 and detects an instruction of the user 20 from the movement of the user 20 based on the detection result of the detection sensor device 200.

例えば、指示取得部310は、表示装置100の前で人が立ち止まったことに応じて、当該立ち止まった人を使用者20として認識して使用者20のジェスチャー入力の検出を開始する。また、指示取得部310は、使用者20が表示装置100の前から立ち去ったことに応じて、当該使用者20のジェスチャー入力の検出を停止して使用者20としての認識を解除してよい。指示取得部310は、使用者の人数の増減を検出してよい。   For example, in response to the person stopping in front of the display device 100, the instruction acquisition unit 310 recognizes the stopped person as the user 20 and starts detecting the gesture input of the user 20. Further, the instruction acquisition unit 310 may stop detecting the gesture input of the user 20 and cancel the recognition as the user 20 in response to the user 20 leaving the front of the display device 100. The instruction acquisition unit 310 may detect an increase or decrease in the number of users.

また、指示取得部310は、使用者20の右手または左手を操作用の手22とし、表示装置100に表示された情報等への選択、選択解除、移動、および実行等の指示を検出してよい。また、指示取得部310は、表示装置100が情報をGUIによる操作入力を有するウィンドウ表示する場合に、当該操作入力に対応する使用者20の手指等からの指示を検出してよい。   In addition, the instruction acquisition unit 310 uses the right hand or the left hand of the user 20 as the operation hand 22 and detects instructions such as selection, deselection, movement, and execution of information displayed on the display device 100. Good. In addition, when the display device 100 displays information in a window having an operation input using a GUI, the instruction acquisition unit 310 may detect an instruction from the finger of the user 20 corresponding to the operation input.

例えば、指示取得部310は、使用者20が手のひらまたは指を表示装置100の表示面に向けて押す動作を検出することで、情報の選択、ボタンの押し下げ、およびウィンドウの切り替え等の指示を検出する。また、使用者20が手のひらまたは指を表示装置100の表示面に向けて繰り返し押す動作を検出することで、アプリケーションの実行等の指示を検出してよい。   For example, the instruction acquisition unit 310 detects an instruction for selecting information, pressing a button, switching a window, and the like by detecting an operation in which the user 20 pushes a palm or a finger toward the display surface of the display device 100. To do. In addition, an instruction to execute an application or the like may be detected by detecting an operation in which the user 20 repeatedly pushes a palm or a finger toward the display surface of the display device 100.

また、使用者20が画面上の情報を選択した後に、選択した手のひらまたは指を移動させる動作を検出することで、情報の画面上での移動、および移動先のアプリケーション実行等の指示を検出してよい。ここで、指示取得部310は、使用者20が選択指示をし、かつ、選択指示をした手指の表示装置100における表示位置に情報が表示されている場合、使用者20の当該情報の選択を検出してよい。指示取得部310は、検出センサ装置200が撮像部等を有し、撮像した画像を送信する場合は、使用者20を撮像した画像を入力する画像入力部として機能してよい。   In addition, after the user 20 selects the information on the screen, the movement of the selected palm or finger is detected, thereby detecting instructions such as movement of the information on the screen and execution of the destination application. It's okay. Here, when the user 20 issues a selection instruction and information is displayed at the display position of the display device 100 of the finger that has made the selection instruction, the instruction acquisition unit 310 selects the information of the user 20. May be detected. The instruction acquisition unit 310 may function as an image input unit that inputs an image of the user 20 when the detection sensor device 200 includes an imaging unit and transmits the captured image.

特定部320は、使用者20の身体の空間上の位置を検出する検出センサ装置200からの検出結果に基づいて、使用者20の顔の向きに使用者20の手が位置したことを認識したことに応じて、当該使用者20の手を操作用の手22として特定する。図1において、使用者20は、使用者20の顔の向きに右手を移動させた例を示す。特定部320は、このような使用者20の顔と右手の動作から、当該使用者20の右手を操作用の手22として特定する。   The identification unit 320 recognizes that the hand of the user 20 is positioned in the direction of the face of the user 20 based on the detection result from the detection sensor device 200 that detects the position of the user 20 in the body space. Accordingly, the user's 20 hand is specified as the operation hand 22. In FIG. 1, the user 20 shows an example in which the right hand is moved in the direction of the face of the user 20. The identification unit 320 identifies the right hand of the user 20 as the operation hand 22 from the face of the user 20 and the movement of the right hand.

例えば、特定部320は、検出センサ装置200からの検出結果に基づいて、使用者20の顔の向きと顔の輪郭を特定する。一例として、特定部320は、使用者20の顔の輪郭を通り、顔の向きに垂直な断面が当該輪郭とほぼ同じ形状の筒状の空間領域を、使用者の顔の向きに合わせて形成し、当該空間領域内に使用者20の手が位置したことを認識したことに応じて、その手を操作用の手22として特定する。ここで、特定部320が形成する筒状の空間領域を、図1において点線で示す。当該空間領域は、特定部320が仮想的に形成する領域であり、使用者20の顔の向きの変化に応じて当該空間領域の位置も変化する。   For example, the specifying unit 320 specifies the face direction and the face outline of the user 20 based on the detection result from the detection sensor device 200. As an example, the specifying unit 320 forms a cylindrical space region that passes through the contour of the face of the user 20 and whose cross section perpendicular to the face direction is approximately the same shape as the contour according to the orientation of the user's face. In response to recognizing that the hand of the user 20 is located in the space area, the hand is specified as the operation hand 22. Here, the cylindrical space region formed by the specifying portion 320 is indicated by a dotted line in FIG. The space region is a region virtually formed by the specifying unit 320, and the position of the space region also changes according to the change in the orientation of the face of the user 20.

これに代えて、特定部320は、検出センサ装置200からの検出結果に基づいて、使用者20の顔の向きを特定してもよい。一例として、特定部320は、使用者20の顔に接する予め定められた形状および面積の平面を底面とし側面を顔の向きと平行にした、使用者20の顔の位置から顔の向きの方向へ予め定められた長さの柱状の空間領域を仮想的に形成する。特定部320は、当該柱状の空間領域内に位置した使用者20の手を操作用の手22として特定してよい。ここで、予め定められた形状は、例えば、円形、楕円形、多角形等の形状である。   Instead of this, the specifying unit 320 may specify the orientation of the face of the user 20 based on the detection result from the detection sensor device 200. As an example, the specifying unit 320 has a predetermined shape and area in contact with the face of the user 20 as a bottom surface and a side surface parallel to the face direction from the position of the user 20 face to the face direction. A columnar space region having a predetermined length is virtually formed. The specifying unit 320 may specify the hand of the user 20 positioned in the columnar space area as the operation hand 22. Here, the predetermined shape is, for example, a shape such as a circle, an ellipse, or a polygon.

人間の顔の輪郭の広さは個人間で大きな差異はないことから、このように、底面を予め定められた面積に固定することによって、使用者20の輪郭を特定する必要が無くなるため、演算処理にかかる負荷を軽減できる。また、柱状の空間領域の長さを予め定められた長さにすれば、使用者20と検出センサ装置200との間に使用者20以外の物が通過しても、柱状の空間領域を遮って通過する可能性は低くすることができ、誤認識を防止することができる。   Since the width of the contour of the human face is not greatly different among individuals, it is not necessary to specify the contour of the user 20 by fixing the bottom surface to a predetermined area in this way. The load on processing can be reduced. Further, if the length of the columnar space region is set to a predetermined length, even if an object other than the user 20 passes between the user 20 and the detection sensor device 200, the columnar space region is blocked. The possibility of passing through can be reduced, and erroneous recognition can be prevented.

特定部320は、使用者20の顔の向きを特定する。この場合、特定部320は、画像処理等によって、使用者20の頭部、顔の輪郭、鼻の位置、目の位置、および/または口の位置等を検出することによって、使用者20の顔の向きを算出してよい。また、特定部320は、使用者20の画像から視線の方向を検出してもよい。この場合、特定部320は、使用者20の目の白目および黒目の画像から、黒目の向いている方向を検出して視線の方向を判断してよい。   The identifying unit 320 identifies the face direction of the user 20. In this case, the identification unit 320 detects the face of the user 20 by detecting the head, face outline, nose position, eye position, and / or mouth position of the user 20 by image processing or the like. May be calculated. The specifying unit 320 may detect the direction of the line of sight from the image of the user 20. In this case, the specifying unit 320 may determine the direction of the line of sight by detecting the direction of the black eye from the white eye and black eye images of the user 20.

また、特定部320は、検出センサ装置200からの検出結果に基づいて、使用者20の操作モードを特定する。例えば、特定部320は、使用者20の操作モードを、初心者用の操作モードまたは熟練者用の操作モードに特定する。本実施例において、初心者用の操作モードを第1の操作モードとし、熟練者用の操作モードを第2の操作モードとする。特定部320は、特定した使用者20の操作用の手22および使用者20の操作モードの情報を、記憶部330に記憶する。   Further, the specifying unit 320 specifies the operation mode of the user 20 based on the detection result from the detection sensor device 200. For example, the specifying unit 320 specifies the operation mode of the user 20 as an operation mode for a beginner or an operation mode for an expert. In this embodiment, the operation mode for beginners is set as the first operation mode, and the operation mode for skilled workers is set as the second operation mode. The specifying unit 320 stores the specified information on the operation hand 22 of the user 20 and the operation mode of the user 20 in the storage unit 330.

記憶部330は、使用者20に対して表示すべき情報を記憶する。記憶部330は、文書、画像、動画、Webコンテンツ、URL、およびアプリケーション等の情報を記憶してよい。また、記憶部330は、使用者20が複数の場合は、それぞれの使用者に対応する情報を、それぞれの使用者に対応づけて記憶してよい。   The storage unit 330 stores information to be displayed to the user 20. The storage unit 330 may store information such as documents, images, moving images, Web contents, URLs, and applications. In addition, when there are a plurality of users 20, the storage unit 330 may store information corresponding to each user in association with each user.

また、記憶部330は、使用者の動作パターンを記憶してもよい。この場合、指示取得部310は、記憶された動作パターンと検出された使用者の動作とを比較することで、使用者のジェスチャー入力による指示を検出することができる。また、記憶部330は、それぞれの使用者の画像情報を記憶してもよい。この場合、指示取得部310は、記憶された使用者と検出された使用者とを比較し、使用者がマッチングした場合に、当該使用者が過去に表示した情報を現在の表示領域110に表示させる指示を検出したと判断してよい。   The storage unit 330 may store a user's operation pattern. In this case, the instruction acquisition unit 310 can detect an instruction by a user's gesture input by comparing the stored operation pattern with the detected user's operation. The storage unit 330 may store image information of each user. In this case, the instruction acquisition unit 310 compares the stored user with the detected user, and displays information displayed by the user in the past in the current display area 110 when the user matches. It may be determined that an instruction to be detected has been detected.

実行部340は、指示取得部310が検出したアプリケーションの実行の指示に応じて、当該アプリケーションを実行する。実行部340は、予め記憶されたメール送受信、文書編集、画像表示、動画再生、Webブラウザ、および表示システム10の設定等のアプリケーションプログラムを実行してよい。また、実行部340は、アプリケーションのインストールおよびアンインストール等を、指示に応じて実行してよい。   The execution unit 340 executes the application in response to the application execution instruction detected by the instruction acquisition unit 310. The execution unit 340 may execute pre-stored application programs such as mail transmission / reception, document editing, image display, video playback, Web browser, and display system 10 settings. In addition, the execution unit 340 may execute application installation, uninstallation, and the like according to instructions.

実行部340は、当該アプリケーションの実行画面を表示させるべく、実行画面の情報を当該使用者20に対応づけて記憶部330に記憶してよい。また、実行部340は、当該アプリケーションの実行画面を表示領域110に表示させるべく、実行画面の情報を表示制御部350に供給してもよい。   The execution unit 340 may store information on the execution screen in the storage unit 330 in association with the user 20 in order to display the execution screen of the application. Further, the execution unit 340 may supply information on the execution screen to the display control unit 350 in order to display the execution screen of the application on the display area 110.

表示制御部350は、使用者20の操作指示に応じて表示装置100の表示内容を制御する。表示制御部350は、記憶部330に記憶された使用者20に対応付けられた情報を、表示領域110に表示してよい。また、表示制御部350は、記憶部330の記憶が更新される毎に、更新された情報を表示領域110に表示してよい。また、表示制御部350は、指示取得部310の検出した指示に応じた情報を表示してもよい。   The display control unit 350 controls the display content of the display device 100 in accordance with an operation instruction from the user 20. The display control unit 350 may display information associated with the user 20 stored in the storage unit 330 in the display area 110. In addition, the display control unit 350 may display the updated information in the display area 110 every time the storage of the storage unit 330 is updated. Further, the display control unit 350 may display information according to the instruction detected by the instruction acquisition unit 310.

表示制御部350は、使用者20が表示指示した情報を、表示領域110にウィンドウ表示させてよい。また、表示制御部350は、使用者20の指示に応じた情報を、使用者20を撮像した画像と共に表示制御してもよい。これに代えて、表示制御部350は、指示に応じた情報を、使用者20を撮像したシルエット画像と共に表示制御してもよい。   The display control unit 350 may display information instructed to be displayed by the user 20 on the display area 110 in a window. In addition, the display control unit 350 may display and control information corresponding to the instruction of the user 20 together with an image obtained by capturing the user 20. Instead of this, the display control unit 350 may display-control information corresponding to the instruction together with a silhouette image obtained by capturing the user 20.

表示制御部350は、使用者20の画像に重ねて、当該情報を表示制御してよい。これに代えて、表示制御部350は、当該情報に重ねて、当該使用者20の画像を表示制御してよい。表示制御部350は、予め定められた表示優先順位に応じて、使用者20の情報および使用者の画像を重ねて表示してよい。   The display control unit 350 may superimpose the information on the image of the user 20 and display-control the information. Instead of this, the display control unit 350 may superimpose the information and control the display of the image of the user 20. The display control unit 350 may display the information of the user 20 and the image of the user in an overlapping manner according to a predetermined display priority order.

図1の例において、表示制御部350は、使用者20の指示に応じた情報116等を、対応する表示領域110にウィンドウ表示する。また、表示制御部350は、使用者20の操作用の手22に対応づけられたカーソル、アプリケーションのアイコン、および使用者20の画像等を、表示領域110に表示する。   In the example of FIG. 1, the display control unit 350 displays information 116 or the like according to an instruction from the user 20 in a window in the corresponding display area 110. In addition, the display control unit 350 displays a cursor associated with the operation hand 22 of the user 20, an application icon, an image of the user 20, and the like in the display area 110.

カーソル制御部360は、使用者20の操作指示に応じて、表示装置100に表示された操作対象を選択するカーソルを表示させる。即ち、カーソル制御部360は、使用者20の操作用の手22の移動等を検出した検出結果を指示取得部310から受け取り、当該操作用の手22の移動に対応して、カーソルを表示および移動させる指示を表示制御部350に供給する。   The cursor control unit 360 displays a cursor for selecting an operation target displayed on the display device 100 in accordance with an operation instruction from the user 20. That is, the cursor control unit 360 receives a detection result obtained by detecting the movement or the like of the operation hand 22 of the user 20 from the instruction acquisition unit 310, and displays a cursor corresponding to the movement of the operation hand 22. An instruction to move is supplied to the display control unit 350.

カーソル制御部360は、使用者20の顔または目が向いている方向に操作用の手22がある場合には、使用者の顔または目と手の延長上にカーソルを表示してよい。この場合、カーソル制御部360は、指示取得部310から操作用の手22の中心位置の座標および使用者20の顔または目の座標等を含む操作指示を取得し、使用者20の操作用の手22の動きに応じてカーソルを表示装置100の表示領域110内で動かしてよい。   When the operation hand 22 is in the direction in which the face or eyes of the user 20 are facing, the cursor control unit 360 may display a cursor on the extension of the user's face or eyes and hands. In this case, the cursor control unit 360 acquires an operation instruction including the coordinates of the center position of the operation hand 22 and the coordinates of the face or eyes of the user 20 from the instruction acquisition unit 310, and for the operation of the user 20 The cursor may be moved within the display area 110 of the display device 100 according to the movement of the hand 22.

また、カーソル制御部は、使用者20の顔が向いている方向に操作用の手22がない場合には、使用者20の手の移動に応じてカーソルを表示制御してよい。この場合、カーソル制御部360は、指示取得部310から操作用の手22の中心位置の座標を含む操作指示を取得し、使用者20の操作用の手22の動きに応じてカーソルを表示装置100の表示領域110内で動かしてよい。カーソル制御部360は、カーソルの表示領域110内の座標情報を表示制御部350に供給してよい。   The cursor control unit may control the display of the cursor according to the movement of the hand of the user 20 when there is no operation hand 22 in the direction in which the face of the user 20 is facing. In this case, the cursor control unit 360 acquires an operation instruction including the coordinates of the center position of the operation hand 22 from the instruction acquisition unit 310 and displays the cursor according to the movement of the operation hand 22 of the user 20. You may move within 100 display areas 110. The cursor control unit 360 may supply coordinate information in the cursor display area 110 to the display control unit 350.

以上の表示装置100は、表示制御装置300の表示制御に応じた表示内容を表示する。また、情報表示システム10は、使用者20を検出し、検出した使用者20のジェスチャー入力に応じた情報を表示領域110に表示する。情報表示システム10は、使用者20の操作用の手22を、使用者20のジェスチャー入力によって特定しつつ、使用者20の入力モードを特定する。   The above display device 100 displays the display content according to the display control of the display control device 300. In addition, the information display system 10 detects the user 20 and displays information corresponding to the detected gesture input of the user 20 in the display area 110. The information display system 10 specifies the input mode of the user 20 while specifying the operation hand 22 of the user 20 by the gesture input of the user 20.

図2は、本実施形態に係る情報表示システム10の変形例を使用者20と共に示す。本変形例の情報表示システム10において、図1に示された本実施形態に係る情報表示システム10の動作と略同一のものには同一の符号を付け、説明を省略する。本変形例の情報表示システム10の表示装置100は、特定領域120を有する。   FIG. 2 shows a modification of the information display system 10 according to this embodiment together with the user 20. In the information display system 10 of this modification, the same reference numerals are given to the substantially same operations as those of the information display system 10 according to the present embodiment shown in FIG. The display device 100 of the information display system 10 of this modification has a specific area 120.

特定領域120は、使用者20による操作用の手指の指示を検出する検出部の一部である。特定領域120は、表示領域110内に表示されてよく、これに代えて、表示領域110外に設けられてよい。特定領域120は、表示装置100に、複数設けられてよい。本例において、特定領域120は、表示領域110内の使用者20から見て右上部および左上部に表示される例を説明する。特定領域120は、予め定められた色、模様、形状等で表示されてよい。   The specific area 120 is a part of a detection unit that detects an instruction of an operation finger by the user 20. The specific area 120 may be displayed in the display area 110 and may be provided outside the display area 110 instead. A plurality of specific areas 120 may be provided in the display device 100. In this example, an example in which the specific area 120 is displayed in the upper right part and the upper left part when viewed from the user 20 in the display area 110 will be described. The specific area 120 may be displayed in a predetermined color, pattern, shape, or the like.

特定領域120は、表示装置100の動作中において常に表示されなくてよく、この場合、使用者20のカーソル等が当該特定領域120近辺に移動した場合に表示されることが望ましい。これに代えて、特定領域120は、表示装置100の動作中において表示されてよく、この場合、使用者20のカーソル等が当該特定領域120近辺に移動した場合に、異なる色、異なる線幅、異なる形状、または点滅等で表示されてよい。   The specific area 120 does not always have to be displayed during the operation of the display device 100. In this case, it is desirable that the specific area 120 be displayed when the cursor of the user 20 moves near the specific area 120. Instead, the specific area 120 may be displayed during the operation of the display device 100. In this case, when the cursor of the user 20 moves near the specific area 120, a different color, a different line width, It may be displayed in a different shape or blinking.

本変形例の特定部320は、使用者20の身体の空間上の位置を検出する検出センサ装置200からの検出結果に基づいて、使用者20の顔の位置と表示装置100の特定領域120との間に使用者20の手が位置したことを認識したことに応じて、当該使用者20の手を操作用の手22として特定する。特定部320は、このような使用者20の顔と右手の動作から、当該使用者20の右手を操作用の手22として特定する。   Based on the detection result from the detection sensor device 200 that detects the position of the user 20 in the body space, the specifying unit 320 according to the present modification includes the position of the face of the user 20 and the specific region 120 of the display device 100. In response to recognizing that the hand of the user 20 is positioned during the period, the user's 20 hand is specified as the operation hand 22. The identification unit 320 identifies the right hand of the user 20 as the operation hand 22 from the face of the user 20 and the movement of the right hand.

ここで、特定部320は、使用者20の顔が特定領域120に向き、かつ、使用者20の顔と表示装置100の特定領域120との間に使用者20の手が位置したことを認識したことに応じて、当該使用者20の手を操作用の手として特定してもよい。即ち、本変形例の情報表示システム10は、特定領域120を有し、使用者20の顔の向きに使用者の手が位置したことを認識したことに応じて、当該使用者20の操作用の手を特定する。図2は、使用者20の目と特定領域120との間の空間の中に右手を移動させた例を示す。   Here, the specifying unit 320 recognizes that the face of the user 20 faces the specific area 120 and that the hand of the user 20 is positioned between the face of the user 20 and the specific area 120 of the display device 100. In response, the user 20's hand may be specified as an operating hand. That is, the information display system 10 according to the present modification has a specific area 120 and is used for the operation of the user 20 in response to recognizing that the user's hand is positioned in the face direction of the user 20. Identify your hand. FIG. 2 shows an example in which the right hand is moved into the space between the eyes of the user 20 and the specific area 120.

図3は、本実施形態に係る情報表示システム10の動作フローを示す。情報表示システム10は、S200からS270までの処理により、使用者20の指示に応じた情報を表示装置100に表示する。   FIG. 3 shows an operation flow of the information display system 10 according to the present embodiment. The information display system 10 displays information corresponding to the instruction of the user 20 on the display device 100 through the processing from S200 to S270.

表示制御装置300は、まず、初期設定として、使用者20の操作モードを第2の操作モードに設定する(S200)。ここで表示制御装置300は、使用者20の操作モードを記憶部330に記憶してよい。次に、情報表示システム10は、表示装置100の前の使用者20を検出する(S210)。   First, the display control device 300 sets the operation mode of the user 20 to the second operation mode as an initial setting (S200). Here, the display control device 300 may store the operation mode of the user 20 in the storage unit 330. Next, the information display system 10 detects the user 20 in front of the display device 100 (S210).

例えば、指示取得部310は、検出センサ装置200の検出結果に基づき、人が表示装置100の前に立ったことに応じて、当該人を使用者20として検出する。指示取得部310は、1以上の使用者20が検出されるまで使用者20の検出を繰り返す。   For example, the instruction acquisition unit 310 detects the person as the user 20 when the person stands in front of the display device 100 based on the detection result of the detection sensor device 200. The instruction acquisition unit 310 repeats the detection of the user 20 until one or more users 20 are detected.

次に、指示取得部310は、使用者20の表示装置100に対する情報表示の指示を検出する(S220)。使用者20は、情報表示の指示を手指等を用いたジェスチャーによって入力してよい。   Next, the instruction acquisition unit 310 detects an instruction to display information on the display device 100 of the user 20 (S220). The user 20 may input an information display instruction by a gesture using fingers or the like.

例えば、指示取得部310は、使用者20の操作用の手22が特定されている場合、使用者20の画像の操作用の手22に対応する領域の変化を、予め記憶した多数の手の立体パターンの変化、輪郭パターンの変化またはシルエットパターンの変化等とそれぞれ対比する。これにより、指示取得部310は、使用者の操作用の手22のジェスチャー等の動きを検出して、当該ジェスチャー等の動きから操作指示を取得してよい。   For example, when the user's 20 operating hand 22 has been specified, the instruction acquisition unit 310 uses a number of previously stored hands to store changes in the area corresponding to the user's 20 operating hand 22 image. Contrast with a change in a three-dimensional pattern, a change in a contour pattern, a change in a silhouette pattern, or the like. Thereby, the instruction acquisition unit 310 may detect a movement such as a gesture of the user's operation hand 22 and acquire an operation instruction from the movement of the gesture or the like.

また、指示取得部310は、カーソルがアイコンと重なった状態で、使用者20が操作用の手で予め定められたジェスチャー等をしたことを認識した場合、当該アイコンに対応するアプリケーションに関連する操作指示を検出してよい。この場合、指示取得部310は、アプリケーションの実行を検出してよく、また、使用者20がファイル等の情報を選択したままアプリケーションの操作指示を出した場合は、当該ファイルを当該アプリケーションに入力させて実行してよい。   In addition, when the instruction acquisition unit 310 recognizes that the user 20 has made a predetermined gesture or the like with an operating hand in a state where the cursor is over the icon, an operation related to the application corresponding to the icon is performed. An indication may be detected. In this case, the instruction acquisition unit 310 may detect execution of the application, and when the user 20 issues an operation instruction for the application while selecting information such as a file, the instruction acquisition unit 310 causes the application to input the file. You can do it.

ここで、予め定められたジェスチャーは、開いた手を握った状態にすること、握った手を開くこと、手を左右方向に振ること、手を上下方向に動かすこと、手でボタンを押す動作をすること、手でクリックまたはダブルクリックする動作をすること、手で円を描く動作をすること、手を一定時間静止させること、一部または全ての指を動かすこと、その他の手の運動またはこれらの組み合わせであってよい。   Here, the predetermined gestures are to hold the open hand, open the gripped hand, shake the hand left and right, move the hand up and down, and press the button with the hand Doing a hand-clicking or double-clicking action, drawing a circle with the hand, keeping the hand stationary for a certain period of time, moving some or all fingers, other hand movements or A combination of these may be used.

ここで、アプリケーションに関連する指示は、当該アプリケーションの実行、削除、またはプロパティの表示等であってよい。指示取得部310は、カーソルがアイコンと重なった状態で、操作用の手22がボタンを押す動作をしたことを検出した場合、当該アイコンに対応するアプリケーションの実行指示を検出してよい。   Here, the instruction related to the application may be execution of the application, deletion, display of properties, or the like. If the instruction acquisition unit 310 detects that the operation hand 22 has pressed the button while the cursor is over the icon, the instruction acquisition unit 310 may detect an instruction to execute the application corresponding to the icon.

また、指示取得部310は、カーソルがアイコンと重なった状態で、操作用の手22が円を描く動作をしたことを検出した場合、当該アイコンに対応するアプリケーションの終了指示を検出してよい。また、指示取得部310は、カーソルがアイコンと重なった状態で、操作用の手22を開いた状態から握った状態にさせ、更に当該操作用の手22を握った状態のまま移動させたことを検出した場合、操作用の手22の位置と連動させて当該アイコンをドラッグする指示を検出してよい。   In addition, when the instruction acquisition unit 310 detects that the operation hand 22 has drawn a circle while the cursor is over the icon, the instruction acquisition unit 310 may detect an application end instruction corresponding to the icon. In addition, the instruction acquisition unit 310 changes the operation hand 22 from the open state to the state where the cursor is overlapped with the icon, and further moves the operation hand 22 while holding the operation hand 22. May be detected in conjunction with the position of the hand 22 for operation.

また、指示取得部310は、当該操作用の手22が握った状態から開いた状態になったこと検出した場合、当該アイコンを操作用の手22の位置でドロップする指示を検出してよい。指示取得部310は、使用者が複数の場合、使用者毎に、検出した指示に応じて、当該指示を特定部320、実行部340、表示制御部350、またはカーソル制御部360に供給する。   Further, the instruction acquisition unit 310 may detect an instruction to drop the icon at the position of the operation hand 22 when it is detected that the operation hand 22 has been opened from the gripped state. When there are a plurality of users, the instruction acquisition unit 310 supplies the instructions to the specifying unit 320, the execution unit 340, the display control unit 350, or the cursor control unit 360 according to the detected instruction for each user.

指示取得部310は、使用者20の操作用の手22が特定されていない場合において、使用者20の顔の向きに使用者20のいずれか一方の手が位置したことに応じて、使用者20が操作用の手を指示する操作特定指示を検出してよい。これに代えて、指示取得部310は、使用者20の顔が特定領域120に向き、かつ、使用者20の顔と特定領域120との間の空間内に使用者20のいずれか一方の手が位置したことに応じて、当該操作特定指示を検出してもよい。   The instruction acquisition unit 310 determines whether the user 20's hand is positioned in the direction of the user 20's face when the user's 20 operating hand 22 is not specified. An operation specifying instruction in which 20 indicates an operating hand may be detected. Instead of this, the instruction acquisition unit 310 has the face of the user 20 facing the specific area 120 and any one hand of the user 20 in the space between the face of the user 20 and the specific area 120. The operation specifying instruction may be detected in response to the position of.

また、指示取得部310は、使用者20の操作用の手22が特定されている場合において、使用者20の顔の向きに使用者20の操作用の手22が位置したことに応じて、操作特定指示を検出してよい。これに代えて、指示取得部310は、使用者20の顔が特定領域120に向き、かつ、使用者20の顔と特定領域120との間に使用者20の操作用の手22が位置したことに応じて、当該操作特定指示を検出してよい。   In addition, when the user's 20 operation hand 22 is specified, the instruction acquisition unit 310 determines that the user's 20 operation hand 22 is positioned in the face direction of the user 20. An operation specifying instruction may be detected. Instead, the instruction acquisition unit 310 has the face of the user 20 facing the specific area 120 and the user's hand 22 for operation is positioned between the face of the user 20 and the specific area 120. Accordingly, the operation specifying instruction may be detected.

また、指示取得部310は、使用者20の操作用の手22が特定されている場合において、使用者20の顔の向きに使用者20の操作用の手22とは反対側の手が位置したことに応じて、操作特定指示を検出してよい。これに代えて、指示取得部310は、使用者20の顔が特定領域120に向き、かつ、使用者20の顔と特定領域120との間の空間内に使用者20の操作用の手22とは反対側の手が位置したことに応じて、当該操作特定指示を検出してよい。   In addition, when the user's 20 operation hand 22 is specified, the instruction acquisition unit 310 is positioned so that the hand opposite to the user's 20 operation hand 22 is positioned in the face direction of the user 20. In response to this, an operation specifying instruction may be detected. Instead, the instruction acquisition unit 310 has the user's 20 operation face 22 in the space between the user's 20 face and the specific area 120 with the face of the user 20 facing the specific area 120. The operation specifying instruction may be detected in response to the position of the hand on the opposite side.

指示取得部310は、操作特定指示を検出した場合、当該指示を特定部320に供給する(S230)。特定部320は、使用者20の顔の向きに位置した使用者20の手を、当該使用者20の操作用の手22として特定する(S240)。   When the operation acquisition instruction is detected, the instruction acquisition unit 310 supplies the instruction to the specifying unit 320 (S230). The specifying unit 320 specifies the hand of the user 20 positioned in the face direction of the user 20 as the operation hand 22 of the user 20 (S240).

ここで、特定部320は、使用者20の操作用の手22が特定されている場合においても、使用者20の顔の向きに位置した使用者20の手を、当該使用者20の操作用の手22として特定する。これによって、特定部320は、使用者20に、特定された一方の操作用の手22から特定されていない他方の手へと操作用の手22を変更させることができる。また、これによって、特定部320は、後述するように、使用者20に、操作モードを変更させることができる。   Here, even when the operation hand 22 of the user 20 is specified, the specifying unit 320 uses the user 20's hand positioned in the face direction of the user 20 for the operation of the user 20. The hand 22 is specified. Thereby, the specifying unit 320 can cause the user 20 to change the operating hand 22 from the specified one operating hand 22 to the other not specified hand. In addition, as a result, the specifying unit 320 can cause the user 20 to change the operation mode, as will be described later.

次に、特定部320は、使用者20の操作モードが第2の操作モードであるか否かを確認する(S242)。特定部320は、当該操作モードが記憶部330に記憶されている場合は、記憶部330から当該情報を得る。   Next, the specifying unit 320 confirms whether or not the operation mode of the user 20 is the second operation mode (S242). When the operation mode is stored in the storage unit 330, the specifying unit 320 obtains the information from the storage unit 330.

特定部320は、使用者20の操作モードが第2の操作モードの場合、当該操作モードを第1の操作モードに設定する(S250)。即ち、特定部320は、初期設定の状態から使用者20が操作用の手22を情報表示システム10に入力させると、当該使用者20の操作モードを初心者用のモードにする。また、特定部320は、使用者20が操作モードを熟練者用のモードから初心者用のモードに変更したい場合、使用者20が特定されている操作用の手22を用いて操作特定指示を出すことで、当該使用者20の操作モードを初心者用のモードに変更させる。   When the operation mode of the user 20 is the second operation mode, the specifying unit 320 sets the operation mode to the first operation mode (S250). That is, when the user 20 inputs the operation hand 22 to the information display system 10 from the initial setting state, the specifying unit 320 sets the operation mode of the user 20 to the beginner's mode. In addition, when the user 20 wants to change the operation mode from the expert mode to the beginner mode, the specifying unit 320 issues an operation specifying instruction using the operation hand 22 in which the user 20 is specified. Thus, the operation mode of the user 20 is changed to the mode for beginners.

ここで、特定部320は、熟練者モードの使用者20が操作用の手22を変更させたい場合に、使用者20が特定されている操作用の手22とは反対側の手を用いて操作特定指示を出すと、操作用の手22を変更すると共に当該使用者20の操作モードを初心者用のモードに変更させる。このような場合、特定部320は、使用者20が操作特定指示を出して変更させた操作用の手22を用いて再び操作特定指示を出すことで、操作モードを熟練者モードに戻すことができる。   Here, when the user 20 in the expert mode wants to change the operation hand 22, the specifying unit 320 uses the hand on the opposite side of the operation hand 22 in which the user 20 is specified. When the operation specifying instruction is issued, the operation hand 22 is changed and the operation mode of the user 20 is changed to the beginner's mode. In such a case, the specifying unit 320 can return the operation mode to the expert mode by issuing the operation specifying instruction again using the operation hand 22 changed by the user 20 issuing the operation specifying instruction. it can.

特定部320は、使用者20の操作モードが第1の操作モードの場合、当該操作モードを第2の操作モードに設定する(S260)。即ち、特定部320は、使用者20が操作モードを初心者用のモードから熟練者用のモードに変更したい場合、使用者20が特定されている操作用の手22を用いて操作特定指示を出すことで、当該使用者20の操作モードを熟練者用のモードに変更させる。   When the operation mode of the user 20 is the first operation mode, the specifying unit 320 sets the operation mode to the second operation mode (S260). That is, when the user 20 wants to change the operation mode from the beginner's mode to the expert's mode, the specifying unit 320 issues an operation specifying instruction using the operating hand 22 in which the user 20 is specified. Thus, the operation mode of the user 20 is changed to the mode for the expert.

ここで、特定部320は、初心者用のモードの使用者20が操作用の手22を変更させたい場合に、使用者20が特定されている操作用の手22とは反対側の手を用いて操作特定指示を出すと、操作用の手22を変更すると共に当該使用者20の操作モードを熟練者用のモードに変更させる。このような場合、特定部320は、使用者20が操作特定指示を出して変更させた操作用の手22を用いて再び操作特定指示を出すことで、操作モードを初心者用のモードに戻すことができる。   Here, when the user 20 in the beginner's mode wants to change the operation hand 22, the specifying unit 320 uses the hand opposite to the operation hand 22 in which the user 20 is specified. When the operation specifying instruction is issued, the operation hand 22 is changed and the operation mode of the user 20 is changed to a mode for the expert. In such a case, the specifying unit 320 returns the operation mode to the beginner's mode by issuing the operation specifying instruction again using the operation hand 22 changed by the user 20 issuing the operation specifying instruction. Can do.

以上のように、特定部320は、使用者20の操作特定指示に応じて、当該使用者20の操作用の手22および操作モードを特定する。表示制御装置300は、特定部320の特定の後に、S210に戻り、使用者の検出と、使用者の指示の検出を実行する。   As described above, the specifying unit 320 specifies the operation hand 22 and the operation mode of the user 20 according to the operation specifying instruction of the user 20. After specifying the specifying unit 320, the display control apparatus 300 returns to S210, and executes detection of a user and detection of a user instruction.

指示取得部310は、使用者20の指示が操作特定指示以外の場合、使用者20の指示に応じて当該指示を実行部340、表示制御部350、またはカーソル制御部360に供給して対応する情報を表示装置100に表示する(S270)。即ち、表示制御部350は、使用者20の指示に応じた情報を、表示領域110に表示する。   When the instruction of the user 20 is other than the operation specifying instruction, the instruction acquisition unit 310 supplies the instruction to the execution unit 340, the display control unit 350, or the cursor control unit 360 in response to the instruction of the user 20. Information is displayed on the display device 100 (S270). That is, the display control unit 350 displays information corresponding to the instruction of the user 20 in the display area 110.

例えば、表示制御部350は、指示取得部310から供給された指示に基づき、表示装置100に情報を表示する。例えば、検出センサ装置200が撮像した使用者の画像を表示する場合、当該画像を指示取得部310から受け取り、表示領域110に表示する。また、表示制御部350は、使用者の情報を移動させる指示を指示取得部310から受け取ったことに応じて、当該情報を移動させてよく、また、記憶部330が表示位置を記憶している場合は記憶部330の情報を更新してよい。   For example, the display control unit 350 displays information on the display device 100 based on the instruction supplied from the instruction acquisition unit 310. For example, when displaying an image of a user captured by the detection sensor device 200, the image is received from the instruction acquisition unit 310 and displayed in the display area 110. The display control unit 350 may move the information in response to receiving an instruction to move the user information from the instruction acquisition unit 310, and the storage unit 330 stores the display position. In this case, the information in the storage unit 330 may be updated.

また、表示制御部350は、実行部340からの実行画面の情報を受け取った場合、表示領域110に当該実行画面を表示する。また、表示制御部350は、カーソル制御部360からのカーソル表示の情報を受け取った場合、表示領域110に当該カーソルを表示する。また、表示制御部350は、記憶部330に記憶された情報に応じて、表示装置100に当該情報を表示する。   In addition, when the display control unit 350 receives the execution screen information from the execution unit 340, the display control unit 350 displays the execution screen in the display area 110. When the display control unit 350 receives the cursor display information from the cursor control unit 360, the display control unit 350 displays the cursor in the display area 110. Further, the display control unit 350 displays the information on the display device 100 according to the information stored in the storage unit 330.

ここで、例えば、表示制御部350は、第1の操作モードにおいて、使用者20の操作指示に応じて、表示装置100に表示された操作対象を選択するためのカーソルを表示させる。また、表示制御部350は、第1の操作モードにおいて、検出センサ装置200からの情報に基づいて使用者20の操作用の手22の位置に対応する画面上の位置を示すシルエット画像を、表示装置100に表示させてもよい。   Here, for example, in the first operation mode, the display control unit 350 displays a cursor for selecting an operation target displayed on the display device 100 in response to an operation instruction of the user 20. In the first operation mode, the display control unit 350 displays a silhouette image indicating a position on the screen corresponding to the position of the operation hand 22 of the user 20 based on information from the detection sensor device 200. You may display on the apparatus 100. FIG.

このように、表示制御部350は、使用者20の操作モードが初心者モードの場合に、カーソルまたはシルエット画像等の使用者20のジェスチャー入力を補助する情報を表示する。この場合、表示制御部350は、操作説明を記述した文書等をウィンドウ表示させたヘルプウィンドウを、表示領域110の情報が表示されていない領域等に表示してもよい。   As described above, the display control unit 350 displays information for assisting the user 20 in inputting gestures such as a cursor or a silhouette image when the operation mode of the user 20 is the beginner mode. In this case, the display control unit 350 may display a help window in which a document or the like describing an operation description is displayed in a window or the like in an area where information of the display area 110 is not displayed.

また、表示制御部350は、第2の操作モードにおいては、カーソルを表示しなくてもよい。表示制御部350は、使用者20が熟練者の場合、ジェスチャー入力を補助する情報等を表示しないので、使用者20は、直感的な操作で速やかに情報を表示させることができる。   In addition, the display control unit 350 may not display a cursor in the second operation mode. Since the display control unit 350 does not display information or the like for assisting gesture input when the user 20 is an expert, the user 20 can promptly display information by an intuitive operation.

ここで、カーソル制御部360は、使用者20の顔が向いている方向に操作用の手22がない場合には、カーソルを表示させなくてもよい。例えば、使用者20が熟練者の場合、手の動き等は手元で速やかに実行する場合があるので、カーソル制御部360は、このような手元で操作している使用者20に対して熟練した操作入力をしているとして、カーソルを表示させない。このように、カーソル制御部360が使用者20の操作入力に応じて、カーソルの表示を制御することで、使用者20の習熟度に応じた情報を表示させることができる。   Here, the cursor control unit 360 may not display the cursor when the operation hand 22 is not in the direction in which the face of the user 20 faces. For example, when the user 20 is a skilled person, the hand movement or the like may be quickly executed at hand, so the cursor control unit 360 is skilled with respect to the user 20 operating at such a hand. The cursor is not displayed as an operation input is being made. As described above, the cursor control unit 360 controls the display of the cursor according to the operation input of the user 20, whereby information corresponding to the proficiency level of the user 20 can be displayed.

情報表示システム10は、S210に戻り、使用者20の検出と、使用者20の指示の検出と、使用者20の指示に応じた情報の表示とを繰り返す。以上の本実施例に係る情報表示システム10は、使用者20の指示を検出し、当該指示に応じて操作用の手22の特定、操作モードの特定、および情報の表示を実行する。   The information display system 10 returns to S210, and repeats the detection of the user 20, the detection of the instruction of the user 20, and the display of information according to the instruction of the user 20. The information display system 10 according to the above-described embodiment detects an instruction from the user 20 and executes the specification of the hand 22 for operation, the specification of the operation mode, and the display of information according to the instruction.

ここで、情報表示システム10は、使用者20が表示させていた情報、特定した操作用の手22の情報、複数回利用した情報またはアプリケーション等の情報、および予め使用者20が登録した情報等を、使用者20と対応づけて使用者20の画像と共に記憶部330に記憶させてよい。また、この場合、指示取得部310は、使用者20を検出する場合に画像比較等の処理を実行して、記憶された使用者候補画像と検出された使用者画像が同一であるか否かを検出してよい。   Here, the information display system 10 includes information displayed by the user 20, information on the specified operation hand 22, information used multiple times or information such as an application, and information registered in advance by the user 20. May be stored in the storage unit 330 together with the image of the user 20 in association with the user 20. Further, in this case, the instruction acquisition unit 310 executes processing such as image comparison when detecting the user 20, and determines whether or not the stored user candidate image and the detected user image are the same. May be detected.

指示取得部310は、記憶された使用者候補画像と検出された使用者画像が同一の場合、記憶された使用者20の操作特定指示があったものとして当該指示を特定部320に供給する。特定部320は、記憶された使用者20を認識したことに応じて記憶された操作用の手22を設定してよい。また、表示制御部350は、記憶された使用者20に対応する情報、アプリケーション等を表示してよい。これによって、情報表示システム10は、予め登録された使用者20が表示装置100の前に立つことで、当該登録された使用者20に対応する情報を表示することができる。   If the stored user candidate image and the detected user image are the same, the instruction acquisition unit 310 supplies the instruction to the specifying unit 320 as if the stored user 20 operation specifying instruction has been received. The specifying unit 320 may set the stored operation hand 22 in response to the recognition of the stored user 20. The display control unit 350 may display information, applications, and the like corresponding to the stored user 20. Thereby, the information display system 10 can display information corresponding to the registered user 20 by the user 20 registered in advance standing in front of the display device 100.

例えば、情報表示システム10は、使用者20が表示装置100の前に立つと、使用者20の登録したURLのウェブサイトを表示するウィンドウを表示領域110に表示しつつ、使用者20に熟練者モードで速やかな入力を開始させることができる。また、記憶された使用者が初心者の場合または初心者モードで入力したい場合は、情報表示システム10の動作開始と同様に操作特定指示を出すことで、初心者モードに切り替えることができる。   For example, when the user 20 stands in front of the display device 100, the information display system 10 displays a window for displaying the website of the URL registered by the user 20 in the display area 110, while the user 20 is an expert. Quick input can be started in the mode. In addition, when the stored user is a beginner or wants to input in the beginner mode, it can be switched to the beginner mode by issuing an operation specifying instruction in the same manner as the operation start of the information display system 10.

図4は、本実施形態に係る表示制御装置300として機能するコンピュータ1900のハードウェア構成の一例を示す。本実施形態に係るコンピュータ1900は、ホスト・コントローラ2082により相互に接続されるCPU2000、RAM2020、グラフィック・コントローラ2075、及び、表示装置100として機能しうる表示装置2080を有するCPU周辺部と、入出力コントローラ2084によりホスト・コントローラ2082に接続される通信インターフェイス2030、ハードディスクドライブ2040、及びCD−ROMドライブ2060を有する入出力部と、入出力コントローラ2084に接続されるROM2010、フレキシブルディスク・ドライブ2050、及び入出力チップ2070を有するレガシー入出力部を備える。   FIG. 4 shows an example of a hardware configuration of a computer 1900 that functions as the display control apparatus 300 according to the present embodiment. A computer 1900 according to this embodiment includes a CPU peripheral unit including a CPU 2000, a RAM 2020, a graphic controller 2075, and a display device 2080 that can function as the display device 100, and an input / output controller. An input / output unit having a communication interface 2030, a hard disk drive 2040, and a CD-ROM drive 2060 connected to the host controller 2082 by 2084, a ROM 2010, a flexible disk drive 2050, and an input / output connected to the input / output controller 2084 A legacy input / output unit having a chip 2070 is provided.

ホスト・コントローラ2082は、RAM2020と、高い転送レートでRAM2020をアクセスするCPU2000及びグラフィック・コントローラ2075とを接続する。CPU2000は、ROM2010及びRAM2020に格納されたプログラムに基づいて動作し、各部を制御する。グラフィック・コントローラ2075は、CPU2000等がRAM2020内に設けたフレーム・バッファ上に生成する画像データを取得し、表示装置2080上に表示させる。これに代えて、グラフィック・コントローラ2075は、CPU2000等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。   The host controller 2082 connects the RAM 2020 to the CPU 2000 and the graphic controller 2075 that access the RAM 2020 at a high transfer rate. The CPU 2000 operates based on programs stored in the ROM 2010 and the RAM 2020 and controls each unit. The graphic controller 2075 acquires image data generated by the CPU 2000 or the like on a frame buffer provided in the RAM 2020 and displays it on the display device 2080. Instead of this, the graphic controller 2075 may include a frame buffer for storing image data generated by the CPU 2000 or the like.

入出力コントローラ2084は、ホスト・コントローラ2082と、比較的高速な入出力装置である通信インターフェイス2030、ハードディスクドライブ2040、CD−ROMドライブ2060を接続する。通信インターフェイス2030は、有線又は無線によりネットワークを介して他の装置と通信する。また、通信インターフェイス2030は、実行部340の指示によって外部のネットワークと通信するハードウェアとして機能する。ハードディスクドライブ2040は、コンピュータ1900内のCPU2000が使用するプログラム及びデータを格納する。CD−ROMドライブ2060は、CD−ROM2095からプログラム又はデータを読み取り、RAM2020を介してハードディスクドライブ2040に提供する。   The input / output controller 2084 connects the host controller 2082 to the communication interface 2030, the hard disk drive 2040, and the CD-ROM drive 2060, which are relatively high-speed input / output devices. The communication interface 2030 communicates with other devices via a network by wire or wireless. Further, the communication interface 2030 functions as hardware that communicates with an external network according to an instruction from the execution unit 340. The hard disk drive 2040 stores programs and data used by the CPU 2000 in the computer 1900. The CD-ROM drive 2060 reads a program or data from the CD-ROM 2095 and provides it to the hard disk drive 2040 via the RAM 2020.

また、入出力コントローラ2084には、ROM2010と、フレキシブルディスク・ドライブ2050、及び入出力チップ2070の比較的低速な入出力装置とが接続される。ROM2010は、コンピュータ1900が起動時に実行するブート・プログラム、及び/又は、コンピュータ1900のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ2050は、フレキシブルディスク2090からプログラム又はデータを読み取り、RAM2020を介してハードディスクドライブ2040に提供する。入出力チップ2070は、フレキシブルディスク・ドライブ2050を入出力コントローラ2084へと接続するとともに、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を入出力コントローラ2084へと接続する。   The input / output controller 2084 is connected to the ROM 2010, the flexible disk drive 2050, and the relatively low-speed input / output device of the input / output chip 2070. The ROM 2010 stores a boot program that the computer 1900 executes at startup and / or a program that depends on the hardware of the computer 1900. The flexible disk drive 2050 reads a program or data from the flexible disk 2090 and provides it to the hard disk drive 2040 via the RAM 2020. The input / output chip 2070 connects the flexible disk drive 2050 to the input / output controller 2084 and inputs / outputs various input / output devices via, for example, a parallel port, a serial port, a keyboard port, a mouse port, and the like. Connect to controller 2084.

RAM2020を介してハードディスクドライブ2040に提供されるプログラムは、フレキシブルディスク2090、CD−ROM2095、又はICカード等の記録媒体に格納されて利用者によって提供される。プログラムは、記録媒体から読み出され、RAM2020を介してコンピュータ1900内のハードディスクドライブ2040にインストールされ、CPU2000において実行される。   A program provided to the hard disk drive 2040 via the RAM 2020 is stored in a recording medium such as the flexible disk 2090, the CD-ROM 2095, or an IC card and provided by the user. The program is read from the recording medium, installed in the hard disk drive 2040 in the computer 1900 via the RAM 2020, and executed by the CPU 2000.

コンピュータ1900にインストールされ、コンピュータ1900を表示制御装置300として機能させるプログラムは、指示取得モジュールと、特定モジュールと、記憶モジュールと、実行モジュールと、表示制御モジュールと、カーソル制御モジュールとを備える。これらのプログラム又はモジュールは、CPU2000等に働きかけて、コンピュータ1900を、指示取得部310と、特定部320と、記憶部330と、実行部340と、表示制御部350と、カーソル制御部360としてそれぞれ機能させてよい。   A program that is installed in the computer 1900 and causes the computer 1900 to function as the display control apparatus 300 includes an instruction acquisition module, a specific module, a storage module, an execution module, a display control module, and a cursor control module. These programs or modules work with the CPU 2000 or the like to make the computer 1900 into an instruction acquisition unit 310, a specification unit 320, a storage unit 330, an execution unit 340, a display control unit 350, and a cursor control unit 360, respectively. May function.

これらのプログラムに記述された情報処理は、コンピュータ1900に読込まれることにより、ソフトウェアと上述した各種のハードウェア資源とが協働した具体的手段である指示取得部310と、特定部320と、記憶部330と、実行部340と、表示制御部350と、カーソル制御部360として機能する。そして、これらの具体的手段によって、本実施形態におけるコンピュータ1900の使用目的に応じた情報の演算又は加工を実現することにより、使用目的に応じた特有の表示制御装置300が構築される。   Information processing described in these programs is read into the computer 1900, whereby an instruction acquisition unit 310, a specific unit 320, which is a specific means in which software and the various hardware resources described above cooperate, The storage unit 330, the execution unit 340, the display control unit 350, and the cursor control unit 360 function. And the specific display control apparatus 300 according to a use purpose is constructed | assembled by implement | achieving the calculation or the process of the information according to the use purpose of the computer 1900 in this embodiment by these concrete means.

一例として、コンピュータ1900と外部の装置等との間で通信を行う場合には、CPU2000は、RAM2020上にロードされた通信プログラムを実行し、通信プログラムに記述された処理内容に基づいて、通信インターフェイス2030に対して通信処理を指示する。通信インターフェイス2030は、CPU2000の制御を受けて、RAM2020、ハードディスクドライブ2040、フレキシブルディスク2090、又はCD−ROM2095等の記憶装置上に設けた送信バッファ領域等に記憶された送信データを読み出してネットワークへと送信し、もしくは、ネットワークから受信した受信データを記憶装置上に設けた受信バッファ領域等へと書き込む。このように、通信インターフェイス2030は、DMA(ダイレクト・メモリ・アクセス)方式により記憶装置との間で送受信データを転送してもよく、これに代えて、CPU2000が転送元の記憶装置又は通信インターフェイス2030からデータを読み出し、転送先の通信インターフェイス2030又は記憶装置へとデータを書き込むことにより送受信データを転送してもよい。   As an example, when communication is performed between the computer 1900 and an external device or the like, the CPU 2000 executes a communication program loaded on the RAM 2020 and executes a communication interface based on the processing content described in the communication program. A communication process is instructed to 2030. Under the control of the CPU 2000, the communication interface 2030 reads transmission data stored in a transmission buffer area or the like provided on a storage device such as the RAM 2020, the hard disk drive 2040, the flexible disk 2090, or the CD-ROM 2095, and sends it to the network. The reception data transmitted or received from the network is written into a reception buffer area or the like provided on the storage device. As described above, the communication interface 2030 may transfer transmission / reception data to / from the storage device by a DMA (direct memory access) method. Instead, the CPU 2000 transfers the storage device or the communication interface 2030 as a transfer source. The transmission / reception data may be transferred by reading the data from the data and writing the data to the communication interface 2030 or the storage device of the transfer destination.

また、CPU2000は、ハードディスクドライブ2040、CD−ROMドライブ2060(CD−ROM2095)、フレキシブルディスク・ドライブ2050(フレキシブルディスク2090)等の外部記憶装置に格納されたファイルまたはデータベース等の中から、全部または必要な部分をDMA転送等によりRAM2020へと読み込ませ、RAM2020上のデータに対して各種の処理を行う。そして、CPU2000は、処理を終えたデータを、DMA転送等により外部記憶装置へと書き戻す。このような処理において、RAM2020は、外部記憶装置の内容を一時的に保持するものとみなせるから、本実施形態においてはRAM2020及び外部記憶装置等をメモリ、記憶部、または記憶装置等と総称する。本実施形態における各種のプログラム、データ、テーブル、データベース等の各種の情報は、このような記憶装置上に格納されて、情報処理の対象となる。なお、CPU2000は、RAM2020の一部をキャッシュメモリに保持し、キャッシュメモリ上で読み書きを行うこともできる。このような形態においても、キャッシュメモリはRAM2020の機能の一部を担うから、本実施形態においては、区別して示す場合を除き、キャッシュメモリもRAM2020、メモリ、及び/又は記憶装置に含まれるものとする。   The CPU 2000 is all or necessary from among files or databases stored in an external storage device such as a hard disk drive 2040, a CD-ROM drive 2060 (CD-ROM 2095), and a flexible disk drive 2050 (flexible disk 2090). This portion is read into the RAM 2020 by DMA transfer or the like, and various processes are performed on the data on the RAM 2020. Then, CPU 2000 writes the processed data back to the external storage device by DMA transfer or the like. In such processing, since the RAM 2020 can be regarded as temporarily holding the contents of the external storage device, in the present embodiment, the RAM 2020 and the external storage device are collectively referred to as a memory, a storage unit, or a storage device. Various types of information such as various programs, data, tables, and databases in the present embodiment are stored on such a storage device and are subjected to information processing. Note that the CPU 2000 can also store a part of the RAM 2020 in the cache memory and perform reading and writing on the cache memory. Even in such a form, the cache memory bears a part of the function of the RAM 2020. Therefore, in the present embodiment, the cache memory is also included in the RAM 2020, the memory, and / or the storage device unless otherwise indicated. To do.

また、CPU2000は、RAM2020から読み出したデータに対して、プログラムの命令列により指定された、本実施形態中に記載した各種の演算、情報の加工、条件判断、情報の検索・置換等を含む各種の処理を行い、RAM2020へと書き戻す。例えば、CPU2000は、条件判断を行う場合においては、本実施形態において示した各種の変数が、他の変数または定数と比較して、大きい、小さい、以上、以下、等しい等の条件を満たすか否かを判断し、条件が成立した場合(又は不成立であった場合)に、異なる命令列へと分岐し、またはサブルーチンを呼び出す。   In addition, the CPU 2000 performs various operations, such as various operations, information processing, condition determination, information search / replacement, etc., described in the present embodiment, specified for the data read from the RAM 2020 by the instruction sequence of the program. Is written back to the RAM 2020. For example, when performing the condition determination, the CPU 2000 determines whether or not the various variables shown in the present embodiment satisfy the conditions such as large, small, above, below, equal, etc., compared to other variables or constants. If the condition is satisfied (or not satisfied), the program branches to a different instruction sequence or calls a subroutine.

また、CPU2000は、記憶装置内のファイルまたはデータベース等に格納された情報を検索することができる。例えば、第1属性の属性値に対し第2属性の属性値がそれぞれ対応付けられた複数のエントリが記憶装置に格納されている場合において、CPU2000は、記憶装置に格納されている複数のエントリの中から第1属性の属性値が指定された条件と一致するエントリを検索し、そのエントリに格納されている第2属性の属性値を読み出すことにより、予め定められた条件を満たす第1属性に対応付けられた第2属性の属性値を得ることができる。   Further, the CPU 2000 can search for information stored in a file or database in the storage device. For example, in the case where a plurality of entries in which the attribute value of the second attribute is associated with the attribute value of the first attribute are stored in the storage device, the CPU 2000 displays the plurality of entries stored in the storage device. By searching for an entry in which the attribute value of the first attribute matches the specified condition and reading the attribute value of the second attribute stored in the entry, the first attribute satisfying a predetermined condition is obtained. The attribute value of the associated second attribute can be obtained.

以上に示したプログラム又はモジュールは、外部の記録媒体に格納されてもよい。記録媒体としては、フレキシブルディスク2090、CD−ROM2095の他に、DVD又はCD等の光学記録媒体、MO等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワーク又はインターネットに接続されたサーバシステムに設けたハードディスク又はRAM等の記憶装置を記録媒体として使用し、ネットワークを介してプログラムをコンピュータ1900に提供してもよい。   The program or module shown above may be stored in an external recording medium. As the recording medium, in addition to the flexible disk 2090 and the CD-ROM 2095, an optical recording medium such as DVD or CD, a magneto-optical recording medium such as MO, a tape medium, a semiconductor memory such as an IC card, and the like can be used. Further, a storage device such as a hard disk or RAM provided in a server system connected to a dedicated communication network or the Internet may be used as a recording medium, and the program may be provided to the computer 1900 via the network.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

10 表示システム、20 使用者、22 操作用の手、100 表示装置、110 表示領域、116 情報、120 特定領域、200 検出センサ装置、300 表示制御装置、310 指示取得部、320 特定部、330 記憶部、340 実行部、350 表示制御部、360 カーソル制御部、1900 コンピュータ、2000 CPU、2010 ROM、2020 RAM、2030 通信インターフェイス、2040 ハードディスクドライブ、2050 フレキシブルディスク・ドライブ、2060 CD−ROMドライブ、2070 入出力チップ、2075 グラフィック・コントローラ、2080 表示装置、2082 ホスト・コントローラ、2084 入出力コントローラ、2090 フレキシブルディスク、2095 CD−ROM DESCRIPTION OF SYMBOLS 10 display system, 20 user, 22 operation hand, 100 display apparatus, 110 display area, 116 information, 120 specific area, 200 detection sensor apparatus, 300 display control apparatus, 310 instruction acquisition part, 320 specific part, 330 memory Unit, 340 execution unit, 350 display control unit, 360 cursor control unit, 1900 computer, 2000 CPU, 2010 ROM, 2020 RAM, 2030 communication interface, 2040 hard disk drive, 2050 flexible disk drive, 2060 CD-ROM drive, 2070 Output chip, 2075 graphic controller, 2080 display device, 2082 host controller, 2084 I / O controller, 2090 flexible disk, 2095 CD ROM

Claims (11)

使用者の手の動きに応じて表示装置の表示内容を制御する表示制御装置であって、
当該使用者の身体の空間上の位置を検出する検出センサからの検出結果に基づいて、当該使用者の顔の向きに当該使用者の手が位置したことを認識したことに応じて、当該使用者の手を操作用の手として特定する特定部と、
前記操作用の手の動きを認識して、前記表示装置の表示内容に対する操作指示を取得する指示取得部と、
前記操作指示に応じて前記表示装置の表示内容を制御する表示制御部と、
を備える表示制御装置。
A display control device that controls the display content of the display device according to the movement of the user's hand,
Based on the detection result from the detection sensor that detects the position of the user's body in space, the use is performed in accordance with the recognition that the user's hand is positioned in the direction of the user's face. A specific part that identifies a person's hand as an operation hand,
An instruction acquisition unit that recognizes the movement of the hand for operation and acquires an operation instruction for the display content of the display device;
A display control unit for controlling display contents of the display device in response to the operation instructions;
A display control device.
前記特定部は、当該使用者の顔が前記表示装置の特定領域に向き、かつ、当該使用者の顔と前記表示装置の前記特定領域との間に当該使用者の手が位置したことを認識したことに応じて、当該使用者の手を前記操作用の手として特定する請求項1に記載の表示制御装置。   The specifying unit recognizes that the user's face is directed to a specific area of the display device and that the user's hand is positioned between the user's face and the specific area of the display device. The display control apparatus according to claim 1, wherein the user's hand is specified as the operation hand in response to the operation. 前記特定部は、
前記センサからの検出結果に基づいて、当該使用者を認識したことに応じて第1の操作モードに特定し、
当該使用者の顔の向きに当該使用者の手が位置したことを認識したことに応じて第2の操作モードに特定する請求項1または2に記載の表示制御装置。
The specific part is:
Based on the detection result from the sensor, the first operation mode is specified according to the recognition of the user,
The display control apparatus according to claim 1 or 2, wherein the second operation mode is specified in response to recognizing that the user's hand is positioned in the direction of the user's face.
前記第1の操作モードにおいて、当該使用者の前記操作指示に応じて、前記表示装置に表示された操作対象を選択するカーソルを表示させるカーソル制御部を更に備える請求項3に記載の表示制御装置。   The display control device according to claim 3, further comprising a cursor control unit configured to display a cursor for selecting an operation target displayed on the display device in accordance with the operation instruction of the user in the first operation mode. . 前記カーソル制御部は、当該使用者の顔または目が向いている方向に前記操作用の手がある場合には、当該使用者の顔または目と手の延長上に前記カーソルを表示する請求項4に記載の表示制御装置。   The cursor control unit displays the cursor on an extension of the user's face or eyes and hands when the operation hand is in a direction in which the user's face or eyes are facing. 5. The display control device according to 4. 前記表示制御部は、前記第1の操作モードにおいて、前記センサからの情報に基づいて前記操作用の手の位置に対応する画面上の位置を示すシルエット画像を、前記表示装置に表示させる請求項3から5のいずれか一項に記載の表示制御装置。   The display control unit causes the display device to display a silhouette image indicating a position on the screen corresponding to the position of the operation hand based on information from the sensor in the first operation mode. The display control apparatus according to any one of 3 to 5. 前記カーソル制御部は、当該使用者の顔が向いている方向に前記操作用の手がない場合には、当該使用者の手の移動に応じて前記カーソルを表示制御する請求項4または5に記載の表示制御装置。   The cursor control unit controls display of the cursor according to movement of the user's hand when there is no hand for the operation in a direction in which the user's face is facing. The display control apparatus described. 前記カーソル制御部は、当該使用者の顔が向いている方向に前記操作用の手がない場合には、前記カーソルを表示させない請求項4または5に記載の表示制御装置。   The display control device according to claim 4, wherein the cursor control unit does not display the cursor when there is no operation hand in a direction in which the user's face is facing. 当該使用者の身体の空間上の位置を検出する検出センサと、
前記検出センサの検出結果が入力される請求項1から8のいずれか一項に記載の表示制御装置と、
前記表示制御装置の制御に応じた表示内容を表示する表示装置と、
を備える情報表示システム。
A detection sensor for detecting a position in space of the user's body;
The display control apparatus according to any one of claims 1 to 8, wherein a detection result of the detection sensor is input;
A display device for displaying display contents according to the control of the display control device;
An information display system comprising:
使用者の手の動きに応じて表示装置の表示内容を制御する表示制御方法であって、
当該使用者を撮像した画像を入力する画像入力段階と、
入力した画像中において、当該使用者の顔の向きに当該使用者の手が位置したことを認識したことに応じて、当該使用者の手を操作用の手として特定する特定段階と、
前記操作用の手の動きを認識して、前記表示装置の表示内容に対する操作指示を取得する指示取得段階と、
前記操作指示に応じて前記表示装置の表示内容を制御する表示制御段階と、
を備える表示制御方法。
A display control method for controlling display content of a display device in accordance with movement of a user's hand,
An image input stage for inputting an image of the user;
In the input image, in response to recognizing that the user's hand is positioned in the direction of the user's face, a specific stage for identifying the user's hand as an operation hand;
An instruction acquisition step of recognizing the movement of the operating hand and acquiring an operation instruction for the display content of the display device;
A display control stage for controlling display contents of the display device in response to the operation instructions;
A display control method comprising:
請求項10に記載の表示制御方法を、コンピュータにより実行させるプログラム。   A program causing a computer to execute the display control method according to claim 10.
JP2012112816A 2012-05-16 2012-05-16 Display control apparatus, display control method, information display system, and program Active JP5735453B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012112816A JP5735453B2 (en) 2012-05-16 2012-05-16 Display control apparatus, display control method, information display system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012112816A JP5735453B2 (en) 2012-05-16 2012-05-16 Display control apparatus, display control method, information display system, and program

Publications (2)

Publication Number Publication Date
JP2013239089A true JP2013239089A (en) 2013-11-28
JP5735453B2 JP5735453B2 (en) 2015-06-17

Family

ID=49764051

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012112816A Active JP5735453B2 (en) 2012-05-16 2012-05-16 Display control apparatus, display control method, information display system, and program

Country Status (1)

Country Link
JP (1) JP5735453B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10452206B2 (en) 2014-12-08 2019-10-22 Maxell, Ltd. Projection video display device and video display method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005196530A (en) * 2004-01-08 2005-07-21 Alpine Electronics Inc Space input device and space input method
JP2006155244A (en) * 2004-11-29 2006-06-15 Olympus Corp Information display device
JP2006277666A (en) * 2005-03-30 2006-10-12 Nhk Engineering Services Inc Display screen position analysis device and program
JP2009037434A (en) * 2007-08-02 2009-02-19 Tokyo Metropolitan Univ Control equipment operation gesture recognition device; control equipment operation gesture recognition system, and control equipment operation gesture recognition program
JP2009087026A (en) * 2007-09-28 2009-04-23 Panasonic Corp Video display device
JP2011175617A (en) * 2010-01-29 2011-09-08 Shimane Prefecture Image recognition apparatus, operation determination method, and program
JP2012014394A (en) * 2010-06-30 2012-01-19 Nippon Hoso Kyokai <Nhk> User instruction acquisition device, user instruction acquisition program and television receiver
WO2012053033A1 (en) * 2010-10-20 2012-04-26 三菱電機株式会社 Three-dimensional display device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005196530A (en) * 2004-01-08 2005-07-21 Alpine Electronics Inc Space input device and space input method
JP2006155244A (en) * 2004-11-29 2006-06-15 Olympus Corp Information display device
JP2006277666A (en) * 2005-03-30 2006-10-12 Nhk Engineering Services Inc Display screen position analysis device and program
JP2009037434A (en) * 2007-08-02 2009-02-19 Tokyo Metropolitan Univ Control equipment operation gesture recognition device; control equipment operation gesture recognition system, and control equipment operation gesture recognition program
JP2009087026A (en) * 2007-09-28 2009-04-23 Panasonic Corp Video display device
JP2011175617A (en) * 2010-01-29 2011-09-08 Shimane Prefecture Image recognition apparatus, operation determination method, and program
JP2012014394A (en) * 2010-06-30 2012-01-19 Nippon Hoso Kyokai <Nhk> User instruction acquisition device, user instruction acquisition program and television receiver
WO2012053033A1 (en) * 2010-10-20 2012-04-26 三菱電機株式会社 Three-dimensional display device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10452206B2 (en) 2014-12-08 2019-10-22 Maxell, Ltd. Projection video display device and video display method

Also Published As

Publication number Publication date
JP5735453B2 (en) 2015-06-17

Similar Documents

Publication Publication Date Title
US11650659B2 (en) User input processing with eye tracking
US10761610B2 (en) Vehicle systems and methods for interaction detection
US9746934B2 (en) Navigation approaches for multi-dimensional input
US10001838B2 (en) Feature tracking for device input
US9207852B1 (en) Input mechanisms for electronic devices
US9594431B2 (en) Qualified command
US8947351B1 (en) Point of view determinations for finger tracking
US10234955B2 (en) Input recognition apparatus, input recognition method using maker location, and non-transitory computer-readable storage program
US10477090B2 (en) Wearable device, control method and non-transitory storage medium
CN105068646B (en) The control method and system of terminal
US9916043B2 (en) Information processing apparatus for recognizing user operation based on an image
JP2015153195A (en) Gesture recognition device and control method therefor
JP6344530B2 (en) Input device, input method, and program
US20150227789A1 (en) Information processing apparatus, information processing method, and program
KR101631011B1 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
JP2012185630A (en) Projection device
JP5817149B2 (en) Projection device
JPWO2017029749A1 (en) Information processing apparatus, control method therefor, program, and storage medium
US20170344104A1 (en) Object tracking for device input
US20150153834A1 (en) Motion input apparatus and motion input method
JP2016099643A (en) Image processing device, image processing method, and image processing program
JP5735453B2 (en) Display control apparatus, display control method, information display system, and program
JP5456840B2 (en) Display control apparatus, display control method, information display system, and program
JP5499106B2 (en) Display control apparatus, display control method, information display system, and program
JP5456817B2 (en) Display control apparatus, display control method, information display system, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140317

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140624

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140919

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150416

R150 Certificate of patent or registration of utility model

Ref document number: 5735453

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350