JP2014006661A - Display controlling device, display controlling method, information display system, and program - Google Patents

Display controlling device, display controlling method, information display system, and program Download PDF

Info

Publication number
JP2014006661A
JP2014006661A JP2012141293A JP2012141293A JP2014006661A JP 2014006661 A JP2014006661 A JP 2014006661A JP 2012141293 A JP2012141293 A JP 2012141293A JP 2012141293 A JP2012141293 A JP 2012141293A JP 2014006661 A JP2014006661 A JP 2014006661A
Authority
JP
Japan
Prior art keywords
user
hand
display
recognition target
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012141293A
Other languages
Japanese (ja)
Other versions
JP5499106B2 (en
Inventor
Shinya Hasegawa
真也 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2012141293A priority Critical patent/JP5499106B2/en
Publication of JP2014006661A publication Critical patent/JP2014006661A/en
Application granted granted Critical
Publication of JP5499106B2 publication Critical patent/JP5499106B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To prevent erroneous detection from being caused even when a user inputs gesture while holding an object in his/her hand.SOLUTION: A display controlling device for controlling display contents of a display device according to hand movements of a user, includes: an image input section 302 for inputting an image taken of a user; an instruction acquiring section 310 for acquiring an operating instruction with respect to the display contents of the display device according to recognized movements of a recognition subject, by using a predetermined operating hand of the user in an image inputted by the image inputting section, as the recognition subject; a display control section 350 for controlling the display contents of the display device according to the operating instruction; a detecting section 320 for detecting that the operating hand holds an object; and a switching section 322 for switching recognition subjects of the instruction acquiring section according to the detection of the operating hand holding the object.

Description

本発明は、表示制御装置、表示制御方法、情報表示システム、およびプログラムに関する。   The present invention relates to a display control device, a display control method, an information display system, and a program.

従来、使用者のジェスチャー等を検出して情報の選択および表示等の指示を入力させ、当該使用者のジェスチャー等に応じたカーソルと、当該使用者の指示等に応じた情報とを表示する情報表示装置が知られている(例えば、特許文献1および2参照)。
特許文献1 特開2000−181601号公報
特許文献2 国際公開第2007/088939号
Conventionally, information that detects a user's gesture, etc., inputs an instruction for selecting and displaying information, and displays a cursor according to the user's gesture, etc., and information according to the user's instruction, etc. Display devices are known (see, for example, Patent Documents 1 and 2).
Patent Document 1 Japanese Patent Application Laid-Open No. 2000-181601 Patent Document 2 International Publication No. 2007/088939

しかしながら、このような情報表示装置において、使用者が手に物を持った状態でジェスチャー入力をすると、誤検出または誤動作を引き起こしていた。例えば、使用者が物を手に持った場合に、使用者が当該物で指示を入力するのか、物を持っていない方の手で入力するのか、ジェスチャーから判断することは困難であった。また、使用者が、例えば、飲食をする、歯磨きをする、またはひげを剃る等の動作と共にジェスチャー入力をした場合に、情報表示装置へのジェスチャー入力を検出することも困難であった。   However, in such an information display device, if a user performs a gesture input while holding an object in his / her hand, erroneous detection or malfunction is caused. For example, when a user holds an object in his / her hand, it is difficult to determine from the gesture whether the user inputs an instruction with the object or the hand without the object. It is also difficult to detect a gesture input to the information display device when the user performs a gesture input together with actions such as eating and drinking, brushing teeth, or shaving the beard, for example.

本発明の第1の態様においては、使用者の手の動きに応じて表示装置の表示内容を制御する表示制御装置であって、使用者を撮像した画像を入力する画像入力部と、画像入力部が入力した画像中における、使用者の予め定められた操作用の手を認識対象とし、当該認識対象の動きを認識したことに応じて、表示装置の表示内容に対する操作指示を取得する指示取得部と、操作指示に応じて表示装置の表示内容を制御する表示制御部と、操作用の手が物を持ったことを検出する検出部と、操作用の手が物を持ったことが検出されたことに応じて、指示取得部の認識対象を切り替える切替部と、を備える表示制御装置を提供する。   According to a first aspect of the present invention, there is provided a display control device that controls display contents of a display device in accordance with the movement of a user's hand, an image input unit that inputs an image of the user, and an image input Acquisition of an instruction for acquiring an operation instruction for the display content of the display device in response to the recognition of the movement of the recognition target with the user's predetermined operation hand in the image input by the unit as a recognition target A display control unit that controls the display content of the display device in response to an operation instruction, a detection unit that detects that the operating hand has an object, and that the operating hand has an object A display control device is provided that includes a switching unit that switches a recognition target of the instruction acquisition unit in response to the instruction.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

本実施形態に係る情報表示システム10の第1の構成例を使用者20と共に示す。The 1st structural example of the information display system 10 which concerns on this embodiment is shown with the user 20. FIG. 本実施形態に係る情報表示システム10の第2の構成例を使用者20と共に示す。The 2nd structural example of the information display system 10 which concerns on this embodiment is shown with the user 20. FIG. 本実施形態に係る情報表示システム10の動作フローを示す。The operation | movement flow of the information display system 10 which concerns on this embodiment is shown. 本実施形態に係る情報表示システム10の変形例の動作フローを示す。The operation | movement flow of the modification of the information display system 10 which concerns on this embodiment is shown. 本実施形態に係る表示制御装置300として機能するコンピュータ1900のハードウェア構成の一例を示す。An example of a hardware configuration of a computer 1900 functioning as the display control apparatus 300 according to the present embodiment is shown.

以下、本発明の実施の形態を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。   Embodiments of the present invention will be described below, but the following embodiments do not limit the invention according to the claims.

図1は、本実施形態に係る情報表示システム10の第1の構成例を使用者20と共に示す。情報表示システム10は、使用者の操作に用いる手指を認識し、当該使用者の操作指示等に応じた情報を表示する。また、情報表示システム10は、使用者の操作に用いる手が物を持ったことに応じて、操作用の認識対象を切り替え、切り替えた認識対象の操作指示等に応じた情報を表示する。本実施形態において、情報表示システム10は、使用者20の指示等に応じた情報を表示する例を説明する。   FIG. 1 shows a first configuration example of an information display system 10 according to the present embodiment together with a user 20. The information display system 10 recognizes a finger used for a user's operation and displays information corresponding to the user's operation instruction or the like. Further, the information display system 10 switches the recognition target for operation in response to the hand used for the user's operation holding an object, and displays information corresponding to the operation instruction of the switched recognition target. In this embodiment, the information display system 10 demonstrates the example which displays the information according to the user's 20 instruction | indication.

使用者20は、情報表示システム10に手指等のジェスチャー等で指示を入力し、ゲーム、メールの送受信、Webの閲覧、ソーシャルネットワークへの参加、画像または動画の閲覧、および文書編集等、情報の表示およびアプリケーションの実行等を指示する。図1は、使用者20が右手に持った物24を用いて情報表示システム10にジェスチャー入力する例を示す。情報表示システム10は、表示装置100と、検出センサ装置200と、表示制御装置300とを備える。   The user 20 inputs an instruction to the information display system 10 with a gesture such as a finger, and receives information such as games, mail transmission / reception, Web browsing, participation in a social network, image or video browsing, and document editing. Instructs display and application execution. FIG. 1 shows an example in which a user 20 performs a gesture input to the information display system 10 using an object 24 held in the right hand. The information display system 10 includes a display device 100, a detection sensor device 200, and a display control device 300.

表示装置100は、表示領域110に、使用者20の指示に応じた情報を表示する。表示装置100は、当該情報と共に、使用者20を表示してもよい。表示装置100は、使用者が複数いる場合、表示領域110を複数に分割し、当該複数の使用者に対応する情報を対応する表示領域にそれぞれ表示してもよい。また、表示装置100は、使用者20のシルエットを表示してもよい。   The display device 100 displays information corresponding to the instruction of the user 20 in the display area 110. The display device 100 may display the user 20 together with the information. When there are a plurality of users, the display device 100 may divide the display area 110 into a plurality of pieces and display information corresponding to the plurality of users in the corresponding display areas. The display device 100 may display the silhouette of the user 20.

表示装置100は、二次元画像または三次元画像を表示する、液晶ディスプレイ、プラズマディスプレイまたは有機エレクトロルミネッセンスディスプレイ等の電子表示装置であってよい。図1に示す例における表示領域110には、使用者20の指示に応じて、カーソル50、情報116およびアイコン等が表示される。   The display device 100 may be an electronic display device such as a liquid crystal display, a plasma display, or an organic electroluminescence display that displays a two-dimensional image or a three-dimensional image. In the example shown in FIG. 1, a cursor 50, information 116, icons, and the like are displayed in response to an instruction from the user 20.

カーソル50は、使用者20の操作用の手22または使用者20が手に持った物24に対応して表示される。表示装置100が使用者20の情報と共に使用者20の鏡像を表示する場合、カーソル50は、例えば、使用者20の操作用の手22または手に持った物24の鏡像として表示する。この場合、カーソル50は、予め定められた色、縁取り、または点滅等の強調表示を加えて、操作用の手22または手に持った物24の鏡像を表示してもよい。   The cursor 50 is displayed corresponding to the operation hand 22 of the user 20 or the object 24 held by the user 20. When the display device 100 displays a mirror image of the user 20 together with the information of the user 20, the cursor 50 is displayed as, for example, a mirror image of the operation hand 22 of the user 20 or an object 24 held in the hand. In this case, the cursor 50 may display a mirror image of the operation hand 22 or the object 24 held in the hand by adding highlighting such as a predetermined color, border, or blinking.

また、カーソル50は、予め定められた形状のポインタ画像でよい。また、カーソル50は、使用者20の指示または予め定めた設定により、表示されなくてもよい。図1は、使用者20の鏡像表示をオフにして、矢印の形状のカーソル50を表示させた例を示す。   The cursor 50 may be a pointer image having a predetermined shape. Further, the cursor 50 may not be displayed according to an instruction from the user 20 or a predetermined setting. FIG. 1 shows an example in which the mirror image display of the user 20 is turned off and a cursor 50 in the shape of an arrow is displayed.

情報116は、例えば、ウィンドウ表示される文書、画像、動画、またはWebコンテンツである。これに代えて、情報116は、使用者20が実行させたアプリケーションの実行画面であってもよい。   The information 116 is, for example, a document, image, moving image, or web content displayed in a window. Instead of this, the information 116 may be an execution screen of an application executed by the user 20.

検出センサ装置200は、使用者20の身体の空間上の位置を検出する。検出センサ装置200は、例えば、表示装置100を使用する使用者が複数いる場合、当該複数の使用者を検出する。検出センサ装置200は、使用者20の身体の一部または全体の二次元および/または三次元空間上の位置を検出してよい。検出センサ装置200は、例えば、光波測距センサおよび/またはビデオカメラ等の撮像部を有する。   The detection sensor device 200 detects the position of the user 20 in the body space. For example, when there are a plurality of users who use the display device 100, the detection sensor device 200 detects the plurality of users. The detection sensor device 200 may detect a position in a two-dimensional and / or three-dimensional space of a part or the whole of the body of the user 20. The detection sensor device 200 includes, for example, an imaging unit such as a light wave distance sensor and / or a video camera.

光波測距センサは、光波測距を用いて距離データの画像を生成し、生成した距離データの画像から使用者を検出する。一例として、光波測距センサは、赤外線等の光を照射する投光器、集光レンズ等の光学系、および、複数の画素を含み、画素毎に使用者からの反射光の検出時間を測定する測距素子を有する。光波測距センサは、使用者に赤外線等を照射し、その反射光を光学系により測距素子の受光面上に結像させ、測距素子の各画素が測定した反射光の検出時間を画像内の各画素の輝度値等に対応付けすることで、使用者の光波測距センサからの距離情報を含む画像を取得する。   The light wave ranging sensor generates an image of distance data using the light wave ranging, and detects a user from the generated image of distance data. As an example, an optical distance measuring sensor includes a projector that irradiates light such as infrared rays, an optical system such as a condenser lens, and a plurality of pixels, and measures a detection time of reflected light from a user for each pixel. It has a distance element. The optical distance measuring sensor irradiates the user with infrared rays and the like, forms an image of the reflected light on the light receiving surface of the distance measuring element by an optical system, and displays the detection time of reflected light measured by each pixel of the distance measuring element. An image including distance information from the user's light wave distance measuring sensor is acquired by associating it with the luminance value of each of the pixels.

このように、光波測距センサは、三次元空間上の位置情報と共に使用者の画像を取得するので、使用者と背景画像とを分離することができる。また、光波測距センサは、このような検出を連続して実行することで、使用者の体の動き等を検出することができる。また、光波測距センサは、一例として、使用者を体、頭、上腕、下腕、手指、上腿、および下腿等に分離して各部を検出し、各部毎の検出を連続することで使用者のジェスチャーを精度よく検出する。   As described above, the optical distance measuring sensor acquires the image of the user together with the position information in the three-dimensional space, so that the user and the background image can be separated. Further, the light wave ranging sensor can detect the movement of the user's body and the like by continuously executing such detection. In addition, the optical distance measuring sensor is used by separating the user into the body, head, upper arm, lower arm, fingers, upper thigh, lower thigh, etc., and detecting each part, and continuously detecting each part. Accurately detect the person's gesture.

撮像部は、使用者を撮像する。撮像部は、1又は複数のビデオカメラを有し、使用者20を含む画像を取得して使用者20を検出する。撮像部は、撮像した画像より、画像処理によって各使用者を検出する。例えば、撮像部は、使用者20を時間的に連続して撮像した連続画像から、一つ前に撮像された画像との差分を算出した複数の差分画像を取得して、使用者20の動き等を検出する。これに代えて、撮像部は、2以上の視点から使用者20の画像を撮像して使用者20の視差画像を取得し、当該視差画像の視差情報に基づいて、使用者20の動き等を検出してもよい。   The imaging unit images the user. The imaging unit has one or a plurality of video cameras, acquires an image including the user 20 and detects the user 20. The imaging unit detects each user from the captured image by image processing. For example, the imaging unit acquires a plurality of difference images obtained by calculating differences from the previous image captured from a continuous image obtained by continuously capturing the user 20 in time, and the movement of the user 20 Etc. are detected. Instead of this, the imaging unit captures the image of the user 20 from two or more viewpoints to obtain the parallax image of the user 20, and based on the parallax information of the parallax image, the movement of the user 20 and the like are determined. It may be detected.

ここで、検出センサ装置200は、上記の光波測距センサおよび撮像部を有し、使用者20の距離情報および動画像をそれぞれ検出し、使用者20の動きの検出感度を向上させてよい。検出センサ装置200は、使用者20の検出結果を表示制御装置300に供給する。   Here, the detection sensor device 200 may include the above-described light wave distance measuring sensor and imaging unit, detect distance information and a moving image of the user 20, and improve the motion detection sensitivity of the user 20. The detection sensor device 200 supplies the detection result of the user 20 to the display control device 300.

表示制御装置300は、使用者20の手の動きに応じて表示装置100の表示内容を制御する。即ち、表示制御装置300は、検出センサ装置200の検出結果を入力し、使用者20の動きの検出結果から当該使用者20の指示を特定し、当該指示に応じて表示装置100の表示内容を制御する。表示制御装置300は、画像入力部302と、指示取得部310と、検出部320と、切替部322と、記憶部330と、実行部340と、表示制御部350と、カーソル制御部360と、を有する。   The display control device 300 controls the display contents of the display device 100 in accordance with the hand movement of the user 20. That is, the display control device 300 inputs the detection result of the detection sensor device 200, specifies the instruction of the user 20 from the detection result of the movement of the user 20, and displays the display content of the display device 100 according to the instruction. Control. The display control apparatus 300 includes an image input unit 302, an instruction acquisition unit 310, a detection unit 320, a switching unit 322, a storage unit 330, an execution unit 340, a display control unit 350, a cursor control unit 360, Have

画像入力部302は、使用者20を撮像した画像を入力する。本例において、画像入力部302は、検出センサ装置200に接続され、検出センサ装置200の検出結果が入力される。画像入力部302は、画像の他に、光波測距センサが検出した使用者20の距離情報等が入力されてもよい。   The image input unit 302 inputs an image obtained by capturing the user 20. In this example, the image input unit 302 is connected to the detection sensor device 200 and a detection result of the detection sensor device 200 is input. In addition to the image, the image input unit 302 may receive the distance information of the user 20 detected by the light wave ranging sensor.

指示取得部310は、画像入力部302が入力した画像中における、使用者20の予め定められた操作用の手22を認識対象とし、当該認識対象の動きを認識したことに応じて、表示装置100の表示内容に対する操作指示を取得する。また、指示取得部310は、認識対象が切り替わって更新されたことに応じて、更新された認識対象の動きに対応する操作指示を検出する。   The instruction acquisition unit 310 uses the predetermined operation hand 22 of the user 20 in the image input by the image input unit 302 as a recognition target, and recognizes the movement of the recognition target according to the display device. An operation instruction for 100 display contents is acquired. In addition, the instruction acquisition unit 310 detects an operation instruction corresponding to the updated movement of the recognition target in response to the recognition target being switched and updated.

これに加えて、指示取得部310は、検出センサ装置200の検出結果に基づき、使用者20の動きから使用者20の指示を検出してもよい。例えば、指示取得部310は、表示装置100の前で人が立ち止まったことに応じて、当該立ち止まった人を使用者20として認識して使用者20のジェスチャー入力の検出を開始する。また、指示取得部310は、使用者20が表示装置100の前から立ち去ったことに応じて、当該使用者20のジェスチャー入力の検出を停止して使用者20としての認識を解除してよい。指示取得部310は、使用者の人数の増減を検出してもよい。   In addition, the instruction acquisition unit 310 may detect the instruction of the user 20 from the movement of the user 20 based on the detection result of the detection sensor device 200. For example, in response to the person stopping in front of the display device 100, the instruction acquisition unit 310 recognizes the stopped person as the user 20 and starts detecting the gesture input of the user 20. Further, the instruction acquisition unit 310 may stop detecting the gesture input of the user 20 and cancel the recognition as the user 20 in response to the user 20 leaving the front of the display device 100. The instruction acquisition unit 310 may detect an increase or decrease in the number of users.

また、指示取得部310は、使用者20の右手または左手を認識対象とし、表示装置100に表示された情報等への選択、選択解除、移動、および実行等の指示を検出する。また、指示取得部310は、使用者20の右手または左手が持った物を認識対象とし、表示装置100に表示された情報等への指示を検出する。また、指示取得部310は、表示装置100が情報をGUIによる操作入力を有するウィンドウ表示する場合に、当該操作入力に対応する使用者20の認識対象からの指示を検出してよい。   Further, the instruction acquisition unit 310 recognizes the right hand or the left hand of the user 20 and detects instructions such as selection, deselection, movement, and execution of information displayed on the display device 100. In addition, the instruction acquisition unit 310 recognizes an object held by the right hand or left hand of the user 20 and detects an instruction to information displayed on the display device 100. In addition, when the display device 100 displays information in a window having an operation input using a GUI, the instruction acquisition unit 310 may detect an instruction from the recognition target of the user 20 corresponding to the operation input.

例えば、指示取得部310は、使用者20が手のひら、指、または手に持った物を表示装置100の表示面に向けて押す動作を検出することで、情報の選択、ボタンの押し下げ、およびウィンドウの切り替え等の指示を検出する。また、使用者20が手のひら、指、または手に持った物を表示装置100の表示面に向けて繰り返し押す動作を検出することで、アプリケーションの実行等の指示を検出してよい。   For example, the instruction acquisition unit 310 detects an operation in which the user 20 pushes a palm, a finger, or an object held in the hand toward the display surface of the display device 100, thereby selecting information, pressing a button, and a window. An instruction such as switching is detected. In addition, by detecting an operation in which the user 20 repeatedly pushes a palm, a finger, or an object held by the hand toward the display surface of the display device 100, an instruction such as execution of an application may be detected.

また、指示取得部310は、使用者20が画面上の情報を選択した後に、選択した手のひら、指、または手に持った物といった認識対象を移動させる動作を検出することで、情報の画面上での移動、および移動先のアプリケーション実行等の指示を検出してよい。ここで、指示取得部310は、使用者20が選択指示をし、かつ、選択指示をした認識対象の表示装置100における表示位置に情報が表示されている場合、使用者20の当該情報の選択を検出してよい。   In addition, the instruction acquisition unit 310 detects an operation of moving a recognition target such as a selected palm, a finger, or an object held in the hand after the user 20 has selected information on the screen, so that the information is displayed on the screen. Instructions such as movement at the destination and execution of the destination application may be detected. Here, the instruction acquisition unit 310 selects the information of the user 20 when the user 20 issues a selection instruction and information is displayed at the display position on the recognition target display device 100 that has issued the selection instruction. May be detected.

指示取得部310は、例えば、使用者20の複数の画像の差分画像から使用者の動きを検出し、認識対象を特定する。指示取得部310は、一例として、使用者20の画像から当該使用者20の顔部分および胴体部分を認識する認識部と、顔部分および胴体部分の右および左に位置する肌色領域を検索する検索部と、予め定められた認識対象の使用者の操作用の手22に対応する肌色領域を認識対象として特定する特定部と、を有する。   For example, the instruction acquisition unit 310 detects the movement of the user from the difference images of the plurality of images of the user 20 and identifies the recognition target. For example, the instruction acquisition unit 310 recognizes a recognition unit that recognizes the face portion and the body portion of the user 20 from the image of the user 20, and a search that searches the skin color regions located on the right and left of the face portion and the body portion. And a specifying unit that specifies a skin color area corresponding to a predetermined recognition target user's operation hand 22 as a recognition target.

認識部は、一例として、使用者20の画像から、使用者20の動きに応じて背景画像と使用者20とを分離する。また、認識部は、使用者20の動きに応じて当該使用者20の顔部分および胴体部分を認識してもよく、予め定められた形状等とのパターンマッチングを実行して当該使用者20の顔部分および胴体部分を認識してもよい。   For example, the recognition unit separates the background image and the user 20 from the image of the user 20 according to the movement of the user 20. The recognizing unit may recognize the face portion and the torso portion of the user 20 according to the movement of the user 20, and performs pattern matching with a predetermined shape or the like to perform the user 20 's movement. You may recognize a face part and a body part.

また、認識部は、検出センサ装置200が使用者20の体、頭、上腕、下腕、手指、上腿、および下腿等を分離して各部を検出できる光波測距センサ等を有する場合、当該光波測距センサの検出結果より、使用者20の顔部分および胴体部分を認識してもよい。   In addition, the recognition unit, when the detection sensor device 200 has a light wave ranging sensor or the like that can detect each part by separating the body, head, upper arm, lower arm, fingers, upper thigh, and lower thigh of the user 20, The face portion and the body portion of the user 20 may be recognized from the detection result of the light wave distance measuring sensor.

検索部は、使用者20の画像から、使用者20の右手または左手に位置する肌色領域を検索する。検索部は、予め定められた形状等とのパターンマッチングを実行して当該使用者20の右手または左手の領域を検索してもよい。認識部および/または検索部がパターンマッチングを実行する場合、マッチングすべき予め定められた形状は、ユーザに対応づけられて予め登録されていてもよく、これに代えて、一般的な人間の形状として予め登録されていてもよい。   A search part searches the skin color area | region located in the user's 20 right hand or left hand from the user's 20 image. The search unit may perform pattern matching with a predetermined shape or the like to search the right hand or left hand region of the user 20. When the recognition unit and / or the search unit execute pattern matching, the predetermined shape to be matched may be registered in advance in association with the user, and instead of this, a general human shape May be registered in advance.

特定部は、認識対象として予め定められた使用者20の右手または左手に対応する、顔部分および胴体部分の右または左に位置する肌色領域を認識対象として特定する。ここで、特定部は、一例として、肌色領域と、使用者20の左右の肩および肘との動きに応じて、肌色領域に対応する手が右手および左手のいずれかを判断する。このように、特定部は、使用者20の手の関節の動きを追従して、関節の動きを元に右手および左手を判別することで、認識対象の特定の精度を向上させてよい。   The specifying unit specifies a skin color region corresponding to the right hand or left hand of the user 20 predetermined as a recognition target and positioned on the right or left of the face part and the body part as the recognition target. Here, as an example, the specifying unit determines whether the hand corresponding to the skin color region is the right hand or the left hand according to the skin color region and the movements of the left and right shoulders and elbows of the user 20. In this way, the specifying unit may improve the specific accuracy of the recognition target by following the movement of the joint of the hand of the user 20 and discriminating the right hand and the left hand based on the movement of the joint.

検出部320は、指示取得部310に接続され、指示取得部310が特定した認識対象に基づき、使用者20の操作用の手22が物を持ったことを検出する。また、検出部320は、使用者20の操作用の手22が持っていた物を離したことを検出する。また、検出部320は、使用者20の操作用の手22が持っていた物を、他方の手に手渡したことを検出してもよい。   The detection unit 320 is connected to the instruction acquisition unit 310 and detects that the operation hand 22 of the user 20 has an object based on the recognition target specified by the instruction acquisition unit 310. Moreover, the detection part 320 detects that the thing which the hand 22 for operation of the user 20 had released | separated. Moreover, the detection part 320 may detect that the thing which the user's 20 operation hand 22 had handed over to the other hand.

検出部320は、例えば、認識対象が手の場合に、認識対象に対応する肌色領域が移動しても当該肌色領域に隣接する領域の色が略同一の場合に、使用者20の操作用の手22が物を持ったことを検出する。これに代えて、またはこれに加えて、検出部320は、当該肌色領域に隣接する略同一の色の領域の形状が、認識対象に対応する肌色領域が移動してもほとんど変化がない場合に、使用者20の操作用の手22が物を持ったことを検出してもよい。ここで、検出部320は、一例として、肌色領域の移動の前後において、当該領域の形状をマッチングさせて、形状の変化を検出する。   For example, when the recognition target is a hand and the skin color region corresponding to the recognition target moves, the detection unit 320 is used for the operation of the user 20 when the color of the region adjacent to the skin color region is substantially the same. It is detected that the hand 22 has an object. Instead of this, or in addition to this, the detection unit 320 has a case where the shape of the region of substantially the same color adjacent to the skin color region is hardly changed even when the skin color region corresponding to the recognition target moves. It may be detected that the operation hand 22 of the user 20 has an object. Here, as an example, the detection unit 320 detects a change in the shape by matching the shape of the region before and after the movement of the skin color region.

また、検出部320は、認識対象が手の場合に、認識対象に対応する領域が、使用者20の認識対象を持つ手に対応する肌色領域の移動に対応して移動しなくなったことに応じて、認識対象である物が手から離れたことを検出する。また、検出部320は、認識対象が物の場合に、認識対象を持つ手に対応する肌色領域と隣接する領域の色が略同一でなくなったことに応じて、認識対象である物が手から離れたことを検出する。   In addition, when the recognition target is a hand, the detection unit 320 responds that the region corresponding to the recognition target no longer moves in response to the movement of the skin color region corresponding to the hand having the recognition target of the user 20. Then, it is detected that the object to be recognized has left the hand. In addition, when the recognition target is an object, the detection unit 320 detects that the object to be recognized is from the hand in response to the fact that the colors of the skin color region corresponding to the hand having the recognition target and the adjacent region are not substantially the same. Detecting separation.

切替部322は、検出部320に接続され、使用者20の操作用の手が物を持ったことが検出されたことに応じて、指示取得部310の認識対象を切り替える。例えば、切替部322は、操作用の手が物を持ったことが検出された場合に、認識対象を操作用の手から操作用の手が持った当該物に切り替える。これに代えて、切替部322は、操作用の手が物を持ったことが検出された場合に、認識対象を使用者20の当該物を持っていない方の手に切り替えてもよい。   The switching unit 322 is connected to the detection unit 320, and switches the recognition target of the instruction acquisition unit 310 in response to detecting that the user's 20 operating hand has an object. For example, when it is detected that the operation hand has an object, the switching unit 322 switches the recognition target from the operation hand to the object held by the operation hand. Instead, the switching unit 322 may switch the recognition target to the hand of the user 20 that does not have the object when it is detected that the operation hand has an object.

また、切替部322は、使用者20の操作用の手22が持っていた物を離したことに応じて、指示取得部310の認識対象を切り替える。例えば、切替部322は、認識対象が物の場合に、使用者20が当該物を手から離したことが検出されたことに応じて、認識対象を当該物から使用者20の当該物を離した手に切り替える。これに代えて、切替部322は、操作用の手22が持っていた物を離したことに応じて、認識対象として予め定められた使用者20の操作用の手22に切り替えてもよい。   In addition, the switching unit 322 switches the recognition target of the instruction acquisition unit 310 in accordance with the release of the object that the user's operating hand 22 has released. For example, when the recognition target is an object, the switching unit 322 moves the recognition target from the object to the user 20 in response to detecting that the user 20 has released the object from the hand. Switch to the hand you did. Instead of this, the switching unit 322 may switch to the operation hand 22 of the user 20 predetermined as a recognition target in accordance with the release of the object held by the operation hand 22.

また、切替部322は、使用者20の操作用の手22が持っていた物を、他方の手に手渡したことに応じて、指示取得部310の認識対象を切り替えてもよい。例えば、切替部322は、使用者20が一方の手で物を持つ場合に、使用者20が当該一方の手から他方の手に物を渡した場合に、物の移動に応じて認識対象を他方の手が持つ物に切り替える。これに代えて、切替部322は、使用者20が当該一方の手から他方の手に物を渡した場合に、認識対象を物を手渡した一方の手に切り替えてもよい。切替部322は、一例として、予め定められた認識対象の切り替え先に応じて、認識対象を切り替える。   In addition, the switching unit 322 may switch the recognition target of the instruction acquisition unit 310 in response to handing over the thing that the user's 20 operating hand 22 has handed over to the other hand. For example, when the user 20 holds an object with one hand and the user 20 passes the object from the one hand to the other hand, the switching unit 322 selects the recognition target according to the movement of the object. Switch to the one with the other hand. Instead, the switching unit 322 may switch the recognition target to the one hand that has handed the object when the user 20 has handed the object from the one hand to the other hand. For example, the switching unit 322 switches the recognition target according to a predetermined recognition target switching destination.

記憶部330は、予め定められた使用者20の操作用の手22を認識対象として記憶する。また、記憶部330は、切替部322に接続され、切替部322が切り替えた認識対象を記憶し、切替部322が切り替える毎に当該認識対象を更新する。また、記憶部330は、切替部322が切り替えるべき認識対象の切り替え先が予め定められている場合に、当該認識対象の切り替え先を記憶する。   The storage unit 330 stores a predetermined operation hand 22 of the user 20 as a recognition target. The storage unit 330 is connected to the switching unit 322, stores the recognition target switched by the switching unit 322, and updates the recognition target every time the switching unit 322 switches. In addition, when a switching destination of a recognition target to be switched by the switching unit 322 is determined in advance, the storage unit 330 stores the recognition target switching destination.

また、記憶部330は、使用者20に対して表示すべき情報を記憶する。記憶部330は、文書、画像、動画、Webコンテンツ、URL、およびアプリケーション等の情報を記憶してよい。また、記憶部330は、使用者20が複数の場合は、それぞれの使用者に対応する情報を、それぞれの使用者に対応づけて記憶してもよい。   In addition, the storage unit 330 stores information to be displayed to the user 20. The storage unit 330 may store information such as documents, images, moving images, Web contents, URLs, and applications. In addition, when there are a plurality of users 20, the storage unit 330 may store information corresponding to each user in association with each user.

また、記憶部330は、指示取得部310に接続され、使用者の動作パターンを記憶してもよい。この場合、指示取得部310は、記憶された動作パターンと検出された使用者の動作とを比較することで、使用者のジェスチャー入力による指示を検出することができる。また、記憶部330は、それぞれの使用者の画像情報を記憶してもよい。この場合、指示取得部310は、記憶された使用者と検出された使用者とを比較し、使用者がマッチングした場合に、当該使用者が過去に表示した情報を現在の表示領域110に表示させる指示を検出したと判断してよい。   The storage unit 330 may be connected to the instruction acquisition unit 310 and store a user's operation pattern. In this case, the instruction acquisition unit 310 can detect an instruction by a user's gesture input by comparing the stored operation pattern with the detected user's operation. The storage unit 330 may store image information of each user. In this case, the instruction acquisition unit 310 compares the stored user with the detected user, and displays information displayed by the user in the past in the current display area 110 when the user matches. It may be determined that an instruction to be detected has been detected.

実行部340は、指示取得部310に接続され、指示取得部310が検出したアプリケーションの実行の指示に応じて、当該アプリケーションを実行する。実行部340は、予め記憶されたメール送受信、文書編集、画像表示、動画再生、Webブラウザ、および表示システム10の設定等のアプリケーションプログラムを実行する。また、実行部340は、アプリケーションのインストールおよびアンインストール等を、指示に応じて実行してもよい。   The execution unit 340 is connected to the instruction acquisition unit 310 and executes the application in response to an application execution instruction detected by the instruction acquisition unit 310. The execution unit 340 executes pre-stored application programs such as mail transmission / reception, document editing, image display, video playback, Web browser, and display system 10 settings. Further, the execution unit 340 may execute application installation and uninstallation in accordance with instructions.

実行部340は、例えば、記憶部330に接続され、当該アプリケーションの実行画面を表示させるべく、実行画面の情報を当該使用者20に対応づけて記憶部330に記憶する。また、実行部340は、当該アプリケーションの実行画面を表示領域110に表示させるべく、実行画面の情報を表示制御部350に供給する。   For example, the execution unit 340 is connected to the storage unit 330 and stores information on the execution screen in the storage unit 330 in association with the user 20 in order to display the execution screen of the application. Further, the execution unit 340 supplies information on the execution screen to the display control unit 350 so that the execution screen of the application is displayed in the display area 110.

表示制御部350は、使用者20の操作指示に応じて表示装置100の表示内容を制御する。表示制御部350は、記憶部330に記憶された使用者20に対応付けられた情報を、表示領域110に表示してよい。また、表示制御部350は、記憶部330の記憶が更新される毎に、更新された情報を表示領域110に表示してよい。また、表示制御部350は、指示取得部310の検出した使用者20の指示に応じた情報を、表示装置100に表示させる。   The display control unit 350 controls the display content of the display device 100 in accordance with an operation instruction from the user 20. The display control unit 350 may display information associated with the user 20 stored in the storage unit 330 in the display area 110. In addition, the display control unit 350 may display the updated information in the display area 110 every time the storage of the storage unit 330 is updated. In addition, the display control unit 350 causes the display device 100 to display information corresponding to the instruction of the user 20 detected by the instruction acquisition unit 310.

表示制御部350は、使用者20が表示指示した情報を、表示領域110にウィンドウ表示させてよい。これに代えて、表示制御部350は、指示に応じた情報を、使用者20を撮像したシルエット画像と共に表示制御してもよい。   The display control unit 350 may display information instructed to be displayed by the user 20 on the display area 110 in a window. Instead of this, the display control unit 350 may display-control information corresponding to the instruction together with a silhouette image obtained by capturing the user 20.

また、表示制御部350は、一例として、予め定められた設定または使用者20の入力に応じて、使用者20の画像を使用者20の指示に応じた情報と共に表示装置100に表示させる。この場合、表示制御部350は、使用者20の画像に重ねて、当該情報を表示制御してよい。これに代えて、表示制御部350は、当該情報に重ねて、当該使用者20の画像を表示制御してよい。表示制御部350は、予め定められた表示優先順位に応じて、使用者20の情報および使用者の画像を重ねて表示してよい。   In addition, as an example, the display control unit 350 causes the display device 100 to display an image of the user 20 together with information according to an instruction from the user 20 in accordance with a predetermined setting or an input from the user 20. In this case, the display control unit 350 may display and control the information so as to overlap the image of the user 20. Instead of this, the display control unit 350 may superimpose the information and control the display of the image of the user 20. The display control unit 350 may display the information of the user 20 and the image of the user in an overlapping manner according to a predetermined display priority order.

カーソル制御部360は、使用者20の操作指示に応じて、表示装置100に表示された操作対象を選択するカーソル50を表示制御する。即ち、カーソル制御部360は、使用者20の認識対象の移動等を検出した検出結果を指示取得部310から受け取り、当該認識対象の移動に対応して、カーソル50を表示および移動させる指示を表示制御部350に供給する。   The cursor control unit 360 controls display of the cursor 50 for selecting an operation target displayed on the display device 100 in accordance with an operation instruction from the user 20. That is, the cursor control unit 360 receives the detection result of detecting the movement of the recognition target of the user 20 from the instruction acquisition unit 310, and displays an instruction to display and move the cursor 50 in response to the movement of the recognition target. This is supplied to the control unit 350.

例えば、カーソル制御部360は、使用者20の認識対象が使用者20の操作用の手22の場合、当該操作用の手22の動きに応じてカーソル50を表示装置100の表示領域110内で動かす。同様に、カーソル制御部360は、使用者20の認識対象が使用者20の手が持つ物24の場合、当該物24の動きに応じてカーソル50を表示装置100の表示領域110内で動かす。   For example, when the recognition target of the user 20 is the operation hand 22 of the user 20, the cursor control unit 360 moves the cursor 50 within the display area 110 of the display device 100 according to the movement of the operation hand 22. move. Similarly, when the recognition target of the user 20 is the object 24 held by the user 20, the cursor control unit 360 moves the cursor 50 in the display area 110 of the display device 100 according to the movement of the object 24.

図1は、カーソル制御部360が、使用者20が手に持つ物24に応じて、表示領域110の対応する位置にカーソル50を表示する例を示す。ここで、使用者20が手に持つ物24は、一例として、ペン等の棒状の物体である。   FIG. 1 shows an example in which the cursor control unit 360 displays the cursor 50 at a corresponding position in the display area 110 according to the object 24 held by the user 20. Here, the object 24 held by the user 20 is, for example, a rod-like object such as a pen.

以上の表示装置100は、表示制御装置300の表示制御に応じた表示内容を表示する。また、情報表示システム10は、使用者20を検出し、検出した使用者20の認識対象のジェスチャー入力に応じた情報を表示領域110に表示する。情報表示システム10は、使用者20の認識対象を、使用者20のジェスチャー入力によって特定しつつ、使用者20の動作に応じて切り替える。   The above display device 100 displays the display content according to the display control of the display control device 300. Further, the information display system 10 detects the user 20 and displays information corresponding to the detected gesture input of the user 20 to be recognized in the display area 110. The information display system 10 switches the recognition target of the user 20 according to the operation of the user 20 while specifying the recognition target by the user 20 gesture input.

図2は、本実施形態に係る情報表示システム10の第2の構成例を使用者20と共に示す。本構成例の情報表示システム10において、図1に示された本実施形態に係る情報表示システム10の動作と略同一のものには同一の符号を付け、説明を省略する。   FIG. 2 shows a second configuration example of the information display system 10 according to the present embodiment together with the user 20. In the information display system 10 of the present configuration example, the same reference numerals are given to the substantially same operations as those of the information display system 10 according to the present embodiment shown in FIG.

本構成例において、使用者20の右手を操作用の手22として認識対象にした場合に、カーソル制御部360が、当該操作用の手22の動きに応じてカーソル50を表示装置100の表示領域110内で動かす例を示す。また、図2は、使用者20が左手に物26を持つ例を示す。   In the present configuration example, when the right hand of the user 20 is set as the recognition target as the operation hand 22, the cursor control unit 360 displays the cursor 50 in accordance with the movement of the operation hand 22. An example of moving within 110 is shown. FIG. 2 shows an example in which the user 20 has an object 26 on the left hand.

図2において、物26は、コーヒーカップ等であり、使用者20が当該物26を用いて情報表示システム10の操作に用いるよりも、当該物26を持たない右手で操作をした方が操作性が向上する例を示す。このような場合に、情報表示システム10は、物26を持たない右手を操作用の手22として認識対象に切り替え、当該認識対象をの動きに応じてカーソル50を表示して使用者20の入力に応じた情報を表示領域110に表示する。   In FIG. 2, the object 26 is a coffee cup or the like, and it is easier for the user 20 to operate with the right hand without the object 26 than to use the object 26 to operate the information display system 10. An example in which In such a case, the information display system 10 switches the right hand not having the object 26 to the recognition target as the operation hand 22, displays the cursor 50 according to the movement of the recognition target, and inputs the user 20. The information corresponding to is displayed in the display area 110.

図3は、本実施形態に係る情報表示システム10の動作フローを示す。情報表示システム10は、S300からS370までの処理により、使用者20の指示に応じた情報を表示装置100に表示する。   FIG. 3 shows an operation flow of the information display system 10 according to the present embodiment. The information display system 10 displays information corresponding to the instruction of the user 20 on the display device 100 through the processing from S300 to S370.

表示制御装置300は、まず、初期設定として、使用者20の操作モードを第1の操作モードに設定する(S300)。ここで、第1の操作モードとは、操作を認識する際の認識対象である、使用者20の手が物を持ったことに応じて、認識対象を当該物に切り替えるモードである。そして、認識対象である手が物を持ったことに応じて、認識対象を当該物を持たない他方の手に切り替えるモードを、第2の操作モードとする。   First, the display control device 300 sets the operation mode of the user 20 to the first operation mode as an initial setting (S300). Here, the first operation mode is a mode for switching the recognition target to the object in accordance with the hand of the user 20 holding the object, which is a recognition target when recognizing the operation. And the mode which switches a recognition object to the other hand which does not have the said object according to the hand which is a recognition object holding an object is made into 2nd operation mode.

ここで表示制御装置300は、使用者20の操作モードおよび認識対象である操作用の手22が左右いずれであるかを記憶部330に記憶する。これに代えて、表示制御装置300は、予め記憶部330に記憶されて定められた操作モードおよび認識対象である操作用の手22の設定情報に応じて、初期設定されてもよい。   Here, the display control device 300 stores the operation mode of the user 20 and whether the operation hand 22 to be recognized is left or right in the storage unit 330. Instead of this, the display control device 300 may be initialized according to the operation mode stored in advance in the storage unit 330 and the setting information of the operation hand 22 to be recognized.

次に、情報表示システム10は、表示装置100の前の使用者20の存在を検出する(S310)。例えば、指示取得部310は、検出センサ装置200の検出結果に基づき、人が表示装置100の前に立ったことに応じて、当該人を使用者20として検出する。指示取得部310は、1以上の使用者20が検出されるまで使用者20の検出を繰り返す。   Next, the information display system 10 detects the presence of the user 20 in front of the display device 100 (S310). For example, the instruction acquisition unit 310 detects the person as the user 20 when the person stands in front of the display device 100 based on the detection result of the detection sensor device 200. The instruction acquisition unit 310 repeats the detection of the user 20 until one or more users 20 are detected.

次に、指示取得部310は、操作を認識する際の認識対象である操作用の手22または物24を特定し、検出部320は、当該認識対象に変化があるか否かを検出する(S320)。具体的には、検出部320は、操作用の手22が物を持ったか否か、または認識対象の物を手から離したか否かを検出する。指示取得部310は、認識対象に変化が無い場合は、当該認識対象の動作に応じた指示を検出するステップS360に進む。   Next, the instruction acquisition unit 310 specifies the operation hand 22 or the object 24 that is a recognition target when recognizing the operation, and the detection unit 320 detects whether or not the recognition target is changed ( S320). Specifically, the detection unit 320 detects whether or not the operating hand 22 has an object, or whether or not the object to be recognized is released from the hand. If there is no change in the recognition target, the instruction acquisition unit 310 proceeds to step S360 for detecting an instruction according to the operation of the recognition target.

検出部320によって操作用の手22が物を持ったことが検出され、かつ、検出時の操作モードが第1の操作モードの場合、切替部322は、認識対象を当該物に切り替える(S330、S340、およびS342)。これによって、情報表示システム10は、使用者20が操作用にペンまたは差し棒等の棒状の物24を持ったことに応じて、当該物24を認識対象にし、当該物24の動作に応じた指示を検出して使用者20の操作入力をスムーズに継続することができる。   When the detection unit 320 detects that the operating hand 22 has an object and the operation mode at the time of detection is the first operation mode, the switching unit 322 switches the recognition target to the object (S330, S340 and S342). As a result, the information display system 10 makes the object 24 a recognition target in response to the user 20 holding the bar-like object 24 such as a pen or a pointing stick for operation, and responds to the operation of the object 24. It is possible to detect the instruction and continue the operation input of the user 20 smoothly.

また、検出部320によって操作用の手22が物を持ったことが検出され、かつ、検出時の操作モードが第2の操作モードの場合、切替部322は、認識対象を当該物を持っていない他方の手に切り替える(S330、S340、およびS344)。これによって、情報表示システム10は、使用者20が操作用の手22でコーヒーカップ、歯ブラシ、またはひげ剃り等の操作に無関係な物26を持ったことに応じて、当該物26を持っていない方の手を認識対象にすることができる。即ち、情報表示システム10は、使用者20の操作とは関係のない動作による誤検出を防ぎつつ、認識対象の動作に応じた指示を検出することができる。   When the detection unit 320 detects that the operating hand 22 has an object and the operation mode at the time of detection is the second operation mode, the switching unit 322 has the object to be recognized. Switch to the other hand that does not exist (S330, S340, and S344). Accordingly, the information display system 10 does not have the object 26 in response to the user 20 having the object 26 irrelevant to the operation such as the coffee cup, the toothbrush, or the shaving with the operating hand 22. One hand can be recognized. That is, the information display system 10 can detect an instruction according to the operation to be recognized while preventing erroneous detection due to an operation unrelated to the operation of the user 20.

また、検出部320によって使用者20が認識対象の物を手離したことが検出された場合、認識対象は物で、かつ、検出時の操作モードは第1の操作モードとなるので、切替部322は、認識対象を当該物からその物を離した手に切り替える(S330、S332およびS352)。これによって、情報表示システム10は、使用者20が操作用に持ったペンまたは差し棒等の操作指示に用いる棒状の物24を離したことに応じて、当該物24を離した手を認識対象に切り替え、当該操作用の手22の動作に応じた指示を検出して使用者20の操作入力をスムーズに継続することができる。   When the detection unit 320 detects that the user 20 has released the object to be recognized, the recognition target is an object, and the operation mode at the time of detection is the first operation mode. 322 switches the recognition target to a hand that has separated the object from the object (S330, S332, and S352). As a result, the information display system 10 recognizes the hand that has released the object 24 in response to the user 20 releasing the bar-like object 24 used for operating instructions such as a pen or a pointing stick. The operation input of the user 20 can be smoothly continued by detecting an instruction according to the operation of the hand 22 for the operation.

ここで、検出部320によって、使用者20が持っていた認識対象の物を他方の手に手渡したことが検出された場合、切替部322は、認識対象を物にしたままにする(S332)。これによって、情報表示システム10は、使用者20が操作用に持ったペンまたは差し棒等の操作指示に用いる棒状の物24を一方の手から他方の手に手渡しても、当該物24を認識対象にしたまま、当該物24の動作に応じた指示を検出して使用者20の操作入力をスムーズに継続することができる。   Here, when the detection unit 320 detects that the object to be recognized that the user 20 has handed over to the other hand, the switching unit 322 keeps the recognition target as an object (S332). . As a result, the information display system 10 recognizes the object 24 even if the user 20 passes the rod-shaped object 24 used for operating instructions such as a pen or a pointing rod, which is held for operation, from one hand to the other. An instruction according to the operation of the object 24 can be detected and the operation input by the user 20 can be continued smoothly while keeping the object.

切替部322は、ステップS342、S344、およびS352のいずれの切り替え動作においても、切り替えた結果を記憶部330に記憶して、認識対象を更新する。指示取得部310は、記憶部330に記憶された認識対象が更新されたことに応じて、更新された認識対象を特定し、当該認識対象の動作に応じた指示を検出する(S360)。使用者20は、情報表示の指示を認識対象を用いたジェスチャーによって入力する。   In any switching operation of steps S342, S344, and S352, the switching unit 322 stores the switching result in the storage unit 330 and updates the recognition target. The instruction acquisition unit 310 identifies the updated recognition target in response to the recognition target stored in the storage unit 330 being updated, and detects an instruction according to the operation of the recognition target (S360). The user 20 inputs an information display instruction by a gesture using a recognition target.

例えば、指示取得部310は、認識対象として使用者20の操作用の手22が特定されている場合、使用者20の画像の操作用の手22に対応する領域の変化を、予め記憶した多数の手の立体パターンの変化、輪郭パターンの変化またはシルエットパターンの変化等とそれぞれ対比する。これにより、指示取得部310は、使用者の操作用の手22のジェスチャー等の動きを検出して、当該ジェスチャー等の動きから操作指示を取得する。   For example, when the user's 20 operation hand 22 is specified as the recognition target, the instruction acquisition unit 310 stores a large number of changes in the area corresponding to the user's 20 operation hand 22 in advance. This is compared with the change in the three-dimensional pattern of the hand, the change in the contour pattern, the change in the silhouette pattern, and the like. Thereby, the instruction acquisition unit 310 detects a motion such as a gesture of the user's operating hand 22 and acquires an operation instruction from the motion of the gesture.

例えば、指示取得部310は、使用者の認識対象の動きとして、開いた手を握った状態にすること、握った手を開くこと、手を左右方向に振ること、手を上下方向に動かすこと、手でボタンを押す動作をすること、手でクリックまたはダブルクリックする動作をすること、手で円を描く動作をすること、手を一定時間静止させること、一部または全ての指を動かすこと、その他の手の運動、またはこれらの組み合わせを検出する。   For example, the instruction acquisition unit 310 moves the user as a recognition target by holding the open hand, opening the gripped hand, shaking the hand left and right, and moving the hand up and down. , Push a button with your hand, click or double-click with your hand, draw a circle with your hand, keep your hand stationary for a certain period of time, move some or all fingers Detect other hand movements, or a combination of these.

また、指示取得部310は、認識対象として使用者20が手に持った物24が特定されている場合、使用者20の画像の認識対象に対応する領域の異なる時間で撮像された複数の画像をそれぞれ比較して、立体的なパターン、輪郭パターン、またはシルエットパターンの時間的な変化等を検出する。これにより、指示取得部310は、使用者の認識対象の動きを検出して、当該動きから操作指示を取得する。   In addition, when the object 24 held by the user 20 is specified as a recognition target, the instruction acquisition unit 310 has a plurality of images captured at different times in regions corresponding to the recognition target of the user 20 image. Are respectively compared to detect a temporal change in a three-dimensional pattern, contour pattern, or silhouette pattern. Thereby, the instruction acquisition unit 310 detects the movement of the user's recognition target and acquires an operation instruction from the movement.

例えば、指示取得部310は、使用者の認識対象の動きとして、手に持った物24を左右方向に振ること、物24を上下方向に動かすこと、物24でボタンを押す動作をすること、物24でクリックまたはダブルクリックする動作をすること、物24で円を描く動作をすること、物24を一定時間静止させること、その他の物24の運動、またはこれらの組み合わせを検出する。   For example, the instruction acquisition unit 310 moves the object 24 held in the hand in the left-right direction, moves the object 24 in the up-down direction, and pushes the button with the object 24 as the movement of the user's recognition target. The action of clicking or double-clicking on the object 24, the action of drawing a circle with the object 24, the stationary of the object 24 for a certain period of time, the movement of the other object 24, or a combination thereof is detected.

指示取得部310は、カーソル50がアイコンと重なった状態で、使用者20が認識対象で予め定められた操作指示をしたことを認識した場合、当該アイコンに対応するアプリケーションに関連する操作指示を検出してよい。この場合、指示取得部310は、アプリケーションの実行を検出してよく、また、使用者20がファイル等の情報を選択したままアプリケーションの操作指示を出した場合は、当該ファイルを当該アプリケーションに入力させて実行してよい。   When the instruction acquisition unit 310 recognizes that the user 20 has made a predetermined operation instruction on the recognition target in a state where the cursor 50 is overlapped with the icon, the instruction acquisition unit 310 detects an operation instruction related to the application corresponding to the icon. You can do it. In this case, the instruction acquisition unit 310 may detect execution of the application, and when the user 20 issues an operation instruction for the application while selecting information such as a file, the instruction acquisition unit 310 causes the application to input the file. You can do it.

ここで、アプリケーションに関連する指示は、当該アプリケーションの実行、削除、またはプロパティの表示等であってよい。指示取得部310は、カーソル50がアイコンと重なった状態で、認識対象がボタンを押す動作をしたことを検出した場合、当該アイコンに対応するアプリケーションの実行指示を検出してよい。ここで、アプリケーションは、一例として、情報表示システム10の設定を含む。これにより、使用者20は、操作モードの設定、切替部322が切り替える切り替え先、および表示装置100が鏡像表示をするか否か等をジェスチャーによって入力することができる。   Here, the instruction related to the application may be execution of the application, deletion, display of properties, or the like. When the instruction acquisition unit 310 detects that the recognition target has performed an operation of pressing a button in a state where the cursor 50 overlaps with an icon, the instruction acquisition unit 310 may detect an execution instruction of an application corresponding to the icon. Here, the application includes settings of the information display system 10 as an example. Thereby, the user 20 can input the setting of the operation mode, the switching destination switched by the switching unit 322, whether or not the display device 100 performs a mirror image display, and the like by a gesture.

また、指示取得部310は、カーソル50がアイコンと重なった状態で、認識対象が円を描く動作をしたことを検出した場合、当該アイコンに対応するアプリケーションの終了指示を検出してよい。また、指示取得部310は、カーソル50がアイコンと重なった状態で、認識対象で押す動作をした状態にし、更に当該認識対象で押した状態のまま移動させたことを検出した場合、認識対象の位置と連動させて当該アイコンをドラッグする指示を検出してよい。   In addition, when the instruction acquisition unit 310 detects that the recognition target performs an operation of drawing a circle in a state where the cursor 50 is overlapped with an icon, the instruction acquisition unit 310 may detect an application termination instruction corresponding to the icon. In addition, when the instruction acquisition unit 310 detects that the cursor 50 is in a state where the cursor 50 is overlapped with the icon and is operated to be pressed on the recognition target and is further moved while being pressed on the recognition target, An instruction to drag the icon in conjunction with the position may be detected.

また、指示取得部310は、当該認識対象で押した状態からもとの状態に戻したことを検出した場合、当該アイコンを認識対象の位置でドロップする指示を検出してよい。指示取得部310は、使用者が複数の場合、使用者毎に、検出した指示に応じて、当該指示を検出部320、実行部340、表示制御部350、またはカーソル制御部360に供給する。   In addition, when the instruction acquisition unit 310 detects that the state is pressed from the recognition target and returns to the original state, the instruction acquisition unit 310 may detect an instruction to drop the icon at the position of the recognition target. When there are a plurality of users, the instruction acquisition unit 310 supplies the instructions to the detection unit 320, the execution unit 340, the display control unit 350, or the cursor control unit 360 according to the detected instruction for each user.

一例として、使用者20の操作指示が操作モードを切り替える指示の場合、切替部322は、使用者20が操作指示を出した時点の操作モードを切り替える(S362およびS364)。この場合、使用者20は、操作モードを切り替える設定画面を操作して当該操作モードを切り替えてよく、これに代えて、ショートカットアイコン等を操作してもよい。   As an example, when the operation instruction of the user 20 is an instruction to switch the operation mode, the switching unit 322 switches the operation mode when the user 20 issues the operation instruction (S362 and S364). In this case, the user 20 may switch the operation mode by operating a setting screen for switching the operation mode, and may operate a shortcut icon or the like instead.

検出部320は、一例として、使用者20が画面に表示されている操作モードを切り替える切り替えボタン等を認識対象で押す動作をしたことを検出する。ここで、操作モードが第1の操作モードで、かつ、検出部320が使用者20の持つ物24による切り替え指示を検出した場合、切替部322は、操作モードを第2の操作モードに切り替え、認識対象を使用者20の物を持っていない方の手とする。   As an example, the detection unit 320 detects that the user 20 has performed an operation of pressing a switching button or the like for switching the operation mode displayed on the screen as a recognition target. Here, when the operation mode is the first operation mode and the detection unit 320 detects a switching instruction by the object 24 of the user 20, the switching unit 322 switches the operation mode to the second operation mode, The recognition target is the hand of the user 20 who does not have the object.

また、操作モードが第1の操作モードで、かつ、使用者20の操作用の手22による切り替え指示を検出部320が検出した場合、切替部322は、操作モードを第2の操作モードに切り替え、認識対象を操作用の手22のままとする。また、操作モードが第2の操作モードで、かつ、使用者20の操作用の手22による切り替え指示を検出部320が検出した場合、切替部322は、操作モードを第1の操作モードに切り替え、認識対象を操作用の手22のままとする。このようにして、情報表示システム10は、使用者20の指示に応じて、操作モードを切り替えることができる。   When the operation mode is the first operation mode and the detection unit 320 detects a switching instruction by the user's operation hand 22, the switching unit 322 switches the operation mode to the second operation mode. The recognition target remains the operation hand 22. When the operation mode is the second operation mode and the detection unit 320 detects a switching instruction by the user's operation hand 22, the switching unit 322 switches the operation mode to the first operation mode. The recognition target remains the operation hand 22. In this way, the information display system 10 can switch the operation mode in accordance with an instruction from the user 20.

表示制御部350は、指示取得部310から受け取った使用者20の指示に対応する情報を表示装置100に表示する(S370)。例えば、検出センサ装置200が撮像した使用者の画像を表示する場合、当該画像を指示取得部310から受け取り、表示領域110に表示する。また、表示制御部350は、使用者の情報を移動させる指示を指示取得部310から受け取ったことに応じて、当該情報を移動させてよく、また、記憶部330が表示位置を記憶している場合は記憶部330の情報を更新してよい。   The display control unit 350 displays information corresponding to the instruction of the user 20 received from the instruction acquisition unit 310 on the display device 100 (S370). For example, when displaying an image of a user captured by the detection sensor device 200, the image is received from the instruction acquisition unit 310 and displayed in the display area 110. The display control unit 350 may move the information in response to receiving an instruction to move the user information from the instruction acquisition unit 310, and the storage unit 330 stores the display position. In this case, the information in the storage unit 330 may be updated.

また、表示制御部350は、実行部340から実行画面の情報を受け取った場合、表示領域110に当該実行画面を表示する。また、表示制御部350は、カーソル制御部360からカーソル表示の情報を受け取った場合、表示領域110に当該カーソルを表示する。また、表示制御部350は、記憶部330に記憶された情報に応じて、表示装置100に当該情報を表示する。   When the display control unit 350 receives execution screen information from the execution unit 340, the display control unit 350 displays the execution screen in the display area 110. Further, when the display control unit 350 receives cursor display information from the cursor control unit 360, the display control unit 350 displays the cursor in the display area 110. Further, the display control unit 350 displays the information on the display device 100 according to the information stored in the storage unit 330.

情報表示システム10は、ステップS310に戻り、使用者20の検出と、使用者20の認識対象による指示の検出と、使用者20の指示に応じた情報の表示とを繰り返す。以上の本実施例に係る情報表示システム10は、情報表示の指示を認識対象を用いたジェスチャーによって入力させ、操作入力の最中に、指示用の物24を手に持って当該物24で操作入力することができる。また、情報表示システム10は、ジェスチャー入力の最中に、指示用の物24を手から離しても操作入力を続行することができる。   The information display system 10 returns to step S310, and repeats detection of the user 20, detection of an instruction based on the recognition target of the user 20, and display of information according to the instruction of the user 20. In the information display system 10 according to the above-described embodiment, an information display instruction is input by a gesture using a recognition target, and the operation object 24 is operated by holding the instruction object 24 in the middle of the operation input. Can be entered. Further, the information display system 10 can continue the operation input even if the instruction object 24 is released from the hand during the gesture input.

また、情報表示システム10は、ジェスチャー入力の最中に、操作指示とは関係のない物26を手に持っても、認識対象を切り替えて操作入力を続行することができる。   Further, the information display system 10 can continue the operation input by switching the recognition target even if the hand 26 holds the object 26 that is not related to the operation instruction during the gesture input.

ここで、情報表示システム10は、一例として、使用者20が表示させていた情報、特定した認識対象の情報、複数回利用した情報またはアプリケーション等の情報、および予め使用者20が登録した情報等を、使用者20と対応づけて使用者20の画像と共に記憶部330に記憶させる。また、この場合、指示取得部310は、ステップS310において使用者20を検出する場合に、画像比較等の処理を実行して、記憶された使用者候補画像と検出された使用者画像が同一であるか否かを検出してよい。   Here, as an example, the information display system 10 includes information displayed by the user 20, information on the identified recognition target, information such as information used multiple times or information, and information registered in advance by the user 20. Are stored in the storage unit 330 together with the image of the user 20 in association with the user 20. Further, in this case, when the instruction acquisition unit 310 detects the user 20 in step S310, the instruction acquisition unit 310 performs processing such as image comparison, and the stored user candidate image and the detected user image are the same. It may be detected whether or not there is.

指示取得部310は、一例として、記憶された使用者候補画像と検出された使用者画像が同一の場合、記憶された使用者20の情報に応じて、操作モード、切替部322が切り替えるべき認識対象等を設定する。ここで、表示制御部350は、記憶された使用者20に対応する情報、アプリケーション等を表示してよい。これによって、情報表示システム10は、予め登録された使用者20が表示装置100の前に立つことで、当該登録された使用者20に対応する情報を表示することができる。   For example, when the stored user candidate image and the detected user image are the same, the instruction acquisition unit 310 recognizes that the operation mode and the switching unit 322 should switch according to the stored information of the user 20. Set the target. Here, the display control unit 350 may display information, applications, and the like corresponding to the stored user 20. Thereby, the information display system 10 can display information corresponding to the registered user 20 by the user 20 registered in advance standing in front of the display device 100.

例えば、情報表示システム10は、使用者20が表示装置100の前に立つと、使用者20の登録したURLのウェブサイトを表示するウィンドウを表示領域110に表示しつつ、使用者20が以前に用いた操作モードで速やかな入力を開始させることができる。   For example, when the user 20 stands in front of the display device 100, the information display system 10 displays a window for displaying the website of the URL registered by the user 20 in the display area 110, while the user 20 previously A prompt input can be started in the used operation mode.

以上の本実施形態にかかる情報表示システム10の動作フローは、操作モードを予め定めること、および、使用者20が操作モードを設定することを説明した。これに代えて、情報表示システム10は、使用者20が手に持った物に応じて、操作モードを切り替えてもよい。このような情報表示システム10の動作フローについて、図4を用いて説明する。   The operation flow of the information display system 10 according to the above-described embodiment has described that the operation mode is determined in advance and the user 20 sets the operation mode. Instead of this, the information display system 10 may switch the operation mode according to what the user 20 has in his hand. The operation flow of the information display system 10 will be described with reference to FIG.

図4は、本実施形態に係る情報表示システム10の変形例の動作フローを示す。本変形例の動作フローにおいて、図3に示された本実施形態に係る情報表示システム10の動作フローと略同一のものには同一の符号を付け、説明を省略する。   FIG. 4 shows an operation flow of a modification of the information display system 10 according to the present embodiment. In the operation flow of this modification, the same reference numerals are given to the substantially same operation flow of the information display system 10 according to the present embodiment shown in FIG. 3, and the description thereof is omitted.

表示制御装置300は、まず、初期設定として、使用者20の操作モードを第1の操作モードに設定する(S300)。次に、情報表示システム10は、表示装置100の前の使用者20の存在を検出する(S310)。次に、指示取得部310は、使用者20の認識対象を特定し、検出部320は、当該認識対象に変化があるかを検出する(S320)。   First, the display control device 300 sets the operation mode of the user 20 to the first operation mode as an initial setting (S300). Next, the information display system 10 detects the presence of the user 20 in front of the display device 100 (S310). Next, the instruction acquisition unit 310 identifies the recognition target of the user 20, and the detection unit 320 detects whether there is a change in the recognition target (S320).

検出部320は、操作用の手22が物を持ったことを検出した場合、当該物に応じた操作モードを決定する(S400)。検出部320は、当該物が例えば棒状といった操作指示に関係する形状を有する場合に、操作モードを第1の操作モードとする。また、当該物が操作指示とは関係のない形状を有する場合に、操作モードを第2の操作モードとする。   When detecting that the operation hand 22 has an object, the detection unit 320 determines an operation mode corresponding to the object (S400). The detection unit 320 sets the operation mode to the first operation mode when the object has a shape related to an operation instruction such as a rod shape. Further, when the object has a shape unrelated to the operation instruction, the operation mode is set as the second operation mode.

検出部320は、例えば、当該物として検出した領域の形状が、棒状であるか否かを認識して操作モードを決定する。この場合、一例として、検出部320は、当該物として検出した領域の形状と、予め定められたパターン形状とを比較することにより、当該形状が棒状であるか否かを認識する。これに代えて、検出部320は、使用者20が使用した物の画像情報を記憶部330に記憶しておき、過去に使用して記憶された物の画像と、物として検出された画像とを比較して、同一の物であると認識した場合に、操作モードを使用者20が過去に当該物を用いた場合の操作モードと同一にしてよい。   For example, the detection unit 320 determines whether or not the shape of the region detected as the object is a rod shape and determines the operation mode. In this case, as an example, the detection unit 320 recognizes whether or not the shape is a rod shape by comparing the shape of the region detected as the object with a predetermined pattern shape. Instead, the detection unit 320 stores the image information of the object used by the user 20 in the storage unit 330, the image of the object that has been used and stored in the past, the image detected as the object, And the operation mode may be the same as the operation mode when the user 20 has used the object in the past.

次に、切替部322は、検出部320が決定した操作モードと、操作用の手22が物を持ったことまたは離したことの検出結果とに応じて、認識対象を切り替える(S330、S332、S340、S342、S344、およびS352)。次に、指示取得部310は、認識対象の動作に応じた指示を検出する(S360)。次に、表示制御部350は、指示取得部310から受け取った使用者20の指示に対応する情報を表示装置100に表示する(S370)。   Next, the switching unit 322 switches the recognition target in accordance with the operation mode determined by the detection unit 320 and the detection result that the operation hand 22 has held or released the object (S330, S332, S340, S342, S344, and S352). Next, the instruction acquisition unit 310 detects an instruction according to the operation to be recognized (S360). Next, the display control unit 350 displays information corresponding to the instruction of the user 20 received from the instruction acquisition unit 310 on the display device 100 (S370).

このように、検出部320は、操作用の手22が持った物の形状に応じて、操作モードを決定するので、使用者20は、操作モードを設定することなく、ジェスチャー入力を続けることができる。また、検出部320は、使用者20が手に持った物の画像と当該物を用いた操作モードの情報とを記憶部330に記憶するので、使用者20が情報表示システム10を使用すれば使用するほど、操作モードを正確に決定することができる。   As described above, the detection unit 320 determines the operation mode according to the shape of the object held by the operation hand 22, so that the user 20 can continue the gesture input without setting the operation mode. it can. Moreover, since the detection part 320 memorize | stores the image of the thing which the user 20 had in the hand, and the information of the operation mode using the said thing in the memory | storage part 330, if the user 20 uses the information display system 10, it will be. The more it is used, the more accurately the operation mode can be determined.

図5は、本実施形態に係る表示制御装置300として機能するコンピュータ1900のハードウェア構成の一例を示す。本実施形態に係るコンピュータ1900は、ホスト・コントローラ2082により相互に接続されるCPU2000、RAM2020、グラフィック・コントローラ2075、及び、表示装置100として機能しうる表示装置2080を有するCPU周辺部と、入出力コントローラ2084によりホスト・コントローラ2082に接続される通信インターフェイス2030、ハードディスクドライブ2040、及びCD−ROMドライブ2060を有する入出力部と、入出力コントローラ2084に接続されるROM2010、フレキシブルディスク・ドライブ2050、及び入出力チップ2070を有するレガシー入出力部を備える。   FIG. 5 shows an example of a hardware configuration of a computer 1900 that functions as the display control apparatus 300 according to the present embodiment. A computer 1900 according to this embodiment includes a CPU peripheral unit including a CPU 2000, a RAM 2020, a graphic controller 2075, and a display device 2080 that can function as the display device 100, and an input / output controller. An input / output unit having a communication interface 2030, a hard disk drive 2040, and a CD-ROM drive 2060 connected to the host controller 2082 by 2084, a ROM 2010, a flexible disk drive 2050, and an input / output connected to the input / output controller 2084 A legacy input / output unit having a chip 2070 is provided.

ホスト・コントローラ2082は、RAM2020と、高い転送レートでRAM2020をアクセスするCPU2000及びグラフィック・コントローラ2075とを接続する。CPU2000は、ROM2010及びRAM2020に格納されたプログラムに基づいて動作し、各部を制御する。グラフィック・コントローラ2075は、CPU2000等がRAM2020内に設けたフレーム・バッファ上に生成する画像データを取得し、表示装置2080上に表示させる。これに代えて、グラフィック・コントローラ2075は、CPU2000等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。   The host controller 2082 connects the RAM 2020 to the CPU 2000 and the graphic controller 2075 that access the RAM 2020 at a high transfer rate. The CPU 2000 operates based on programs stored in the ROM 2010 and the RAM 2020 and controls each unit. The graphic controller 2075 acquires image data generated by the CPU 2000 or the like on a frame buffer provided in the RAM 2020 and displays it on the display device 2080. Instead of this, the graphic controller 2075 may include a frame buffer for storing image data generated by the CPU 2000 or the like.

入出力コントローラ2084は、ホスト・コントローラ2082と、比較的高速な入出力装置である通信インターフェイス2030、ハードディスクドライブ2040、CD−ROMドライブ2060を接続する。通信インターフェイス2030は、有線又は無線によりネットワークを介して他の装置と通信する。また、通信インターフェイス2030は、実行部340の指示によって外部のネットワークと通信するハードウェアとして機能する。ハードディスクドライブ2040は、コンピュータ1900内のCPU2000が使用するプログラム及びデータを格納する。CD−ROMドライブ2060は、CD−ROM2095からプログラム又はデータを読み取り、RAM2020を介してハードディスクドライブ2040に提供する。   The input / output controller 2084 connects the host controller 2082 to the communication interface 2030, the hard disk drive 2040, and the CD-ROM drive 2060, which are relatively high-speed input / output devices. The communication interface 2030 communicates with other devices via a network by wire or wireless. Further, the communication interface 2030 functions as hardware that communicates with an external network according to an instruction from the execution unit 340. The hard disk drive 2040 stores programs and data used by the CPU 2000 in the computer 1900. The CD-ROM drive 2060 reads a program or data from the CD-ROM 2095 and provides it to the hard disk drive 2040 via the RAM 2020.

また、入出力コントローラ2084には、ROM2010と、フレキシブルディスク・ドライブ2050、及び入出力チップ2070の比較的低速な入出力装置とが接続される。ROM2010は、コンピュータ1900が起動時に実行するブート・プログラム、及び/又は、コンピュータ1900のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ2050は、フレキシブルディスク2090からプログラム又はデータを読み取り、RAM2020を介してハードディスクドライブ2040に提供する。入出力チップ2070は、フレキシブルディスク・ドライブ2050を入出力コントローラ2084へと接続するとともに、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を入出力コントローラ2084へと接続する。   The input / output controller 2084 is connected to the ROM 2010, the flexible disk drive 2050, and the relatively low-speed input / output device of the input / output chip 2070. The ROM 2010 stores a boot program that the computer 1900 executes at startup and / or a program that depends on the hardware of the computer 1900. The flexible disk drive 2050 reads a program or data from the flexible disk 2090 and provides it to the hard disk drive 2040 via the RAM 2020. The input / output chip 2070 connects the flexible disk drive 2050 to the input / output controller 2084 and inputs / outputs various input / output devices via, for example, a parallel port, a serial port, a keyboard port, a mouse port, and the like. Connect to controller 2084.

RAM2020を介してハードディスクドライブ2040に提供されるプログラムは、フレキシブルディスク2090、CD−ROM2095、又はICカード等の記録媒体に格納されて利用者によって提供される。プログラムは、記録媒体から読み出され、RAM2020を介してコンピュータ1900内のハードディスクドライブ2040にインストールされ、CPU2000において実行される。   A program provided to the hard disk drive 2040 via the RAM 2020 is stored in a recording medium such as the flexible disk 2090, the CD-ROM 2095, or an IC card and provided by the user. The program is read from the recording medium, installed in the hard disk drive 2040 in the computer 1900 via the RAM 2020, and executed by the CPU 2000.

コンピュータ1900にインストールされ、コンピュータ1900を表示制御装置300として機能させるプログラムは、指示取得モジュールと、検出モジュールと、切替モジュールと、記憶モジュールと、実行モジュールと、表示制御モジュールと、カーソル制御モジュールとを備える。これらのプログラム又はモジュールは、CPU2000等に働きかけて、コンピュータ1900を、指示取得部310と、検出部320と、切替部322と、記憶部330と、実行部340と、表示制御部350と、カーソル制御部360としてそれぞれ機能させてよい。   A program that is installed in the computer 1900 and causes the computer 1900 to function as the display control apparatus 300 includes an instruction acquisition module, a detection module, a switching module, a storage module, an execution module, a display control module, and a cursor control module. Prepare. These programs or modules work with the CPU 2000 or the like to change the computer 1900, the instruction acquisition unit 310, the detection unit 320, the switching unit 322, the storage unit 330, the execution unit 340, the display control unit 350, and the cursor. Each may function as the control unit 360.

これらのプログラムに記述された情報処理は、コンピュータ1900に読込まれることにより、ソフトウェアと上述した各種のハードウェア資源とが協働した具体的手段である指示取得部310と、検出部320と、切替部322と、記憶部330と、実行部340と、表示制御部350と、カーソル制御部360として機能する。そして、これらの具体的手段によって、本実施形態におけるコンピュータ1900の使用目的に応じた情報の演算又は加工を実現することにより、使用目的に応じた特有の表示制御装置300が構築される。   Information processing described in these programs is read into the computer 1900, whereby an instruction acquisition unit 310, which is a specific means in which software and the various hardware resources described above cooperate, a detection unit 320, The switching unit 322, the storage unit 330, the execution unit 340, the display control unit 350, and the cursor control unit 360 function. And the specific display control apparatus 300 according to a use purpose is constructed | assembled by implement | achieving the calculation or the process of the information according to the use purpose of the computer 1900 in this embodiment by these concrete means.

一例として、コンピュータ1900と外部の装置等との間で通信を行う場合には、CPU2000は、RAM2020上にロードされた通信プログラムを実行し、通信プログラムに記述された処理内容に基づいて、通信インターフェイス2030に対して通信処理を指示する。通信インターフェイス2030は、CPU2000の制御を受けて、RAM2020、ハードディスクドライブ2040、フレキシブルディスク2090、又はCD−ROM2095等の記憶装置上に設けた送信バッファ領域等に記憶された送信データを読み出してネットワークへと送信し、もしくは、ネットワークから受信した受信データを記憶装置上に設けた受信バッファ領域等へと書き込む。このように、通信インターフェイス2030は、DMA(ダイレクト・メモリ・アクセス)方式により記憶装置との間で送受信データを転送してもよく、これに代えて、CPU2000が転送元の記憶装置又は通信インターフェイス2030からデータを読み出し、転送先の通信インターフェイス2030又は記憶装置へとデータを書き込むことにより送受信データを転送してもよい。   As an example, when communication is performed between the computer 1900 and an external device or the like, the CPU 2000 executes a communication program loaded on the RAM 2020 and executes a communication interface based on the processing content described in the communication program. A communication process is instructed to 2030. Under the control of the CPU 2000, the communication interface 2030 reads transmission data stored in a transmission buffer area or the like provided on a storage device such as the RAM 2020, the hard disk drive 2040, the flexible disk 2090, or the CD-ROM 2095, and sends it to the network. The reception data transmitted or received from the network is written into a reception buffer area or the like provided on the storage device. As described above, the communication interface 2030 may transfer transmission / reception data to / from the storage device by a DMA (direct memory access) method. Instead, the CPU 2000 transfers the storage device or the communication interface 2030 as a transfer source. The transmission / reception data may be transferred by reading the data from the data and writing the data to the communication interface 2030 or the storage device of the transfer destination.

また、CPU2000は、ハードディスクドライブ2040、CD−ROMドライブ2060(CD−ROM2095)、フレキシブルディスク・ドライブ2050(フレキシブルディスク2090)等の外部記憶装置に格納されたファイルまたはデータベース等の中から、全部または必要な部分をDMA転送等によりRAM2020へと読み込ませ、RAM2020上のデータに対して各種の処理を行う。そして、CPU2000は、処理を終えたデータを、DMA転送等により外部記憶装置へと書き戻す。このような処理において、RAM2020は、外部記憶装置の内容を一時的に保持するものとみなせるから、本実施形態においてはRAM2020及び外部記憶装置等をメモリ、記憶部、または記憶装置等と総称する。本実施形態における各種のプログラム、データ、テーブル、データベース等の各種の情報は、このような記憶装置上に格納されて、情報処理の対象となる。なお、CPU2000は、RAM2020の一部をキャッシュメモリに保持し、キャッシュメモリ上で読み書きを行うこともできる。このような形態においても、キャッシュメモリはRAM2020の機能の一部を担うから、本実施形態においては、区別して示す場合を除き、キャッシュメモリもRAM2020、メモリ、及び/又は記憶装置に含まれるものとする。   The CPU 2000 is all or necessary from among files or databases stored in an external storage device such as a hard disk drive 2040, a CD-ROM drive 2060 (CD-ROM 2095), and a flexible disk drive 2050 (flexible disk 2090). This portion is read into the RAM 2020 by DMA transfer or the like, and various processes are performed on the data on the RAM 2020. Then, CPU 2000 writes the processed data back to the external storage device by DMA transfer or the like. In such processing, since the RAM 2020 can be regarded as temporarily holding the contents of the external storage device, in the present embodiment, the RAM 2020 and the external storage device are collectively referred to as a memory, a storage unit, or a storage device. Various types of information such as various programs, data, tables, and databases in the present embodiment are stored on such a storage device and are subjected to information processing. Note that the CPU 2000 can also store a part of the RAM 2020 in the cache memory and perform reading and writing on the cache memory. Even in such a form, the cache memory bears a part of the function of the RAM 2020. Therefore, in the present embodiment, the cache memory is also included in the RAM 2020, the memory, and / or the storage device unless otherwise indicated. To do.

また、CPU2000は、RAM2020から読み出したデータに対して、プログラムの命令列により指定された、本実施形態中に記載した各種の演算、情報の加工、条件判断、情報の検索・置換等を含む各種の処理を行い、RAM2020へと書き戻す。例えば、CPU2000は、条件判断を行う場合においては、本実施形態において示した各種の変数が、他の変数または定数と比較して、大きい、小さい、以上、以下、等しい等の条件を満たすか否かを判断し、条件が成立した場合(又は不成立であった場合)に、異なる命令列へと分岐し、またはサブルーチンを呼び出す。   In addition, the CPU 2000 performs various operations, such as various operations, information processing, condition determination, information search / replacement, etc., described in the present embodiment, specified for the data read from the RAM 2020 by the instruction sequence of the program. Is written back to the RAM 2020. For example, when performing the condition determination, the CPU 2000 determines whether or not the various variables shown in the present embodiment satisfy the conditions such as large, small, above, below, equal, etc., compared to other variables or constants. If the condition is satisfied (or not satisfied), the program branches to a different instruction sequence or calls a subroutine.

また、CPU2000は、記憶装置内のファイルまたはデータベース等に格納された情報を検索することができる。例えば、第1属性の属性値に対し第2属性の属性値がそれぞれ対応付けられた複数のエントリが記憶装置に格納されている場合において、CPU2000は、記憶装置に格納されている複数のエントリの中から第1属性の属性値が指定された条件と一致するエントリを検索し、そのエントリに格納されている第2属性の属性値を読み出すことにより、予め定められた条件を満たす第1属性に対応付けられた第2属性の属性値を得ることができる。   Further, the CPU 2000 can search for information stored in a file or database in the storage device. For example, in the case where a plurality of entries in which the attribute value of the second attribute is associated with the attribute value of the first attribute are stored in the storage device, the CPU 2000 displays the plurality of entries stored in the storage device. By searching for an entry in which the attribute value of the first attribute matches the specified condition and reading the attribute value of the second attribute stored in the entry, the first attribute satisfying a predetermined condition is obtained. The attribute value of the associated second attribute can be obtained.

以上に示したプログラム又はモジュールは、外部の記録媒体に格納されてもよい。記録媒体としては、フレキシブルディスク2090、CD−ROM2095の他に、DVD又はCD等の光学記録媒体、MO等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワーク又はインターネットに接続されたサーバシステムに設けたハードディスク又はRAM等の記憶装置を記録媒体として使用し、ネットワークを介してプログラムをコンピュータ1900に提供してもよい。   The program or module shown above may be stored in an external recording medium. As the recording medium, in addition to the flexible disk 2090 and the CD-ROM 2095, an optical recording medium such as DVD or CD, a magneto-optical recording medium such as MO, a tape medium, a semiconductor memory such as an IC card, and the like can be used. Further, a storage device such as a hard disk or RAM provided in a server system connected to a dedicated communication network or the Internet may be used as a recording medium, and the program may be provided to the computer 1900 via the network.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

10 表示システム、20 使用者、22 操作用の手、24 物、26 物、50 カーソル、100 表示装置、110 表示領域、116 情報、200 検出センサ装置、300 表示制御装置、302 画像入力部、310 指示取得部、320 検出部、322 切替部、330 記憶部、340 実行部、350 表示制御部、360 カーソル制御部、1900 コンピュータ、2000 CPU、2010 ROM、2020 RAM、2030 通信インターフェイス、2040 ハードディスクドライブ、2050 フレキシブルディスク・ドライブ、2060 CD−ROMドライブ、2070 入出力チップ、2075 グラフィック・コントローラ、2080 表示装置、2082 ホスト・コントローラ、2084 入出力コントローラ、2090 フレキシブルディスク、2095 CD−ROM DESCRIPTION OF SYMBOLS 10 Display system, 20 user, 22 Operation hand, 24 object, 26 object, 50 cursor, 100 display apparatus, 110 display area, 116 information, 200 detection sensor apparatus, 300 display control apparatus, 302 Image input part, 310 Instruction acquisition unit, 320 detection unit, 322 switching unit, 330 storage unit, 340 execution unit, 350 display control unit, 360 cursor control unit, 1900 computer, 2000 CPU, 2010 ROM, 2020 RAM, 2030 communication interface, 2040 hard disk drive, 2050 Flexible disk drive, 2060 CD-ROM drive, 2070 I / O chip, 2075 Graphic controller, 2080 Display device, 2082 Host controller, 2084 I / O controller , 2090 Flexible disk, 2095 CD-ROM

Claims (17)

使用者の手の動きに応じて表示装置の表示内容を制御する表示制御装置であって、
前記使用者を撮像した画像を入力する画像入力部と、
前記画像入力部が入力した画像中における、前記使用者の予め定められた操作用の手を認識対象とし、当該認識対象の動きを認識したことに応じて、前記表示装置の表示内容に対する操作指示を取得する指示取得部と、
前記操作指示に応じて前記表示装置の表示内容を制御する表示制御部と、
前記操作用の手が物を持ったことを検出する検出部と、
前記操作用の手が前記物を持ったことが検出されたことに応じて、前記指示取得部の前記認識対象を切り替える切替部と、
を備える表示制御装置。
A display control device that controls the display content of the display device according to the movement of the user's hand,
An image input unit for inputting an image of the user;
In response to recognizing the movement of the recognition target, the user's predetermined operation hand in the image input by the image input unit is designated as an operation instruction for the display content of the display device An instruction acquisition unit for acquiring
A display control unit for controlling display contents of the display device in response to the operation instructions;
A detection unit for detecting that the operating hand has an object;
A switching unit that switches the recognition target of the instruction acquisition unit when it is detected that the operating hand has the object;
A display control device.
前記切替部は、前記操作用の手が前記物を持ったことが検出された場合に、前記認識対象を前記操作用の手から前記操作用の手が持った前記物に切り替える請求項1に記載の表示制御装置。   The switching unit switches the recognition target from the operation hand to the object held by the operation hand when it is detected that the operation hand holds the object. The display control apparatus described. 前記切替部は、前記認識対象が前記物の場合に、前記使用者が前記物を手から離したことが検出されたことに応じて、前記認識対象を前記物から前記使用者の前記物を離した手に切り替える請求項1または2に記載の表示制御装置。   When the recognition object is the object, the switching unit moves the recognition object from the object to the user's object in response to detecting that the user has released the object from the hand. The display control apparatus according to claim 1, wherein the display control apparatus switches to a released hand. 前記切替部は、前記操作用の手が前記物を持ったことが検出された場合に、前記認識対象を前記使用者の当該物を持っていない方の手に切り替える請求項1に記載の表示制御装置。   2. The display according to claim 1, wherein the switching unit switches the recognition target to the user's hand that does not have the object when it is detected that the operation hand has the object. Control device. 前記使用者の前記操作指示に応じて、前記表示装置に表示された操作対象を選択するカーソルを表示制御するカーソル制御部を更に備える請求項1から4のいずれか一項に記載の表示制御装置。   5. The display control device according to claim 1, further comprising: a cursor control unit configured to display and control a cursor for selecting an operation target displayed on the display device in accordance with the operation instruction of the user. . 前記表示制御部は、前記使用者の指示に応じた情報を、前記表示装置に表示させる請求項1から5のいずれか一項に記載の表示制御装置。   The display control device according to claim 1, wherein the display control unit causes the display device to display information according to the user's instruction. 前記表示制御部は、前記使用者の前記画像を前記情報と共に前記表示装置に表示させる請求項6に記載の表示制御装置。   The display control device according to claim 6, wherein the display control unit displays the image of the user on the display device together with the information. 前記指示取得部は、
前記使用者の前記画像から前記使用者の顔部分および胴体部分を認識する認識部と、
前記顔部分および胴体部分の右および左に位置する肌色領域を検索する検索部と、
前記予め定められた前記使用者の手に対応する肌色領域を前記認識対象として特定する特定部と、
を有する請求項1から7のいずれか一項に記載の表示制御装置。
The instruction acquisition unit
A recognition unit for recognizing the user's face part and body part from the image of the user;
A search unit for searching for skin color regions located on the right and left of the face part and the body part;
A specifying unit that specifies a skin color region corresponding to the predetermined hand of the user as the recognition target;
The display control apparatus according to claim 1, comprising:
前記検出部は、前記認識対象が手の場合に、前記認識対象に対応する肌色領域が移動しても当該肌色領域に隣接する領域の色が略同一の場合に、前記使用者の前記操作用の手が前記物を持ったことを検出する請求項8に記載の表示制御装置。   When the recognition target is a hand and the skin color region corresponding to the recognition target moves, the detection unit detects the user's operation when the color of the region adjacent to the skin color region is substantially the same. The display control device according to claim 8, wherein it is detected that the hand of the user holds the object. 前記検出部は、前記認識対象が手の場合に、前記認識対象に対応する領域が、前記使用者の前記認識対象を持つ手に対応する前記肌色領域の移動に対応して移動しなくなったことに応じて、前記認識対象である前記物が手から離れたことを検出し、
前記切替部は、前記認識対象である前記物が手から離れたことが検出されたことに応じて、前記認識対象を切り替える請求項8または9に記載の表示制御装置。
In the case where the recognition target is a hand, the detection unit stops moving in response to the movement of the skin color region corresponding to the user's hand having the recognition target. In response to detecting that the object to be recognized has left the hand,
The display control apparatus according to claim 8, wherein the switching unit switches the recognition target in response to detecting that the object that is the recognition target has left the hand.
前記検出部は、前記認識対象が前記物の場合に、前記認識対象を持つ手に対応する前記肌色領域と隣接する領域の色が略同一でなくなったことに応じて、前記認識対象である前記物が手から離れたことを検出し、
前記切替部は、前記認識対象である前記物が手から離れたことが検出されたことに応じて、前記認識対象を切り替える請求項8または9に記載の表示制御装置。
When the recognition target is the object, the detection unit is the recognition target when the color of the area adjacent to the skin color area corresponding to the hand having the recognition target is not substantially the same. It detects that an object has left its hand,
The display control apparatus according to claim 8, wherein the switching unit switches the recognition target in response to detecting that the object that is the recognition target has left the hand.
前記指示取得部は、前記肌色領域と、前記使用者の左右の肩および肘との動きに応じて、前記肌色領域に対応する手が右手および左手のいずれかを判断する請求項8から11のいずれか一項に記載の表示制御装置。   The instruction acquisition unit determines whether the hand corresponding to the skin color area is a right hand or a left hand according to movements of the skin color area and left and right shoulders and elbows of the user. The display control apparatus according to any one of the above. 前記指示取得部は、複数の前記画像の差分画像から前記使用者の動きを検出し、前記認識対象を特定する請求項1から12のいずれか一項に記載の表示制御装置。   The display control apparatus according to any one of claims 1 to 12, wherein the instruction acquisition unit detects a movement of the user from a plurality of difference images of the images and specifies the recognition target. 前記切替部は、前記使用者が一方の手で前記物を持つ場合に、前記使用者が当該一方の手から他方の手に前記物を渡した場合に、前記物の移動に応じて前記認識対象を切り替える請求項1から13のいずれか一項に記載の表示制御装置。   The switching unit recognizes according to movement of the object when the user holds the object with one hand and the user passes the object from the one hand to the other hand. The display control apparatus according to claim 1, wherein the target is switched. 前記使用者を撮像する撮像部と、
請求項1から14のいずれか一項に記載の表示制御装置と、
前記表示制御装置の制御に応じた表示内容を表示する表示装置と、
を備える情報表示システム。
An imaging unit for imaging the user;
A display control device according to any one of claims 1 to 14,
A display device for displaying display contents according to the control of the display control device;
An information display system comprising:
使用者の手の動きに応じて表示装置の表示内容を制御する表示制御方法であって、
前記使用者を撮像した画像を入力する画像入力段階と、
入力した画像中における、前記使用者の予め定められた操作用の手を認識対象とし、当該認識対象の動きを認識したことに応じて、前記表示装置の表示内容に対する操作指示を取得する指示取得段階と、
前記操作指示に応じて前記表示装置の表示内容を制御する表示制御段階と、
前記操作用の手が物を持ったことを検出する検出段階と、
前記操作用の手が前記物を持ったことが検出されたことに応じて、前記認識対象を切り替える切替段階と、
を備える表示制御方法。
A display control method for controlling display content of a display device in accordance with movement of a user's hand,
An image input stage for inputting an image of the user;
Acquisition of an instruction for acquiring an operation instruction for the display content of the display device in response to the recognition of the movement of the recognition target with the user's predetermined operation hand in the input image as a recognition target Stages,
A display control stage for controlling display contents of the display device in response to the operation instructions;
A detection step of detecting that the operating hand has an object;
A switching step of switching the recognition target in response to detecting that the operating hand has the object;
A display control method comprising:
請求項16に記載の表示制御方法を、コンピュータにより実行させるプログラム。   A program causing a computer to execute the display control method according to claim 16.
JP2012141293A 2012-06-22 2012-06-22 Display control apparatus, display control method, information display system, and program Active JP5499106B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012141293A JP5499106B2 (en) 2012-06-22 2012-06-22 Display control apparatus, display control method, information display system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012141293A JP5499106B2 (en) 2012-06-22 2012-06-22 Display control apparatus, display control method, information display system, and program

Publications (2)

Publication Number Publication Date
JP2014006661A true JP2014006661A (en) 2014-01-16
JP5499106B2 JP5499106B2 (en) 2014-05-21

Family

ID=50104333

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012141293A Active JP5499106B2 (en) 2012-06-22 2012-06-22 Display control apparatus, display control method, information display system, and program

Country Status (1)

Country Link
JP (1) JP5499106B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017199404A (en) * 2017-06-21 2017-11-02 キヤノンマーケティングジャパン株式会社 Information processing device, information processing system, control method thereof and program
JP2020177534A (en) * 2019-04-19 2020-10-29 京セラドキュメントソリューションズ株式会社 Transmission type wearable terminal

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0784715A (en) * 1993-09-10 1995-03-31 Hitachi Ltd Information processor
JP2000181601A (en) * 1998-12-18 2000-06-30 Fujitsu General Ltd Information display system
JP2008113107A (en) * 2006-10-30 2008-05-15 Nec Saitama Ltd Input method using camera function, and information communication terminal using input method
JP2009301215A (en) * 2008-06-11 2009-12-24 Baybig Co Ltd Video telephone terminal, video telephone terminal control method, and program
JP2011123748A (en) * 2009-12-11 2011-06-23 Nec Corp Mobile terminal, drawing system, and drawing method
WO2012144145A1 (en) * 2011-04-22 2012-10-26 パナソニック株式会社 Pointing control device, integrated circuit thereof, and pointing control method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0784715A (en) * 1993-09-10 1995-03-31 Hitachi Ltd Information processor
JP2000181601A (en) * 1998-12-18 2000-06-30 Fujitsu General Ltd Information display system
JP2008113107A (en) * 2006-10-30 2008-05-15 Nec Saitama Ltd Input method using camera function, and information communication terminal using input method
JP2009301215A (en) * 2008-06-11 2009-12-24 Baybig Co Ltd Video telephone terminal, video telephone terminal control method, and program
JP2011123748A (en) * 2009-12-11 2011-06-23 Nec Corp Mobile terminal, drawing system, and drawing method
WO2012144145A1 (en) * 2011-04-22 2012-10-26 パナソニック株式会社 Pointing control device, integrated circuit thereof, and pointing control method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017199404A (en) * 2017-06-21 2017-11-02 キヤノンマーケティングジャパン株式会社 Information processing device, information processing system, control method thereof and program
JP2020177534A (en) * 2019-04-19 2020-10-29 京セラドキュメントソリューションズ株式会社 Transmission type wearable terminal

Also Published As

Publication number Publication date
JP5499106B2 (en) 2014-05-21

Similar Documents

Publication Publication Date Title
US10565437B2 (en) Image processing device and method for moving gesture recognition using difference images
US10754435B2 (en) Information processing apparatus and method, and program
US10001838B2 (en) Feature tracking for device input
US9594431B2 (en) Qualified command
EP2577426B1 (en) Information processing apparatus and method and program
US20150220150A1 (en) Virtual touch user interface system and methods
KR20130105725A (en) Computer vision based two hand control of content
KR101631011B1 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
US9836130B2 (en) Operation input device, operation input method, and program
JP5877824B2 (en) Information processing system, information processing method, and information processing program
US11287945B2 (en) Systems and methods for gesture input
JP2009251702A (en) Information processing unit, information processing method, and information processing program
US20130229348A1 (en) Driving method of virtual mouse
JP2024103514A (en) Object attitude control program and information processing device
KR102181897B1 (en) Device and method for mobile tooltip using eye detecting
KR102052449B1 (en) System for virtual mouse and method therefor
JP5499106B2 (en) Display control apparatus, display control method, information display system, and program
Liang et al. ShadowTouch: Enabling Free-Form Touch-Based Hand-to-Surface Interaction with Wrist-Mounted Illuminant by Shadow Projection
JP5456840B2 (en) Display control apparatus, display control method, information display system, and program
JP5558899B2 (en) Information processing apparatus, processing method thereof, and program
JP5456817B2 (en) Display control apparatus, display control method, information display system, and program
Choondal et al. Design and implementation of a natural user interface using hand gesture recognition method
JP5735453B2 (en) Display control apparatus, display control method, information display system, and program
JP2021009552A (en) Information processing apparatus, information processing method, and program
KR101506197B1 (en) A gesture recognition input method using two hands

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131203

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20131224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140310

R150 Certificate of patent or registration of utility model

Ref document number: 5499106

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350