JP2013200654A - Display control device, display control method, information display system, and program - Google Patents

Display control device, display control method, information display system, and program Download PDF

Info

Publication number
JP2013200654A
JP2013200654A JP2012067855A JP2012067855A JP2013200654A JP 2013200654 A JP2013200654 A JP 2013200654A JP 2012067855 A JP2012067855 A JP 2012067855A JP 2012067855 A JP2012067855 A JP 2012067855A JP 2013200654 A JP2013200654 A JP 2013200654A
Authority
JP
Japan
Prior art keywords
user
hand
display
display control
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012067855A
Other languages
Japanese (ja)
Other versions
JP5456817B2 (en
Inventor
Makoto Zei
真 是井
Shinya Hasegawa
真也 長谷川
Kinya Hiramatsu
欣也 平松
Hiroshi Machida
宏司 町田
Kohei Yokoi
孝平 横井
Nao Kunitomo
尚 國友
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2012067855A priority Critical patent/JP5456817B2/en
Publication of JP2013200654A publication Critical patent/JP2013200654A/en
Application granted granted Critical
Publication of JP5456817B2 publication Critical patent/JP5456817B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To prevent an action by a hand opposite to the hand intended to be operated by a user from being erroneously detected as a user's operation in a device for executing a predetermined processing based on a photographed image obtained by photographing the action for an icon displayed on a display screen.SOLUTION: A display control device 200 for controlling the display content of a display device 300 according to the movement of a hand of a user 1 includes: a specifying portion for specifying which hand is to be specified as an operation hand based on the interrelation of both hand positions of the detected user 1 for a detection sensor 100 for detecting a spatial position of the body of the user 1; an instruction acquisition portion for acquiring an operation instruction for the display content of the display device 300 by recognizing the movement of the operation hand; and a display control portion for controlling the display content of the display device 300 according to the operation instruction.

Description

本発明は、表示制御装置、表示制御方法、情報表示システム及びプログラムに関する。   The present invention relates to a display control device, a display control method, an information display system, and a program.

ディスプレイにアイコンを表示し、使用者のアイコンに対する動作を撮影し、当該撮影した画像に基づいて予め定められた処理を実行する装置が知られている(例えば、特許文献1参照)。また、特許文献2〜4が知られている。
特許文献1 特開2011−175617号公報
特許文献2 特開2004−302734号公報
特許文献3 特開2006−146700号公報
特許文献4 特開2008−20406号公報
There is known an apparatus that displays an icon on a display, captures an action on a user's icon, and executes a predetermined process based on the captured image (see, for example, Patent Document 1). Further, Patent Documents 2 to 4 are known.
Patent Literature 1 JP 2011-175617 A Patent Literature 2 JP 2004-302734 A Patent Literature 3 JP 2006-146700 A Patent Literature 4 JP 2008-20406 A

しかし、通常の非接触操作のシステムは、操作用の手を自由に選択できず、操作を目的としない手の動きまで追跡してしまう可能性があり、使用者に負担を与えていた。   However, a normal non-contact operation system cannot freely select a hand for operation, and there is a possibility that the movement of a hand not intended for operation may be tracked, which places a burden on the user.

本発明の第1の態様においては、使用者の手の動きに応じて表示装置の表示内容を制御する表示制御装置であって、使用者の身体の空間上の位置を検出する検出センサに、検出された使用者の両手の位置の相互関係に基づいて、いずれの手を操作用の手とするのかを特定する特定部と、操作用の手の動きを認識して、表示装置の表示内容に対する操作指示を取得する指示取得部と、操作指示に応じて表示装置の表示内容を制御する表示制御部とを備える表示制御装置と当該表示制御装置を備える表示システム、及びこれらに用いる表示制御方法とプログラムを提供する。   In the first aspect of the present invention, a display control device that controls the display content of the display device according to the movement of the user's hand, the detection sensor for detecting the position of the user's body in space, Based on the mutual relationship between the detected positions of both hands of the user, a specific unit that identifies which hand will be the operating hand, and the display contents of the display device by recognizing the movement of the operating hand Display control device including an instruction acquisition unit that acquires an operation instruction for the display, a display control unit that controls display content of the display device in accordance with the operation instruction, a display system including the display control device, and a display control method used for these And provide programs.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

本実施形態の情報表示システム10の概要を示す。1 shows an overview of an information display system 10 of the present embodiment. 本実施形態の情報表示システム10の具体的構成を示す。The specific structure of the information display system 10 of this embodiment is shown. 本実施形態の処理フローを示す。The processing flow of this embodiment is shown. 本実施形態の第1変形例の特定部204の具体的構成を示す。The specific structure of the specific | specification part 204 of the 1st modification of this embodiment is shown. 本実施形態の第1変形例の処理フローを示す。The processing flow of the 1st modification of this embodiment is shown. 本実施形態の第2変形例の情報表示システム10の概要を示す。The outline | summary of the information display system 10 of the 2nd modification of this embodiment is shown. 本実施形態の第2変形例の処理フローを示す。The processing flow of the 2nd modification of this embodiment is shown. 表示制御装置200として機能するコンピュータ1900のハードウェア構成の一例を示す。An example of a hardware configuration of a computer 1900 functioning as the display control apparatus 200 is shown.

以下、本発明の実施の形態を説明する。   Embodiments of the present invention will be described below.

図1は、本実施形態の情報表示システム10の概要を示す。情報表示システム10は、使用者1の姿勢を検出し、使用者1の姿勢から使用者1の右手22及び左手24のうち操作用の手を特定し、当該操作用の手の動きに応じて制御された表示内容を表示する。情報表示システム10は、検出センサ装置100、表示制御装置200、及び表示装置300を備える。   FIG. 1 shows an overview of an information display system 10 of the present embodiment. The information display system 10 detects the posture of the user 1, identifies the operating hand from the posture of the user 1 out of the right hand 22 and the left hand 24 of the user 1, and responds to the movement of the operating hand. Display controlled display contents. The information display system 10 includes a detection sensor device 100, a display control device 200, and a display device 300.

検出センサ装置100は、使用者1の身体の一部又は全体の二次元及び/又は三次元空間上の位置を検出する。検出センサ装置100は、例えば、光波測距センサ及び/又はビデオカメラを有する。   The detection sensor device 100 detects a position in a two-dimensional and / or three-dimensional space of a part of or the whole body of the user 1. The detection sensor device 100 includes, for example, a light wave distance sensor and / or a video camera.

光波測距センサは、光波測距を用いて距離データの画像を生成し、生成した距離データの画像から使用者1を検出してよい。光波測距センサは、例えば、赤外線等の光を照射する投光器、集光レンズ等の光学系、及び、複数の画素を含み画素ごとに使用者1からの反射光の検出時間を測定する測距素子を有する。光波測距センサは、使用者1に赤外線等を照射し、その反射光を光学系により測距素子上で結像させ、測距素子の各画素が測定した反射光の検出時間を画像内の各画素の輝度値等に対応付けすることで、使用者1の光波測距センサからの距離を表す画像を取得する。   The light wave ranging sensor may generate an image of distance data using light wave ranging, and may detect the user 1 from the generated image of distance data. The optical distance measuring sensor includes, for example, a projector that irradiates light such as infrared rays, an optical system such as a condenser lens, and a distance measuring unit that measures a detection time of reflected light from the user 1 for each pixel including a plurality of pixels. It has an element. The light wave ranging sensor irradiates the user 1 with infrared rays and the like, forms an image of the reflected light on the distance measuring element by the optical system, and indicates the detection time of the reflected light measured by each pixel of the distance measuring element in the image. By associating with the luminance value or the like of each pixel, an image representing the distance of the user 1 from the light wave ranging sensor is acquired.

ビデオカメラは、1又は複数の撮像部を有し、使用者1の画像を取得して使用者1を検出する。ビデオカメラは、2以上の視点から使用者1の画像を取得することで、使用者1の視差画像を取得し、当該視差画像の視差情報に基づいて、使用者1のビデオカメラからの距離情報を有する使用者1の画像を生成してもよい。検出センサ装置100は、光波測距センサ及び/又はビデオカメラから取得した画像を表示制御装置200に供給する。   The video camera has one or a plurality of imaging units, acquires an image of the user 1 and detects the user 1. The video camera acquires the user 1's parallax image from two or more viewpoints, acquires the parallax image of the user 1, and based on the parallax information of the parallax image, distance information from the user 1's video camera An image of the user 1 having the above may be generated. The detection sensor device 100 supplies the image acquired from the light wave ranging sensor and / or the video camera to the display control device 200.

ここで、図1において、検出センサ装置100は撮像範囲30の領域を検出する。撮像範囲30には、使用者1の顔、右手22及び左手24を含む上半身及び下半身の一部が含まれる。従って、検出センサ装置100は、使用者1の顔、右手22及び左手24を含む上半身及び下半身の一部を含む画像を取得する。   Here, in FIG. 1, the detection sensor device 100 detects an area of the imaging range 30. The imaging range 30 includes a part of the upper body and lower body including the face of the user 1, the right hand 22 and the left hand 24. Therefore, the detection sensor device 100 acquires an image including a part of the user's 1 face, the upper body including the right hand 22 and the left hand 24 and the lower body.

表示制御装置200は、使用者1の手の動きに応じて表示装置300の表示内容を制御する。具体的には、表示制御装置200は、検出センサ装置100から使用者1の画像を取得し、使用者1の左右の手の位置から使用者の右手22及び左手24のうちいずれかを操作用の手として特定し、操作用の手の動きから使用者1の操作指示を取得し、操作指示に応じた表示内容を表示装置300に供給する。表示制御装置200は、ネットワークに接続されてよい。図1において、表示制御装置200は、使用者1の右手22を操作用の手と特定する例を示す。   The display control device 200 controls the display content of the display device 300 according to the movement of the hand of the user 1. Specifically, the display control device 200 acquires an image of the user 1 from the detection sensor device 100, and uses either the right hand 22 or the left hand 24 of the user from the positions of the left and right hands of the user 1 for operation. The operation instruction of the user 1 is acquired from the movement of the operating hand, and the display content corresponding to the operation instruction is supplied to the display device 300. The display control device 200 may be connected to a network. In FIG. 1, the display control apparatus 200 shows an example in which the right hand 22 of the user 1 is specified as an operation hand.

表示制御装置200は、例えば、使用者1が表示装置300の前に立ったことに応じて、使用者1の画像を表示装置300に表示してよい。この場合、検出センサ装置100は、表示装置300の正面方向を検出し、表示制御装置200は使用者1が表示装置300の前で検出されたことに応じて表示装置300に使用者1の画像を表示する。   For example, the display control device 200 may display the image of the user 1 on the display device 300 in response to the user 1 standing in front of the display device 300. In this case, the detection sensor device 100 detects the front direction of the display device 300, and the display control device 200 displays the image of the user 1 on the display device 300 in response to the user 1 being detected in front of the display device 300. Is displayed.

表示装置300は、表示制御装置200から制御された情報を取得し、表示制御装置200の制御に応じた表示内容を表示する。具体的には、表示装置300は、使用者1の画像、使用者1の操作用の手と対応するカーソル、情報表示システム10が実行するアプリケーション等のアイコン、及び、その他の情報を表示してよい。これに代えて、表示装置300は、使用者1の画像を表示せず、使用者1の操作用の手と対応するカーソル、情報表示システム10が実行するアプリケーション等のアイコン、及び、その他の情報を表示してもよい。   The display device 300 acquires the controlled information from the display control device 200 and displays the display content according to the control of the display control device 200. Specifically, the display device 300 displays an image of the user 1, a cursor corresponding to the operation hand of the user 1, icons such as applications executed by the information display system 10, and other information. Good. Instead of this, the display device 300 does not display the image of the user 1, the cursor corresponding to the operation hand of the user 1, icons such as applications executed by the information display system 10, and other information May be displayed.

表示装置300は、二次元画像又は三次元画像を表示する、液晶ディスプレイ、プラズマディスプレイ又は有機エレクトロルミネッセンスディスプレイ等の電子表示装置であってよい。   The display device 300 may be an electronic display device such as a liquid crystal display, a plasma display, or an organic electroluminescence display that displays a two-dimensional image or a three-dimensional image.

図1において、表示装置300は、操作用の手の画像32を含む使用者1の画像、使用者1の操作用の手の画像32の中心40に配置されたカーソル50、ゲーム等のアプリケーションのアイコン、及びニュース等の文字情報を含む表示内容を表示する例を示す。ここで、ゲーム等のアプリケーション及び/又はニュース等の情報は、使用者1の指示に応じてネットワーク等を介して実行又は取得されてよい。   In FIG. 1, a display device 300 includes an image of a user 1 including an image 32 of a hand for operation, a cursor 50 disposed at the center 40 of the image 32 of an operation hand of the user 1, an application such as a game. The example which displays the display content containing character information, such as an icon and news, is shown. Here, an application such as a game and / or information such as news may be executed or acquired via a network or the like in accordance with an instruction from the user 1.

本実施形態において、表示装置300の表示範囲と検出センサ装置100の撮像範囲30は同一又は略同一である。従って、表示装置300は、検出センサ装置100が取得した画像を無駄にすることなく表示することができる。   In the present embodiment, the display range of the display device 300 and the imaging range 30 of the detection sensor device 100 are the same or substantially the same. Therefore, the display device 300 can display the image acquired by the detection sensor device 100 without wasting it.

また、表示装置300が表示する使用者1の画像は、使用者1の鏡像又は正像であってよい。表示装置300が表示する使用者1の画像は、使用者1と同一寸法の画像、又は、使用者1を同一寸法よりも縮小/拡大した画像であってよい。使用者1と同一寸法の鏡像を表示する場合、情報表示システム10は、使用者1に鏡の前に立ったような自然な感覚を提供することができる。   Further, the image of the user 1 displayed by the display device 300 may be a mirror image or a normal image of the user 1. The image of the user 1 displayed by the display device 300 may be an image having the same size as the user 1 or an image obtained by reducing / enlarging the user 1 from the same size. When displaying a mirror image having the same dimensions as the user 1, the information display system 10 can provide the user 1 with a natural feeling as if standing in front of the mirror.

このように、情報表示システム10によれば、使用者1が表示装置300の前に立った場合に、使用者1の身体の位置を検出して、使用者1の操作用の手を特定する。また、情報表示システム10は、当該操作用の手の動きから使用者1の操作指示を判断するので、使用者が操作することを意図しない手の動きを操作として誤って検出することがない。これにより、情報表示システム10は、表示装置300の画面の前に立った使用者1による非接触での画面操作をシームレスに開始させることを可能にし、使用者1に感じさせるストレスを低減した、快適なユーザインタフェースを提供することができる。   Thus, according to the information display system 10, when the user 1 stands in front of the display device 300, the position of the body of the user 1 is detected, and the user's operation hand is specified. . Moreover, since the information display system 10 determines the operation instruction of the user 1 from the movement of the hand for the operation, the movement of the hand that is not intended to be operated by the user is not erroneously detected as an operation. Thereby, the information display system 10 can seamlessly start a non-contact screen operation by the user 1 standing in front of the screen of the display device 300, and reduces the stress that the user 1 feels. A comfortable user interface can be provided.

図2は、本実施形態の情報表示システム10の具体的構成を示す。表示制御装置200は、画像入力部202と、特定部204と、指示取得部206と、カーソル制御部208と、表示制御部210と、通信部212とを有する。   FIG. 2 shows a specific configuration of the information display system 10 of the present embodiment. The display control device 200 includes an image input unit 202, a specification unit 204, an instruction acquisition unit 206, a cursor control unit 208, a display control unit 210, and a communication unit 212.

画像入力部202は、検出センサ装置100から、使用者1の身体の位置を表す画像を入力する。画像入力部202は、画像を特定部204、指示取得部206、及び表示制御部210に供給する。   The image input unit 202 inputs an image representing the body position of the user 1 from the detection sensor device 100. The image input unit 202 supplies the image to the specifying unit 204, the instruction acquisition unit 206, and the display control unit 210.

特定部204は、画像から使用者1の両手の位置を検出し、その検出された使用者1の両手の位置の相互関係に基づいて、使用者1の右手22及び左手24のうちいずれの手を操作用の手とするのかを特定する。具体的には、特定部204は、画像入力部202から画像を取得し、取得した画像から背景等を除き使用者1の画像を抽出する。特定部204は、抽出した使用者1の画像の形状から使用者1の両手に対応する領域を特定する。特定部204は、画像中の使用者1の左手及び右手のうちいずれかの手を、両手の位置の相互関係に基づいて操作用の手として特定する。特定部204は、両手に対応する領域の情報及び特定した操作用の手の情報を指示取得部206に供給する。   The identifying unit 204 detects the position of both hands of the user 1 from the image, and based on the detected correlation between the positions of both hands of the user 1, any one of the right hand 22 and the left hand 24 of the user 1 is detected. Is used as a hand for operation. Specifically, the specifying unit 204 acquires an image from the image input unit 202 and extracts the image of the user 1 from the acquired image except for the background and the like. The specifying unit 204 specifies an area corresponding to both hands of the user 1 from the extracted image shape of the user 1. The specifying unit 204 specifies one of the left hand and the right hand of the user 1 in the image as an operation hand based on the mutual relationship between the positions of both hands. The specifying unit 204 supplies information on the area corresponding to both hands and information on the specified operating hand to the instruction acquiring unit 206.

指示取得部206は、操作用の手の動きを認識して、表示装置300の表示内容に対する操作指示を取得する。具体的には、指示取得部206は、画像入力部202から使用者1の画像を取得し、特定部204から両手に対応する領域の情報及び操作用の手の情報を取得する。指示取得部206は、取得した画像及び情報から、使用者1の画像中の操作用の手の中心位置の座標を算出する。指示取得部206は、当該中心位置の座標を操作指示として取得する。   The instruction acquisition unit 206 recognizes the movement of the operating hand and acquires an operation instruction for the display content of the display device 300. Specifically, the instruction acquisition unit 206 acquires an image of the user 1 from the image input unit 202, and acquires information on an area corresponding to both hands and information on an operation hand from the specifying unit 204. The instruction acquisition unit 206 calculates the coordinates of the center position of the operating hand in the user 1 image from the acquired image and information. The instruction acquisition unit 206 acquires the coordinates of the center position as an operation instruction.

また、指示取得部206は、使用者1の操作用の手の動きを検出し、使用者1が操作用の手で予め定められたジェスチャー等をした場合、当該ジェスチャーの内容を操作指示として取得してよい。指示取得部206は、取得した操作指示をカーソル制御部208及び表示制御部210に供給する。   In addition, the instruction acquisition unit 206 detects the movement of the user's operating hand, and when the user 1 performs a predetermined gesture or the like with the operating hand, acquires the content of the gesture as an operation instruction. You can do it. The instruction acquisition unit 206 supplies the acquired operation instruction to the cursor control unit 208 and the display control unit 210.

カーソル制御部208は、使用者1の操作指示に応じて、カーソル50を表示制御する。具体的には、カーソル制御部208は、指示取得部206から操作用の手の中心位置の座標を含む操作指示を取得し、使用者1の操作用の手の動きに応じてカーソル50を表示装置300の表示画面内で動かす。カーソル50は、表示装置300にアイコン等で表示される操作対象を選択するための、表示画面内の矢印等の図形である。カーソル制御部208は、カーソル50の表示装置300の表示画面内の座標情報を表示制御部210に供給する。   The cursor control unit 208 controls the display of the cursor 50 according to the operation instruction of the user 1. Specifically, the cursor control unit 208 acquires an operation instruction including the coordinates of the center position of the operation hand from the instruction acquisition unit 206, and displays the cursor 50 according to the movement of the user's operation hand. Move within the display screen of the device 300. The cursor 50 is a figure such as an arrow in the display screen for selecting an operation target displayed by an icon or the like on the display device 300. The cursor control unit 208 supplies coordinate information in the display screen of the display device 300 of the cursor 50 to the display control unit 210.

表示制御部210は、使用者1の操作指示に応じて表示装置300の表示内容を制御する。例えば、表示制御部210は、画像入力部202から取得した画像を表示装置300の表示画面に表示する。表示制御部210は、使用者1の操作指示の対象であるアプリケーション等の処理を実行する。表示制御部210は、アプリケーション等のアイコン、及び/又は、指示取得部206から取得した操作指示の実行結果等の情報を表示装置300の表示画面に反映する。   The display control unit 210 controls the display content of the display device 300 according to the operation instruction of the user 1. For example, the display control unit 210 displays the image acquired from the image input unit 202 on the display screen of the display device 300. The display control unit 210 executes processing such as an application that is a target of an operation instruction of the user 1. The display control unit 210 reflects information such as an application icon and / or an operation instruction execution result acquired from the instruction acquisition unit 206 on the display screen of the display device 300.

また、表示制御部210は、カーソル制御部208から取得した座標情報に基づいて、表示装置300の表示画面内の使用者1の操作用の手の位置と対応する座標にカーソル50を表示する。更に、表示制御部210は、表示装置300の表示画面にニュース情報等の使用者1が設定した情報を表示してよい。   Further, based on the coordinate information acquired from the cursor control unit 208, the display control unit 210 displays the cursor 50 at coordinates corresponding to the position of the user's operating hand in the display screen of the display device 300. Further, the display control unit 210 may display information set by the user 1 such as news information on the display screen of the display device 300.

通信部212は、インターネット等の外部のネットワークと接続する。表示制御部210は、通信部212を介して、アプリケーション及び/又はニュース等の情報をダウンロードしてよい。   The communication unit 212 is connected to an external network such as the Internet. The display control unit 210 may download information such as an application and / or news via the communication unit 212.

このように、表示制御装置200によれば、検出センサ装置100が使用者1を撮像した画像に基づいて、特定部204が使用者1の両手の位置を検出して、使用者1の両手の位置関係から操作用の手を特定し、指示取得部206が当該操作用の手の動きから使用者1の操作指示を取得することにより、使用者1の非接触操作をシームレスに受け付けることができ、使用者1の意図しない動作を画面操作として誤検出することなく使用者1が意図した操作の結果を表示装置300に表示させることができる。   As described above, according to the display control device 200, the identifying unit 204 detects the position of both hands of the user 1 based on the image obtained by the detection sensor device 100 capturing the user 1, and both hands of the user 1 are detected. By specifying the operation hand from the positional relationship and the instruction acquisition unit 206 acquires the operation instruction of the user 1 from the movement of the operation hand, the non-contact operation of the user 1 can be accepted seamlessly. The operation result intended by the user 1 can be displayed on the display device 300 without erroneously detecting an operation unintended by the user 1 as a screen operation.

また、情報表示システム10は、カーソル50を表示装置300の表示画面に表示して、いずれかの手が操作用の手として特定されたかを使用者1に示すことができ、これにより使用者1の誤操作の可能性を更に低減することができる。   In addition, the information display system 10 can display the cursor 50 on the display screen of the display device 300 to indicate to the user 1 which hand has been identified as the operating hand. The possibility of erroneous operation can be further reduced.

図3は、本実施形態の情報表示システム10の処理フローを示す。本実施形態において、表示制御装置200は、検出センサ装置100から取得した画像及び予め記憶した人体形状のパターン等に基づいて、使用者1の操作用の手を特定する。情報表示システム10は、S110からS120までの処理により情報を表示する。図3に示す処理フローは、例えば、情報表示システム10が表示装置300の前に使用者1が立ったことを検出した時に開始するか、あるいは、情報表示システム10が、使用者1から操作用の手の設定開始の指示を受け取った時に開始してよい。   FIG. 3 shows a processing flow of the information display system 10 of the present embodiment. In the present embodiment, the display control device 200 specifies a hand for operation of the user 1 based on an image acquired from the detection sensor device 100 and a human body shape pattern stored in advance. The information display system 10 displays information by the processes from S110 to S120. The processing flow shown in FIG. 3 starts when, for example, the information display system 10 detects that the user 1 is standing in front of the display device 300, or the information display system 10 starts operation from the user 1 for operation. It may be started when an instruction to start setting of the hand is received.

まず、S110において、検出センサ装置100は、光波測距センサ及び/又はビデオカメラにより、使用者1の画像を取得して、使用者1の身体の一部又は全体の三次元及び/又は二次元空間上の位置を検出する。検出センサ装置100は、使用者1の画像を表示制御装置200の画像入力部202に供給する。使用者1の画像は、画素ごとに使用者1の検出センサ装置100からの距離データを含んでいてよい。   First, in S110, the detection sensor device 100 acquires an image of the user 1 using a light wave ranging sensor and / or a video camera, and a three-dimensional and / or two-dimensional image of a part or the whole of the user 1's body. Detect position in space. The detection sensor device 100 supplies the image of the user 1 to the image input unit 202 of the display control device 200. The image of the user 1 may include distance data from the detection sensor device 100 of the user 1 for each pixel.

次に、S112において、画像入力部202は、検出センサ装置100から使用者1を撮像した画像を入力し、当該画像を特定部204、指示取得部206、及び表示制御部210に供給する。ここで、情報表示システム10が表示装置300に使用者1の鏡像を表示させる場合、画像入力部202は入力した使用者1の画像を左右反転させた後に、当該画像を特定部204等に供給してよい。   In step S <b> 112, the image input unit 202 inputs an image obtained by capturing the user 1 from the detection sensor device 100, and supplies the image to the specifying unit 204, the instruction acquisition unit 206, and the display control unit 210. Here, when the information display system 10 displays the mirror image of the user 1 on the display device 300, the image input unit 202 inverts the input image of the user 1 to the left and right, and then supplies the image to the specifying unit 204 and the like. You can do it.

次に、S114において、特定部204は、検出された使用者1の両手の位置の相互関係に基づいて、使用者1の右手22及び左手24のうちいずれの手を操作用の手とするのかを特定する。具体的には、特定部204は、画像入力部202から使用者1の画像を取得する。次に、特定部204は、予め記憶した多数の人の身体形状のパターン、輪郭パターン又はシルエットパターン等に基づいて、取得した画像から人物の立体パターン等と概ね一致する部分のみを抽出し、背景等を除くことにより、使用者1の画像を抽出する。   Next, in S114, the identifying unit 204 determines which of the right hand 22 and the left hand 24 of the user 1 is to be used as an operation hand based on the detected mutual relationship between the positions of both hands of the user 1. Is identified. Specifically, the specifying unit 204 acquires the image of the user 1 from the image input unit 202. Next, the specifying unit 204 extracts only a part that roughly matches the three-dimensional pattern of the person from the acquired image based on a large number of pre-stored body shape patterns, contour patterns, silhouette patterns, and the like. Etc., the image of the user 1 is extracted.

次に、特定部204は、予め記憶した身体形状のパターン、輪郭パターン又はシルエットパターン等に基づいて、抽出した画像中における使用者1の左手及び右手の領域をそれぞれ特定する。例えば、抽出した使用者1の鏡像画像中において、使用者1の左側に予め記憶した手のパターン等と略一致する形状の領域が発見された場合、特定部204は当該領域を使用者1の右手に対応する領域と特定する。同様に、特定部204は、使用者1の左手に対応する領域を特定する。   Next, the specifying unit 204 specifies areas of the left hand and right hand of the user 1 in the extracted image based on a body shape pattern, a contour pattern, a silhouette pattern, or the like stored in advance. For example, in the extracted mirror image of the user 1, when an area having a shape substantially matching the hand pattern or the like stored in advance on the left side of the user 1 is found, the specifying unit 204 identifies the area of the user 1. The area corresponding to the right hand is identified. Similarly, the specifying unit 204 specifies an area corresponding to the left hand of the user 1.

次に、特定部204は、抽出した使用者1の両手のうちいずれかを操作用の手と特定する。例えば、特定部204は、使用者1の両手のうち、より高い位置もしくは低い位置にある方の手を、操作用の手として特定してよい。また、特定部204は、より高い位置にある方の手で、且つ、予め定められた基準位置より上に挙げられたことを更に条件として、操作用の手を特定してよい。例えば、特定部204は、基準位置を使用者1の肩、首又は頭の位置とし、使用者1の高い位置にある方の手が使用者の肩、首又は頭の位置より上に挙げられたことを認識したことに応じて、当該手を操作用の手として特定してよい。   Next, the specifying unit 204 specifies one of the extracted hands of the user 1 as an operation hand. For example, the specifying unit 204 may specify the hand at the higher position or the lower position of both hands of the user 1 as the operation hand. Further, the specifying unit 204 may specify the operation hand on the condition that the hand is in a higher position and is listed above a predetermined reference position. For example, the specifying unit 204 sets the reference position as the position of the shoulder, neck, or head of the user 1, and the higher hand of the user 1 is listed above the position of the user's shoulder, neck, or head. In response to recognizing this, the hand may be specified as an operation hand.

また、特定部204は、使用者1の手のひらが検出センサ装置100に向いている、すなわち表示装置300の画面に向いていることを更に条件として、操作用の手を特定してよい。この場合、特定部204は、抽出した使用者1の画像の左手及び右手の形を予め記憶した多数の左手及び右手の手のひらの立体パターン、輪郭パターン又はシルエットパターン等とそれぞれ対比し、手のひらが表示装置300の画面に向いていると判断した手を操作用の手と特定してよい。特定部204は、使用者1の両手に対応する領域に関する情報及び特定した操作用の手が両手のどちらの手であるかの情報を指示取得部206に供給する。   Further, the specifying unit 204 may specify the operation hand on the condition that the palm of the user 1 is facing the detection sensor device 100, that is, facing the screen of the display device 300. In this case, the specifying unit 204 compares the shape of the left hand and right hand of the extracted user 1 image with a number of left hand and right hand palm pre-stored shapes, contour patterns, silhouette patterns, etc., and displays the palm. A hand that is determined to be suitable for the screen of the apparatus 300 may be identified as an operating hand. The specifying unit 204 supplies information regarding an area corresponding to both hands of the user 1 and information indicating which hand is the specified operating hand to the instruction acquiring unit 206.

次に、S116において、指示取得部206は、使用者1の操作用の手の動きを認識して、表示装置300の表示内容に対する操作指示を取得する。具体的には、指示取得部206は、画像入力部202から使用者1の画像を取得し、特定部204から使用者1の両手に対応する領域に関する情報、及び、使用者1のいずれの手が操作用の手であるかの情報を取得する。指示取得部206は、使用者1の画像中における操作用の手に対応する領域の中心の座標を算出し、当該座標の変化から操作指示を取得する。また、指示取得部206は、操作用の手に対応する領域の中心の座標を操作指示として取得する。   Next, in S <b> 116, the instruction acquisition unit 206 recognizes the movement of the user's operating hand and acquires an operation instruction for the display content of the display device 300. Specifically, the instruction acquisition unit 206 acquires an image of the user 1 from the image input unit 202, information on the area corresponding to both hands of the user 1 from the specifying unit 204, and any hand of the user 1. Information on whether or not is a hand for operation. The instruction acquisition unit 206 calculates the coordinates of the center of the area corresponding to the operation hand in the image of the user 1 and acquires an operation instruction from the change in the coordinates. In addition, the instruction acquisition unit 206 acquires the coordinates of the center of the region corresponding to the operation hand as an operation instruction.

ここで、指示取得部206は、使用者1の操作用の手が既に特定されている場合には、特定部204から情報を取得せず、使用者1の画像中において、直近に操作用の手に対応する領域と認識された領域と略同位置かつ略同形状の領域を検出し、当該検出した領域を操作用の手に対応する領域としてよい。   Here, when the operation hand of the user 1 has already been specified, the instruction acquisition unit 206 does not acquire the information from the specification unit 204, and the operation acquisition unit 206 performs the latest operation in the user 1 image. An area having substantially the same position and shape as the area recognized as the area corresponding to the hand may be detected, and the detected area may be set as the area corresponding to the operation hand.

また、指示取得部206は、使用者1の画像の操作用の手に対応する領域の変化を、予め記憶した多数の手の立体パターンの変化、輪郭パターンの変化又はシルエットパターンの変化等とそれぞれ対比してよい。これにより、指示取得部206は、使用者1の操作用の手のジェスチャー等の動きを検出して、当該ジェスチャー等の動きから操作指示を取得してよい。   In addition, the instruction acquisition unit 206 includes a change in a region corresponding to the user's operation hand for the image of the user 1, such as a change in a number of three-dimensional patterns stored in a hand, a change in a contour pattern, a change in a silhouette pattern, and the like. You may contrast. Thereby, the instruction acquisition unit 206 may detect a movement such as a gesture of a hand for the user 1 to operate and acquire an operation instruction from the movement of the gesture or the like.

例えば、指示取得部206は、使用者1の操作用の手の位置に対応する画面位置が表示装置300の表示画面内のアイコンの位置と重なった状態で、使用者1が操作用の手で予め定められたジェスチャー等をしたことを認識した場合は、当該アイコンと対応するアプリケーションに関連する指示を操作指示としてよい。   For example, the instruction acquisition unit 206 has the screen position corresponding to the position of the operation hand of the user 1 overlapped with the position of the icon in the display screen of the display device 300, and the user 1 is using the operation hand. If it is recognized that a predetermined gesture or the like has been made, an instruction related to the application corresponding to the icon may be used as the operation instruction.

予め定められたジェスチャーは、例えば、開いた手を握った状態にすること、握った手を開くこと、手を左右方向に振ること、手を上下方向に動かすこと、手でボタンを押す動作をすること、手でクリック又はダブルクリックする動作をすること、手で円を描く動作をすること、手を一定時間静止させること、一部又は全ての指を動かすこと、その他の手の運動又はこれらの組み合わせであってよい。   Predefined gestures include, for example, holding an open hand, opening the gripped hand, shaking the hand left and right, moving the hand up and down, and pressing a button with the hand. To do, to click or double-click by hand, to draw a circle by hand, to keep a hand stationary for a certain period of time, to move some or all fingers, other hand movements or these It may be a combination of

アプリケーションに関連する指示は、当該アプリケーションの実行、削除、又はプロパティの表示等であってよい。例えば、使用者1の操作用の手のの位置に対応する画面上の位置が表示装置300の表示画面内のアイコンの位置と重なった状態で、操作用の手がボタンを押す動作をしたことを指示取得部206が検出した場合、指示取得部206は当該アイコンと対応するアプリケーションを実行する指示を取得してよい。   The instruction related to the application may be execution, deletion, property display, or the like of the application. For example, the operation hand presses the button while the position on the screen corresponding to the position of the operation hand of the user 1 overlaps the position of the icon on the display screen of the display device 300 Is detected by the instruction acquisition unit 206, the instruction acquisition unit 206 may acquire an instruction to execute the application corresponding to the icon.

例えば、使用者1の操作用の手の位置に対応する画面上の位置が表示装置300の表示画面内のアイコンと重なった状態で、指示取得部206が操作用の手が円を描く動作をしたことを検出した場合、指示取得部206は当該アイコンと対応するアプリケーションを終了する指示を取得してよい。   For example, in a state where the position on the screen corresponding to the position of the user's operating hand overlaps an icon on the display screen of the display device 300, the instruction acquisition unit 206 performs an operation in which the operating hand draws a circle. When it is detected that this has been done, the instruction acquisition unit 206 may acquire an instruction to end the application corresponding to the icon.

また、例えば、使用者1の操作用の手の位置に対応する画面上の位置が表示装置300の表示画面内のアイコンの位置と重なった状態で操作用の手が開いた状態から握った状態になり、更に当該操作用の手が握った状態のまま移動したことをたことを指示取得部206が検出したとき、使用者1の操作用の手の位置と連動するように当該アイコンをドラッグする指示を指示取得部206は取得してよい。続いて、当該操作用の手が握った状態から開いた状態になったことを指示取得部206が検出したとき、当該アイコンをその位置でドロップする指示を指示取得部206は取得してよい。指示取得部206は、取得した操作指示をカーソル制御部208及び表示制御部210に供給する。   Further, for example, a state in which the operation hand is gripped from the open state in a state where the position on the screen corresponding to the position of the operation hand of the user 1 overlaps the position of the icon in the display screen of the display device 300 Then, when the instruction acquisition unit 206 detects that the operation hand has moved while being held, the icon is dragged so as to be linked to the position of the user's operation hand. The instruction acquisition unit 206 may acquire an instruction to perform. Subsequently, when the instruction acquisition unit 206 detects that the operation hand has been opened, the instruction acquisition unit 206 may acquire an instruction to drop the icon at that position. The instruction acquisition unit 206 supplies the acquired operation instruction to the cursor control unit 208 and the display control unit 210.

ここで、S116において、使用者1が情報表示システム10の使用を中断又は中止したこと等により指示取得部206が使用者1から一定時間指示を取得できない場合、又は、指示取得部206が使用者1から操作用の手を解除する指示を受信した場合、情報表示システム10は、使用者1の操作用の手を解除して、処理を終了してよい。   Here, in S116, when the instruction acquisition unit 206 cannot acquire an instruction from the user 1 for a certain time due to the user 1 interrupting or canceling the use of the information display system 10, or the instruction acquisition unit 206 is When the instruction to release the operation hand from 1 is received, the information display system 10 may release the operation hand of the user 1 and end the process.

次に、S118において、カーソル制御部208が、使用者1の操作指示に応じて、カーソル50を表示制御する。具体的には、カーソル制御部208は、指示取得部206から取得した操作指示を基に、使用者1の操作用の手の画像の中心40の位置に対応する画面上の位置にカーソル50を表示し、使用者1の操作用の手の移動に合わせてカーソル50を表示装置300の表示画面内で動かす。この結果、カーソル制御部208は、使用者1の操作用の手の動きに応じて連動するように、カーソル50を表示装置300の表示画面内で動かすこととなる。   Next, in S <b> 118, the cursor control unit 208 controls the display of the cursor 50 according to the operation instruction of the user 1. Specifically, the cursor control unit 208 moves the cursor 50 to a position on the screen corresponding to the position of the center 40 of the hand image for the operation of the user 1 based on the operation instruction acquired from the instruction acquisition unit 206. The cursor 50 is moved within the display screen of the display device 300 in accordance with the movement of the user's operating hand. As a result, the cursor control unit 208 moves the cursor 50 within the display screen of the display device 300 so as to be interlocked according to the movement of the user's operating hand.

また、カーソル制御部208は、表示制御装置200の状態に応じて、表示するカーソル50の形状を変更してもよい。例えば、表示制御装置200が処理を実行中で次の操作指示を受け付けない場合、カーソル50は砂時計等の処理待ちを示唆する形状となってよい。カーソル制御部208は、カーソル50の表示装置300の表示画面内の座標情報及びカーソルの形状情報を表示制御部210に供給する。   Further, the cursor control unit 208 may change the shape of the cursor 50 to be displayed according to the state of the display control device 200. For example, when the display control apparatus 200 is executing a process and does not accept the next operation instruction, the cursor 50 may have a shape that suggests waiting for a process such as an hourglass. The cursor control unit 208 supplies coordinate information in the display screen of the display device 300 of the cursor 50 and cursor shape information to the display control unit 210.

次に、S120において、表示制御部210は、使用者1の操作指示に応じて表示装置300の表示内容を制御する。具体的には、表示制御部210は、画像入力部202から取得した使用者1の画像を表示装置300の表示画面に表示する。光波測距センサから取得した画像を表示する場合、表示制御部210は使用者1のシルエット画像を表示してよい。ビデオカメラから取得した画像を表示する場合、表示制御部210は使用者1のカラー画像、カラー画像を画像処理した使用者1の白黒画像又はシルエット画像を表示してよい。   Next, in S <b> 120, the display control unit 210 controls the display content of the display device 300 according to the operation instruction of the user 1. Specifically, the display control unit 210 displays the image of the user 1 acquired from the image input unit 202 on the display screen of the display device 300. When displaying the image acquired from the light wave ranging sensor, the display control unit 210 may display the silhouette image of the user 1. When displaying an image acquired from a video camera, the display control unit 210 may display a color image of the user 1, a monochrome image or a silhouette image of the user 1 obtained by performing image processing on the color image.

更に、表示制御部210は、操作対象であるアプリケーションのアイコンを、表示装置300の使用者1の画像上に重ねて表示してよい。更に、表示制御部210は、指示取得部206から取得した操作指示の実行結果を表示装置300の表示画面に反映してよい。   Furthermore, the display control unit 210 may display the icon of the application that is the operation target so as to overlap the image of the user 1 of the display device 300. Further, the display control unit 210 may reflect the execution result of the operation instruction acquired from the instruction acquisition unit 206 on the display screen of the display device 300.

例えば、操作指示がアプリケーションの実行である場合、表示制御部210は当該アプリケーションを実行し、その実行結果を表示装置300の使用者1の画像及びアイコン上に重ねて表示する。また、例えば、操作指示がアプリケーションの削除である場合、表示制御部210は、表示画面から削除対象となったアプリケーションのアイコンを削除する。また、例えば、操作指示がアプリケーションのプロパティの表示である場合、表示制御部210は、当該アプリケーションのプロパティを表示画面に表示する。   For example, when the operation instruction is execution of an application, the display control unit 210 executes the application and displays the execution result superimposed on the image and icon of the user 1 of the display device 300. For example, when the operation instruction is to delete an application, the display control unit 210 deletes the icon of the application that is the deletion target from the display screen. For example, when the operation instruction is to display the property of the application, the display control unit 210 displays the property of the application on the display screen.

また、表示制御部210は、カーソル制御部208から取得したカーソル50の座標情報及び形状情報に応じて、表示装置300の表示画面に予め定められた形状のカーソル50を表示する。更に、表示制御部210は、表示装置300の表示画面にニュース情報、スケジュール、天気予報、番組表、メール着信、及び災害速報等の使用者1が予め設定した情報を表示してよい。情報表示システム10は、S120の後に処理をS114に戻す。   In addition, the display control unit 210 displays the cursor 50 having a predetermined shape on the display screen of the display device 300 according to the coordinate information and shape information of the cursor 50 acquired from the cursor control unit 208. Further, the display control unit 210 may display information preset by the user 1 such as news information, schedule, weather forecast, program guide, incoming mail, and disaster bulletin on the display screen of the display device 300. The information display system 10 returns the process to S114 after S120.

このように、本実施形態の情報表示システム10は、S110からS120までの処理を実行することにより、使用者1の画像を取得し、当該画像及び右手及び左手の立体パターン等から使用者1の両手の位置を検出し、その左右の手の位置関係に基づいて操作用の手を特定し、当該操作用の手の動作から使用者1からの操作指示を取得する。これにより、情報表示システム10は、使用者1が画面の前に来てからシームレスに非接触の画面操作を開始できる環境を提供することができ、使用者1の意図しない動作を操作と誤認識することなく、使用者1が意図した操作の結果を表示装置300に表示させることができる。   As described above, the information display system 10 according to the present embodiment acquires the image of the user 1 by executing the processing from S110 to S120, and obtains the user 1's image from the image and the three-dimensional pattern of the right hand and the left hand. The position of both hands is detected, an operating hand is specified based on the positional relationship between the left and right hands, and an operation instruction from the user 1 is acquired from the operation of the operating hand. As a result, the information display system 10 can provide an environment in which the user 1 can start a non-contact screen operation seamlessly after the user 1 comes to the front of the screen. The result of the operation intended by the user 1 can be displayed on the display device 300 without doing so.

本実施形態の表示制御装置200は、検出センサ装置100からの情報に基づいて使用者1の姿勢を判定して、使用者1の両手の位置を検出し、両手(右手及び左手)の位置の相互関係を基に、操作用の手を特定する。例えば、高い位置にある手と低い位置にある手のうち、決められた位置にある方の手を操作用の手として設定する。このように、左右の手を互いに基準として、操作用の手を特定するため、使用者1に特別な動作をさせることなく、非接触操作を開始することができる。   The display control device 200 according to the present embodiment determines the posture of the user 1 based on information from the detection sensor device 100, detects the position of both hands of the user 1, and determines the position of both hands (right hand and left hand). Based on the mutual relationship, the operation hand is specified. For example, among the hands at the high position and the hands at the low position, the hand at the determined position is set as the operation hand. In this way, the left and right hands are used as a reference, and the operation hand is specified. Therefore, the non-contact operation can be started without causing the user 1 to perform a special operation.

図4は、本実施形態の第1変形例の特定部204の具体的構成を示す。本変形例において、検出センサ装置100はカラー画像を取得するビデオカメラを含み、表示制御装置200は使用者1のカラー画像に基づいて使用者1の操作用の手を特定する例を説明する。本変形例の説明において、本実施形態と略同一の機能及び構成を有する要素には同一の符号を付し、説明を省略する。   FIG. 4 shows a specific configuration of the specifying unit 204 of the first modification example of the present embodiment. In this modification, the detection sensor device 100 includes a video camera that acquires a color image, and the display control device 200 describes an example in which the user's 1 operation hand is specified based on the user's 1 color image. In the description of this modification, elements having substantially the same functions and configurations as those of the present embodiment are denoted by the same reference numerals and description thereof is omitted.

本変形例において、表示制御装置200の特定部204は、認識部232、検索部234、及び判断部236を含み、使用者1のカラー画像に含まれる肌色部分から使用者1の操作用の手を特定する。   In the present modification, the specifying unit 204 of the display control apparatus 200 includes a recognition unit 232, a search unit 234, and a determination unit 236, and the user's 1 operation hand from the skin color portion included in the user 1 color image. Is identified.

認識部232は、使用者1の顔部分及び/又は胴体部分を認識する。具体的には、画像入力部202から使用者1のカラー画像を取得し、取得したカラー画像から背景等を除き使用者1の画像を抽出する。認識部232は、抽出した使用者1のカラー画像から当該使用者1の顔部分及び/又は胴体部分を認識する。認識部232は、認識した顔部分及び/又は胴体部分の情報を検索部234に供給する。   The recognition unit 232 recognizes the face portion and / or the torso portion of the user 1. Specifically, the color image of the user 1 is acquired from the image input unit 202, and the image of the user 1 is extracted from the acquired color image except for the background and the like. The recognition unit 232 recognizes the face portion and / or the body portion of the user 1 from the extracted color image of the user 1. The recognition unit 232 supplies the information of the recognized face part and / or body part to the search unit 234.

検索部234は、カラー画像中の使用者1の肌色領域を検索する。具体的には画像入力部202から使用者1のカラー画像を取得し、認識部232から使用者1の顔部分及び/又は胴体部分の情報を取得する。検索部234は、カラー画像中の使用者1の顔の左右領域等の一部領域に位置する肌色領域を検索する。検索部234は、検索された肌色領域の情報を判断部236に供給する。更に、検索部234から肌色領域と隣接する領域の色の情報を取得し、判断部236に供給してもよい。   The search unit 234 searches for the skin color area of the user 1 in the color image. Specifically, a color image of the user 1 is acquired from the image input unit 202, and information on the face part and / or the body part of the user 1 is acquired from the recognition unit 232. The search unit 234 searches for a skin color region located in a partial region such as the left or right region of the face of the user 1 in the color image. The search unit 234 supplies the information of the searched skin color area to the determination unit 236. Further, information on the color of the area adjacent to the skin color area may be acquired from the search unit 234 and supplied to the determination unit 236.

判断部236は、検索部234が検索した肌色領域の情報から操作用の手を判断する。具体的には、判断部236は、認識部232から使用者1の顔部分及び/又は胴体部分の情報を取得し、検索部234からカラー画像中の肌色領域の情報を取得する。判断部236は、カラー画像中の使用者1の顔部分及び/又は胴体部分の位置と、肌色領域の位置とを対比することにより使用者1の操作用の手を判断する。   The determination unit 236 determines an operation hand from the information on the skin color area searched by the search unit 234. Specifically, the determination unit 236 acquires information on the face part and / or body part of the user 1 from the recognition unit 232, and acquires information on a skin color area in the color image from the search unit 234. The determination unit 236 determines the operation hand of the user 1 by comparing the position of the face part and / or the body part of the user 1 in the color image with the position of the skin color region.

図5は、本実施形態の第1変形例の処理フローを示す。本変形例において、表示制御装置200は、使用者1のカラー画像に基づいて使用者1の操作用の手を特定する。情報表示システム10は、S210からS224までの処理により情報を表示する。S210及びS212の処理は、図3におけるS110及びS112の処理と対応するものであってよい。情報表示システム10は、処理をS212の次にS214に進める。   FIG. 5 shows a processing flow of a first modification of the present embodiment. In the present modification, the display control device 200 identifies the user's 1 operation hand based on the user's 1 color image. The information display system 10 displays information by the processes from S210 to S224. The processing of S210 and S212 may correspond to the processing of S110 and S112 in FIG. The information display system 10 advances the process to S214 after S212.

S214において、認識部232は、使用者1の顔部分及び/又は胴体部分を認識する。具体的には、認識部232は、画像入力部202から使用者1のカラー画像を取得し、予め記憶した多数の人物の顔及び胴体のパターンに基づいて、取得したカラー画像から人物の顔及び胴体パターンと概ね一致する部分のみを抽出する。認識部232は、認識した顔部分及び/又は胴体部分の情報を検索部234に供給する。   In S214, the recognition unit 232 recognizes the face portion and / or the body portion of the user 1. Specifically, the recognizing unit 232 acquires the color image of the user 1 from the image input unit 202 and, based on the previously stored many human face and torso patterns, from the acquired color image, the human face and Only the part that roughly matches the body pattern is extracted. The recognition unit 232 supplies the information of the recognized face part and / or body part to the search unit 234.

次に、S216において、検索部234は、カラー画像中の使用者1の肌色領域を検索する。具体的には画像入力部202から使用者1のカラー画像を取得し、認識部232から使用者1の顔部分及び/又は胴体部分の情報を取得する。検索部234は、カラー画像中の一部領域に位置する肌色領域を検索する。例えば、検索部234は、カラー画像中において、使用者1の顔部分よりも上方に位置する肌色領域を検索する。また、これに代えて、検索部234は、使用者1の顔部分及び胴体部分の左右に位置する肌色領域を検索してもよい。検索部234は、検索された肌色領域の情報を判断部236に供給する。   Next, in S216, the search unit 234 searches for the skin color area of the user 1 in the color image. Specifically, a color image of the user 1 is acquired from the image input unit 202, and information on the face part and / or the body part of the user 1 is acquired from the recognition unit 232. The search unit 234 searches for a flesh color region located in a partial region in the color image. For example, the search unit 234 searches for a skin color region located above the face portion of the user 1 in the color image. Alternatively, the search unit 234 may search for a skin color region located on the left and right of the face portion and the body portion of the user 1. The search unit 234 supplies the information of the searched skin color area to the determination unit 236.

次に、S218において、判断部236は、検索部234が検索した肌色領域の情報から操作用の手を判断する。具体的には、判断部236は、認識部232から使用者1の顔部分及び/又は胴体部分の情報を取得し、検索部234からカラー画像中の肌色領域の情報を取得する。判断部236は、カラー画像中の使用者1の顔部分及び/又は胴体部分の位置と、肌色領域の位置とを対比することにより使用者1の操作用の手を判断する。   Next, in S <b> 218, the determination unit 236 determines the operation hand from the information on the skin color area searched by the search unit 234. Specifically, the determination unit 236 acquires information on the face part and / or body part of the user 1 from the recognition unit 232, and acquires information on a skin color area in the color image from the search unit 234. The determination unit 236 determines the operation hand of the user 1 by comparing the position of the face part and / or the body part of the user 1 in the color image with the position of the skin color region.

例えば、判断部236は、カラー画像中の使用者1の顔部分よりも上方に位置する肌色領域を、使用者1の操作用の手に対応する領域であると判断してよい。これにより、例えば、表示装置300が使用者1の鏡像を表示し、肌色領域が顔部分の左に存在する場合には、判断部236は使用者1の右手が操作用の手であると判断することができる。   For example, the determination unit 236 may determine that the skin color area located above the face portion of the user 1 in the color image is an area corresponding to the user's 1 operation hand. Thereby, for example, when the display device 300 displays a mirror image of the user 1 and the skin color area exists on the left side of the face portion, the determination unit 236 determines that the right hand of the user 1 is the operation hand. can do.

これに代えて、判断部236は、カラー画像中の使用者1の顔部分及び胴体部分の左右両方に位置する肌色領域を比較し、上方に位置する一方を使用者1の操作用の手に対応する領域と判断してよい。特定部204は、使用者1の両手に対応する肌色領域に関する情報及び特定した操作用の手が両手のどちらの手であるかの情報を指示取得部206に供給する。情報表示システム10は、処理をS218の次にS220に進める。   Instead, the determination unit 236 compares the skin color areas located on both the left and right sides of the face part and the body part of the user 1 in the color image, and uses the one located above as a hand for the operation of the user 1. It may be determined as a corresponding area. The specifying unit 204 supplies information regarding the skin color area corresponding to both hands of the user 1 and information indicating which hand is the specified operating hand to the instruction acquiring unit 206. The information display system 10 advances the process to S220 after S218.

S220〜S222の処理は、図3におけるS116〜S118の処理と対応するものであってよい。情報表示システム10は、処理をS222の次にS224に進める。   The processing of S220 to S222 may correspond to the processing of S116 to S118 in FIG. The information display system 10 advances the process to S224 after S222.

S224において、情報表示システム10は、図3におけるS120と対応する処理を実行し、処理をS220に戻す。   In S224, the information display system 10 executes a process corresponding to S120 in FIG. 3, and returns the process to S220.

このように、本変形例の情報表示システム10は、S210からS224までの処理を実行することにより、使用者1のカラー画像を取得し、当該カラー画像から使用者1の操作用の手を特定し、当該操作用の手の動作から使用者1からの操作指示を取得する。   As described above, the information display system 10 according to the present modification acquires the color image of the user 1 by executing the processing from S210 to S224, and specifies the operation hand of the user 1 from the color image. Then, the operation instruction from the user 1 is acquired from the operation of the hand for the operation.

図6は、本実施形態の第2変形例の情報表示システム10の概要を示す。本変形例において、表示装置300の表示範囲60は検出センサ装置100の撮像範囲30よりも小さい。即ち、表示装置300は、検出センサ装置100が取得した画像のうち一部を切り取った範囲を表示する。領域20は、表示装置300の表示画面平面上における検出センサ装置100の撮像範囲30と対応する領域を示す。   FIG. 6 shows an overview of the information display system 10 of the second modification example of the present embodiment. In this modification, the display range 60 of the display device 300 is smaller than the imaging range 30 of the detection sensor device 100. That is, the display device 300 displays a range obtained by cutting out a part of the image acquired by the detection sensor device 100. A region 20 indicates a region corresponding to the imaging range 30 of the detection sensor device 100 on the display screen plane of the display device 300.

表示制御装置200の指示取得部206は、操作用の手が画像の予め定められた範囲の外に移動したことに応じて、操作用の手の特定を解除する。例えば、図6に示されるように、使用者1の操作用の手である左手24が、検出センサ装置100の撮像範囲30のうち表示装置300の表示範囲60の外に出た場合、指示取得部206は操作用の手の特定を解除してよい。これに代えて、指示取得部206は、使用者1の操作用の手が、検出センサ装置100の撮像範囲30外に移動したことに応じて、操作用の手の特定を解除してよい。   The instruction acquisition unit 206 of the display control device 200 cancels the specification of the operation hand in response to the operation hand moving outside the predetermined range of the image. For example, as shown in FIG. 6, when the left hand 24, which is the operation hand of the user 1, goes out of the display range 60 of the display device 300 in the imaging range 30 of the detection sensor device 100, instruction acquisition is performed. The unit 206 may cancel the specification of the hand for operation. Instead of this, the instruction acquisition unit 206 may cancel the specification of the operation hand in response to the operation hand of the user 1 being moved out of the imaging range 30 of the detection sensor device 100.

図7は、本実施形態の第2変形例の処理フローを示す。本変形例において、表示制御装置200は、検出センサ装置100から取得した画像から、使用者1の操作用の手を特定する。更に、表示制御装置200は、操作用の手の位置が予め定められた範囲から移動すると操作用の手を解除する。情報表示システム10は、S310からS328までの処理により情報を表示する。   FIG. 7 shows a processing flow of a second modification of the present embodiment. In the present modification, the display control device 200 specifies the operation hand of the user 1 from the image acquired from the detection sensor device 100. Furthermore, the display control device 200 releases the operation hand when the position of the operation hand moves from a predetermined range. The information display system 10 displays information by the processing from S310 to S328.

S310〜S318の処理は、図3におけるS110〜S118の処理と対応するものであってよい。ここで、S316において、使用者1の操作用の手が検出センサ装置100の撮像範囲30かつ表示装置300の表示範囲60の外に位置する場合、指示取得部206は、使用者1からの操作指示を取得しなくてもよく、又は、使用者1からの操作指示を取得してもよい。   The processing of S310 to S318 may correspond to the processing of S110 to S118 in FIG. Here, in S <b> 316, when the operation hand of the user 1 is located outside the imaging range 30 of the detection sensor device 100 and the display range 60 of the display device 300, the instruction acquisition unit 206 performs an operation from the user 1. An instruction may not be acquired, or an operation instruction from the user 1 may be acquired.

S320において、情報表示システム10は、図3におけるS120と対応する処理を実行した後、処理をS322に進める。   In S320, the information display system 10 executes the process corresponding to S120 in FIG. 3, and then advances the process to S322.

S322において、指示取得部206は、使用者1の操作用の手が検出センサ装置100の撮像範囲30の外に位置するか判断する。指示取得部206は、操作用の手が撮像範囲30の外に位置すると判断した場合、処理をS328に進める。指示取得部206は、操作用の手が撮像範囲30の外に位置しないと判断した場合は処理をS324に進める。   In step S <b> 322, the instruction acquisition unit 206 determines whether the user 1's operating hand is located outside the imaging range 30 of the detection sensor device 100. If the instruction acquisition unit 206 determines that the operating hand is located outside the imaging range 30, the process proceeds to S328. If the instruction acquisition unit 206 determines that the operating hand is not located outside the imaging range 30, the process proceeds to S324.

S324において、指示取得部206は、使用者1の操作用の手が検出センサ装置100の撮像範囲30のうち表示装置300の表示範囲60の外に位置するか判断する。指示取得部206は、操作用の手が表示範囲60の外に位置すると判断した場合、処理をS326に進める。指示取得部206は、操作用の手が表示範囲60の外に位置しないと判断した場合は処理をS316に処理を戻す。   In S <b> 324, the instruction acquisition unit 206 determines whether the user's 1 operation hand is located outside the display range 60 of the display device 300 in the imaging range 30 of the detection sensor device 100. If the instruction acquisition unit 206 determines that the operating hand is located outside the display range 60, the instruction acquisition unit 206 advances the process to S326. If the instruction acquisition unit 206 determines that the operating hand is not located outside the display range 60, the instruction acquisition unit 206 returns the process to S316.

S326において、指示取得部206は、使用者1の操作用の手が表示装置300の表示範囲60の外に位置する状態が予め定められた時間継続したか判断する。指示取得部206は、使用者1の操作用の手が表示装置300の表示範囲60の外に位置する状態が予め定められた時間継続したと判断した場合、処理をS328に進める。指示取得部206は、使用者1の操作用の手が表示装置300の表示範囲60の外に位置する状態が予め定められた時間継続していないと判断した場合、処理をS316に戻す。   In S <b> 326, the instruction acquisition unit 206 determines whether the state in which the user's 1 operating hand is located outside the display range 60 of the display device 300 has continued for a predetermined time. If the instruction acquisition unit 206 determines that the state in which the user's 1 operation hand is located outside the display range 60 of the display device 300 has continued for a predetermined time, the process proceeds to S328. When the instruction acquisition unit 206 determines that the state in which the user's operating hand is located outside the display range 60 of the display device 300 has not continued for a predetermined time, the instruction acquisition unit 206 returns the process to S316.

S328において、指示取得部206は、使用者1の操作用の手の特定を解除する。指示取得部206は、処理を次にS310に戻す。ここで、表示制御装置200は、特定部204に、使用者1の両手のうち解除された操作用の手でない手を新しい操作用の手として特定させ、処理をS316に進めてもよい。   In step S <b> 328, the instruction acquisition unit 206 cancels identification of the user's operating hand. The instruction acquisition unit 206 then returns the process to S310. Here, the display control apparatus 200 may cause the specifying unit 204 to specify, as a new operation hand, a hand that is not the released operation hand among the two hands of the user 1, and may advance the process to S316.

このように、本変形例の情報表示システム10は、S310からS328までの処理を実行することにより、使用者1の操作用の手が、検出センサ装置100の撮像範囲30の外に移動した場合に使用者1の操作用の手の特定を直ちに解除する。また、情報表示システム10は、表示装置300の表示範囲60の外に移動した場合、一定時間経過するのを待った後で使用者1の操作用の手の特定を解除する。   As described above, when the information display system 10 of the present modification performs the processing from S310 to S328, the user's operating hand moves outside the imaging range 30 of the detection sensor device 100. The identification of the user's operating hand is immediately released. In addition, when the information display system 10 moves outside the display range 60 of the display device 300, the information display system 10 waits for a certain period of time to elapse before releasing the specification of the user's operating hand.

これにより、本変形例の情報表示システム10によれば、使用者1が情報表示システム10から離れた場合等、使用者1が操作を明らかに中断しようとする場合に直ちに操作用の手の特定を解除することができる。また、情報表示システム10は、使用者1の操作用の手が偶発的に表示装置300の表示範囲60の外に移動した場合等には操作用の手の特定を維持することで、使用者1の利便性の向上を図ることができる。   Thereby, according to the information display system 10 of this modification, when the user 1 intends to interrupt operation clearly, such as when the user 1 leaves | separates from the information display system 10, identification of the hand for operation is performed immediately. Can be released. In addition, the information display system 10 maintains the identification of the operation hand when the operation hand of the user 1 is accidentally moved out of the display range 60 of the display device 300. 1 can be improved.

図8は、表示制御装置200として機能するコンピュータ1900のハードウェア構成の一例を示す。本実施形態に係るコンピュータ1900は、ホスト・コントローラ2082により相互に接続されるCPU2000、RAM2020、グラフィック・コントローラ2075、及び、表示装置300として機能しうる表示装置2080を有するCPU周辺部と、入出力コントローラ2084によりホスト・コントローラ2082に接続される通信インターフェイス2030、ハードディスクドライブ2040、及びCD−ROMドライブ2060を有する入出力部と、入出力コントローラ2084に接続されるROM2010、フレキシブルディスク・ドライブ2050、及び入出力チップ2070を有するレガシー入出力部を備える。   FIG. 8 shows an example of a hardware configuration of a computer 1900 that functions as the display control apparatus 200. A computer 1900 according to the present embodiment includes a CPU peripheral unit including a CPU 2000, a RAM 2020, a graphic controller 2075, and a display device 2080 that can function as the display device 300, and an input / output controller. An input / output unit having a communication interface 2030, a hard disk drive 2040, and a CD-ROM drive 2060 connected to the host controller 2082 by 2084, a ROM 2010, a flexible disk drive 2050, and an input / output connected to the input / output controller 2084 A legacy input / output unit having a chip 2070 is provided.

ホスト・コントローラ2082は、RAM2020と、高い転送レートでRAM2020をアクセスするCPU2000及びグラフィック・コントローラ2075とを接続する。CPU2000は、ROM2010及びRAM2020に格納されたプログラムに基づいて動作し、各部を制御する。グラフィック・コントローラ2075は、CPU2000等がRAM2020内に設けたフレーム・バッファ上に生成する画像データを取得し、表示装置2080上に表示させる。これに代えて、グラフィック・コントローラ2075は、CPU2000等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。   The host controller 2082 connects the RAM 2020 to the CPU 2000 and the graphic controller 2075 that access the RAM 2020 at a high transfer rate. The CPU 2000 operates based on programs stored in the ROM 2010 and the RAM 2020 and controls each unit. The graphic controller 2075 acquires image data generated by the CPU 2000 or the like on a frame buffer provided in the RAM 2020 and displays it on the display device 2080. Instead of this, the graphic controller 2075 may include a frame buffer for storing image data generated by the CPU 2000 or the like.

入出力コントローラ2084は、ホスト・コントローラ2082と、比較的高速な入出力装置である通信インターフェイス2030、ハードディスクドライブ2040、CD−ROMドライブ2060を接続する。通信インターフェイス2030は、有線又は無線によりネットワークを介して他の装置と通信する。また、通信インターフェイスは、通信部212において通信するハードウェアとして機能する。ハードディスクドライブ2040は、コンピュータ1900内のCPU2000が使用するプログラム及びデータを格納する。CD−ROMドライブ2060は、CD−ROM2095からプログラム又はデータを読み取り、RAM2020を介してハードディスクドライブ2040に提供する。   The input / output controller 2084 connects the host controller 2082 to the communication interface 2030, the hard disk drive 2040, and the CD-ROM drive 2060, which are relatively high-speed input / output devices. The communication interface 2030 communicates with other devices via a network by wire or wireless. The communication interface functions as hardware that communicates in the communication unit 212. The hard disk drive 2040 stores programs and data used by the CPU 2000 in the computer 1900. The CD-ROM drive 2060 reads a program or data from the CD-ROM 2095 and provides it to the hard disk drive 2040 via the RAM 2020.

また、入出力コントローラ2084には、ROM2010と、フレキシブルディスク・ドライブ2050、及び入出力チップ2070の比較的低速な入出力装置とが接続される。ROM2010は、コンピュータ1900が起動時に実行するブート・プログラム、及び/又は、コンピュータ1900のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ2050は、フレキシブルディスク2090からプログラム又はデータを読み取り、RAM2020を介してハードディスクドライブ2040に提供する。入出力チップ2070は、フレキシブルディスク・ドライブ2050を入出力コントローラ2084へと接続するとともに、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を入出力コントローラ2084へと接続する。   The input / output controller 2084 is connected to the ROM 2010, the flexible disk drive 2050, and the relatively low-speed input / output device of the input / output chip 2070. The ROM 2010 stores a boot program that the computer 1900 executes at startup and / or a program that depends on the hardware of the computer 1900. The flexible disk drive 2050 reads a program or data from the flexible disk 2090 and provides it to the hard disk drive 2040 via the RAM 2020. The input / output chip 2070 connects the flexible disk drive 2050 to the input / output controller 2084 and inputs / outputs various input / output devices via, for example, a parallel port, a serial port, a keyboard port, a mouse port, and the like. Connect to controller 2084.

RAM2020を介してハードディスクドライブ2040に提供されるプログラムは、フレキシブルディスク2090、CD−ROM2095、又はICカード等の記録媒体に格納されて利用者によって提供される。プログラムは、記録媒体から読み出され、RAM2020を介してコンピュータ1900内のハードディスクドライブ2040にインストールされ、CPU2000において実行される。   A program provided to the hard disk drive 2040 via the RAM 2020 is stored in a recording medium such as the flexible disk 2090, the CD-ROM 2095, or an IC card and provided by the user. The program is read from the recording medium, installed in the hard disk drive 2040 in the computer 1900 via the RAM 2020, and executed by the CPU 2000.

コンピュータ1900にインストールされ、コンピュータ1900を表示制御装置200として機能させるプログラムは、画像入力モジュールと、特定モジュールと、指示取得モジュールと、カーソル制御モジュールと、表示制御モジュールと、通信モジュール、認識モジュールと、検索モジュールと、判断モジュールとを備える。これらのプログラム又はモジュールは、CPU2000等に働きかけて、コンピュータ1900を、画像入力部202と、特定部204と、指示取得部206と、カーソル制御部208と、表示制御部210と、通信部212と、認識部232と、検索部234と、判断部236としてそれぞれ機能させてよい。   A program that is installed in the computer 1900 and causes the computer 1900 to function as the display control apparatus 200 includes an image input module, a specific module, an instruction acquisition module, a cursor control module, a display control module, a communication module, a recognition module, A search module and a determination module are provided. These programs or modules work with the CPU 2000 or the like to make the computer 1900, the image input unit 202, the specifying unit 204, the instruction acquisition unit 206, the cursor control unit 208, the display control unit 210, the communication unit 212, The recognition unit 232, the search unit 234, and the determination unit 236 may function.

これらのプログラムに記述された情報処理は、コンピュータ1900に読込まれることにより、ソフトウェアと上述した各種のハードウェア資源とが協働した具体的手段である画像入力部202と、特定部204と、指示取得部206と、カーソル制御部208と、表示制御部210と、通信部212と、認識部232と、検索部234と、判断部236として機能する。そして、これらの具体的手段によって、本実施形態におけるコンピュータ1900の使用目的に応じた情報の演算又は加工を実現することにより、使用目的に応じた特有の表示制御装置200が構築される。   The information processing described in these programs is read by the computer 1900, whereby the image input unit 202, which is a specific means in which the software and the various hardware resources described above cooperate, the specifying unit 204, It functions as an instruction acquisition unit 206, a cursor control unit 208, a display control unit 210, a communication unit 212, a recognition unit 232, a search unit 234, and a determination unit 236. And the specific display control apparatus 200 according to the intended use is constructed | assembled by implement | achieving the calculation or processing of the information according to the intended use of the computer 1900 in this embodiment by these concrete means.

一例として、コンピュータ1900と外部の装置等との間で通信を行う場合には、CPU2000は、RAM2020上にロードされた通信プログラムを実行し、通信プログラムに記述された処理内容に基づいて、通信インターフェイス2030に対して通信処理を指示する。通信インターフェイス2030は、CPU2000の制御を受けて、RAM2020、ハードディスクドライブ2040、フレキシブルディスク2090、又はCD−ROM2095等の記憶装置上に設けた送信バッファ領域等に記憶された送信データを読み出してネットワークへと送信し、もしくは、ネットワークから受信した受信データを記憶装置上に設けた受信バッファ領域等へと書き込む。このように、通信インターフェイス2030は、DMA(ダイレクト・メモリ・アクセス)方式により記憶装置との間で送受信データを転送してもよく、これに代えて、CPU2000が転送元の記憶装置又は通信インターフェイス2030からデータを読み出し、転送先の通信インターフェイス2030又は記憶装置へとデータを書き込むことにより送受信データを転送してもよい。   As an example, when communication is performed between the computer 1900 and an external device or the like, the CPU 2000 executes a communication program loaded on the RAM 2020 and executes a communication interface based on the processing content described in the communication program. A communication process is instructed to 2030. Under the control of the CPU 2000, the communication interface 2030 reads transmission data stored in a transmission buffer area or the like provided on a storage device such as the RAM 2020, the hard disk drive 2040, the flexible disk 2090, or the CD-ROM 2095, and sends it to the network. The reception data transmitted or received from the network is written into a reception buffer area or the like provided on the storage device. As described above, the communication interface 2030 may transfer transmission / reception data to / from the storage device by a DMA (direct memory access) method. Instead, the CPU 2000 transfers the storage device or the communication interface 2030 as a transfer source. The transmission / reception data may be transferred by reading the data from the data and writing the data to the communication interface 2030 or the storage device of the transfer destination.

また、CPU2000は、ハードディスクドライブ2040、CD−ROMドライブ2060(CD−ROM2095)、フレキシブルディスク・ドライブ2050(フレキシブルディスク2090)等の外部記憶装置に格納されたファイルまたはデータベース等の中から、全部または必要な部分をDMA転送等によりRAM2020へと読み込ませ、RAM2020上のデータに対して各種の処理を行う。そして、CPU2000は、処理を終えたデータを、DMA転送等により外部記憶装置へと書き戻す。このような処理において、RAM2020は、外部記憶装置の内容を一時的に保持するものとみなせるから、本実施形態においてはRAM2020及び外部記憶装置等をメモリ、記憶部、または記憶装置等と総称する。本実施形態における各種のプログラム、データ、テーブル、データベース等の各種の情報は、このような記憶装置上に格納されて、情報処理の対象となる。なお、CPU2000は、RAM2020の一部をキャッシュメモリに保持し、キャッシュメモリ上で読み書きを行うこともできる。このような形態においても、キャッシュメモリはRAM2020の機能の一部を担うから、本実施形態においては、区別して示す場合を除き、キャッシュメモリもRAM2020、メモリ、及び/又は記憶装置に含まれるものとする。   The CPU 2000 is all or necessary from among files or databases stored in an external storage device such as a hard disk drive 2040, a CD-ROM drive 2060 (CD-ROM 2095), and a flexible disk drive 2050 (flexible disk 2090). This portion is read into the RAM 2020 by DMA transfer or the like, and various processes are performed on the data on the RAM 2020. Then, CPU 2000 writes the processed data back to the external storage device by DMA transfer or the like. In such processing, since the RAM 2020 can be regarded as temporarily holding the contents of the external storage device, in the present embodiment, the RAM 2020 and the external storage device are collectively referred to as a memory, a storage unit, or a storage device. Various types of information such as various programs, data, tables, and databases in the present embodiment are stored on such a storage device and are subjected to information processing. Note that the CPU 2000 can also store a part of the RAM 2020 in the cache memory and perform reading and writing on the cache memory. Even in such a form, the cache memory bears a part of the function of the RAM 2020. Therefore, in the present embodiment, the cache memory is also included in the RAM 2020, the memory, and / or the storage device unless otherwise indicated. To do.

また、CPU2000は、RAM2020から読み出したデータに対して、プログラムの命令列により指定された、本実施形態中に記載した各種の演算、情報の加工、条件判断、情報の検索・置換等を含む各種の処理を行い、RAM2020へと書き戻す。例えば、CPU2000は、条件判断を行う場合においては、本実施形態において示した各種の変数が、他の変数または定数と比較して、大きい、小さい、以上、以下、等しい等の条件を満たすか否かを判断し、条件が成立した場合(又は不成立であった場合)に、異なる命令列へと分岐し、またはサブルーチンを呼び出す。   In addition, the CPU 2000 performs various operations, such as various operations, information processing, condition determination, information search / replacement, etc., described in the present embodiment, specified for the data read from the RAM 2020 by the instruction sequence of the program. Is written back to the RAM 2020. For example, when performing the condition determination, the CPU 2000 determines whether or not the various variables shown in the present embodiment satisfy the conditions such as large, small, above, below, equal, etc., compared to other variables or constants. If the condition is satisfied (or not satisfied), the program branches to a different instruction sequence or calls a subroutine.

また、CPU2000は、記憶装置内のファイルまたはデータベース等に格納された情報を検索することができる。例えば、第1属性の属性値に対し第2属性の属性値がそれぞれ対応付けられた複数のエントリが記憶装置に格納されている場合において、CPU2000は、記憶装置に格納されている複数のエントリの中から第1属性の属性値が指定された条件と一致するエントリを検索し、そのエントリに格納されている第2属性の属性値を読み出すことにより、予め定められた条件を満たす第1属性に対応付けられた第2属性の属性値を得ることができる。   Further, the CPU 2000 can search for information stored in a file or database in the storage device. For example, in the case where a plurality of entries in which the attribute value of the second attribute is associated with the attribute value of the first attribute are stored in the storage device, the CPU 2000 displays the plurality of entries stored in the storage device. By searching for an entry in which the attribute value of the first attribute matches the specified condition and reading the attribute value of the second attribute stored in the entry, the first attribute satisfying a predetermined condition is obtained. The attribute value of the associated second attribute can be obtained.

以上に示したプログラム又はモジュールは、外部の記録媒体に格納されてもよい。記録媒体としては、フレキシブルディスク2090、CD−ROM2095の他に、DVD又はCD等の光学記録媒体、MO等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワーク又はインターネットに接続されたサーバシステムに設けたハードディスク又はRAM等の記憶装置を記録媒体として使用し、ネットワークを介してプログラムをコンピュータ1900に提供してもよい。   The program or module shown above may be stored in an external recording medium. As the recording medium, in addition to the flexible disk 2090 and the CD-ROM 2095, an optical recording medium such as DVD or CD, a magneto-optical recording medium such as MO, a tape medium, a semiconductor memory such as an IC card, and the like can be used. Further, a storage device such as a hard disk or RAM provided in a server system connected to a dedicated communication network or the Internet may be used as a recording medium, and the program may be provided to the computer 1900 via the network.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

1 使用者、10 情報表示システム、20 領域、22 右手、24 左手
30 撮像範囲、32 操作用の手の画像、40 操作用の手の画像の中心
50 カーソル、60 表示範囲、100 検出センサ装置、200 表示制御装置
202 画像入力部、204 特定部、206 指示取得部、208 カーソル制御部
210 表示制御部、212 通信部、232 認識部、234 検索部
236 判断部、300 表示装置、1900 コンピュータ、2000 CPU
2010 ROM、2020 RAM、2030 通信インターフェイス
2040 ハードディスクドライブ、2050 フレキシブルディスク・ドライブ
2060 CD−ROMドライブ、2070 入出力チップ
2075 グラフィック・コントローラ、2080 表示装置
2082 ホスト・コントローラ、2084 入出力コントローラ
2090 フレキシブルディスク、2095 CD−ROM
DESCRIPTION OF SYMBOLS 1 User, 10 Information display system, 20 area | region, 22 Right hand, 24 Left hand 30 Imaging range, 32 Hand image for operation, 40 Center of hand image for operation 50 Cursor, 60 Display range, 100 Detection sensor apparatus, DESCRIPTION OF SYMBOLS 200 Display control apparatus 202 Image input part, 204 Identification part, 206 Instruction acquisition part, 208 Cursor control part 210 Display control part, 212 Communication part, 232 Recognition part, 234 Search part 236 Judgment part, 300 Display apparatus, 1900 Computer, 2000 CPU
2010 ROM, 2020 RAM, 2030 Communication interface 2040 Hard disk drive, 2050 Flexible disk drive 2060 CD-ROM drive, 2070 Input / output chip 2075 Graphic controller, 2080 Display device 2082 Host controller, 2084 Input / output controller 2090 Flexible disk, 2095 CD-ROM

Claims (10)

使用者の手の動きに応じて表示装置の表示内容を制御する表示制御装置であって、
使用者の身体の空間上の位置を検出する検出センサに、
検出された使用者の両手の位置の相互関係に基づいて、いずれの手を操作用の手とするのかを特定する特定部と、
前記操作用の手の動きを認識して、前記表示装置の表示内容に対する操作指示を取得する指示取得部と、
前記操作指示に応じて前記表示装置の表示内容を制御する表示制御部と、
を備える表示制御装置。
A display control device that controls the display content of the display device according to the movement of the user's hand,
To the detection sensor that detects the position of the user's body in space,
A specific unit that identifies which hand is to be used as an operation hand based on the correlation between the positions of both hands of the detected user;
An instruction acquisition unit that recognizes the movement of the hand for operation and acquires an operation instruction for the display content of the display device;
A display control unit for controlling display contents of the display device in response to the operation instructions;
A display control device.
前記特定部は、使用者の両手のうち、より高い位置にある方の手を、操作用の手として特定する請求項1に記載の表示制御装置。   The display control apparatus according to claim 1, wherein the specifying unit specifies a higher hand of the user's hands as an operating hand. 前記特定部は、使用者の手のひらが前記表示装置に向いていることを更に条件として、操作用の手を特定する請求項1または2に記載の表示制御装置。   The display control device according to claim 1, wherein the specifying unit specifies an operation hand on the condition that a palm of a user faces the display device. 前記特定部は、予め定められた基準位置より上に使用者の手が挙げられたことを更に条件として、操作用の手を特定する請求項1から3のいずれか一項に記載の表示制御装置。   The display control according to any one of claims 1 to 3, wherein the specifying unit specifies an operation hand on the condition that a user's hand is raised above a predetermined reference position. apparatus. 前記特定部は、前記基準位置を使用者の肩の位置とし、使用者の手が使用者の肩の位置より上に挙げられたことを認識したことに応じて、当該手を操作用の手として特定する請求項4に記載の表示制御装置。   The specifying unit sets the reference position as the position of the user's shoulder, and recognizes that the user's hand is raised above the position of the user's shoulder. The display control apparatus according to claim 4 specified as 使用者の前記操作指示に応じて、前記表示装置に表示された操作対象を選択するカーソルを表示制御するカーソル制御部を更に備え、
前記カーソル制御部は、使用者の前記操作用の手の動きに応じて前記カーソルを前記表示装置の表示画面内で動かす請求項1から5のいずれか一項に記載の表示制御装置。
A cursor control unit for controlling display of a cursor for selecting an operation target displayed on the display device according to the operation instruction of the user;
The display control device according to claim 1, wherein the cursor control unit moves the cursor within a display screen of the display device in accordance with a movement of the operation hand of a user.
前記指示取得部は、前記操作用の手が前記検出センサの撮像範囲外に移動したことに応じて、前記操作用の手の特定を解除する請求項1から6のいずれか一項に記載の表示制御装置。   The said instruction | indication acquisition part cancels | releases specification of the said hand for operation according to the said hand for operation having moved outside the imaging range of the said detection sensor. Display control device. 使用者の身体の空間上の位置を検出する検出センサ装置と、
請求項1から7のいずれか一項に記載の表示制御装置と、
前記表示制御装置の制御に応じた表示内容を表示する表示装置と、
を備える情報表示システム。
A detection sensor device for detecting a position of the user's body in space;
A display control device according to any one of claims 1 to 7;
A display device for displaying display contents according to the control of the display control device;
An information display system comprising:
使用者の手の動きに応じて表示装置の表示内容を制御する表示制御方法であって、
使用者の身体の空間上の位置を示す情報を入力する入力段階と、
入力した情報において、使用者の両手の各位置の相互関係が、予め定められた条件を満たすことを認識したことに応じて、当該両手のうち操作用の手を特定する特定段階と、
前記操作用の手の動きを認識して、前記表示装置の表示内容に対する操作指示を取得する指示取得段階と、
前記操作指示に応じて前記表示装置の表示内容を制御する表示制御段階と、
を備える表示制御方法。
A display control method for controlling display content of a display device in accordance with movement of a user's hand,
An input stage for inputting information indicating the position of the user's body in space;
In the input information, in response to recognizing that the mutual relationship between the positions of both hands of the user satisfies a predetermined condition, a specific stage for identifying a hand for operation among the both hands,
An instruction acquisition step of recognizing the movement of the operating hand and acquiring an operation instruction for the display content of the display device;
A display control stage for controlling display contents of the display device in response to the operation instructions;
A display control method comprising:
請求項9に記載の表示制御方法を、コンピュータにより実行させるプログラム。   A program that causes a computer to execute the display control method according to claim 9.
JP2012067855A 2012-03-23 2012-03-23 Display control apparatus, display control method, information display system, and program Active JP5456817B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012067855A JP5456817B2 (en) 2012-03-23 2012-03-23 Display control apparatus, display control method, information display system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012067855A JP5456817B2 (en) 2012-03-23 2012-03-23 Display control apparatus, display control method, information display system, and program

Publications (2)

Publication Number Publication Date
JP2013200654A true JP2013200654A (en) 2013-10-03
JP5456817B2 JP5456817B2 (en) 2014-04-02

Family

ID=49520870

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012067855A Active JP5456817B2 (en) 2012-03-23 2012-03-23 Display control apparatus, display control method, information display system, and program

Country Status (1)

Country Link
JP (1) JP5456817B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170040222A (en) * 2014-08-01 2017-04-12 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Reflection-based control activation
US10185407B2 (en) 2015-08-18 2019-01-22 Canon Kabushiki Kaisha Display control apparatus, display control method and recording medium

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009519552A (en) * 2005-12-12 2009-05-14 株式会社ソニー・コンピュータエンタテインメント Voice and video control of an interactive electronically simulated environment
JP2011513847A (en) * 2008-02-27 2011-04-28 ジェスチャー テック,インコーポレイテッド Advanced input using recognized gestures
JP2011095985A (en) * 2009-10-29 2011-05-12 Nikon Corp Image display apparatus
JP2011187086A (en) * 2011-06-27 2011-09-22 Toshiba Corp Video reproduction device and video reproduction method
JP2011215921A (en) * 2010-03-31 2011-10-27 Namco Bandai Games Inc Program, information storage medium, and image generation system
JP2011234388A (en) * 2011-06-10 2011-11-17 Toshiba Corp Video reproduction device and video reproduction method
JP2012058928A (en) * 2010-09-07 2012-03-22 Sony Corp Information processor and information processing method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009519552A (en) * 2005-12-12 2009-05-14 株式会社ソニー・コンピュータエンタテインメント Voice and video control of an interactive electronically simulated environment
JP2011513847A (en) * 2008-02-27 2011-04-28 ジェスチャー テック,インコーポレイテッド Advanced input using recognized gestures
JP2011095985A (en) * 2009-10-29 2011-05-12 Nikon Corp Image display apparatus
JP2011215921A (en) * 2010-03-31 2011-10-27 Namco Bandai Games Inc Program, information storage medium, and image generation system
JP2012058928A (en) * 2010-09-07 2012-03-22 Sony Corp Information processor and information processing method
JP2011234388A (en) * 2011-06-10 2011-11-17 Toshiba Corp Video reproduction device and video reproduction method
JP2011187086A (en) * 2011-06-27 2011-09-22 Toshiba Corp Video reproduction device and video reproduction method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170040222A (en) * 2014-08-01 2017-04-12 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Reflection-based control activation
JP2017526096A (en) * 2014-08-01 2017-09-07 マイクロソフト テクノロジー ライセンシング,エルエルシー Activating controls based on reflections
KR102392437B1 (en) 2014-08-01 2022-04-28 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Reflection-based control activation
US10185407B2 (en) 2015-08-18 2019-01-22 Canon Kabushiki Kaisha Display control apparatus, display control method and recording medium

Also Published As

Publication number Publication date
JP5456817B2 (en) 2014-04-02

Similar Documents

Publication Publication Date Title
KR101844390B1 (en) Systems and techniques for user interface control
JP6007497B2 (en) Image projection apparatus, image projection control apparatus, and program
US9317130B2 (en) Visual feedback by identifying anatomical features of a hand
US10372229B2 (en) Information processing system, information processing apparatus, control method, and program
US20160092062A1 (en) Input support apparatus, method of input support, and computer program
US10234955B2 (en) Input recognition apparatus, input recognition method using maker location, and non-transitory computer-readable storage program
JP6344530B2 (en) Input device, input method, and program
KR101631011B1 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
JP6618276B2 (en) Information processing apparatus, control method therefor, program, and storage medium
US20150169134A1 (en) Methods circuits apparatuses systems and associated computer executable code for providing projection based human machine interfaces
JP2016071546A (en) Information processing device and control method thereof, program, and storage medium
JP2013114467A (en) Display system, display method and program
JP5456817B2 (en) Display control apparatus, display control method, information display system, and program
WO2019037257A1 (en) Password input control device and method, and computer readable storage medium
JP5558899B2 (en) Information processing apparatus, processing method thereof, and program
JP5456840B2 (en) Display control apparatus, display control method, information display system, and program
JP5499106B2 (en) Display control apparatus, display control method, information display system, and program
JP5735453B2 (en) Display control apparatus, display control method, information display system, and program
JP2009205498A (en) Information presentation device, information presentation method, information presentation program, and recording medium recorded with the program
JP2017049662A (en) Information processing apparatus, control method thereof, program, and storage medium
WO2018150757A1 (en) Information processing system, information processing method, and program
JP3201596U (en) Operation input device
JP2013114466A (en) Display system, display method and program
JP6007496B2 (en) Display system, display program, and display method
JP2017228216A (en) Information processing apparatus, control method therefor, program, and storage medium

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130910

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20131018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140108

R150 Certificate of patent or registration of utility model

Ref document number: 5456817

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350