JP6834197B2 - Information processing equipment, display system, program - Google Patents

Information processing equipment, display system, program Download PDF

Info

Publication number
JP6834197B2
JP6834197B2 JP2016133365A JP2016133365A JP6834197B2 JP 6834197 B2 JP6834197 B2 JP 6834197B2 JP 2016133365 A JP2016133365 A JP 2016133365A JP 2016133365 A JP2016133365 A JP 2016133365A JP 6834197 B2 JP6834197 B2 JP 6834197B2
Authority
JP
Japan
Prior art keywords
user
display
information
hand
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016133365A
Other languages
Japanese (ja)
Other versions
JP2018005663A (en
Inventor
篤司 舟波
篤司 舟波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016133365A priority Critical patent/JP6834197B2/en
Priority to EP17178703.9A priority patent/EP3267289B1/en
Priority to US15/640,730 priority patent/US10936077B2/en
Publication of JP2018005663A publication Critical patent/JP2018005663A/en
Application granted granted Critical
Publication of JP6834197B2 publication Critical patent/JP6834197B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報処理装置、表示システム及びプログラムに関する。 The present invention relates to information processing devices, display systems and programs.

人が集まる場所や通過する場所に設置されたディスプレイに情報を表示するシステムが知られている。ディスプレイにはネットワークなどを介して情報処理装置が接続されており、静止画や動画を情報処理装置がディスプレイに表示させることで、情報処理装置は例えば広告、天気、ニュースなどの有益な情報を発信できる。このようなシステムや仕組みをデジタルサイネージと称する。ディスプレイは屋外、店頭、公共空間、交通機関、通路などに設置されており、往来者、来客者、施設の利用者(以下、単にユーザという)等に詳細かつ新しい情報を提供できる。 A system that displays information on a display installed in a place where people gather or pass is known. An information processing device is connected to the display via a network or the like, and the information processing device displays useful information such as advertisements, weather, news, etc. by displaying still images and moving images on the display. it can. Such a system or mechanism is called digital signage. The display is installed outdoors, in stores, in public spaces, in public spaces, in aisles, etc., and can provide detailed and new information to visitors, visitors, facility users (hereinafter, simply referred to as users), and the like.

ところで、現状のデジタルサイネージのうち特に大画面のデジタルサイネージは一方的に情報を表示することが主な機能となっている。しかしながら、ユーザから見ると、情報が刻々と変化するため表示されたある情報に興味を持ってもゆっくりと閲覧することができない場合がある。また、情報の提供者から見ると、情報を流しているだけでユーザからのリアクションが得られないので、どのような情報にユーザが興味を示したかを把握できない。また、デジタルサイネージの情報を窓口にしてユーザがより詳細な情報を表示させたり、ユーザが興味を持った情報の詳細情報を提供者が提供したくても困難である。すなわち、従来のデジタルサイネージではインタラクティブ(双方向性)な操作が困難であった。 By the way, among the current digital signage, especially the large screen digital signage has the main function of displaying information unilaterally. However, from the user's point of view, since the information changes from moment to moment, it may not be possible to browse slowly even if one is interested in the displayed information. Further, from the viewpoint of the information provider, it is not possible to grasp what kind of information the user is interested in because the reaction from the user cannot be obtained only by flowing the information. Further, it is difficult for the user to display more detailed information by using the digital signage information as a window, or for the provider to provide detailed information of the information that the user is interested in. That is, it has been difficult to perform interactive operations with conventional digital signage.

インタラクティブな操作を実現するにはディスプレイの近くにユーザが操作を入力するための入力装置が用意されていればよいが、設置スペースの確保が難しかったり、設置スペースがあるとしても入力装置の破損や盗難のおそれがある。そこで、ユーザのジェスチャーをデジタルサイネージが検出して操作を受け付ける操作態様が検討される(例えば、特許文献1参照。)。特許文献1には、検出したユーザの動きから、表示面に表示されるカーソルを移動させると共に、ユーザとの距離に基づいてカーソルの動きを調整するポインティング制御装置が開示されている。 In order to realize interactive operation, it is sufficient to have an input device near the display for the user to input the operation, but it is difficult to secure the installation space, or even if there is an installation space, the input device may be damaged. There is a risk of theft. Therefore, an operation mode in which the digital signage detects the user's gesture and accepts the operation is examined (see, for example, Patent Document 1). Patent Document 1 discloses a pointing control device that moves the cursor displayed on the display surface from the detected movement of the user and adjusts the movement of the cursor based on the distance to the user.

しかしながら、特許文献1には、どこに移動すればユーザがデジタルサイネージを操作できるかをユーザに把握させることができないという問題がある。以下、説明する。デジタルサイネージは多くのユーザが往来したり存在する場所に設置されるため、同時に一人の人間だけがデジタルサイネージを見ることは少ない。つまり、デジタルサイネージは同時に複数のユーザにより見られる可能性が高く、デジタルサイネージを見ることができる全てのユーザがデジタルサイネージを操作できてしまうと、各ユーザが所望の操作を行うことは困難になる。また、全てのユーザが操作できてしまうと単に通りかかったユーザの無意識の動作が、本当にデジタルサイネージを操作したいユーザの操作を邪魔してしまうおそれがある。 However, Patent Document 1 has a problem that it is not possible for the user to know where to move to operate the digital signage. This will be described below. Since digital signage is installed in a place where many users come and go, it is unlikely that only one person will see the digital signage at the same time. That is, the digital signage is likely to be viewed by a plurality of users at the same time, and if all the users who can view the digital signage can operate the digital signage, it becomes difficult for each user to perform the desired operation. .. In addition, if all users can operate the digital signage, the unconscious movement of the passing user may interfere with the operation of the user who really wants to operate the digital signage.

このような不都合に対し、特定の位置に立っているユーザのみの動作を動作検出装置が検知する方法が考えられる。特定の位置がそれほど広くなければ、動作検出装置が動作を検知するユーザを所定数(例えば一人)に限定できる。 To deal with such inconvenience, a method in which the motion detection device detects the motion of only the user standing at a specific position can be considered. If the specific position is not so wide, the motion detection device can limit the number of users (for example, one person) to detect the motion.

しかし、物理的な指標(テープやペイントなどのマーキング)で特定の位置をユーザに把握させるためには、デジタルサイネージの管理者などが別途、指標を準備する必要がある。また、動作検出装置がユーザの動作を検知できる位置に合わせて指標を準備する必要があり、セッティングに時間やコストがかかってしまう。 However, in order for the user to grasp a specific position by a physical index (marking such as tape or paint), a digital signage administrator or the like needs to prepare a separate index. In addition, it is necessary to prepare the index according to the position where the motion detection device can detect the user's motion, which takes time and cost for setting.

本発明は、上記課題に鑑み、操作対象を操作する場所にユーザを誘導できる情報処理装置を提供することを目的する。 In view of the above problems, it is an object of the present invention to provide an information processing device capable of guiding a user to a place where an operation target is operated.

本発明は、表示装置の周辺のユーザの位置及びユーザの動作に関する動作情報を検出する装置から、ユーザの位置に関する位置情報を取得する情報処理装置であって、前記表示装置における表示位置に前記位置情報を変換し、前記表示位置にユーザの位置を表すユーザ位置表示情報を表示する位置表示手段を有し、前記位置表示手段は、ユーザが前記表示装置に表示される内容を前記ユーザの動作に応じて操作する位置に前記ユーザを誘導するための誘導位置表示情報を前記表示装置に表示し、前記位置表示手段は、前記装置がユーザを検出できる検出範囲を前記表示装置に表示し、前記動作情報を取得する動作情報取得手段と、 前記動作情報に基づいて前記情報処理装置で動作するアプリケーションソフトの操作を受け付ける操作受付手段と、を有し、前記装置から前記ユーザが手を挙げた旨の前記動作情報を受信した場合、前記位置表示手段は前記ユーザ位置表示情報を人が手を挙げた形状で表示し、前記操作受付手段は手を挙げたユーザにのみ操作権を与え、他のユーザが手を挙げても操作を受け付けないThe present invention is an information processing device that acquires position information related to a user's position from a device that detects the user's position and operation information related to the user's operation around the display device, and the position is at the display position on the display device. It has a position display means for converting information and displaying user position display information indicating the user's position at the display position, and the position display means changes the content displayed on the display device by the user into the operation of the user. The guidance position display information for guiding the user to the position to be operated according to the operation is displayed on the display device, and the position display means displays the detection range in which the device can detect the user on the display device, and the operation. It has an operation information acquisition means for acquiring information and an operation reception means for receiving an operation of application software operating on the information processing device based on the operation information, and the user raises his / her hand from the device. When the operation information is received, the position display means displays the user position display information in the form of a person raising his / her hand, and the operation reception means gives an operation right only to the user who raises his / her hand, and another user. Does not accept the operation even if he raises his hand .

操作対象を操作する場所にユーザを誘導できる情報処理装置を提供することができる。 It is possible to provide an information processing device that can guide a user to a place where an operation target is operated.

情報処理システムが有するディスプレイとカーソルの位置の制御について説明する図の一例である。This is an example of a diagram for explaining the control of the position of the display and the cursor of the information processing system. 情報処理システムのシステム構成図の一例である。This is an example of a system configuration diagram of an information processing system. 情報処理装置のハードウェア構成図の一例である。This is an example of a hardware configuration diagram of an information processing device. 動作検出装置のハードウェア構成図の一例である。This is an example of the hardware configuration diagram of the motion detection device. 三次元座標が得られる関節を示す図である。It is a figure which shows the joint which can obtain the three-dimensional coordinates. アプリケーションソフトとジェスチャー操作受付プログラムの関係を説明する図の一例である。This is an example of a diagram illustrating the relationship between the application software and the gesture operation reception program. ジェスチャー操作受付プログラムの機能がブロック状に示された機能ブロック図の一例である。This is an example of a functional block diagram in which the functions of the gesture operation reception program are shown in a block shape. 動作検出装置に対する人の検出範囲と操作位置を説明する図の一例である。This is an example of a diagram for explaining a person's detection range and an operation position with respect to the motion detection device. 検出範囲を立体的に示す図の一例である。This is an example of a diagram showing the detection range in three dimensions. 操作エリアを説明する図の一例である。It is an example of the figure explaining the operation area. 操作エリアを詳細に説明する図の一例である。This is an example of a diagram for explaining the operation area in detail. ユーザの非操作動作を説明する図の一例である。It is an example of the figure explaining the non-operation operation of the user. 図12の立方体を側方から見た図の一例である。This is an example of a side view of the cube of FIG. 操作エリアにおける手首関節又は手関節の座標とカーソルの位置を示す図の一例である。This is an example of a diagram showing the coordinates of the wrist joint or wrist joint and the position of the cursor in the operation area. ユーザUの手首関節又は手関節の三次元座標を側方から見た図である。It is the figure which looked at the three-dimensional coordinates of the wrist joint or the wrist joint of the user U from the side. 操作エリアの変形例を説明する図の一例である。It is an example of the figure explaining the modification of the operation area. 手首関節又は手関節の速さの検出方法を説明する図の一例である。It is an example of the figure explaining the method of detecting the speed of a wrist joint or a wrist joint. イベントの検出方法について説明する図の一例である。It is an example of the figure explaining the event detection method. 速さが閾値未満の場合の座標変換を説明する図の一例である。It is an example of the figure explaining the coordinate transformation when the speed is less than the threshold value. 動作検出装置によりユーザが検出された時の操作受付支援アイコンを示す図の一例である。This is an example of a diagram showing an operation reception support icon when a user is detected by the motion detection device. 操作受付支援アイコンにおける人アイコンの位置の算出方法を説明する図の一例である。This is an example of a diagram illustrating a method of calculating the position of the person icon in the operation reception support icon. ユーザが操作位置で手を挙げた際の操作受付支援アイコンを示す図の一例である。This is an example of a diagram showing an operation reception support icon when the user raises his / her hand at the operation position. ユーザが操作位置で手を挙げているが手首関節又は手関節の速さが閾値未満の場合のガイドメッシュを示す図の一例である。This is an example of a diagram showing a guide mesh when the user raises his / her hand at the operation position but the speed of the wrist joint or the wrist joint is less than the threshold value. ジェスチャー操作受付プログラムがユーザに操作権を付与するまでの手順を示すフローチャート図の一例である。This is an example of a flowchart showing the procedure until the gesture operation reception program grants the operation right to the user. ジェスチャー操作受付プログラムがユーザの操作を受け付けてアプリケーションソフトを操作する手順を示すフローチャート図の一例である。This is an example of a flowchart showing a procedure in which the gesture operation reception program accepts a user's operation and operates the application software. 顔向きなどの分析のために情報記録部が記録するセンサ情報の一例を示す図である。It is a figure which shows an example of the sensor information which an information recording part records for analysis such as a face orientation. 図26のセンサ情報が取得された際に情報記録部が取得したスクリーンショットを示す図の一例である。It is an example of the figure which shows the screenshot which the information recording part acquired when the sensor information of FIG. 26 was acquired. 検出されないユーザを説明する図の一例である。It is an example of the figure explaining the user which is not detected. 情報記録部がセンサ情報DBに記憶したセンサ情報の解析例を説明する図の一例である。This is an example of a diagram for explaining an analysis example of sensor information stored in the sensor information DB by the information recording unit.

以下、本発明を実施するための情報処理システム100及び情報処理システム100が行う位置情報作成方法について図面を参照しながら説明する。 Hereinafter, the information processing system 100 for carrying out the present invention and the position information creation method performed by the information processing system 100 will be described with reference to the drawings.

<情報処理システムの概略的特徴>
図1を用いて、情報処理システム100の概略的特徴について説明する。図1は、操作位置52へのユーザの誘導を説明する図の一例である。
<Outline features of information processing system>
The schematic features of the information processing system 100 will be described with reference to FIG. FIG. 1 is an example of a diagram for explaining guidance of the user to the operation position 52.

図1(a)に示すように、ディスプレイ310にはデジタルサイネージとしてのコンテンツのリスト101や動画102が表示されると共に操作入力のための各種の操作ボタン103(動画102の再生、停止等)が表示されている。また、ディスプレイ310の下部には動作検出装置10が設置されている。動作検出装置10は、一定の角度範囲内かつ一定距離内の人の検出範囲51に進入したユーザを検出する。また、動作検出装置10は操作位置52のユーザの立ち位置と動作を検出する。 As shown in FIG. 1A, the display 310 displays a list 101 of contents as digital signage and a moving image 102, and various operation buttons 103 (playing, stopping, etc. of the moving image 102) for operation input are displayed. It is displayed. A motion detection device 10 is installed below the display 310. The motion detection device 10 detects a user who has entered the detection range 51 of a person within a certain angle range and within a certain distance. In addition, the motion detection device 10 detects the standing position and motion of the user at the operation position 52.

ディスプレイ310は常時、操作受付支援アイコン81が表示されている。あるいは、動作検出装置10がユーザを検出した場合にだけ表示されてもよい。操作受付支援アイコン81には、後述する操作位置指示表示83が表示されている。動作検出装置10がユーザUを検出すると、情報処理装置30は操作受付支援アイコン81にはユーザUを表す人アイコン82を表示する。人アイコン82は、検出範囲51におけるユーザの位置に対応する操作受付支援アイコン81内の位置に人アイコン82を表示する。 The operation reception support icon 81 is always displayed on the display 310. Alternatively, it may be displayed only when the motion detection device 10 detects the user. An operation position instruction display 83, which will be described later, is displayed on the operation reception support icon 81. When the motion detection device 10 detects the user U, the information processing device 30 displays the person icon 82 representing the user U on the operation reception support icon 81. The person icon 82 displays the person icon 82 at a position in the operation reception support icon 81 corresponding to the position of the user in the detection range 51.

したがって、ディスプレイ310を見ているユーザは、自分が検出されたことを把握できる。また、ユーザが動くと、人アイコン82も移動することを把握できる。 Therefore, the user who is looking at the display 310 can know that he / she has been detected. Further, it can be grasped that when the user moves, the person icon 82 also moves.

デジタルサイネージを操作するためにユーザは人アイコン82を操作位置指示表示83に移動させなければならないことをガイドラインなどにより知っている。ユーザは自分の移動に伴って位置が変わる人アイコン82が操作位置指示表示83に進入するように、検出範囲51内を移動する。操作位置指示表示83に人アイコン82が存在する場合、ユーザが操作位置52に存在する。 The user knows from guidelines and the like that the person icon 82 must be moved to the operation position instruction display 83 in order to operate the digital signage. The user moves within the detection range 51 so that the person icon 82 whose position changes with his / her movement enters the operation position instruction display 83. When the person icon 82 is present on the operation position instruction display 83, the user is present at the operation position 52.

このように、人アイコン82が操作位置指示表示83に移動するようにユーザが移動することで、ユーザは自然に動作検出装置10がユーザの動作を検出する操作位置52に移動することができる。したがって、情報処理装置30は、ユーザの位置を検出してこの位置を操作受付支援アイコン81上の位置に変換して表示することで、操作位置52へユーザを誘導することができる。 In this way, when the user moves so that the person icon 82 moves to the operation position instruction display 83, the user can naturally move to the operation position 52 where the motion detection device 10 detects the user's motion. Therefore, the information processing device 30 can guide the user to the operation position 52 by detecting the position of the user, converting this position into a position on the operation reception support icon 81, and displaying the position.

したがって、本実施形態の情報処理システムは、デジタルサイネージの管理者などが操作位置52に物理的な指標(テープやペイントなどのマーキング)を施すことなく、どこに移動すればユーザがデジタルサイネージを操作できるかをユーザに把握させることができる。ただし、物理的な指標がある場合、ユーザは更に操作位置52を把握しやすい。 Therefore, in the information processing system of the present embodiment, the user can operate the digital signage wherever the digital signage administrator or the like moves without giving a physical index (marking such as tape or paint) to the operation position 52. It is possible to let the user know whether or not. However, when there is a physical index, the user can more easily grasp the operation position 52.

<用語について>
ユーザの位置に関する位置情報とは、ユーザの位置を特定する情報やユーザの位置を表す情報などである。例えば、動作検出装置10に対する相対的な位置であるが、動作検出装置10と表示装置の位置が固定的であれば、表示装置に対する相対位置と称してよい。なお、位置情報は座標などを含む絶対位置でもよい。
<Terminology>
The position information regarding the user's position is information that identifies the user's position, information that represents the user's position, and the like. For example, the position is relative to the motion detection device 10, but if the positions of the motion detection device 10 and the display device are fixed, it may be referred to as a relative position to the display device. The position information may be an absolute position including coordinates and the like.

表示装置における表示位置とは、ディスプレイなどの表示装置上の位置をいう。具体的には、カーソルなどで表示位置が示される。 The display position on the display device means a position on a display device such as a display. Specifically, the display position is indicated by a cursor or the like.

表示装置に表示される内容とは、表示され視覚的に判断できる情報の全般をいう。内容と共に音声が流れる場合は、音声も内容に含まれる。本実施形態ではコンテンツという用語で説明する。 The content displayed on the display device refers to all the information that is displayed and can be visually judged. If audio is played along with the content, the audio is also included in the content. In this embodiment, the term "content" will be used.

ユーザ位置表示情報は、表示装置においてユーザ又はユーザの位置を表す表示情報である。本実施形態では人アイコン82という用語で説明する。 The user position display information is display information indicating the user or the user's position on the display device. In this embodiment, the term human icon 82 will be used.

誘導位置表示情報は、表示装置においてユーザを所定位置に誘導するための表示情報である。あるいは、ユーザの好ましい位置を表す表示情報である。本実施形態では操作位置指示表示83という用語で説明する。 The guidance position display information is display information for guiding the user to a predetermined position on the display device. Alternatively, it is display information indicating a user's preferred position. In the present embodiment, the term operating position instruction display 83 will be described.

動作情報とは、ユーザの動作を表す情報である。あるいは、ユーザの動作が情報処理装置に解釈できる形態に変換された情報である。あるいは、ユーザの動作を情報処理装置に非接触で入力するための情報である。具体的には、位置、姿勢、手足の動きなどであり、本実施形態ではセンサ情報という用語で説明する。 The operation information is information representing the operation of the user. Alternatively, the information is converted into a form in which the user's operation can be interpreted by the information processing device. Alternatively, it is information for inputting the user's operation to the information processing device without contact. Specifically, it includes a position, a posture, a movement of a limb, and the like, and will be described by the term sensor information in the present embodiment.

予め定められた速さの条件に合致する場合の条件とは、カーソルの位置の制御に関するユーザの意図を検出するための条件をいう。この意図は位置を精度よく制御したい意図をいう。条件に合致する場合とは、例えば、速さが閾値未満であること、速さが所定の範囲内であること、等が挙げられる。以下では、速さが閾値未満であることを例にして説明する。 The condition when the condition of the predetermined speed is met means the condition for detecting the user's intention regarding the control of the cursor position. This intention refers to the intention to control the position accurately. The cases where the conditions are met include, for example, that the speed is less than the threshold value, that the speed is within a predetermined range, and the like. In the following, the speed will be described as an example of being less than the threshold value.

<システム構成例>
図2は、情報処理システム100のシステム構成図の一例である。図2(a)に示すように、情報処理システム100は、ディスプレイ310、動作検出装置10及び情報処理装置30を有する。動作検出装置10は情報処理装置30とUSBケーブルやIEEE1394などのケーブルで接続されており、情報処理装置30とディスプレイ310はDisplayPort(登録商標)、DVI(Digital Visual Interface)、HDMI(登録商標。High-Definition Multimedia Interface)及びVGA(Video Graphics Array)等の規格による通信が可能なケーブルを介して接続されている。なお、動作検出装置10と情報処理装置30は、無線LAN、Bluetooth(登録商標)、ZigBee(登録商標)などの無線で通信してもよい。同様に、情報処理装置30とディスプレイ310は、無線LAN、HDMIの無線規格などの無線で通信してもよい。
<System configuration example>
FIG. 2 is an example of a system configuration diagram of the information processing system 100. As shown in FIG. 2A, the information processing system 100 includes a display 310, an motion detection device 10, and an information processing device 30. The motion detection device 10 is connected to the information processing device 30 with a cable such as a USB cable or IEEE1394, and the information processing device 30 and the display 310 are DisplayPort (registered trademark), DVI (Digital Visual Interface), HDMI (registered trademark. High). -It is connected via a cable that can communicate according to standards such as Definition Multimedia Interface) and VGA (Video Graphics Array). The motion detection device 10 and the information processing device 30 may communicate wirelessly with a wireless LAN, Bluetooth (registered trademark), ZigBee (registered trademark), or the like. Similarly, the information processing device 30 and the display 310 may communicate wirelessly with a wireless LAN, a wireless standard of HDMI, or the like.

情報処理装置30は、PC(Personal Computer)、タブレット端末、スマートフォン、携帯電話、PDA(Personal Digital Assistant)などの汎用的なものを利用できる。情報処理装置30ではOS(Operating System)が動作しており、マウスやタッチパネルなどのポインティングデバイスの位置を検出しこの位置にカーソル3を表示する機能を有する。また、OSはポインティングデバイスにより行われるイベント(左クリック、右クリック、ダブルクリック、マウスオーバー、マウスダウン、マウスアップなど)を検出する。また、情報処理装置30はOS上で各種のアプリケーションソフトを動作させている。OSはポインティングデバイスの位置とイベントをアプリケーションソフトに通知するため、アプリケーションソフトはポインティングデバイスの位置で行われたイベントに基づき動作する。 As the information processing device 30, a general-purpose device such as a PC (Personal Computer), a tablet terminal, a smartphone, a mobile phone, or a PDA (Personal Digital Assistant) can be used. The information processing device 30 operates an OS (Operating System) and has a function of detecting the position of a pointing device such as a mouse or a touch panel and displaying the cursor 3 at this position. The OS also detects events (left-click, right-click, double-click, mouse over, mouse down, mouse up, etc.) performed by the pointing device. In addition, the information processing device 30 operates various application software on the OS. Since the OS notifies the application software of the position and event of the pointing device, the application software operates based on the event performed at the position of the pointing device.

本実施形態では、動作検出装置10と後述するジェスチャー操作受付プログラムがポインティングデバイスとして動作する。ジェスチャー操作受付プログラムは、動作検出装置10からセンサ情報を取得してカーソル3の位置に変換したりイベントを検出するプログラムであり、情報処理装置30で動作している。このジェスチャー操作受付プログラム110がカーソル3の位置とイベントをアプリケーションソフト120に通知することで、アプリケーションソフト120はポインティングデバイスを意識することなく(ポインティングデバイスが動作検出装置10であることによる変更が必要なく)動作できる。 In the present embodiment, the motion detection device 10 and the gesture operation reception program described later operate as a pointing device. The gesture operation reception program is a program that acquires sensor information from the motion detection device 10 and converts it into the position of the cursor 3 or detects an event, and is operated by the information processing device 30. By notifying the application software 120 of the position of the cursor 3 and the event by the gesture operation reception program 110, the application software 120 does not need to be aware of the pointing device (no change due to the pointing device being the motion detection device 10). ) Can work.

ディスプレイ310は液晶型の表示装置、有機ELを発光原理とする表示装置、又は、プラズマ発光を利用した表示装置などである。アプリケーションソフト120はCUI(Character User Interface)やGUI(Graphical User Interface)と呼ばれる画面を作成しディスプレイ310に表示させる。 The display 310 is a liquid crystal type display device, a display device based on organic EL as a light emitting principle, a display device using plasma light emission, or the like. The application software 120 creates a screen called a CUI (Character User Interface) or a GUI (Graphical User Interface) and displays it on the display 310.

なお、ディスプレイ310として、ディスプレイ310を備えた何らかの装置を使用してもよい。例えば電子黒板、ノートPCなどが備えるディスプレイをディスプレイ310として使用できる。 As the display 310, any device provided with the display 310 may be used. For example, a display provided on an electronic blackboard, a notebook PC, or the like can be used as the display 310.

動作検出装置10は、人の動作を検出するセンサである。例えば、ステレオカメラで空間を撮像すると画像データの画素毎に視差が得られ画素毎の距離情報が得られる。また、画像データをパターン認識することで人を検出したり、人の動作を認識することが可能になる。具体的には、人の手のひら、手首、肩等の三次元座標、姿勢などが得られる。このような人の動作の検出に適したセンサとしてキネクト(登録商標。以下、登録商標という付記を省略する)が知られている。キネクトについて詳細は後述する。なお、動作検出装置10はキネクトでなくてもよく、キネクトと同様の機能を備えたセンサ、ステレオカメラ、TOF(Time Of Flight)等により距離を検出するカメラなどでもよい。 The motion detection device 10 is a sensor that detects the motion of a person. For example, when a space is imaged with a stereo camera, parallax is obtained for each pixel of the image data, and distance information for each pixel is obtained. In addition, by recognizing a pattern of image data, it becomes possible to detect a person or recognize a person's movement. Specifically, three-dimensional coordinates of a person's palm, wrist, shoulder, etc., posture, and the like can be obtained. Kinect (registered trademark; hereinafter, the appendix of the registered trademark is omitted) is known as a sensor suitable for detecting such a human motion. The details of Kinect will be described later. The motion detection device 10 does not have to be Kinect, and may be a sensor having the same function as Kinect, a stereo camera, a camera that detects a distance by a TOF (Time Of Flight), or the like.

なお、図2(a)の動作検出装置10の設置位置は一例であり、ディスプレイ310の上方、左側、又は右側に設置されてもよい。また、情報処理装置30での設置位置も一例に過ぎず、例えばディスプレイ310の背後など設置されてもよい。また、ネットワークを介して動作検出装置10と接続されていてもよい。 The installation position of the motion detection device 10 in FIG. 2A is an example, and may be installed above, on the left side, or on the right side of the display 310. Further, the installation position of the information processing apparatus 30 is only an example, and may be installed behind the display 310, for example. Further, it may be connected to the motion detection device 10 via a network.

図2(b)に示すように、情報処理システム100がディスプレイ310の代わりにプロジェクタ5を有していてもよい。この場合、情報処理システム100は、動作検出装置10、プロジェクタ5、及び情報処理装置30を有する。プロジェクタ5は、LCD(透過型液晶)方式、LCOS(反射型液晶)方式、又はDLP(Digital Light Processing)方式などで画像をスクリーンなどの投影面6に投影する表示装置である。 As shown in FIG. 2B, the information processing system 100 may have a projector 5 instead of the display 310. In this case, the information processing system 100 includes a motion detection device 10, a projector 5, and an information processing device 30. The projector 5 is a display device that projects an image onto a projection surface 6 such as a screen by an LCD (transmissive liquid crystal) method, an LCOS (reflection type liquid crystal) method, a DLP (Digital Light Processing) method, or the like.

プロジェクタ5と情報処理装置30は、ディスプレイ310と情報処理装置30間の接続態様と同様に接続されている。プロジェクタ5は、いわゆる極単焦点から投影できることが好ましい。これにより、ユーザUが動作するスペースを確保しやすくなる。動作検出装置10は、プロジェクタ5よりもユーザU側にあってもよいし、スクリーン側にあってもよい。スクリーン側にある場合はスクリーンの下辺、上辺、左辺又は右辺に固定されてよい。また、ユーザU側にある場合は用意された台の上に設置される。また、動作検出装置10がディスプレイ310の右端に設置されているのは一例であって、左端に設置されてもよい。右端又は左端に設置されるのは、プロジェクタ5の廃棄熱を避けるためである。廃棄熱を無視できる場合は、ディスプレイ310の中央に設置されてもよい。 The projector 5 and the information processing device 30 are connected in the same manner as in the connection mode between the display 310 and the information processing device 30. It is preferable that the projector 5 can project from a so-called polar single focus. This makes it easier to secure a space for the user U to operate. The motion detection device 10 may be on the user U side or the screen side of the projector 5. When it is on the screen side, it may be fixed to the lower side, the upper side, the left side or the right side of the screen. If it is on the user U side, it is installed on a prepared table. Further, the motion detection device 10 is installed at the right end of the display 310 as an example, and may be installed at the left end. The reason why it is installed at the right end or the left end is to avoid waste heat of the projector 5. If the waste heat can be ignored, it may be installed in the center of the display 310.

なお、ディスプレイ310とプロジェクタ5を併用してもよい。この場合、例えばプロジェクタ5が床に向けて矢印などを投影することで、ユーザを操作位置52に誘導することができる。また、矢印を表示して進行方向を指示すること等ができる(例えば、エレベータはあちら、操作位置52はあちら等)。 The display 310 and the projector 5 may be used together. In this case, for example, the projector 5 can guide the user to the operation position 52 by projecting an arrow or the like toward the floor. In addition, an arrow can be displayed to indicate the direction of travel (for example, the elevator is over there, the operation position 52 is over there, etc.).

<ハードウェア構成について>
<<情報処理装置30のハードウェア構成>>
図3は情報処理装置30のハードウェア構成図の一例である。情報処理装置30は、CPU301、ROM302、RAM303及び補助記憶装置304を備える。更に、私的使用サーバは、入力部305、表示制御部306、ネットワークI/F307及び外部機器I/F308を備える。なお、情報処理装置30の各部は、バスBを介して相互に接続されている。
<About hardware configuration>
<< Hardware configuration of information processing device 30 >>
FIG. 3 is an example of a hardware configuration diagram of the information processing device 30. The information processing device 30 includes a CPU 301, a ROM 302, a RAM 303, and an auxiliary storage device 304. Further, the private use server includes an input unit 305, a display control unit 306, a network I / F 307, and an external device I / F 308. Each part of the information processing apparatus 30 is connected to each other via the bus B.

CPU301は、補助記憶装置304に格納された各種プログラム、OS等を実行する。ROM302は不揮発性メモリ16である。ROM302は、補助記憶装置304に格納された各種プログラムを、CPU301が実行するために必要なプログラム、データ等を格納する。 The CPU 301 executes various programs, an OS, etc. stored in the auxiliary storage device 304. The ROM 302 is a non-volatile memory 16. The ROM 302 stores programs, data, and the like necessary for the CPU 301 to execute various programs stored in the auxiliary storage device 304.

RAM303は、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等の主記憶装置である。CPU301によって実行される際に補助記憶装置304に格納された各種プログラムがRAM303に展開され、RAM303はCPU301の作業領域となる。 The RAM 303 is a main storage device such as a DRAM (Dynamic Random Access Memory) or a SRAM (Static Random Access Memory). Various programs stored in the auxiliary storage device 304 when executed by the CPU 301 are expanded in the RAM 303, and the RAM 303 becomes a work area of the CPU 301.

補助記憶装置304は、CPU301により実行される各種プログラム及び各種プログラムがCPU301により実行される際に利用される各種データベースを記憶する。補助記憶装置304は例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)などの不揮発性メモリである。 The auxiliary storage device 304 stores various programs executed by the CPU 301 and various databases used when the various programs are executed by the CPU 301. The auxiliary storage device 304 is, for example, a non-volatile memory such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive).

入力部305は、オペレータが情報処理装置30に各種指示を入力するためのインタフェースである。例えば、キーボード、マウス、タッチパネル、音声入力装置などであるが、本実施形態では接続さてなくてよい。 The input unit 305 is an interface for the operator to input various instructions to the information processing device 30. For example, a keyboard, a mouse, a touch panel, a voice input device, and the like may not be connected in the present embodiment.

表示制御部306は、CPU301からの要求により、情報処理装置30が有する各種情報をカーソル3、メニュー、ウィンドウ、文字、又は画像などの形態でディスプレイ310に表示する。表示制御部306は、例えばグラフィックチップやディスプレイ310I/Fである。 At the request of the CPU 301, the display control unit 306 displays various information contained in the information processing device 30 on the display 310 in the form of a cursor 3, a menu, a window, characters, an image, or the like. The display control unit 306 is, for example, a graphic chip or a display 310 I / F.

ネットワークI/F307は、ネットワークを介して、他の機器と通信を行う通信装置である。ネットワークI/F307は例えばイーサネット(登録商標)カードであるがこれに限られない。 The network I / F 307 is a communication device that communicates with other devices via a network. The network I / F 307 is, for example, an Ethernet (registered trademark) card, but is not limited thereto.

外部機器I/F308は、USBケーブル、又は、USBメモリ等の各種の記憶媒体320などを接続するためのインタフェースである。本実施形態では動作検出装置10が接続される。 The external device I / F 308 is an interface for connecting a USB cable, various storage media 320 such as a USB memory, and the like. In this embodiment, the motion detection device 10 is connected.

なお、情報処理装置30は、いわゆるクラウドコンピューティングに対応していることが好ましく、情報処理装置30は、1つの筐体に収納されていたりひとまとまりの装置として備えられていたりする必要はない。この場合、情報処理装置30の構成は、負荷に応じてハード的なリソースが動的に接続・切断されることで構成される。 The information processing device 30 preferably supports so-called cloud computing, and the information processing device 30 does not need to be housed in one housing or provided as a group of devices. In this case, the configuration of the information processing device 30 is configured by dynamically connecting and disconnecting hardware resources according to the load.

<<動作検出装置10のハードウェア構成>>
図4は、動作検出装置10のハードウェア構成図の一例である。動作検出装置10は、CPU11、カラーカメラ12、赤外線カメラ13、赤外線プロジェクタ14、主記憶装置15、不揮発性メモリ16、マイク17、加速度センサ18、及びLED19を有する。CPUは不揮発性メモリ16に記憶されたファームウェアを主記憶装置15に展開して実行することで、動作検出装置10の全体を制御する。主記憶装置15は例えばDRAMなどの高速な揮発性メモリであり、不揮発性メモリ16はフラッシュメモリなどである。
<< Hardware configuration of motion detection device 10 >>
FIG. 4 is an example of a hardware configuration diagram of the motion detection device 10. The motion detection device 10 includes a CPU 11, a color camera 12, an infrared camera 13, an infrared projector 14, a main storage device 15, a non-volatile memory 16, a microphone 17, an acceleration sensor 18, and an LED 19. The CPU controls the entire motion detection device 10 by expanding the firmware stored in the non-volatile memory 16 to the main storage device 15 and executing the firmware. The main storage device 15 is a high-speed volatile memory such as a DRAM, and the non-volatile memory 16 is a flash memory or the like.

カラーカメラ12は一例として1920×1080の解像度でカラー画像を撮像する撮像装置である。すなわち、画素毎にR・G・Bの濃度情報が得られている。赤外線カメラ13と赤外線プロジェクタ14はこれらで1つのデプスセンサ(距離センサ)として機能する。赤外線プロジェクタ14はパルス変調された赤外線を投光し、赤外線カメラ13が投光した赤外線を撮像する。デプスセンサは、赤外線を投光してから反射して戻ってくる時間を測定し、投光された赤外線ごとに距離情報を得る。なお、距離情報の解像度は512×424であるがあくまで一例である。 As an example, the color camera 12 is an imaging device that captures a color image at a resolution of 1920 × 1080. That is, the density information of R, G, and B is obtained for each pixel. The infrared camera 13 and the infrared projector 14 function as one depth sensor (distance sensor). The infrared projector 14 projects pulse-modulated infrared rays, and the infrared camera 13 captures the infrared rays projected. The depth sensor measures the time it takes for infrared rays to be projected and then reflected and returned, and obtains distance information for each of the projected infrared rays. The resolution of the distance information is 512 × 424, but this is just an example.

また、デプスセンサが距離を測定する原理は一例に過ぎず、投光した赤外線パターンを赤外線カメラ13で撮像し、パターンのゆがみから距離情報を取得してもよい。 Further, the principle that the depth sensor measures the distance is only an example, and the projected infrared pattern may be imaged by the infrared camera 13 and the distance information may be acquired from the distortion of the pattern.

マイク17は周囲の音声を検出する装置であり、CPU11は複数のマイク17が検出する音声の位相を比較して音源の方向を推定する。加速度センサ18は動作検出装置10の水平に対する傾きを検出するセンサである。LED19は動作検出装置10の状態を色や点滅などで表示する。 The microphone 17 is a device that detects surrounding sounds, and the CPU 11 estimates the direction of the sound source by comparing the phases of the sounds detected by the plurality of microphones 17. The acceleration sensor 18 is a sensor that detects the inclination of the motion detection device 10 with respect to the horizontal. The LED 19 displays the state of the motion detection device 10 by color, blinking, or the like.

<動作検出装置10が取得する情報>
続いて、動作検出装置10が取得する情報について説明する。動作検出装置10が取得する情報であれば情報処理装置30が利用することができる。ただし、以下で説明する全ての情報を使用する必要はない。以下で説明される、動作検出装置10が取得する情報を「センサ情報」という。
<Information acquired by the motion detection device 10>
Subsequently, the information acquired by the motion detection device 10 will be described. The information processing device 30 can use any information acquired by the motion detection device 10. However, it is not necessary to use all the information described below. The information acquired by the motion detection device 10 described below is referred to as "sensor information".

1.カラー画像
画素毎にR・G・Bの濃度情報が含まれる画像データである。動作検出装置10の赤外線カメラ13は所定のフレームレート(例えば30fps)でカラー画像を撮像する。
1. 1. Color image This is image data including R, G, and B density information for each pixel. The infrared camera 13 of the motion detection device 10 captures a color image at a predetermined frame rate (for example, 30 fps).

2.距離画像
上記のように512×424の解像度で距離情報が得られた画像データである。動作検出装置10のデプスセンサは所定のフレームレート(例えば30fps)で距離画像を撮像する。したがって、所定の解像度でユーザUを含む対象までの距離が得られる。
2. 2. Distance image This is image data obtained with distance information at a resolution of 512 × 424 as described above. The depth sensor of the motion detection device 10 captures a distance image at a predetermined frame rate (for example, 30 fps). Therefore, the distance to the target including the user U can be obtained at a predetermined resolution.

3.赤外線画像
赤外線カメラ13で撮像されたグレイスケールの画像である。赤外線プロジェクタ14から投影されたパルスを撮像することができる。また、赤外線を発する人(ユーザU)を検出できる。
3. 3. Infrared image This is a grayscale image captured by the infrared camera 13. The pulse projected from the infrared projector 14 can be imaged. In addition, a person (user U) who emits infrared rays can be detected.

4.人物の形状データ
動作検出装置10は、距離画像から人物領域のみを抽出して人物の形状データを作成できる。例えば、赤外線画像から人の撮像領域を特定したり、フレームに応じて距離が変化する領域を人の撮像領域として特定する。距離画像からこの撮像領域を抽出したものが人物の形状データである。したがって、情報処理装置30はユーザUがいる画素領域が分かる。また、動作検出装置10は、複数のユーザUが検出された場合、ユーザUと画素領域とを対応付けて検出する。情報処理装置30はカラー画像から人物領域のみを切り出すこともできる。
4. The person shape data motion detection device 10 can create the person shape data by extracting only the person area from the distance image. For example, a human imaging region is specified from an infrared image, or a region whose distance changes according to a frame is specified as a human imaging region. The shape data of a person is obtained by extracting this imaging region from a distance image. Therefore, the information processing device 30 knows the pixel region in which the user U is located. Further, when a plurality of users U are detected, the motion detection device 10 detects the user U in association with the pixel area. The information processing device 30 can also cut out only a person area from a color image.

5.骨格情報
関節の座標情報である。ボーン情報やスケルトン情報と呼ばれる場合がある。図5に三次元座標が得られる関節を示す。なお、図5ではユーザの関節を正面から見た図である。図5の符号と関節の名称を説明する。また、図5では左半分の関節は右側と同じなので符号が省略されている。
a…頭関節、b…首関節、c…肩中央関節、d…右肩関節、e…右肘関節、f…右手首関節、g…右手関節、h…右手先関節、i…右手親指関節、j…背骨関節、k…腰中央関節、l…右腰関節、m…右膝関節、n…右かかと関節、o…右足関節
なお、動作検出装置10は各関節の空間中の三次元座標(X,Y,Z)だけでなく、カラー画像上(ディスプレイ310上)の関節の座標(x,y)を提供する。ユーザUがいる画素領域が明らかであるためである。また、「右手先関節」「右手親指関節」「左手先関節」「左手親指関節」の三次元座標が分かるので、動作検出装置10はユーザUが手のひらを開いているか閉じているかを判断できる。
5. Skeleton information Coordinate information of joints. Sometimes called bone information or skeleton information. FIG. 5 shows a joint from which three-dimensional coordinates can be obtained. Note that FIG. 5 is a front view of the user's joint. The reference numerals and joint names in FIG. 5 will be described. Further, in FIG. 5, since the joint on the left half is the same as that on the right side, the reference numerals are omitted.
a ... head joint, b ... neck joint, c ... shoulder center joint, d ... right shoulder joint, e ... right elbow joint, f ... right wrist joint, g ... right wrist joint, h ... right wrist joint, i ... right thumb joint , J ... spine joint, k ... lumbar central joint, l ... right lumbar joint, m ... right knee joint, n ... right heel joint, o ... right ankle joint The motion detection device 10 is a three-dimensional coordinate of each joint in space. Not only (X, Y, Z), but also joint coordinates (x, y) on a color image (on display 310) are provided. This is because the pixel region in which the user U is located is clear. Further, since the three-dimensional coordinates of the "right hand joint", "right thumb joint", "left hand joint", and "left thumb joint" are known, the motion detection device 10 can determine whether the user U has the palm open or closed.

6.表情
顔の認識に基づくユーザUの表情である。動作検出装置10は普通、笑っている、驚いている、左・右の目を閉じているか開いているか、口が開いているか閉じているか、画面から目を離しているか、メガネをかけているか、などを認識できる。
6. Facial expression This is the facial expression of the user U based on the recognition of the face. The motion detector 10 is usually laughing, surprised, with left / right eyes closed or open, mouth open or closed, looking away from the screen, wearing glasses , Etc. can be recognized.

7.顔向き
顔の向きである。動作検出装置10はヨー角、ピッチ角、ロール角を検出できる。
7. Face orientation The orientation of the face. The motion detection device 10 can detect the yaw angle, the pitch angle, and the roll angle.

8.心拍数
推定されたユーザUの心拍数である。カラー画像と赤外線画像で肌を推定し、血液の流れによる肌部分の微妙な変化から推定される。
8. Heart rate The estimated heart rate of user U. The skin is estimated from color images and infrared images, and it is estimated from subtle changes in the skin due to blood flow.

<情報処理装置30の機能について>
まず、図6を用いてアプリケーションソフト120とジェスチャー操作受付プログラム110の関係を説明する。アプリケーションソフト120とジェスチャー操作受付プログラム110は共にOS130上で動作する。アプリケーションソフト120は位置情報やイベントで操作可能なものであればよい。例えば、広告を表示するアプリケーションソフト120、プレゼンテーションなどのためのアプリケーションソフト120等がある。しかしこれらに限られず、例えば、ブラウザ、ワードプロセッサ、ゲームなどが含まれてよい。
<About the function of the information processing device 30>
First, the relationship between the application software 120 and the gesture operation reception program 110 will be described with reference to FIG. Both the application software 120 and the gesture operation reception program 110 operate on the OS 130. The application software 120 may be any one that can be operated by location information or an event. For example, there are application software 120 for displaying advertisements, application software 120 for presentations, and the like. However, it is not limited to these, and may include, for example, a browser, a word processor, a game, and the like.

動作検出装置10のデバイスドライバ140が情報処理装置30にインストールされている。デバイスドライバ140は動作検出装置10が検出する信号をセンサ情報に加工するソフトウェアである。デバイスドライバ140はSDK(Software Development Kit)と呼ばれる場合がある。デバイスドライバ140が作成したセンサ情報を、任意のアプリケーションソフト120がOS130のAPI(Application Interface)を介して取得できる。本実施形態ではジェスチャー操作受付プログラム110がこのAPIを利用して処理に使用するセンサ情報を取得する。 The device driver 140 of the motion detection device 10 is installed in the information processing device 30. The device driver 140 is software that processes a signal detected by the motion detection device 10 into sensor information. The device driver 140 may be called an SDK (Software Development Kit). Any application software 120 can acquire the sensor information created by the device driver 140 via the API (Application Interface) of the OS 130. In the present embodiment, the gesture operation reception program 110 uses this API to acquire sensor information used for processing.

ジェスチャー操作受付プログラム110は、動作検出装置10からセンサ情報を取得して種々の処理を行い、ジェスチャー操作受付プログラム110自身を制御すると共に、アプリケーションソフト120に操作のためのカーソル3の位置とイベントを送信する。アプリケーションソフト120はマウスやタッチパネルなどのポインティングデバイスが操作されることで入力されるカーソル3の位置とイベントを検出する機能を備えている。一般に、OS130はポインティングデバイスの位置とイベントを検出してアプリケーションソフト120に提供している。本実施形態では汎用的なポインティングデバイスが使用されないので(情報処理装置30に接続されていない)、ジェスチャー操作受付プログラム110がカーソル3の位置とイベントをアプリケーションソフト120に提供する。なお、ジェスチャー操作受付プログラム110は複数のアプリケーションソフト120にカーソル3の位置とイベントを提供できる。 The gesture operation reception program 110 acquires sensor information from the motion detection device 10 and performs various processes, controls the gesture operation reception program 110 itself, and outputs the position and event of the cursor 3 for operation to the application software 120. Send. The application software 120 has a function of detecting the position and event of the cursor 3 input by operating a pointing device such as a mouse or a touch panel. Generally, the OS 130 detects the position and event of the pointing device and provides it to the application software 120. Since a general-purpose pointing device is not used in this embodiment (not connected to the information processing device 30), the gesture operation reception program 110 provides the position and event of the cursor 3 to the application software 120. The gesture operation reception program 110 can provide the position and event of the cursor 3 to the plurality of application software 120.

提供方法はOS130やアプリケーションソフト120の仕様に従えばよい。例えば、OS130が提供するアプリケーションソフト120とジェスチャー操作受付プログラム110とのプロセス間通信を利用してもよいし、ジェスチャー操作受付プログラム110がOS130に対しカーソル3の位置とイベントを通知しそれをアプリケーションソフト120が取得するような方法でもよい。このような仕組みにより、アプリケーションソフト120がジェスチャー操作受付プログラム110からカーソル3の位置とイベントを取得するための変更は不要であり、ジェスチャー操作受付プログラム110は汎用的なアプリケーションソフト120と共に利用されることができる。 The provision method may follow the specifications of the OS 130 and the application software 120. For example, interprocess communication between the application software 120 provided by the OS 130 and the gesture operation reception program 110 may be used, or the gesture operation reception program 110 notifies the OS 130 of the position and event of the cursor 3 and notifies the application software. It may be the method that 120 acquires. With such a mechanism, the application software 120 does not need to be changed to acquire the position and event of the cursor 3 from the gesture operation reception program 110, and the gesture operation reception program 110 is used together with the general-purpose application software 120. Can be done.

なお、ジェスチャー操作受付プログラム110はアプリケーションソフトの1つであるが、デバイスドライバとして実装されてもよい。 Although the gesture operation reception program 110 is one of the application software, it may be implemented as a device driver.

<<ジェスチャー操作受付プログラム110の機能>>
図7は、ジェスチャー操作受付プログラム110の機能がブロック状に示された機能ブロック図の一例である。ジェスチャー操作受付プログラム110は、情報取得部31、人検出部32、操作開始検出部33、操作エリア作成部34、座標変換部35、UI制御部36、速さ検出部37、イベント判断部38、情報記録部43、及び、出力部39を有する。これら各部は、図3に示された各構成要素のいずれかが、補助記憶装置304からRAM303に展開されたプログラム304pに従ったCPU301からの命令により動作することで実現される機能又は手段である。なお、プログラム304pには、OS130、デバイスドライバ140、アプリケーションソフト120、及び、ジェスチャー操作受付プログラム110が含まれている。
<< Functions of Gesture Operation Reception Program 110 >>
FIG. 7 is an example of a functional block diagram in which the functions of the gesture operation reception program 110 are shown in a block shape. The gesture operation reception program 110 includes an information acquisition unit 31, a person detection unit 32, an operation start detection unit 33, an operation area creation unit 34, a coordinate conversion unit 35, a UI control unit 36, a speed detection unit 37, and an event determination unit 38. It has an information recording unit 43 and an output unit 39. Each of these parts is a function or means realized by operating any of the components shown in FIG. 3 by an instruction from the CPU 301 according to the program 304p expanded from the auxiliary storage device 304 to the RAM 303. .. The program 304p includes an OS 130, a device driver 140, application software 120, and a gesture operation reception program 110.

また、情報処理装置30はセンサ情報DB44(データベース)を有しており、情報記録部43はこのセンサ情報DB44にセンサ情報を記録する。センサ情報DB44は、図3に示された補助記憶装置304やRAM303に構築されている。 Further, the information processing device 30 has a sensor information DB 44 (database), and the information recording unit 43 records the sensor information in the sensor information DB 44. The sensor information DB 44 is built in the auxiliary storage device 304 and the RAM 303 shown in FIG.

情報取得部31は、図3に示されたCPU301がジェスチャー操作受付プログラム110を実行すること等により実現され、デバイスドライバ140からセンサ情報を取得する。動作検出装置10は周期的に動作を検出しているため、情報取得部31は周期的に繰り返しセンサ情報を取得する。なお、全てのセンサ情報を取得する必要はなく、処理に使用するセンサ情報のみを取得すればよい。本実施形態では以下のような情報が使用される。
・ 右肩関節d、右手首関節f、右手関節g、右手先関節h、右手親指関節iの三次元座標が使用される。なお、ユーザは右手でも左手でも操作できるので、左肩関節、左手首関節、左手関節、左手先関節、左手親指関節の三次元座標も使用される。
・ユーザUごとの三次元座標(主に人アイコン82を表示するために使用される)
・顔の向き(人アイコン82の目を表示するために使用される)
人検出部32は、図3に示されたCPU301がジェスチャー操作受付プログラム110を実行すること等により実現され、情報取得部31が取得したセンサ情報に基づき動作検出装置10が人を検出したことを検出する。動作検出装置10が人を検出したことやその人数により人が検出されたことを検出してもよいし、動作検出装置10が人を検出すると人物形状データや骨格情報が得られることを利用して人が検出されたことを検出してもよい。なお、人の検出範囲51は動作検出装置10の仕様により決まっている。例えば、水平方向の角度は70度、距離は0.5〜4.5mの範囲である。動作検出装置10の仕様よりも狭い範囲でのみ人を検出してもよいし、動作検出装置10の仕様が変われば人を検出する範囲も変更されうる。また、同時に検出できる人の数は6人であるが、動作検出装置10の仕様が変わればこれも変更されうる。
The information acquisition unit 31 is realized by the CPU 301 shown in FIG. 3 executing the gesture operation reception program 110 or the like, and acquires sensor information from the device driver 140. Since the motion detection device 10 periodically detects the motion, the information acquisition unit 31 periodically and repeatedly acquires the sensor information. It is not necessary to acquire all the sensor information, but only the sensor information used for processing needs to be acquired. The following information is used in this embodiment.
-Three-dimensional coordinates of the right shoulder joint d, the right wrist joint f, the right wrist joint g, the right wrist joint h, and the right thumb joint i are used. Since the user can operate with either the right hand or the left hand, the three-dimensional coordinates of the left shoulder joint, the left wrist joint, the left wrist joint, the left wrist joint, and the left thumb joint are also used.
-Three-dimensional coordinates for each user U (mainly used to display the person icon 82)
-Face orientation (used to display the eyes of the person icon 82)
The person detection unit 32 is realized by the CPU 301 shown in FIG. 3 executing the gesture operation reception program 110 or the like, and the motion detection device 10 detects a person based on the sensor information acquired by the information acquisition unit 31. To detect. It may be possible to detect that the motion detection device 10 has detected a person or that a person has been detected by the number of people, or that when the motion detection device 10 detects a person, the person shape data or the skeleton information can be obtained. It may be detected that a person has been detected. The human detection range 51 is determined by the specifications of the motion detection device 10. For example, the horizontal angle is 70 degrees and the distance is in the range of 0.5 to 4.5 m. A person may be detected only in a range narrower than the specifications of the motion detection device 10, and the range for detecting a person may be changed if the specifications of the motion detection device 10 are changed. Further, the number of people that can be detected at the same time is 6, but this can also be changed if the specifications of the motion detection device 10 change.

操作開始検出部33は、図3に示されたCPU301がジェスチャー操作受付プログラム110を実行すること等により実現され、情報取得部31が取得したセンサ情報に基づきユーザUがアプリケーションソフト120を操作する意志を示したことを検出する。本実施形態では、ユーザUが「操作位置52に存在し+手を挙げること」により操作する意志を検出する。詳細は後述される。また、操作開始検出部33はセンサ情報に基づきユーザUがアプリケーションソフト120の操作を終了する意志を示したことを検出する。本実施形態では、ユーザUが「操作位置52から離れること」又は「手を下げること」により、操作を終了する意志を検出する。 The operation start detection unit 33 is realized by the CPU 301 shown in FIG. 3 executing the gesture operation reception program 110, and the user U intends to operate the application software 120 based on the sensor information acquired by the information acquisition unit 31. Is detected. In the present embodiment, the user U detects the intention to operate by "existing at the operation position 52 + raising the hand". Details will be described later. Further, the operation start detection unit 33 detects that the user U has indicated the intention to end the operation of the application software 120 based on the sensor information. In the present embodiment, the user U detects the intention to end the operation by "leaving from the operation position 52" or "lowering the hand".

操作エリア作成部34は、図3に示されたCPU301がジェスチャー操作受付プログラム110を実行すること等により実現され、操作開始検出部33が操作の意志を検出すると、ユーザUが操作を行うための操作エリア54を作成する。操作エリア54とはユーザUが情報処理装置30を操作できる三次元空間上の範囲(領域)である。ユーザUの右手関節gや右手首関節f等が操作エリア54に入っていると、右手関節gや右手首関節fの三次元座標がカーソル3の位置に反映されたり、ジェスチャーが検出される。 The operation area creation unit 34 is realized by the CPU 301 shown in FIG. 3 executing the gesture operation reception program 110, and when the operation start detection unit 33 detects the intention of the operation, the user U performs the operation. The operation area 54 is created. The operation area 54 is a range (area) on the three-dimensional space in which the user U can operate the information processing device 30. When the right wrist joint g, the right wrist joint f, and the like of the user U are in the operation area 54, the three-dimensional coordinates of the right wrist joint g and the right wrist joint f are reflected at the position of the cursor 3, and a gesture is detected.

座標変換部35は、図3に示されたCPU301がジェスチャー操作受付プログラム110を実行すること等により実現され、情報取得部31が取得したセンサ情報に基づき操作エリア54におけるユーザUの右手関節gや右手首関節fの三次元座標をカーソル3の位置に変換する。 The coordinate conversion unit 35 is realized by the CPU 301 shown in FIG. 3 executing the gesture operation reception program 110, and the right wrist joint g of the user U in the operation area 54 based on the sensor information acquired by the information acquisition unit 31. The three-dimensional coordinates of the right wrist joint f are converted to the position of the cursor 3.

速さ検出部37は、図3に示されたCPU301がジェスチャー操作受付プログラム110を実行すること等により実現され、情報取得部31が取得したセンサ情報に基づき操作エリア54におけるユーザUの右手関節gや右手首関節fの速さを検出する。右手関節gや右手首関節fはどちらの速さを検出してもよいが、ユーザUは肘を中心に操作するので手先に近い関節の方が早くカーソル3を移動させることができる。逆に、手先から遠い関節の方が微小な移動量を制御しやすい。 The speed detection unit 37 is realized by the CPU 301 shown in FIG. 3 executing the gesture operation reception program 110, and the right wrist joint g of the user U in the operation area 54 based on the sensor information acquired by the information acquisition unit 31. And the speed of the right wrist joint f is detected. Either the speed of the right wrist joint g or the right wrist joint f may be detected, but since the user U operates the elbow as the center, the joint closer to the hand can move the cursor 3 faster. On the contrary, the joint far from the hand is easier to control the minute movement amount.

イベント判断部38は、図3に示されたCPU301がジェスチャー操作受付プログラム110を実行すること等により実現され、情報取得部31が取得したセンサ情報に基づき、ユーザUがイベントを発生させたかどうかを判断する。イベントは上記のように左クリック、右クリック、ダブルクリック、マウスオーバー、マウスダウン、マウスアップなどであるが、これらイベントに対応する一般的なジェスチャーは定められていない。このため、イベント判断部38はユーザUの動きをジェスチャーとして予めイベントに対応付けておき、ユーザUが予め定められたジェスチャーを行うと、対応付けられているイベントが発生したと判断する。例えば、ユーザUが操作エリア54で手を握るジェスチャーを行うと、イベント判断部38は左クリックであると判断する。 The event determination unit 38 is realized by the CPU 301 shown in FIG. 3 executing the gesture operation reception program 110 or the like, and determines whether or not the user U has generated an event based on the sensor information acquired by the information acquisition unit 31. to decide. Events are left-click, right-click, double-click, mouse over, mouse down, mouse up, etc. as described above, but general gestures corresponding to these events are not defined. Therefore, the event determination unit 38 associates the movement of the user U with the event as a gesture in advance, and when the user U performs a predetermined gesture, it determines that the associated event has occurred. For example, when the user U makes a gesture of holding a hand in the operation area 54, the event determination unit 38 determines that it is a left click.

情報記録部43は、図3に示されたCPU301がジェスチャー操作受付プログラム110を実行すること等により実現され、センサ情報をユーザごとに時系列にセンサ情報DB44に記憶しておく。上記のように動作検出装置10はユーザの位置とユーザの表情や顔向きを検出しているため、ディスプレイ310のどの辺り見ているかを推定できる程度にユーザがディスプレイ310を見ているかどうかを記録できる。また、情報記録部43はアプリケーションソフト120から、ディスプレイ310に表示されているコンテンツのスクリーンショットを取得する。センサ情報を記録するタイミングとスクリーンショットを取得するタイミングをほぼ同じにすることで、ユーザが興味を持っているコンテンツをコンテンツの提供者などが特定しやすくなる。 The information recording unit 43 is realized by the CPU 301 shown in FIG. 3 executing the gesture operation reception program 110 or the like, and stores the sensor information in the sensor information DB 44 in chronological order for each user. Since the motion detection device 10 detects the position of the user and the facial expression and face orientation of the user as described above, it records whether or not the user is looking at the display 310 to the extent that it can be estimated where the user is looking at the display 310. it can. In addition, the information recording unit 43 acquires a screenshot of the content displayed on the display 310 from the application software 120. By making the timing of recording the sensor information and the timing of taking the screenshot almost the same, it becomes easier for the content provider and the like to identify the content that the user is interested in.

出力部39は、図3に示されたCPU301がジェスチャー操作受付プログラム110を実行すること等により実現され、座標変換部35が変換したカーソル3の位置と、イベント判断部38が判断したイベントを取得してアプリケーションソフト120に出力する。なお、出力部39は、アプリケーションソフト120の状況を取得する機能も有する。例えば、アプリケーションソフト120が全画面に動画を表示している場合、ユーザが操作する必要がないので、情報取得部31はセンサ情報を取得しない。また、出力部39は、現在、ユーザが操作中である場合はアプリケーションソフト120へその旨を通知する。これにより、アプリケーションソフト120はユーザの操作中に全画面の動画表示に移行しないので、ユーザが急に操作できなくなることを防止できる。 The output unit 39 is realized by the CPU 301 shown in FIG. 3 executing the gesture operation reception program 110 or the like, and acquires the position of the cursor 3 converted by the coordinate conversion unit 35 and the event determined by the event determination unit 38. And output to the application software 120. The output unit 39 also has a function of acquiring the status of the application software 120. For example, when the application software 120 displays a moving image on the full screen, the information acquisition unit 31 does not acquire the sensor information because the user does not need to operate it. In addition, the output unit 39 notifies the application software 120 when the user is currently operating. As a result, the application software 120 does not shift to the full-screen moving image display during the user's operation, so that it is possible to prevent the user from suddenly becoming unable to operate.

UI制御部36は、図3に示されたCPU301がジェスチャー操作受付プログラム110を実行すること等により実現される。UI制御部36は更にカーソル表示部41とアイコン表示部42を有する。カーソル表示部41は、OS130の機能を利用してカーソル3を表示したり、通常のカーソル3の代わりにガイドメッシュ4を表示したりする。また、アイコン表示部42は、ディスプレイ310に操作受付支援アイコン81を表示する。アイコン表示部42は、ユーザUの状態に応じて操作受付支援アイコン81の表示態様を変更する。操作受付支援アイコン81は、ユーザUがジェスチャーによりアプリケーションソフト120を操作しやすくなるように支援するユーザインタフェースとして機能する。例えば、動作検出装置10がユーザの全ての骨格情報を取得できるようにユーザを操作位置52に誘導する。また、操作権を持っているユーザが誰なのかを明示する(複数の人アイコン82が表示されていても手を上げている人アイコン82が操作権を有する)。操作権とは、アプリケーションソフト120を操作する権利であり、同時には一人にのみ認められる。 The UI control unit 36 is realized by the CPU 301 shown in FIG. 3 executing the gesture operation reception program 110 or the like. The UI control unit 36 further includes a cursor display unit 41 and an icon display unit 42. The cursor display unit 41 displays the cursor 3 by using the function of the OS 130, or displays the guide mesh 4 instead of the normal cursor 3. Further, the icon display unit 42 displays the operation reception support icon 81 on the display 310. The icon display unit 42 changes the display mode of the operation reception support icon 81 according to the state of the user U. The operation reception support icon 81 functions as a user interface that assists the user U to easily operate the application software 120 by gestures. For example, the motion detection device 10 guides the user to the operation position 52 so that all the skeleton information of the user can be acquired. In addition, it is clearly indicated who the user has the operation right (even if a plurality of person icons 82 are displayed, the person icon 82 raising the hand has the operation right). The operation right is the right to operate the application software 120, and is granted to only one person at the same time.

<人の検出範囲51と操作位置52>
図8を用いて人の検出範囲51と操作位置52を説明する。図8は、動作検出装置10に対する人の検出範囲51と操作位置52を説明する図の一例である。上記のように、動作検出装置10は所定の水平角度の範囲(例えば70度)で所定の距離内(例えば0.5〜4.5m)の人を検出する。当然ながら、操作位置52は人の検出範囲51内である。
<Human detection range 51 and operation position 52>
The human detection range 51 and the operation position 52 will be described with reference to FIG. FIG. 8 is an example of a diagram illustrating a person detection range 51 and an operation position 52 with respect to the motion detection device 10. As described above, the motion detection device 10 detects a person within a predetermined distance (for example, 0.5 to 4.5 m) within a range of a predetermined horizontal angle (for example, 70 degrees). As a matter of course, the operation position 52 is within the human detection range 51.

操作位置52は、例えば人の検出範囲51の中央付近であるが、人の検出範囲51の内側であればどこでもよい。あえて操作位置52を決定するのは、人の検出範囲51を通過する任意のユーザUが手を挙げる動作をしてアプリケーションソフト120を操作できないようにするためでる。また、操作位置52があまり広いと操作権を取得できるユーザUの数が多くなり、自分が操作できるかどうかの判断が困難になるためである。また、操作位置52が決まっていることで、ユーザUは操作位置52に移動することでアプリケーションソフト120を操作できることを把握できる。なお、実際の操作位置52は他の場所と違う色で明示されていたり、「ここで操作してください」などの文字が表示されていることが好ましい。 The operation position 52 is, for example, near the center of the human detection range 51, but may be anywhere inside the human detection range 51. The reason why the operation position 52 is intentionally determined is to prevent any user U who passes through the human detection range 51 from operating the application software 120 by raising his / her hand. Further, if the operation position 52 is too wide, the number of users U who can acquire the operation right increases, and it becomes difficult to determine whether or not the user U can operate the operation position 52. Further, since the operation position 52 is determined, the user U can grasp that the application software 120 can be operated by moving to the operation position 52. It is preferable that the actual operation position 52 is clearly indicated in a color different from that of other places, or that characters such as "Please operate here" are displayed.

後述するように、ユーザは人アイコン82が操作受付支援アイコン81の操作位置指示表示83に入るように移動する。人アイコン82が操作位置指示表示83に入った時、ユーザは操作位置52に存在する。したがって、ユーザは人アイコン82、操作受付支援アイコン81、及び操作位置指示表示83により操作位置52に誘導される。 As will be described later, the user moves so that the person icon 82 enters the operation position instruction display 83 of the operation reception support icon 81. When the person icon 82 enters the operation position instruction display 83, the user is present at the operation position 52. Therefore, the user is guided to the operation position 52 by the person icon 82, the operation reception support icon 81, and the operation position instruction display 83.

しかしながら、例えば操作中にユーザが操作位置52から外れてしまう場合も想定される。例えば、ディスプレイ310をよく見ようと接近するような場合である。 However, for example, it is assumed that the user deviates from the operation position 52 during the operation. For example, there is a case where the display 310 is approached to look closely.

図9は、検出範囲51を立体的に示す図の一例である。図9(a)では検出範囲51にユーザの骨格情報の全て含まれている。したがって、動作検出装置10は骨格情報の全てを取得してジェスチャー操作受付プログラム110に送出できる。換言すると、ユーザは動作によりデジタルサイネージを操作できる。 FIG. 9 is an example of a diagram showing the detection range 51 in three dimensions. In FIG. 9A, the detection range 51 includes all of the user's skeleton information. Therefore, the motion detection device 10 can acquire all the skeleton information and send it to the gesture operation reception program 110. In other words, the user can operate the digital signage by the operation.

これに対し図9(b)ではユーザの身体の一部が検出範囲51からはみ出ている。動作検出装置10は全ての骨格情報のうち取得できたものだけをジェスチャー操作受付プログラム110に送出する。例えば、ジェスチャー操作受付プログラム110の各機能(操作開始検出部33、操作エリア作成部34、座標変換部35、UI制御部36、速さ検出部37、イベント判断部38)は手の骨格情報を使用するが、センサ情報に含まれていない場合には骨格情報を取得できない。このため、所望の骨格情報が取得されていないことを検出できる。 On the other hand, in FIG. 9B, a part of the user's body protrudes from the detection range 51. The motion detection device 10 sends only the acquired skeleton information to the gesture operation reception program 110. For example, each function of the gesture operation reception program 110 (operation start detection unit 33, operation area creation unit 34, coordinate conversion unit 35, UI control unit 36, speed detection unit 37, event determination unit 38) provides hand skeleton information. Although it is used, skeleton information cannot be acquired if it is not included in the sensor information. Therefore, it can be detected that the desired skeleton information has not been acquired.

このような場合、UI制御部36は、図9(c)に示すようにメッセージ540をディスプレイ310に表示することで、ユーザを操作位置52に移動して貰うことができる。図9(c)では「Please away from the screen」というメッセージ540が表示されている。したがって、UI制御部36は重要な(制御に必要な)骨格情報が欠落するほどユーザの位置がずれてしまった場合、案内を表示してユーザを検出範囲51の中に誘導できる。 In such a case, the UI control unit 36 can move the user to the operation position 52 by displaying the message 540 on the display 310 as shown in FIG. 9C. In FIG. 9C, the message “Please away from the screen” 540 is displayed. Therefore, when the position of the user is displaced to the extent that important (necessary for control) skeletal information is missing, the UI control unit 36 can display a guide and guide the user into the detection range 51.

なお、図9ではユーザがディスプレイ310に接近しすぎた例を示すが、少なくとも関節を含むユーザの身体の一部が検出範囲51からはみ出した場合、ジェスチャー操作受付プログラム110は検出範囲51の中にユーザを誘導できる。 Although FIG. 9 shows an example in which the user is too close to the display 310, when at least a part of the user's body including the joints protrudes from the detection range 51, the gesture operation reception program 110 is within the detection range 51. Can guide the user.

<操作の意志の検出>
図10を用いて操作の意志の検出と操作エリア54について説明する。図10は操作の意志の検出と操作エリア54を説明する図の一例である。図10(a)は、ユーザUが操作位置52で行う初期動作を示している。ユーザUは操作位置52に到達するとまず手を挙げる。この操作を行うべきことは指示されているか既にユーザUが把握している。操作を開始する意志を検出することとしたのは、検出範囲51のユーザUの任意の手の動きから操作を受け付けると、ユーザが意図しない操作がアプリケーションソフト120に送出されてしまうためである。
<Detection of operation intention>
The detection of the intention of operation and the operation area 54 will be described with reference to FIG. FIG. 10 is an example of a diagram for explaining the detection of the intention of operation and the operation area 54. FIG. 10A shows the initial operation performed by the user U at the operation position 52. When the user U reaches the operation position 52, he first raises his hand. User U already knows if he is instructed to perform this operation. The reason for detecting the intention to start the operation is that when the operation is accepted from any hand movement of the user U in the detection range 51, the operation not intended by the user is sent to the application software 120.

操作開始検出部33は頭関節aの高さよりも、右手関節gが高くなると操作を開始する意志を検出する。なお、ユーザUが挙げる手は、右でも左でもよい。操作開始検出部33は右手を優先に検出し、右手を挙げた後に左手を挙げても無視し、左手を挙げた後に右手を挙げても無視する。 The operation start detection unit 33 detects the intention to start the operation when the right wrist joint g is higher than the height of the head joint a. The hand raised by the user U may be right or left. The operation start detection unit 33 preferentially detects the right hand, ignores even if the left hand is raised after raising the right hand, and ignores even if the right hand is raised after raising the left hand.

また、頭関節aの高さよりも、右手関節gが高くなることを操作開始検出部33が操作を開始する意志の検出基準としたのは、ユーザUは一般に頭よりも手を伸ばすことが少ないためである。例えば、携帯電話で通話したり、メガネを触ったりする場合、手は頭よりも低いままである。このため、アプリケーションソフト120を操作する意志のない人の動作により、操作の意志があると誤検出することを抑制しやすくなる。 Further, the reason why the operation start detection unit 33 uses the fact that the right wrist joint g is higher than the height of the head joint a as the detection criterion of the intention to start the operation is that the user U generally does not reach out more than the head. Because. For example, when talking on a cell phone or touching glasses, the hands remain lower than the head. Therefore, it becomes easy to suppress false detection that there is an intention to operate the application software 120 due to the operation of a person who does not have the intention to operate the application software 120.

<操作エリア54>
操作エリア作成部34は、右肩関節dと頭関節aの長さ(以下、Aとする)を用いて操作エリア54を作成する。図10(b)に示すように、長さAを直径として右肩の上に中心がある円53を作成する。そして、図10(c)に示すように、円53の外接矩形を作成する。この外接矩形が操作エリア54である。なお、長さAは30cmくらいであるが、あくまで一例でありユーザUの手が届く程度の長さであればよい。
<Operation area 54>
The operation area creation unit 34 creates the operation area 54 using the lengths of the right shoulder joint d and the head joint a (hereinafter referred to as A). As shown in FIG. 10B, a circle 53 having a center on the right shoulder is created with the length A as the diameter. Then, as shown in FIG. 10C, the circumscribed rectangle of the circle 53 is created. This circumscribing rectangle is the operation area 54. Although the length A is about 30 cm, it is just an example and may be a length that can be reached by the user U.

このように、肩よりも上に中心がある円53から操作エリア54を作成することで、動作検出装置10からユーザUの手を撮像しやすくなる。動作検出装置10が設置される高さにもよるが、動作検出装置10がユーザUの腰の位置程度に設置された場合、手が肩と同じくらいの高さになると動作検出装置10が肩を撮像できない。このため、右肩関節dと頭関節aの長さの誤差が大きくなり(長さAが短くなったり大きくなったりしてしまう)、操作エリア54の形状が安定しなくなる。 By creating the operation area 54 from the circle 53 whose center is above the shoulder in this way, it becomes easier to image the user U's hand from the motion detection device 10. Although it depends on the height at which the motion detection device 10 is installed, when the motion detection device 10 is installed at the position of the waist of the user U, the motion detection device 10 moves to the shoulder when the hand reaches the same height as the shoulder. Cannot be imaged. Therefore, the error between the lengths of the right shoulder joint d and the head joint a becomes large (the length A becomes short or large), and the shape of the operation area 54 becomes unstable.

図11は、操作エリア54を詳細に説明する図の一例である。頭関節aの三次元座標をP1(X1,Y1,Z1)とし、右肩関節dの三次元座標をP2(X2,Y2,Z2)とする。なお、水平方向をX軸、高さ方向をY軸、紙面の垂直方向をZ軸とする。長さAは以下のように算出される。
A=Y1−Y2
また、円53の中心Oの座標は(X2、Y2+A/2)である。したがって、操作エリア作成部34は中心Oを中心として半径A/2の円53を描画すればよい。また、円53を求めなくても、操作エリア54の4つの頂点C1〜C4の座標を以下のように算出できる。なお、Z座標については省略したが、例えばZ1、Z2又はその平均を用いる。
C1=(X2-A/2、Y2+A)
C2=(X2+A/2、Y2+A)
C3=(X2+A/2、Y2)
C4=(X2-A/2、Y2)
このように操作エリア54を作成することで、ユーザUはカーソル3の位置を制御しやすくなる。ユーザUは手を挙げたままなので(下げると操作権を失う)、必然的に肘を基準に動作する。肩の位置はほぼ固定なので、肩の上方に作成された操作エリア54を肘を中心に操作できる。したがって、ユーザUは操作エリア54がどこにあるかを探したりすることなく肘を中心に右手首関節fや右手関節gを動かすとカーソル3を操作できる。
FIG. 11 is an example of a diagram for explaining the operation area 54 in detail. Let P1 (X1, Y1, Z1) be the three-dimensional coordinates of the head joint a, and P2 (X2, Y2, Z2) be the three-dimensional coordinates of the right shoulder joint d. The horizontal direction is the X-axis, the height direction is the Y-axis, and the vertical direction of the paper surface is the Z-axis. The length A is calculated as follows.
A = Y1-Y2
The coordinates of the center O of the circle 53 are (X2, Y2 + A / 2). Therefore, the operation area creation unit 34 may draw a circle 53 having a radius A / 2 centered on the center O. Further, the coordinates of the four vertices C1 to C4 of the operation area 54 can be calculated as follows without obtaining the circle 53. Although the Z coordinate is omitted, for example, Z1, Z2 or their average is used.
C1 = (X2-A / 2, Y2 + A)
C2 = (X2 + A / 2, Y2 + A)
C3 = (X2 + A / 2, Y2)
C4 = (X2-A / 2, Y2)
By creating the operation area 54 in this way, the user U can easily control the position of the cursor 3. Since the user U keeps his hand raised (it loses the operation right when lowered), it inevitably operates with the elbow as a reference. Since the position of the shoulder is almost fixed, the operation area 54 created above the shoulder can be operated around the elbow. Therefore, the user U can operate the cursor 3 by moving the right wrist joint f and the right wrist joint g around the elbow without searching for where the operation area 54 is.

<操作権が付与されない非操作動作>
ユーザが携帯電話で通話したり、メガネを触ったりする場合にユーザが手を頭よりも高くすることは少なくない。このため、より好ましくは以下のようにユーザの非操作動作を操作開始検出部33が検出することが有効である。
<Non-operation operation without operation right>
When a user talks on a mobile phone or touches glasses, the user often raises his or her hand above the head. Therefore, it is more preferable that the operation start detection unit 33 detects the non-operation operation of the user as follows.

図12は、ユーザの非操作動作を説明する図の一例である。非操作動作は、ユーザがデジタルサイネージを操作する意志を示す動作(例えば手を挙げる)と類似した動作である。例えば、ユーザが携帯電話で通話する動作、メガネを触ったりする動作、額に手を当てる動作、頭をかく動作などである。 FIG. 12 is an example of a diagram illustrating a user's non-operation operation. The non-operation operation is an operation similar to an operation (for example, raising a hand) indicating the user's intention to operate the digital signage. For example, the user talks on a mobile phone, touches glasses, puts his hand on his forehead, scratches his head, and so on.

図12(a)に示すように、操作開始検出部33は頭関節aを中心とする立方体55を定義する。この定義とは、設定すると称してもよく、具体的には立方体55の座標を特定するという意味である。立方体55の寸法は頭部や顔よりもやや大きい程度であり、ユーザの手が顔に触れた際に手が入る程度の大きさである。ユーザごとに可変でもよいし、固定でもよい。また、立方体でなく直方体、球体又は楕円体でもよい。 As shown in FIG. 12A, the operation start detection unit 33 defines a cube 55 centered on the head joint a. This definition may be referred to as setting, and specifically means specifying the coordinates of the cube 55. The size of the cube 55 is slightly larger than that of the head and face, and is large enough for the user's hand to touch the face. It may be variable or fixed for each user. Further, it may be a rectangular parallelepiped, a sphere or an ellipsoid instead of a cube.

ユーザが非操作動作を行う場合、ユーザの手はこの立方体の中に入ることが多い。したがって、操作開始検出部33は手が立方体55に入るかどうかで非操作動作か否かを判断できる。 When the user performs a non-operational operation, the user's hand often falls into this cube. Therefore, the operation start detection unit 33 can determine whether or not the operation is a non-operation operation depending on whether or not the hand enters the cube 55.

図12(b)に示すように、右手関節gが立方体55に入らない場合、操作開始検出部33は非操作動作でないと判断する。この場合、ユーザUの手が挙がっているので操作開始検出部33は操作権を付与する。 As shown in FIG. 12B, when the right wrist joint g does not enter the cube 55, the operation start detection unit 33 determines that the operation is not a non-operation operation. In this case, since the hand of the user U is raised, the operation start detection unit 33 grants the operation right.

図12(c)に示すように、右手関節gが立方体55に入る場合、操作開始検出部33は非操作動作であると判断する。この場合、操作開始検出部33は手が挙がっていても、立方体55の中に手が入っているので、操作権を付与しない。 As shown in FIG. 12C, when the right wrist joint g enters the cube 55, the operation start detection unit 33 determines that the operation is not an operation. In this case, even if the operation start detection unit 33 raises the hand, the operation right is not granted because the hand is inside the cube 55.

したがって、操作をする意志のないユーザUを操作する意志があるとして誤検出することを抑制できる。 Therefore, it is possible to suppress erroneous detection that the user U who has no intention of operating is intended to operate.

図13は、図12の立方体55を側方から見た図の一例である。立方体55であるため、動作検出装置10との距離方向(Z方向)に立方体55は奥行きを有する。ユーザU1の手は立方体55に入っていないので非操作動作でないと判断され、ユーザU2の手は立方体55に入っているので非操作動作であると判断される。 FIG. 13 is an example of a side view of the cube 55 of FIG. Since it is a cube 55, the cube 55 has a depth in the distance direction (Z direction) from the motion detection device 10. Since the hand of the user U1 is not in the cube 55, it is determined that it is not a non-operational operation, and the hand of the user U2 is determined to be a non-operational operation because it is in the cube 55.

このように、立方体55で判断するのでユーザが立方体55の奥行きに入らないように手を挙げた場合、操作開始検出部33はユーザに操作権を付与し、座標変換部35が右手関節g等の座標を検出できる。一方、ユーザが立方体55の奥行きに入るように手を挙げた場合、ユーザが手を挙げていても、操作開始検出部33はユーザに操作権を認めない。したがって、単にXY平面で顔の近くに手があるかどうかを判断するよりも、立方体55で判断することで非操作動作と操作する意志を示す動作を区別して検出しやすくなる。 In this way, since the judgment is made by the cube 55, when the user raises his / her hand so as not to enter the depth of the cube 55, the operation start detection unit 33 grants the operation right to the user, and the coordinate conversion unit 35 gives the right wrist joint g or the like. Coordinates can be detected. On the other hand, when the user raises his / her hand so as to enter the depth of the cube 55, the operation start detection unit 33 does not grant the user the operation right even if the user raises his / her hand. Therefore, rather than simply determining whether or not the hand is near the face on the XY plane, the cube 55 makes it easier to distinguish between the non-operational operation and the operation indicating the intention to operate.

<座標変換>
続いて、図14を用いて、操作エリア54における手首関節又は手関節の座標からカーソル3の位置への変換を説明する。図14は操作エリア54における手首関節又は手関節の座標とカーソル3の位置を示す図の一例である。なお、図14は手の速さが閾値以上の場合におけるカーソル3の位置の決定方法を説明する。
<Coordinate transformation>
Subsequently, the conversion from the coordinates of the wrist joint or the wrist joint to the position of the cursor 3 in the operation area 54 will be described with reference to FIG. FIG. 14 is an example of a diagram showing the coordinates of the wrist joint or the wrist joint and the position of the cursor 3 in the operation area 54. Note that FIG. 14 describes a method of determining the position of the cursor 3 when the speed of the hand is equal to or higher than the threshold value.

座標変換部35は操作エリア54における手首関節又は手関節の三次元座標と、ディスプレイ310におけるカーソル3の位置を1対1に対応付ける。まず、座標変換部35は、操作エリア54の左上コーナーの頂点C1を原点(0,0)に決定する。そして、操作エリア54内の手首関節又は手関節の三次元座標を原点(0,0)を基準とする三次元座標に変換する。なお、操作エリア54はXY平面の二次元平面なので手首関節又は手関節のZ座標は使用されない。このためZ座標については常に一定と見なしてよく計算から省いてよい。C1を原点とする手首関節又は手関節の三次元座標をR(X,Y)とする。 The coordinate conversion unit 35 associates the three-dimensional coordinates of the wrist joint or wrist joint in the operation area 54 with the position of the cursor 3 on the display 310 on a one-to-one basis. First, the coordinate conversion unit 35 determines the apex C1 of the upper left corner of the operation area 54 as the origin (0,0). Then, the three-dimensional coordinates of the wrist joint or the wrist joint in the operation area 54 are converted into the three-dimensional coordinates based on the origin (0,0). Since the operation area 54 is a two-dimensional plane of the XY plane, the Z coordinate of the wrist joint or the wrist joint is not used. Therefore, the Z coordinate may be regarded as always constant and may be omitted from the calculation. Let R (X, Y) be the three-dimensional coordinates of the wrist joint or wrist joint with C1 as the origin.

また、ディスプレイ310の縦方向の解像度をH,横方向の解像度をWとする。また、操作エリア54の縦横の長さはAである。したがって、簡単な比例計算によりディスプレイ310におけるカーソル3の位置S(x、y)を算出できる。
x=W×A/X
y=H×A/Y
ユーザUの手首関節又は手関節が操作エリア54の外にはみ出すことが当然あるが、座標変換部35は操作エリア54外の手首関節又は手関節を無視する。
Further, the vertical resolution of the display 310 is H, and the horizontal resolution is W. The vertical and horizontal lengths of the operation area 54 are A. Therefore, the position S (x, y) of the cursor 3 on the display 310 can be calculated by a simple proportional calculation.
x = W × A / X
y = H × A / Y
Of course, the wrist joint or wrist joint of the user U may protrude outside the operation area 54, but the coordinate conversion unit 35 ignores the wrist joint or wrist joint outside the operation area 54.

座標変換部35は、情報取得部31がセンサ情報を取得するごとに座標変換を行う。一方、操作エリア作成部34は、画像データの1フレームごとに操作エリア54を更新する。これにより、ユーザが正面を向いたり、肩を動作検出装置10に向けたりして動作が変わっても適切な操作エリア54を作成できる。 The coordinate conversion unit 35 performs coordinate conversion each time the information acquisition unit 31 acquires sensor information. On the other hand, the operation area creation unit 34 updates the operation area 54 for each frame of the image data. As a result, an appropriate operation area 54 can be created even if the user faces the front or the shoulder is directed to the motion detection device 10 and the motion changes.

なお、操作エリア54は、操作開始検出部33が操作の終了の意志を検出すると(ユーザUが手を下げると)消去される。 The operation area 54 is deleted when the operation start detection unit 33 detects the intention to end the operation (when the user U lowers his / her hand).

図15は、ユーザUの手首関節又は手関節の三次元座標を側方から見た図である。つまり、図15の横方向がZ軸に対応する。図15のユーザU1は自分の身体の近くで腕を動かしており、ユーザU2は自分の身体よりも前方で腕を動かしている。つまり、ユーザU1とU2の手首関節又は手関節のZ座標は異なっている。しかし、ユーザU1とU2の手首関節又は手関節のY座標はほぼ同じである(図15からは明らかでないがX座標もほぼ同じ)。 FIG. 15 is a side view of the three-dimensional coordinates of the wrist joint or wrist joint of the user U. That is, the lateral direction of FIG. 15 corresponds to the Z axis. User U1 in FIG. 15 is moving his arm near his body, and user U2 is moving his arm in front of his body. That is, the Z coordinates of the wrist joints or wrist joints of the users U1 and U2 are different. However, the Y coordinates of the wrist joints or wrist joints of the users U1 and U2 are almost the same (although it is not clear from FIG. 15, the X coordinates are also almost the same).

このようにZ座標が異なっても、座標変換部35は手首関節又は手関節の座標をカーソル3の位置に変換する際にZ座標を使用しないので、ユーザU1とU2が操作するカーソル3の位置(軌跡)は同じになる。 Even if the Z coordinates are different in this way, the coordinate conversion unit 35 does not use the Z coordinates when converting the coordinates of the wrist joint or the wrist joint to the position of the cursor 3, so that the position of the cursor 3 operated by the users U1 and U2 The (trajectory) is the same.

<<操作エリア54の変形例>>
一般に、ディスプレイ310のアスペクト比は1対1でなく横方向の方が長い。これに対し、操作エリア54の縦横の長さはどちらも長さAである。したがって、ユーザUが横方向に手を動かすとカーソル3は横方向に大きく動くため、ユーザUは横方向のカーソル3の位置を制御しにくいおそれがある。そこで、操作エリア54の縦横の長さをディスプレイ310のアスペクト比に応じて変更することが有効になる。なお、ディスプレイ310のアスペクト比は情報処理装置30に入力されている。
<< Modification example of operation area 54 >>
Generally, the aspect ratio of the display 310 is longer in the horizontal direction than in the one-to-one ratio. On the other hand, the vertical and horizontal lengths of the operation area 54 are both length A. Therefore, when the user U moves his / her hand in the horizontal direction, the cursor 3 moves greatly in the horizontal direction, so that it may be difficult for the user U to control the position of the cursor 3 in the horizontal direction. Therefore, it is effective to change the vertical and horizontal lengths of the operation area 54 according to the aspect ratio of the display 310. The aspect ratio of the display 310 is input to the information processing device 30.

図16は、操作エリア54の変形例を説明する図の一例である。図16(a)はディスプレイ310のアスペクト比が横長の場合の操作エリア54の一例を示す。操作エリア作成部34は上記した正方形の操作エリア54の左右に拡張領域54aを付加して操作エリア54を作成する。拡張領域54aの長さαは例えば10cmである。これは、長さAが30cmであるとすると全体で50cmくらいの範囲ならユーザUの手が届くためである。したがって、10cmは一例に過ぎず、長さAを考慮して手の届く範囲で拡張すればよい。例えばユーザUの身長などに応じて可変としてもよい。 FIG. 16 is an example of a diagram illustrating a modified example of the operation area 54. FIG. 16A shows an example of the operation area 54 when the aspect ratio of the display 310 is horizontally long. The operation area creation unit 34 creates the operation area 54 by adding the expansion areas 54a to the left and right of the square operation area 54 described above. The length α of the expansion region 54a is, for example, 10 cm. This is because if the length A is 30 cm, the user U can reach the range of about 50 cm in total. Therefore, 10 cm is only an example, and it may be expanded within reach in consideration of the length A. For example, it may be variable according to the height of the user U.

図16(b)はディスプレイ310のアスペクト比が縦長の場合の操作エリア54の一例を示す。αについては図16(a)と同様でよい。このように操作エリア54の縦横の長さがディスプレイ310のアスペクト比に応じて変更されることで、ユーザUの操作性が向上する。 FIG. 16B shows an example of the operation area 54 when the aspect ratio of the display 310 is vertically long. The α may be the same as in FIG. 16 (a). By changing the vertical and horizontal lengths of the operation area 54 according to the aspect ratio of the display 310 in this way, the operability of the user U is improved.

<速さの検出>
図17を用いて速さの検出について説明する。図17は手首関節又は手関節の速さの検出方法を説明する図の一例である。速さ検出部37は、手首関節又は手関節の過去の数周期の三次元座標を用いて加速度を算出する。例えば、時刻t1の手首関節又は手関節の速度Vは、時刻t0とt1の手首関節又は手関節の三次元座標から求めることができる。なお、センサ情報が取得される周期をΔtとする。上記のようにX,Y成分だけを使用して、時刻t1の速度V1が算出される。
Vx=(Xt1−Xto)/Δt、Vy=(Yt1−Yto)/Δt、
=√(Vx+Vy
同様に、時刻t2の手首関節又は手関節の速度V2は、時刻t1とt2の手首関節又は手関節の三次元座標から求めることができる。そして、時刻t2の加速度αは、速度V1とV2の差を周期Δtで割った値なので以下のように算出できる。
α=(V−V)/Δt
したがって、過去の3周期の三次元座標があれば、速さ検出部37は周期ごとに手首関節又は手関節の加速度を算出できる。
<Speed detection>
The speed detection will be described with reference to FIG. FIG. 17 is an example of a diagram illustrating a method of detecting the speed of a wrist joint or a wrist joint. The speed detection unit 37 calculates the acceleration using the three-dimensional coordinates of the wrist joint or the wrist joint in the past several cycles. For example, the wrist joint or velocity V 1 of the wrist of the time t1 can be obtained from the three-dimensional coordinates of the wrist joint or wrist of the time t0 and t1. The cycle in which the sensor information is acquired is defined as Δt. As described above, the velocity V1 at time t1 is calculated using only the X and Y components.
Vx = (X t1- X to ) / Δt, Vy = (Y t1- Y to ) / Δt,
V 1 = √ (Vx 2 + Vy 2 )
Similarly, the wrist joint or wrist joint velocity V2 at time t2 can be obtained from the three-dimensional coordinates of the wrist joint or wrist joint at times t1 and t2. The acceleration α at time t2 is a value obtained by dividing the difference between the velocities V1 and V2 by the period Δt, and can be calculated as follows.
α = (V 2- V 1 ) / Δt
Therefore, if there are three-dimensional coordinates of the past three cycles, the speed detection unit 37 can calculate the acceleration of the wrist joint or the wrist joint for each cycle.

本実施形態では速度や加速度を手の速さの指標として用いる。これらの速さと比較される閾値は、実験的に定められるものとする。例えば、停止するよりもやや速い程度の速さを閾値とする(例えば1〜10〔cm/sec〕)。操作ボタン103をクリックしようとするは手首関節又は手関節の速さはゆっくりとしている場合が多いためである。 In this embodiment, speed and acceleration are used as indexes of hand speed. The thresholds to be compared with these speeds shall be determined experimentally. For example, the threshold value is a speed slightly faster than stopping (for example, 1 to 10 [cm / sec]). The reason for clicking the operation button 103 is that the speed of the wrist joint or the wrist joint is often slow.

なお、手首関節又は手関節の速さとして速度を用いる場合、過去の2周期の三次元座標を用いれば速さ検出部37が速度を算出できる。また、加速度の加速度を更に算出して速さの指標としてもよい。この場合、過去の4周期の三次元座標を用いれば算出できる。 When the speed is used as the speed of the wrist joint or the wrist joint, the speed detection unit 37 can calculate the speed by using the three-dimensional coordinates of the past two cycles. Further, the acceleration of the acceleration may be further calculated and used as an index of speed. In this case, it can be calculated by using the three-dimensional coordinates of the past four cycles.

<イベントの検出>
図18を用いて、イベントの検出方法について説明する。図18(a)は手の部分に含まれる関節と手の形状を示し、図18(b)はユーザUが手を握った状態の手の部分に含まれる関節と手の形状を示す。イベント判断部38は、一例としてユーザUが手を握り素早く開くジェスチャーをクリックというイベントとして検出する。つまり、握った(グー)時点ではマウスの左ボタンダウン、開く(パー)と左ボタンアップというイベントになる。こうすることで、ユーザはクリックの他、握ったままドラッグすることなどが可能になる。また、握っている時間が長い場合、イベント判断部38は右ボタンダウンのイベントを検出する。
<Event detection>
An event detection method will be described with reference to FIG. FIG. 18A shows the joints and the shapes of the hands included in the hand portion, and FIG. 18B shows the joints and the shapes of the hands included in the hand portion in the state where the user U holds the hand. As an example, the event determination unit 38 detects as an event that the user U holds a hand and clicks a gesture that opens quickly. In other words, when you hold it (goo), the left mouse button is down, and when you open (par), the left button is up. By doing this, the user can click and drag while holding. Further, when the holding time is long, the event determination unit 38 detects an event of right button down.

上記のように、動作検出装置10は右手関節g、右手首関節f、右手先関節h、右手親指関節i(及び、左手関節、左手首関節、左手先関節、左手親指関節)の三次元座標を検出している。図示するように、ユーザUが右手を握ると、右手先関節hと右手親指関節iの三次元座標が特定の方向に大きく移動する。図示するようにX,Y座標を取ると、右手先関節hのY座標が小さくなる。また、右手親指関節iのX座標も小さくなる。 As described above, the motion detection device 10 has three-dimensional coordinates of the right wrist joint g, the right wrist joint f, the right wrist joint h, and the right thumb joint i (and the left wrist joint, the left wrist joint, the left wrist joint, and the left thumb joint). Is being detected. As shown in the figure, when the user U holds the right hand, the three-dimensional coordinates of the right hand joint h and the right thumb joint i move significantly in a specific direction. When the X and Y coordinates are taken as shown in the figure, the Y coordinate of the right wrist joint h becomes smaller. In addition, the X coordinate of the right thumb joint i also becomes smaller.

イベント判断部38は、右手先関節hのY座標が小さくなり、かつ、右手親指関節iのX座標も小さくなると、左ボタンダウンのイベントが生じたと判断する。右手先関節hのY座標が大きくなり、かつ、右手親指関節iのX座標も大きくなると、左ボタンダアップのイベントが生じたと判断する。なお、右手先関節hのY座標が小さくなるか、又は、右手親指関節iのX座標も小さくなった場合に、左ボタンダウンというイベントが生じたと判断してもよい。 The event determination unit 38 determines that the left button down event has occurred when the Y coordinate of the right hand joint h becomes small and the X coordinate of the right thumb joint i also becomes small. When the Y coordinate of the right hand joint h becomes large and the X coordinate of the right thumb joint i also becomes large, it is determined that the left button dup event has occurred. It may be determined that the event of left button down has occurred when the Y coordinate of the right hand joint h becomes smaller or the X coordinate of the right thumb joint i also becomes smaller.

また、動作検出装置10は、いわゆるじゃんけん(グー、チョキ、パー)というジェスチャーを検出しているので、これを利用して握るというジェスチャーを検出してもよい。例えば、グー又はチョキというジェスチャーが検出された場合に、左ボタンダウンというイベントが生じたと判断する。 Further, since the motion detection device 10 detects a so-called rock-paper-scissors (rock-paper-scissors, choki, par) gesture, it may be used to detect a grip gesture. For example, when a gesture of goo or choki is detected, it is determined that an event of left button down has occurred.

また、イベント判断部38は、三次元座標のうち二次元の座標だけを使うのでなく、Z座標を使って握るというジェスチャーを検出してもよい。ユーザUはアプリケーションソフト120をクリックする場合に、例えば前方(又は後方)に手を移動させる。イベント判断部38は、右手関節g等の所定以上の速さのZ軸方向の三次元座標の変化を検出して、クリックというイベントが生じたと判断する。 Further, the event determination unit 38 may detect a gesture of grasping using the Z coordinate instead of using only the two-dimensional coordinate among the three-dimensional coordinates. When the user U clicks the application software 120, he / she moves his / her hand forward (or backward), for example. The event determination unit 38 detects a change in the three-dimensional coordinates of the right wrist joint g or the like in the Z-axis direction at a speed equal to or higher than a predetermined speed, and determines that an event called a click has occurred.

しかしながら、ユーザUがZ方向に手を動かそうとすると、X,Y座標も動きやすくなるため、カーソル3の位置がクリックしたい位置から動いてしまうおそれがある。このため、本実施形態のように、X座標、Y座標が変化しにくい手を握るというジェスチャーが有効である。したがって、主に指を動かすなどの手を握って開く以外のジェスチャーがクリックのイベントと対応付けられていてもよい。 However, when the user U tries to move his / her hand in the Z direction, the X and Y coordinates also move easily, so that the position of the cursor 3 may move from the position to be clicked. Therefore, as in the present embodiment, the gesture of holding a hand whose X-coordinate and Y-coordinate are difficult to change is effective. Therefore, gestures other than holding and opening the hand, such as moving a finger, may be associated with the click event.

<速さが閾値未満の場合の座標変換>
図19を用いて速さが閾値未満の場合の座標変換を説明する。図19は、速さが閾値未満の場合の座標変換を説明する図の一例である。速さ検出部37が手首関節又は手関節の速さが閾値未満になったと判断すると、座標変換部35とUI制御部36は以下のように動作する。
(i) カーソル表示部41はガイドメッシュ4をカーソル3の位置に表示する。
(ii)三次元座標が閾値以上変化したかどうか(手首関節が閾値以上の大きさで動作したかどうか)を判断する。
(iii) 三次元座標が閾値以上変化した場合、X方向又はY方向のうちどちらの成分が大きいかを判断する。
(iv) X方向又はY方向のうち成分が大きい方に、ガイドメッシュ4を沿って移動量に応じたマス目だけ移動させる。
<Coordinate transformation when the speed is less than the threshold>
The coordinate transformation when the speed is less than the threshold value will be described with reference to FIG. FIG. 19 is an example of a diagram illustrating coordinate transformation when the speed is less than the threshold value. When the speed detection unit 37 determines that the speed of the wrist joint or the wrist joint is less than the threshold value, the coordinate conversion unit 35 and the UI control unit 36 operate as follows.
(i) The cursor display unit 41 displays the guide mesh 4 at the position of the cursor 3.
(ii) Determine whether the three-dimensional coordinates have changed above the threshold (whether the wrist joint has moved above the threshold).
(iii) When the three-dimensional coordinates change by the threshold value or more, it is determined which component is larger in the X direction or the Y direction.
(iv) In the X direction or the Y direction, whichever has the larger component, the guide mesh 4 is moved along the guide mesh 4 by the number of squares according to the amount of movement.

(i)について説明する。速さが閾値未満であると速さ検出部37が判断した旨の情報をカーソル表示部41が取得すると、カーソル表示部41はガイドメッシュ4の表示を開始する。図19(a)に示すように、カーソル表示部41は座標変換部35から取得したカーソル3の位置をガイドメッシュ4の所定の交点に対応付けて、交点にカーソル3を配置してガイドメッシュ4を表示する。所定の交点はガイドメッシュ4の略中央のいずれかで予め定められている。したがって、ガイドメッシュ4の略中央にカーソル3が表示される。また、このガイドメッシュ4と共に表示されるカーソル3は、速さが閾値以上である場合のカーソル3とは形状が異なっている。図19(a)では縦横の両端矢印が垂直に交わった形状である。 (i) will be described. When the cursor display unit 41 acquires the information that the speed detection unit 37 has determined that the speed is less than the threshold value, the cursor display unit 41 starts displaying the guide mesh 4. As shown in FIG. 19A, the cursor display unit 41 associates the position of the cursor 3 acquired from the coordinate conversion unit 35 with a predetermined intersection of the guide mesh 4, and arranges the cursor 3 at the intersection to guide the guide mesh 4. Is displayed. A predetermined intersection is predetermined at any of substantially the center of the guide mesh 4. Therefore, the cursor 3 is displayed at substantially the center of the guide mesh 4. Further, the cursor 3 displayed together with the guide mesh 4 has a different shape from the cursor 3 when the speed is equal to or higher than the threshold value. In FIG. 19A, the vertical and horizontal double-ended arrows intersect vertically.

カーソル3はガイドメッシュ4の交点上を移動する。ガイドメッシュ4は速さが閾値以上になると消去される。速さが閾値未満の間、ガイドメッシュ4は移動してもよいし固定でもよい。 The cursor 3 moves on the intersection of the guide mesh 4. The guide mesh 4 is erased when the speed exceeds the threshold value. The guide mesh 4 may be moved or fixed while the speed is below the threshold.

なお、ガイドメッシュ4の各マスは正方形でもよいが、ディスプレイ310のアスペクト比と同じ比で縦横の長さが決定されていてもよい。 Each square of the guide mesh 4 may be square, but the vertical and horizontal lengths may be determined by the same ratio as the aspect ratio of the display 310.

次に、(ii)のように判断するのは、ユーザUが意図しないわずかな手の動きによりカーソル3の位置が変化しないようにするためである。また、カーソル3がアプリケーションソフト120の例えば操作ボタン103上にある状態でユーザUがクリックしようと握るというジェスチャーを行う場合に、ジェスチャーにより手がジェスチャー以外の動きを行う場合が少なくない。この場合、ジェスチャーした時にはカーソル3が操作ボタン103外に移動しており、ユーザUが操作ボタン103をクリックできない場合が生じてしまう。そこで、(ii)のように判断することで、ユーザUが意図しないわずかな手の動きによりカーソル3の位置が変化してしまうことを抑制できる。 Next, the reason for making the determination as in (ii) is to prevent the position of the cursor 3 from changing due to a slight hand movement that the user U does not intend. Further, when the user U makes a gesture of holding a click while the cursor 3 is on the operation button 103 of the application software 120, the hand often makes a movement other than the gesture. In this case, when the gesture is made, the cursor 3 moves out of the operation button 103, and the user U may not be able to click the operation button 103. Therefore, by making a judgment as in (ii), it is possible to prevent the position of the cursor 3 from being changed by a slight hand movement that the user U does not intend.

図19(b)では、三次元座標が閾値以上変化したものとする。すなわち、手首関節又は手関節の座標が座標(X1,Y1)から(X2,Y2)に移動したものとする。カーソル表示部41は、X方向とY方向のそれぞれの移動量ΔX,ΔYを算出する。
ΔX=X2−X1
ΔY=Y2−Y1
カーソル表示部41は、ΔX,ΔYのうち少なくとも一方が閾値以上であるかどうかを判断する。閾値は、ユーザUが静止しようとしてもふらついてしまう一般的な手首関節又は手関節の移動量、及び、動作検出装置10の誤差が考慮して決定されている。例えば数cmにすればよいが、適宜、実験的に担当者等が定めることができる。
In FIG. 19B, it is assumed that the three-dimensional coordinates have changed by the threshold value or more. That is, it is assumed that the coordinates of the wrist joint or the wrist joint have moved from the coordinates (X1, Y1) to (X2, Y2). The cursor display unit 41 calculates the movement amounts ΔX and ΔY in the X direction and the Y direction, respectively.
ΔX = X2-X1
ΔY = Y2-Y1
The cursor display unit 41 determines whether at least one of ΔX and ΔY is equal to or greater than the threshold value. The threshold value is determined in consideration of the general amount of movement of the wrist joint or wrist joint that causes the user U to stagger even when trying to stand still, and the error of the motion detection device 10. For example, it may be set to several cm, but the person in charge or the like can determine it experimentally as appropriate.

(iii)について説明する。移動量ΔX,ΔYの少なくとも一方が閾値以上である場合、カーソル表示部41はΔXとΔYのどちらの方が大きいかを判断する。図19(b)ではΔX>ΔYである。 (iii) will be described. When at least one of the movement amounts ΔX and ΔY is equal to or greater than the threshold value, the cursor display unit 41 determines which of ΔX and ΔY is larger. In FIG. 19B, ΔX> ΔY.

(iv)について説明する。カーソル表示部41は手首関節又は手関節の座標(X2,Y2)のうちX2のみをカーソル3の位置を決定する。カーソル3の位置のガイドメッシュにおけるy方向の位置は直前の値をそのまま使用する。座標変換部35が変換したカーソル3の位置のx座標はメッシュガイドの交点上にあるとは限らないので、カーソル表示部41はx座標をメッシュガイドの交点上に補正する。例えば、以下のように補正する。
・カーソル3の位置のx座標が最も近いメッシュガイドの交点に補正する
・カーソル3の位置のx座標の次のメッシュガイドの交点に補正する
・カーソル3の位置のx座標の手前のメッシュガイドの交点に補正する
このように補正することで、カーソル表示部41はメッシュガイドと共に表示されるカーソル3を交点上に表示できる。図19(c)では、直前のカーソル3の位置から右方向に2マス分移動した交点にカーソル3が移動して表示される。
(iv) will be described. The cursor display unit 41 determines the position of the cursor 3 using only X2 of the wrist joint or wrist joint coordinates (X2, Y2). For the position of the cursor 3 in the guide mesh in the y direction, the value immediately before is used as it is. Since the x-coordinate of the position of the cursor 3 converted by the coordinate conversion unit 35 is not always on the intersection of the mesh guides, the cursor display unit 41 corrects the x-coordinate on the intersection of the mesh guides. For example, the correction is made as follows.
-Correct to the intersection of the mesh guide where the x-coordinate of the cursor 3 position is the closest-Correct to the intersection of the mesh guide next to the x-coordinate of the cursor 3-position-The mesh guide before the x-coordinate of the cursor 3 position Correcting to the intersection By correcting in this way, the cursor display unit 41 can display the cursor 3 displayed together with the mesh guide on the intersection. In FIG. 19C, the cursor 3 is displayed by moving to an intersection that is moved to the right by 2 squares from the position of the cursor 3 immediately before.

<手首関節又は手関節の切り替え>
ユーザUはカーソル3を大きく移動させたい場合と、操作ボタン103の近くなどのように小さく移動させたい場合がある。また、ユーザUは肘を中心に手を動かすので、手の外側の関節ほど速く動く。そこで、座標変換部35は、速さ検出部37が閾値以上の速さを検出したか否かに応じて、カーソル3の位置に変換する関節(ユーザの身体の部位)を切り替える。
A.速さが閾値以上の場合、右手関節gの三次元座標をカーソル3の位置に変換する。
B.速さが閾値未満の場合、右手首関節fの三次元座標をカーソル3の位置に変換する。
<Switching wrist joint or wrist joint>
The user U may want to move the cursor 3 large, or may want to move the cursor small, such as near the operation button 103. Further, since the user U moves his / her hand around the elbow, the joint on the outside of the hand moves faster. Therefore, the coordinate conversion unit 35 switches the joint (part of the user's body) to be converted to the position of the cursor 3 depending on whether or not the speed detection unit 37 detects a speed equal to or higher than the threshold value.
A. When the speed is equal to or greater than the threshold value, the three-dimensional coordinates of the right wrist joint g are converted to the position of the cursor 3.
B. When the speed is less than the threshold value, the three-dimensional coordinates of the right wrist joint f are converted to the position of the cursor 3.

これにより、カーソル3を大きく移動させたい場合、ユーザUは素早くカーソル3を移動させやすくなり、操作ボタン103などの近くでは手首を使って意図した位置にカーソル3を移動させやすくなる。なお、Aの場合、右手先関節hや右手親指関節iの三次元座標を使用してもよい。肘から更に遠いので、ユーザはより速くカーソル3を操作できる。 As a result, when the user U wants to move the cursor 3 greatly, the user U can easily move the cursor 3 quickly, and can easily move the cursor 3 to the intended position by using the wrist near the operation button 103 or the like. In the case of A, the three-dimensional coordinates of the right hand joint h and the right thumb joint i may be used. Further away from the elbow, the user can operate the cursor 3 faster.

<操作受付支援アイコンについて>
図20〜22を用いてアイコン表示部42が表示する操作受付支援アイコン81について説明する。図20は、動作検出装置10によりユーザUが検出された時の操作受付支援アイコン81を示す図の一例である。アイコン表示部42は、まずディスプレイ310に操作受付支援アイコン81を大きく表示させる。なお、操作受付支援アイコン81は動作検出装置10の検出範囲51とほぼ相似の形状を有している。
<About the operation reception support icon>
The operation reception support icon 81 displayed by the icon display unit 42 will be described with reference to FIGS. 20 to 22. FIG. 20 is an example of a diagram showing an operation reception support icon 81 when the user U is detected by the motion detection device 10. The icon display unit 42 first causes the display 310 to display the operation reception support icon 81 in a large size. The operation reception support icon 81 has a shape substantially similar to the detection range 51 of the motion detection device 10.

操作受付支援アイコン81は常に表示されていてもよいし、人が検出された場合にだけ表示されてもよいが、検出された時には大きく表示される。これにより、ユーザUは動作検出装置10により検出されたことを認識できる。また、ユーザの目をディスプレイ310に向けさせる効果がある。なお、アイコン表示部42は操作受付支援アイコン81を大きく表示するだけでなく、点滅させたり色を変えたりするなどして表示してもよい。この他、ディスプレイ310と別のプロジェクタ5に操作受付支援アイコン81を表示させフォログラム投影(立体視)してもよい。 The operation reception support icon 81 may be always displayed or may be displayed only when a person is detected, but is displayed in a large size when a person is detected. As a result, the user U can recognize that the motion detection device 10 has detected the detection. It also has the effect of directing the user's eyes to the display 310. The icon display unit 42 may not only display the operation reception support icon 81 in a large size, but may also display it by blinking it or changing its color. In addition, the operation reception support icon 81 may be displayed on a projector 5 different from the display 310 for phorogram projection (stereoscopic viewing).

図20では、ユーザUが動作検出装置10の検出範囲51の右後方から検出範囲51に進入している。情報取得部31は、ユーザUの三次元座標を取得しているので、操作受付支援アイコン81においてユーザUの位置に対応する位置(アイコン上位置という)に人アイコン82を表示する。人アイコン82がアイコン上位置に表示されるので、ユーザUは検出範囲51における自分の位置を把握できる。また、情報取得部31は、ユーザUの顔の向きを取得しているので、アイコン表示部42は顔の向きから推定した目の位置を人アイコン82に表示する。 In FIG. 20, the user U has entered the detection range 51 from the right rear side of the detection range 51 of the motion detection device 10. Since the information acquisition unit 31 has acquired the three-dimensional coordinates of the user U, the person icon 82 is displayed at a position (referred to as an icon upper position) corresponding to the position of the user U on the operation reception support icon 81. Since the person icon 82 is displayed at the position above the icon, the user U can grasp his / her position in the detection range 51. Further, since the information acquisition unit 31 has acquired the face orientation of the user U, the icon display unit 42 displays the eye position estimated from the face orientation on the person icon 82.

操作受付支援アイコン81には、操作位置52に対応する場所(以下、操作位置指示表示83という)が強調して表示されており、ユーザUは人アイコン82が操作位置指示表示83に入るように移動する。 The location corresponding to the operation position 52 (hereinafter referred to as the operation position instruction display 83) is highlighted on the operation reception support icon 81, and the user U so that the person icon 82 enters the operation position instruction display 83. Moving.

図21は、操作受付支援アイコン81における人アイコン82の位置の算出方法を説明する図の一例である。図21(a)は操作受付支援アイコン81を示し、図21(b)は検出範囲51の上面図を示す。動作検出装置10はユーザの各関節の座標を検出している。例えば動作検出装置10の中心を原点OにユーザのX1座標やZ1座標を特定できる。すなわち、動作検出装置10に対するユーザの相対位置(第一の相対位置)を特定している。中心Oからの距離Dや正面を基準とする方向θも既知である。 FIG. 21 is an example of a diagram illustrating a method of calculating the position of the person icon 82 on the operation reception support icon 81. FIG. 21A shows an operation reception support icon 81, and FIG. 21B shows a top view of the detection range 51. The motion detection device 10 detects the coordinates of each joint of the user. For example, the user's X1 coordinates and Z1 coordinates can be specified with the center of the motion detection device 10 as the origin O. That is, the relative position (first relative position) of the user with respect to the motion detection device 10 is specified. The distance D from the center O and the direction θ with respect to the front are also known.

一方、操作受付支援アイコン81は検出範囲51と相似(又は類似した)形状を有する。動作検出装置10が設置されている位置に対応する操作受付支援アイコン81の位置(図では上辺の中心)を原点Oとする。アイコン表示部42は、上記の相対位置を操作受付支援アイコン81の原点Oに対する相対位置(第二の相対位置)に変換して変換後の相対位置に人アイコン82を表示する。 On the other hand, the operation reception support icon 81 has a similar (or similar) shape to the detection range 51. The origin O is the position of the operation reception support icon 81 (center of the upper side in the figure) corresponding to the position where the motion detection device 10 is installed. The icon display unit 42 converts the above relative position into a relative position (second relative position) of the operation reception support icon 81 with respect to the origin O, and displays the person icon 82 at the converted relative position.

検出範囲51がユーザを検知する距離をA〔m〕とする。一方、操作受付支援アイコン81の距離Aに相当する辺の長さa〔ピクセル〕は既知である。したがって、a/Aの比を用いて、操作受付支援アイコン81における人アイコン82の座標(x1,z1)を算出できる。
x1=X1×a/A
z1=Z1×a/A
アイコン表示部42は、情報取得部31がセンサ情報を周期的に取得するごとに人アイコン82の位置を更新する。
Let A [m] be the distance that the detection range 51 detects the user. On the other hand, the length a [pixel] of the side corresponding to the distance A of the operation reception support icon 81 is known. Therefore, the coordinates (x1, z1) of the person icon 82 in the operation reception support icon 81 can be calculated using the a / A ratio.
x1 = X1 x a / A
z1 = Z1 × a / A
The icon display unit 42 updates the position of the person icon 82 every time the information acquisition unit 31 periodically acquires sensor information.

図22は、ユーザUが操作位置52で手を挙げた際の操作受付支援アイコン81を示す図の一例である。なお、図22は、手首関節又は手関節の速さが閾値以上の場合の画面例を示している。アイコン表示部42は、ユーザUが操作位置52に入って所定時間が経過するか、又は、ユーザUが操作位置52で手を挙げてから所定時間が経過すると、操作受付支援アイコン81を小さく表示する。これにより、ユーザUがディスプレイ310に表示されたアプリケーションソフト120の画面を見やすくなる。 FIG. 22 is an example of a diagram showing an operation reception support icon 81 when the user U raises his / her hand at the operation position 52. Note that FIG. 22 shows an example of a screen when the speed of the wrist joint or the wrist joint is equal to or higher than the threshold value. The icon display unit 42 displays the operation reception support icon 81 in a small size when a predetermined time elapses after the user U enters the operation position 52 or when a predetermined time elapses after the user U raises his / her hand at the operation position 52. To do. This makes it easier for the user U to see the screen of the application software 120 displayed on the display 310.

また、ユーザUが手を挙げると操作開始検出部33はユーザUが手を挙げたことを検出するので、アイコン表示部42は人アイコン82の手を挙げる。換言すると右手を挙げた人アイコン82を表示する。これにより、手を挙げたユーザUに操作権が与えられる。ジェスチャー操作受付プログラム110は、仮に、他のユーザUが手を挙げても操作を受け付けない。図22では左後方から別のユーザUが検出範囲51に進入しているが、このユーザUはアプリケーションソフト120を操作できない。つまり、操作位置52で最も早く手を挙げたユーザU(のみ)が操作権を得る。 Further, when the user U raises his / her hand, the operation start detection unit 33 detects that the user U has raised his / her hand, so that the icon display unit 42 raises the hand of the person icon 82. In other words, the person icon 82 with the right hand raised is displayed. As a result, the operation right is given to the user U who raised his hand. The gesture operation reception program 110 does not accept the operation even if another user U raises his / her hand. In FIG. 22, another user U has entered the detection range 51 from the rear left, but this user U cannot operate the application software 120. That is, the user U (only) who raises his hand earliest at the operation position 52 obtains the operation right.

ユーザUは操作位置52で上記のように操作エリア54を作り、手を動かしてカーソル3を表示したり、ジェスチャーを行いイベントを生じさせたりする。 The user U creates the operation area 54 at the operation position 52 as described above, moves the hand to display the cursor 3, or makes a gesture to generate an event.

図23(a)は、ユーザUが操作位置52で手を挙げているが手首関節又は手関節の速さが閾値未満の場合のガイドメッシュを示す図の一例である。この場合、カーソル表示部41はガイドメッシュ4の交点にカーソル3を表示する。また、カーソル3は縦又は横にしか移動しないので、ユーザUはガイドメッシュ4のマスを参考にしてカーソル3の微小な動きを制御できる。 FIG. 23A is an example of a diagram showing a guide mesh when the user U raises his / her hand at the operation position 52 but the speed of the wrist joint or the wrist joint is less than the threshold value. In this case, the cursor display unit 41 displays the cursor 3 at the intersection of the guide mesh 4. Further, since the cursor 3 moves only vertically or horizontally, the user U can control the minute movement of the cursor 3 with reference to the square of the guide mesh 4.

なお、ガイドメッシュ4は表示されなくてもよい。ガイドメッシュ4がなくてもカーソル3は縦又は横にしか移動しない点に変わりはなく、ユーザUはカーソル3の微小な動きを制御できる。しかし、ガイドメッシュ4が表示されることでユーザUはマス単位にしかカーソル3を移動できないことを把握できるので、操作性しやすいと感じることが期待される。 The guide mesh 4 does not have to be displayed. Even without the guide mesh 4, the cursor 3 still moves only vertically or horizontally, and the user U can control the minute movement of the cursor 3. However, since the user U can grasp that the cursor 3 can be moved only in units of squares by displaying the guide mesh 4, it is expected that the user U feels easy to operate.

また、ガイドメッシュ4の横線は水平でなくてもよく、縦線は垂直でなくてもよい。例えば、縦横の直線が交差していればよい。 Further, the horizontal line of the guide mesh 4 does not have to be horizontal, and the vertical line does not have to be vertical. For example, vertical and horizontal straight lines may intersect.

また、図23(b)に示すように、同心円の円周上を半径方向にカーソル3が移動してもよい。 Further, as shown in FIG. 23B, the cursor 3 may move in the radial direction on the circumference of the concentric circles.

<動作手順>
図24は、ジェスチャー操作受付プログラム110がユーザUに操作権を付与するまでの手順を示すフローチャート図の一例である。図24の処理は例えば、情報処理装置30がジェスチャー操作受付プログラム110を実行中、繰り返し実行される。
<Operation procedure>
FIG. 24 is an example of a flowchart showing a procedure until the gesture operation reception program 110 grants the operation right to the user U. The process of FIG. 24 is repeatedly executed, for example, while the information processing device 30 is executing the gesture operation reception program 110.

まず、人検出部32により動作検出装置10が人を検出したか否かが判断される(S10)。人が検出されない場合(S10のNo)、図24の処理は終了する。 First, the person detection unit 32 determines whether or not the motion detection device 10 has detected a person (S10). If no person is detected (No in S10), the process of FIG. 24 ends.

人が検出された場合(S10のYes)、アイコン表示部42は操作受付支援アイコン81をディスプレイ310に大きく表示する(S20)。この後、アイコン表示部42は、人が検出されていても操作受付支援アイコン81を一定時間後に小さく表示する。 When a person is detected (Yes in S10), the icon display unit 42 displays the operation reception support icon 81 in large size on the display 310 (S20). After that, the icon display unit 42 displays the operation reception support icon 81 in a small size after a certain period of time even if a person is detected.

次に、アイコン表示部42は、ユーザUの位置に基づいて人アイコン82を操作受付支援アイコン81のアイコン上位置に表示する(S30)。情報取得部31はセンサ情報を周期的に取得するので、アイコン表示部42は人アイコン82の位置を更新する。 Next, the icon display unit 42 displays the person icon 82 at the position above the icon of the operation reception support icon 81 based on the position of the user U (S30). Since the information acquisition unit 31 periodically acquires the sensor information, the icon display unit 42 updates the position of the person icon 82.

操作開始検出部33はユーザUの位置が操作位置52に入ったか否かを判断する(S40)。すなわち、ユーザUのX,Y,Z座標が操作位置52に含まれているか否かを判断する。 The operation start detection unit 33 determines whether or not the position of the user U has entered the operation position 52 (S40). That is, it is determined whether or not the X, Y, Z coordinates of the user U are included in the operation position 52.

ユーザUが操作位置52に入るまでは(S40のNo)、人が未検出かどうか判断される(S50)。そして、人が未検出になると(S50のYes)、図24の処理が終了する。 Until the user U enters the operation position 52 (No in S40), it is determined whether or not a person has not been detected (S50). Then, when the person is not detected (Yes in S50), the process of FIG. 24 ends.

人が検出されている間(S50のNo)、繰り返しユーザUが操作位置52に入ったか否かが判断される。 While the person is detected (No in S50), it is determined whether or not the user U has repeatedly entered the operation position 52.

次に、人が操作位置52に入った場合(S40のYes)、操作開始検出部33はユーザUが手を挙げたか否かを判断する(S60)。例えば、手がユーザの腰より一定(以上)の高さに位置するか否かを判断する。 Next, when a person enters the operation position 52 (Yes in S40), the operation start detection unit 33 determines whether or not the user U has raised his / her hand (S60). For example, it is determined whether or not the hand is located at a certain (or higher) height than the waist of the user.

ユーザUが手を挙げるまで(S60のNo)、ステップS40以降の判断が繰り返し実行される。 The determinations after step S40 are repeatedly executed until the user U raises his hand (No in S60).

ユーザUが手を挙げた場合(S60のYes)、操作開始検出部33は手が所定の周辺領域に入っていないかどうかを判断する(S70)。所定の周辺領域とは例えば、立方体55の内側をいう。なお、この立方体55を用いた判断は所定の領域内に入っているかどうかの判断の一例である。例えば、右手先関節hや右手関節gが頭関節aの周辺にないことを確認する。これにより、例えば電話中のユーザUがアプリケーションソフト120を操作してしまうことを抑制できる。なお、ステップS70の判断は、操作する意志のないユーザに操作権を与えることを防ぐものであって、必須ではない。また、ステップS70の判断では、ユーザの頭から腰に向かって作成される直方体(頭から腰のやや手前までを含む直方体)の領域(体の近くの周辺領域)に手が入っていないことを判断することが好ましい。これによりユーザの姿勢に依存しない領域が作成される。具体的には、ユーザがバインダーなどの荷物を抱えているケースでも、頭周辺の領域だけでなく胴回りの領域も非操作領域に含めることができる。 When the user U raises his / her hand (Yes in S60), the operation start detection unit 33 determines whether or not the hand is in the predetermined peripheral area (S70). The predetermined peripheral region means, for example, the inside of the cube 55. The determination using the cube 55 is an example of determination as to whether or not the cube is within a predetermined area. For example, confirm that the right wrist joint h and the right wrist joint g are not around the head joint a. Thereby, for example, it is possible to prevent the user U who is on the phone from operating the application software 120. The determination in step S70 prevents the user who has no intention of operating the operation right from being given the operation right, and is not essential. Further, in the determination of step S70, it is determined that the area (peripheral area near the body) of the rectangular parallelepiped (rectangular parallelepiped including a little before the head to the waist) created from the user's head to the waist is not touched. It is preferable to judge. This creates an area that does not depend on the user's posture. Specifically, even in the case where the user is carrying a load such as a binder, not only the area around the head but also the area around the waist can be included in the non-operation area.

ステップS70の判断がYesの場合、操作開始検出部33は操作を開始する意志を検出して、手を挙げたユーザUに操作権を付与する(S80)。したがって、他のユーザUが操作位置52で手を挙げてもアプリケーションソフト120を操作できないようにすることができる。 If the determination in step S70 is Yes, the operation start detection unit 33 detects the intention to start the operation and grants the operation right to the user U who raised his hand (S80). Therefore, it is possible to prevent the application software 120 from being operated even if another user U raises his / her hand at the operation position 52.

次に、アイコン表示部42はアイコン上位置に手を挙げた人アイコン82を表示する(S90)。これによりユーザUは自分が手を挙げたことが認識されたと判断でき、操作を開始できる。 Next, the icon display unit 42 displays the person icon 82 with the hand raised at the position above the icon (S90). As a result, the user U can determine that he / she has raised his / her hand and can start the operation.

操作を開始する意志が検出されると、操作エリア作成部34は操作エリア54を作成する(S100)。以降、ユーザUは手関節や手首関節によりカーソル3の位置を操作したり、ジェスチャーによりアプリケーションソフト120を操作できる。ジェスチャー操作受付プログラム110はユーザUによるアプリケーションソフト120の操作を受け付けを開始する。 When the intention to start the operation is detected, the operation area creation unit 34 creates the operation area 54 (S100). After that, the user U can operate the position of the cursor 3 by the wrist joint and the wrist joint, and can operate the application software 120 by the gesture. The gesture operation reception program 110 starts accepting the operation of the application software 120 by the user U.

図25は、ジェスチャー操作受付プログラム110がユーザUの操作を受け付けてアプリケーションソフト120を操作する手順を示すフローチャート図の一例である。図25の処理は操作エリア54が作成されるスタートする。 FIG. 25 is an example of a flowchart showing a procedure in which the gesture operation reception program 110 accepts the operation of the user U and operates the application software 120. The process of FIG. 25 starts when the operation area 54 is created.

まず、情報取得部31がセンサ情報を取得する(S110)。 First, the information acquisition unit 31 acquires sensor information (S110).

速さ検出部37はセンサ情報に基づいて手関節の速さが閾値以上か否かを判断する(S120)。 The speed detection unit 37 determines whether or not the speed of the wrist joint is equal to or greater than the threshold value based on the sensor information (S120).

手関節の速さが閾値以上である場合(S120のYes)、座標変換部35は手関節の三次元座標をカーソル3の位置に変換する(S130)。 When the speed of the wrist joint is equal to or greater than the threshold value (Yes in S120), the coordinate conversion unit 35 converts the three-dimensional coordinates of the wrist joint to the position of the cursor 3 (S130).

出力部39は、カーソル3の位置をアプリケーションソフト120に出力する(S140)。 The output unit 39 outputs the position of the cursor 3 to the application software 120 (S140).

また、イベント判断部38は、ユーザUがイベントを発生させるジェスチャーをしたか否かを判断する(S150)。これは、ガイドメッシュ4が表示されていなくてもユーザUはジェスチャーすることが可能なためである。 In addition, the event determination unit 38 determines whether or not the user U has made a gesture to generate an event (S150). This is because the user U can make a gesture even if the guide mesh 4 is not displayed.

イベントが検出された場合は、出力部39は、カーソル3の位置及びイベントをアプリケーションソフト120に出力する(S160)。なお、カーソル3の位置とイベントは同時に出力されなくてもよい。 When an event is detected, the output unit 39 outputs the position of the cursor 3 and the event to the application software 120 (S160). The position of the cursor 3 and the event do not have to be output at the same time.

次に、手関節の速さが閾値以上でない場合(S120のNo)、カーソル表示部41はガイドメッシュ4を表示中か否かを判断する(S180)。これは、ガイドメッシュ4を表示中に再度ガイドメッシュ4を表示する必要がないためである。 Next, when the speed of the wrist joint is not equal to or greater than the threshold value (No in S120), the cursor display unit 41 determines whether or not the guide mesh 4 is being displayed (S180). This is because it is not necessary to display the guide mesh 4 again while displaying the guide mesh 4.

ガイドメッシュ4を表示中でない場合(S180のNo)、カーソル表示部41は中央にカーソル3が表示されたガイドメッシュ4を表示する(S190)。なお、カーソル表示部41は座標変換部35からカーソル3の位置を取得する。この後、処理はステップS140に進む。 When the guide mesh 4 is not being displayed (No in S180), the cursor display unit 41 displays the guide mesh 4 in which the cursor 3 is displayed in the center (S190). The cursor display unit 41 acquires the position of the cursor 3 from the coordinate conversion unit 35. After this, the process proceeds to step S140.

ガイドメッシュ4を表示中である場合(S180のYes)、カーソル表示部41は手首関節の三次元座標が閾値以上移動したか否かを判断する(S200)。すなわち、手関節でなく手首関節に着目することで、ユーザUはカーソル3の微小な移動を制御しやすくなる。 When the guide mesh 4 is being displayed (Yes in S180), the cursor display unit 41 determines whether or not the three-dimensional coordinates of the wrist joint have moved by the threshold value or more (S200). That is, by focusing on the wrist joint instead of the wrist joint, the user U can easily control the minute movement of the cursor 3.

ステップS200の判断がYesの場合、カーソル表示部41はガイドメッシュ4のカーソル3の位置を更新する(S210)。すなわち、カーソル表示部41は手首関節が移動したX方向とY方向の移動量の内、大きい方だけをカーソル3の位置に変換する。カーソル表示部41はこのカーソル3の位置をガイドメッシュ4の交点に補正する。この後、処理はステップS140に進み、ガイドメッシュ4にカーソル3が表示される。 If the determination in step S200 is Yes, the cursor display unit 41 updates the position of the cursor 3 on the guide mesh 4 (S210). That is, the cursor display unit 41 converts only the larger of the movement amounts in the X direction and the Y direction in which the wrist joint has moved to the position of the cursor 3. The cursor display unit 41 corrects the position of the cursor 3 to the intersection of the guide mesh 4. After that, the process proceeds to step S140, and the cursor 3 is displayed on the guide mesh 4.

また、操作開始検出部33は、ユーザUが操作位置52に入っているかどうか及び手を挙げているかどうかを適宜、判断する(S170)。これは、操作する意志を確認するためである。 In addition, the operation start detection unit 33 appropriately determines whether or not the user U is in the operation position 52 and whether or not the hand is raised (S170). This is to confirm the intention to operate.

ステップS170の判断がYesの場合、処理はステップS110に戻りアプリケーションソフト120の操作が継続される。 If the determination in step S170 is Yes, the process returns to step S110 and the operation of the application software 120 is continued.

ステップS170の判断がNoの場合、出力部39はアプリケーションソフト120に対しガイドメッシュ及びカーソルを非表示にするよう要求する(S220)。以上で、図25の処理は終了する。この場合、操作エリア54が削除されユーザUは操作権を失う。 If the determination in step S170 is No, the output unit 39 requests the application software 120 to hide the guide mesh and the cursor (S220). This completes the process of FIG. 25. In this case, the operation area 54 is deleted and the user U loses the operation right.

<センサ情報の記録と活用>
続いて、図26〜図29を用いて、センサ情報の記録と活用について説明する。従来のデジタルサイネージは、ユーザにより閲覧されているかどうか履歴として残せていなかった。本実形態の情報処理装置30はユーザの顔向き等を動作検出装置10から取得しているので、コンテンツの提供者などが、後でどのくらいのユーザが閲覧していたかを分析できる。また、情報記録部43はディスプレイ310に表示されたコンテンツのスクリーンショットを記録しているため、ユーザがどのようなスクリーンショットに興味を示したか等を分析できる。なお、スクリーンショットはデータサイズが大きいので、ユーザの顔向きがディスプレイ310を向いている場合にだけ、記録すればよい。
<Recording and utilization of sensor information>
Subsequently, the recording and utilization of the sensor information will be described with reference to FIGS. 26 to 29. Conventional digital signage cannot keep a history of whether or not it has been viewed by a user. Since the information processing device 30 of the present embodiment acquires the face orientation of the user from the motion detection device 10, the content provider or the like can analyze how many users have browsed later. Further, since the information recording unit 43 records screenshots of the contents displayed on the display 310, it is possible to analyze what kind of screenshot the user is interested in. Since the data size of the screenshot is large, it is only necessary to record the screenshot when the user's face is facing the display 310.

図26は、顔向きなどの分析のために情報記録部43が記録するセンサ情報の一例を示す。図26では、XML形式で一人のユーザに関し記録されるセンサ情報が記述されている。以下、これらの情報について説明する。
<TrackingID>タグは認識されているユーザ(操作権限を持たないユーザも含む)に対して割り当てられているユーザの識別情報である。
<Glasses>タグは眼鏡をしているかどうかを示す。
<Happy>タグは笑顔かどうか(幸せそうか)を示す。
<LeftEyeClosed>タグは左目を閉じているどうかを示す。
<RightEyeClosed>タグは右目を閉じているかどうかを示す
<LookingAway>タグはこちらを向いているかどうかを示す。
<MouthMoved>タグは口が動いているかどうかを示す。
<MouthOpen>タグは口が開いているかどうかを示す。
<Yaw>タグは顔の横方向の角度(ヨー角)を示し、動作検出装置10に向かって左横に首を曲げるとプラス値、右に首を曲げるとマイナス値となる。
<Pitch>タグは顔の上下方向の角度(ピッチ角)を示し、動作検出装置10に向かって上を向くとプラス値、下を向くとマイナス値となる。
<Roll>タグは顔を傾ける方向の角度(ロール角)を示し、目や口元が垂直である場合はゼロとなる。
<PositionInfo>タグはユーザの位置を示し、<X>タグは動作検出装置10の中心から横方向の距離(右側プラス値、左側マイナス値)を示す。<Y>タグは身長を示し、<Z>タグは動作検出装置10からの距離を示す。
<MouseTrackingInfo>タグの<LeftButtonDown>タグはマウスの左ボタンを押下しているかどうかを示し、<RightButtonDown>タグはマウスの右ボタンを押下しているかどうかを示す。<MousePositionInfo>タグは、カーソルのX座標とY座標を示す。
FIG. 26 shows an example of sensor information recorded by the information recording unit 43 for analysis of face orientation and the like. In FIG. 26, sensor information recorded for one user is described in XML format. This information will be described below.
The <TrackingID> tag is user identification information assigned to a recognized user (including a user who does not have operation authority).
The <Glasses> tag indicates whether you are wearing glasses.
The <Happy> tag indicates whether you are smiling (looks happy).
The <LeftEyeClosed> tag indicates whether the left eye is closed.
The <RightEyeClosed> tag indicates whether the right eye is closed
The <LookingAway> tag indicates whether you are facing this.
The <MouthMoved> tag indicates whether the mouth is moving.
The <MouthOpen> tag indicates whether the mouth is open.
The <Yaw> tag indicates the lateral angle (yaw angle) of the face, and a positive value is obtained when the neck is bent to the left side toward the motion detection device 10, and a negative value is obtained when the neck is bent to the right.
The <Pitch> tag indicates the vertical angle (pitch angle) of the face, and a positive value is obtained when facing upward toward the motion detection device 10, and a negative value is obtained when facing downward.
The <Roll> tag indicates the angle (roll angle) in which the face is tilted, and is zero when the eyes and mouth are vertical.
The <PositionInfo> tag indicates the position of the user, and the <X> tag indicates the lateral distance (plus value on the right side, minus value on the left side) from the center of the motion detection device 10. The <Y> tag indicates the height, and the <Z> tag indicates the distance from the motion detection device 10.
The <LeftButtonDown> tag of the <MouseTrackingInfo> tag indicates whether the left mouse button is pressed, and the <RightButtonDown> tag indicates whether the right mouse button is pressed. The <MousePositionInfo> tag indicates the X and Y coordinates of the cursor.

なお、<MouseTrackingInfo>や<MousePositionInfo>は操作権限を持つユーザについてだけ記録される。情報記録部43はこのような情報を各ユーザごとに記録する。 Note that <MouseTrackingInfo> and <MousePositionInfo> are recorded only for users who have operation authority. The information recording unit 43 records such information for each user.

図27は、図26のセンサ情報が取得された際に情報記録部43が取得したスクリーンショット201を示す図の一例である。したがって、コンテンツの提供者等は、<Yaw>、<Pitch>、<Roll>の各タグにより、ユーザがコンテンツのどこを見ているか(どこに興味があるか)、更に視線の滞留時間等を測定することなどができる。また、<MouseTrackingInfo>タグにより、ユーザが何か操作をしているのか、操作をしていれば何に興味があるのかを、スクリーンショット201から判断できる。 FIG. 27 is an example of a diagram showing a screenshot 201 acquired by the information recording unit 43 when the sensor information of FIG. 26 is acquired. Therefore, content providers, etc. use the <Yaw>, <Pitch>, and <Roll> tags to measure where the user is looking at the content (where they are interested), and the dwell time of the line of sight. You can do things like that. Also, with the <MouseTrackingInfo> tag, it is possible to determine from screenshot 201 what the user is doing and what he is interested in if he is doing it.

ところで、動作検出装置10は距離情報をユーザの検出に使用しているので、複数のユーザの位置によってはユーザを検出できない場合がある。図28は、検出されないユーザを説明する図の一例である。図28では動作検出装置10の検出範囲51に3人のユーザU1〜U3がいることが示されている。しかしながら、ユーザU1とユーザU3が、動作検出装置10から見て距離方向に重なっているため、動作検出装置10はユーザU3を検出できない。すなわち、骨格情報を取得できない。 By the way, since the motion detection device 10 uses the distance information to detect the user, the user may not be detected depending on the positions of a plurality of users. FIG. 28 is an example of a diagram illustrating an undetected user. In FIG. 28, it is shown that there are three users U1 to U3 in the detection range 51 of the motion detection device 10. However, since the user U1 and the user U3 overlap each other in the distance direction when viewed from the motion detection device 10, the motion detection device 10 cannot detect the user U3. That is, the skeleton information cannot be acquired.

しかしながら、動作検出装置10は上記のようにカラー画像202を撮像しているため、カラー画像202にはユーザU3は写っている。また、ユーザU3が写っている領域の距離情報も取得されている。情報記録部43は、例えばカラー画像202から顔認識やシルエット認識することで、人だと判断する。これにより、検出範囲51のユーザの人数を正しく取得できる。 However, since the motion detection device 10 has captured the color image 202 as described above, the user U3 is shown in the color image 202. In addition, the distance information of the area in which the user U3 is captured is also acquired. The information recording unit 43 determines that the person is a person by, for example, recognizing a face or a silhouette from the color image 202. As a result, the number of users in the detection range 51 can be correctly acquired.

ユーザU3が写っている領域は、Z方向の座標がある範囲に入っている領域(例えば、ユーザU1よりも後方の処理範囲内)として抽出できるため、顔認識などを行う領域をユーザU1よりも後方のZ座標を有する領域に制限でき検出時間を短縮できる。 Since the area in which the user U3 appears can be extracted as an area in which the coordinates in the Z direction are within a certain range (for example, within the processing range behind the user U1), the area for performing face recognition or the like is larger than the user U1. The detection time can be shortened by limiting to the area having the Z coordinate behind.

このように、骨格情報だけでは一度に取得できるユーザの人数に制限があるが(現在は最大6人)、カラー画像202や距離情報と組み合わせることで、人が群がっている場合でもユーザの数を検出できる。また、ユーザU3がU1により遮られる以前のカラー画像202と遮られた後のカラー画像を比較したり、ユーザU3がU1により遮られる以前の距離情報と遮られた後の距離情報を比較することもできる。人検出部32が検出するユーザの数が急に減った場合、情報記録部43はユーザが隠れていることを推定し、隠れる前と距離情報が同程度の領域から顔認識などで探索できる。 In this way, the number of users that can be acquired at one time is limited only by the skeleton information (currently up to 6 people), but by combining with the color image 202 and distance information, the number of users can be increased even when people are crowded. Can be detected. Further, the color image 202 before the user U3 is blocked by the U1 and the color image after the blockage are compared, and the distance information before the user U3 is blocked by the U1 and the distance information after the blockage are compared. You can also. When the number of users detected by the person detection unit 32 suddenly decreases, the information recording unit 43 estimates that the user is hidden, and can search by face recognition or the like from an area where the distance information is the same as before the hiding.

図29は、情報記録部43がセンサ情報DB44に記憶したセンサ情報の解析例を説明する図の一例である。情報処理装置30は、センサ情報DB44に記憶したセンサ情報から時間帯ごと(図では10分)のユーザの人数を合計する。図29では、棒グラフ205の高さが時間帯ごとのユーザの数を示す。また、各棒グラフ205では、時間帯のユーザの数が、操作権を有したユーザの数204とそれ以外のユーザの数203に分けて表示されている。なお、継続的に検出されている同じユーザには同じ<TrackingID>が付与されるため、情報処理装置30が重複してカウントするおそれはほとんどない。 FIG. 29 is an example of a diagram illustrating an example of analysis of sensor information stored in the sensor information DB 44 by the information recording unit 43. The information processing device 30 totals the number of users for each time zone (10 minutes in the figure) from the sensor information stored in the sensor information DB 44. In FIG. 29, the height of the bar graph 205 shows the number of users for each time zone. Further, in each bar graph 205, the number of users in the time zone is divided into the number 204 of the users who have the operation right and the number 203 of the other users. Since the same <Tracking ID> is assigned to the same user who is continuously detected, there is almost no possibility that the information processing apparatus 30 counts in duplicate.

また、図29では、各時間帯のスクリーンショット201がタイムラインのように棒グラフ205の上方に表示されている。あるいは、各時間帯の代表的なスクリーンショット201が表示されてもよい。代表的なスクリーンショット201とは、時間帯の最初又は最後のスクリーンショット、又は、画像の変化が最も大きいスクリーンショットなどである。 Further, in FIG. 29, the screenshot 201 of each time zone is displayed above the bar graph 205 like a timeline. Alternatively, a representative screenshot 201 of each time zone may be displayed. The typical screenshot 201 is the first or last screenshot of the time zone, the screenshot with the largest change in the image, and the like.

したがって、コンテンツの提供者等は、多くのユーザを集めたコンテンツがどれなのか判断できる。例えば、図29のコンテンツが異なる講師(学校や予備校の先生、後援者など)の場合、どの講師に人気があるか判断できる。 Therefore, the content provider or the like can determine which content is a collection of many users. For example, in the case of instructors having different contents in FIG. 29 (teachers of schools and preparatory schools, supporters, etc.), it can be determined which instructor is popular.

<まとめ>
以上説明したように、本実施形態の情報処理装置30は、動作の速さが閾値未満の場合、カーソル3の移動方向を所定方向に制限することで、カーソル3の位置の操作性を向上させることができる。また、動作の速さが閾値未満の場合、右手首関節fが閾値以上、移動しないとカーソルが移動しないので、ユーザがクリックのジェスチャーを行う際にカーソルが移動してしまうことを抑制しやすい。また、動作の速さが閾値以上か未満かによって、異なるユーザの関節を使って操作できるのでユーザの操作性を向上できる。また、ディスプレイ310のアスペクト比によって適宜、操作エリア54の縦横の長さを変更するのでユーザによるカーソル3の操作性を向上できる。また、複数のユーザが検出された場合も、最初に操作の意志を示したユーザに操作権を付与できる。また、操作受付支援アイコン81を表示することでユーザは操作位置52に移動しやすくなり、また、自分が操作していることを把握しやすい。
<Summary>
As described above, when the speed of operation is less than the threshold value, the information processing apparatus 30 of the present embodiment improves the operability of the position of the cursor 3 by limiting the moving direction of the cursor 3 to a predetermined direction. be able to. Further, when the speed of movement is less than the threshold value, the cursor does not move unless the right wrist joint f is moved by the threshold value or more, so that it is easy to prevent the cursor from moving when the user makes a click gesture. In addition, the operability of the user can be improved because the joints of different users can be used for operation depending on whether the speed of operation is equal to or less than the threshold value. Further, since the vertical and horizontal lengths of the operation area 54 are appropriately changed according to the aspect ratio of the display 310, the operability of the cursor 3 by the user can be improved. Further, even when a plurality of users are detected, the operation right can be given to the user who first shows the intention of the operation. Further, by displaying the operation reception support icon 81, the user can easily move to the operation position 52, and it is easy to grasp that he / she is operating.

<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
The best mode for carrying out the present invention has been described above with reference to Examples, but the present invention is not limited to these Examples, and various modifications are made without departing from the gist of the present invention. And substitutions can be made.

例えば、情報処理装置30はサーバクライアント方式で動作してもよい。この場合、情報処理装置30はセンサ情報をサーバに送信し、サーバからカーソルの位置とイベントを受信する。そして、アプリケーションソフト120に送出する。このような情報処理装置30とサーバを有する表示システムによりユーザはデジタルサイネージを操作できる。 For example, the information processing device 30 may operate in a server-client system. In this case, the information processing device 30 transmits the sensor information to the server, and receives the cursor position and the event from the server. Then, it is sent to the application software 120. A display system having such an information processing device 30 and a server allows a user to operate digital signage.

また、主にジェスチャー操作受付プログラムがカーソル3を表示すると説明したが、適宜OS130の機能を利用してカーソル3を表示してよい。また、アプリケーションソフト120がカーソル3を表示してもよい。 Further, although it has been explained that the gesture operation reception program mainly displays the cursor 3, the cursor 3 may be displayed by appropriately using the function of the OS 130. Further, the application software 120 may display the cursor 3.

また、操作エリア54内の座標とカーソルの位置を1対1に対応させるのではなく、ユーザは手の移動量でカーソルの位置を操作してもよい。例えば、カーソルと移動させる場合、手を握り、一定以上の速さで動かす。座標変換部は、手の移動量をカーソルの移動量に変換して、最後のカーソルの位置を更新する。したがって、この場合、操作エリア54はなくてもよい。 Further, instead of having a one-to-one correspondence between the coordinates in the operation area 54 and the position of the cursor, the user may operate the position of the cursor by the amount of movement of the hand. For example, when moving with the cursor, hold your hand and move it at a certain speed or higher. The coordinate conversion unit converts the movement amount of the hand into the movement amount of the cursor and updates the position of the last cursor. Therefore, in this case, the operation area 54 may not be provided.

また、本実施例では左クリックのジェスチャーを説明したが、情報処理装置30が右手と左手を区別して検出するなどにより右クリックのジェスチャーを入力することなども可能である。また、足などの関節の三次元座標や顔向きなどでカーソルを移動させることもできる。また、手を握る以外に、人間の多種多様なジェスチャーをイベントと対応付けることができる。 Further, although the left-click gesture has been described in this embodiment, it is also possible to input the right-click gesture by detecting the right hand and the left hand separately by the information processing device 30. It is also possible to move the cursor based on the three-dimensional coordinates of joints such as the legs and the direction of the face. In addition to holding hands, a wide variety of human gestures can be associated with events.

また、手を挙げる動作が操作権を得る動作であると説明したが、以下のような動作により操作権が付与されてもよい。
・マイク17により声とか音(手を叩く)が検出された場合
・操作開始検出部33が検出した声とか音(手を叩く)が特定のリズムであると判断した場合
・操作開始検出部33が画像データを解析してスマートフォンなどの無線機器を持っていると判断した場合
・ユーザが持っているスマホなどの無線機器から送信された信号を操作開始検出部33が検出した場合
・ユーザが足を上げたことを操作開始検出部33が検出した場合
・手の形が予め定めた条件と一致する特定の形になったことを操作開始検出部33が検出した場合(グー、チョキ、パー等)
・ユーザが立っていることを操作開始検出部33が検出した場合(セミナーなどで会場に座っている人が立った場合に操作権を与えることができる)
・顔の表情が予め定めた条件と一致する特定の表情になったことを操作開始検出部33が検出した場合(例えば、笑っている等)
・ユーザの視線(顔向き)が特定の領域に向かっていることを操作開始検出部33が検出した場合
また、図7などの構成例は、情報処理装置30による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。情報処理装置30の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。
Further, although it has been explained that the action of raising the hand is the action of obtaining the operation right, the operation right may be granted by the following actions.
-When a voice or sound (clapping a hand) is detected by the microphone 17-When a voice or sound (clapping a hand) detected by the operation start detection unit 33 is determined to have a specific rhythm-Operation start detection unit 33 When it analyzes the image data and determines that it has a wireless device such as a smartphone ・ When the operation start detection unit 33 detects a signal transmitted from a wireless device such as a smartphone owned by the user ・ When the user has a foot When the operation start detection unit 33 detects that the hand shape has been raised ・ When the operation start detection unit 33 detects that the shape of the hand has become a specific shape that matches a predetermined condition (goo, choki, par, etc.) )
-When the operation start detection unit 33 detects that the user is standing (the operation right can be given when a person sitting at the venue stands at a seminar or the like).
-When the operation start detection unit 33 detects that the facial expression has become a specific facial expression that matches a predetermined condition (for example, laughing).
-When the operation start detection unit 33 detects that the user's line of sight (face orientation) is heading toward a specific area Further, the configuration example shown in FIG. 7 is for facilitating the understanding of the processing by the information processing device 30. In addition, it is divided according to the main functions. The present invention is not limited by the method of dividing the processing unit or the name. The processing of the information processing apparatus 30 can be divided into more processing units according to the processing content. Further, one processing unit can be divided so as to include more processing.

なお、アイコン表示部42は位置表示手段の一例であり、情報取得部31は動作情報取得手段の一例であり、座標変換部35とイベント判断部38は操作受付手段の一例である。 The icon display unit 42 is an example of the position display means, the information acquisition unit 31 is an example of the operation information acquisition means, and the coordinate conversion unit 35 and the event determination unit 38 are examples of the operation reception means.

3 カーソル
4 ガイドメッシュ
10 動作検出装置
30 情報処理装置
31 情報取得部
32 人検出部
33 操作開始検出部
34 操作エリア作成部
35 座標変換部
36 UI制御部
37 検出部
38 イベント判断部
39 出力部
41 カーソル表示部
42 アイコン表示部
43 情報記録部
54 操作エリア
81 操作受付支援アイコン
100 情報処理システム
3 Cursor 4 Guide mesh 10 Motion detection device 30 Information processing device 31 Information acquisition unit 32 Person detection unit 33 Operation start detection unit 34 Operation area creation unit 35 Coordinate conversion unit 36 UI control unit 37 Detection unit 38 Event judgment unit 39 Output unit 41 Cursor display 42 Icon display 43 Information recording 54 Operation area 81 Operation reception support icon 100 Information processing system

特開2015−176451号公報JP-A-2015-176451

Claims (9)

表示装置の周辺のユーザの位置及びユーザの動作に関する動作情報を検出する装置から、ユーザの位置に関する位置情報を取得する情報処理装置であって、
前記表示装置における表示位置に前記位置情報を変換し、前記表示位置にユーザの位置を表すユーザ位置表示情報を表示する位置表示手段を有し、
前記位置表示手段は、ユーザが前記表示装置に表示される内容を前記ユーザの動作に応じて操作する位置に前記ユーザを誘導するための誘導位置表示情報を前記表示装置に表示し、
前記位置表示手段は、前記装置がユーザを検出できる検出範囲を前記表示装置に表示し、
前記動作情報を取得する動作情報取得手段と、
前記動作情報に基づいて前記情報処理装置で動作するアプリケーションソフトの操作を受け付ける操作受付手段と、を有し、
前記装置から前記ユーザが手を挙げた旨の前記動作情報を受信した場合、前記位置表示手段は前記ユーザ位置表示情報を人が手を挙げた形状で表示し、前記操作受付手段は手を挙げたユーザにのみ操作権を与え、他のユーザが手を挙げても操作を受け付けない情報処理装置。
An information processing device that acquires position information related to a user's position from a device that detects the user's position around the display device and operation information related to the user's operation.
It has a position display means for converting the position information into a display position in the display device and displaying the user position display information indicating the user's position at the display position.
The position display means displays on the display device guidance position display information for guiding the user to a position where the user operates the contents displayed on the display device according to the operation of the user.
The position display means displays on the display device a detection range in which the device can detect a user.
An operation information acquisition means for acquiring the operation information and
It has an operation receiving means for receiving an operation of application software operating in the information processing device based on the operation information.
When the operation information indicating that the user has raised his / her hand is received from the device, the position display means displays the user position display information in the form of a person raising his / her hand, and the operation receiving means raises his / her hand. An information processing device that gives operation rights only to users who have used it and does not accept operations even if other users raise their hands.
記誘導位置表示情報は前記装置が前記動作情報を検出できるユーザの位置を表す請求項1に記載の情報処理装置。 Before SL inductive position display information processing apparatus according to claim 1 representing the position of the user the apparatus can detect the operation information. 記誘導位置表示情報はユーザが前記アプリケーションソフトを操作できる位置を表す請求項2に記載の情報処理装置。 Before SL inductive position display information processing apparatus according to claim 2 in which the user indicating a position that can manipulate the application software. 前記装置がユーザを検出した場合、
前記位置表示手段は、前記検出範囲の中に前記ユーザ位置表示情報を表示する請求項1に記載の情報処理装置。
If the device detects a user
The information processing device according to claim 1, wherein the position display means displays the user position display information within the detection range.
前記位置情報は前記装置に対する第一の相対位置を表し、
前記位置表示手段は、前記第一の相対位置を前記検出範囲の所定位置に対する第二の相対位置に変換し、前記検出範囲の中の前記第二の相対位置に前記ユーザ位置表示情報を表示する請求項1又は4に記載の情報処理装置。
The position information represents a first relative position with respect to the device.
The position display means converts the first relative position into a second relative position with respect to a predetermined position in the detection range, and displays the user position display information at the second relative position in the detection range. The information processing apparatus according to claim 1 or 4.
手を挙げている前記ユーザの手首関節又は手関節の速さが閾値未満という前記動作情報を前記動作情報取得手段が取得した場合、When the motion information acquisition means acquires the motion information that the speed of the wrist joint or the wrist joint of the user raising the hand is less than the threshold value.
前記位置表示手段は前記ユーザの動作でカーソルが交点を移動するガイドメッシュを表示する請求項1〜5のいずれか1項に記載の情報処理装置。 The information processing device according to any one of claims 1 to 5, wherein the position display means displays a guide mesh in which a cursor moves an intersection by the operation of the user.
表示装置の周辺のユーザの位置及びユーザの動作に関する動作情報を検出する装置から取得したユーザの位置に関する位置情報に基づきユーザを誘導する1つ以上の情報処理装置を有する表示システムであって、
前記表示装置における表示位置に前記位置情報を変換し、前記表示位置にユーザの位置を表すユーザ位置表示情報を表示する位置表示手段を有し、
前記位置表示手段は、ユーザが前記表示装置に表示される内容を前記ユーザの動作に応じて操作する位置に前記ユーザを誘導するための誘導位置表示情報を前記表示装置に表示し、
前記位置表示手段は、前記装置がユーザを検出できる検出範囲を前記表示装置に表示し、
前記動作情報を取得する動作情報取得手段と、
前記動作情報に基づいて前記情報処理装置で動作するアプリケーションソフトの操作を受け付ける操作受付手段と、を有し、
前記装置から前記ユーザが手を挙げた旨の前記動作情報を受信した場合、前記位置表示手段は前記ユーザ位置表示情報を人が手を挙げた形状で表示し、前記操作受付手段は手を挙げたユーザにのみ操作権を与え、他のユーザが手を挙げても操作を受け付けない表示システム。
A display system having one or more information processing devices that guide a user based on the position information about the user's position acquired from the device that detects the user's position around the display device and the operation information about the user's operation.
It has a position display means for converting the position information into a display position in the display device and displaying the user position display information indicating the user's position at the display position.
The position display means displays on the display device guidance position display information for guiding the user to a position where the user operates the contents displayed on the display device according to the operation of the user.
The position display means displays on the display device a detection range in which the device can detect a user.
An operation information acquisition means for acquiring the operation information and
It has an operation receiving means for receiving an operation of application software operating in the information processing device based on the operation information.
When the operation information indicating that the user has raised his / her hand is received from the device, the position display means displays the user position display information in the form of a person raising his / her hand, and the operation receiving means raises his / her hand. A display system that gives operation rights only to users who have used it, and does not accept operations even if other users raise their hands.
表示装置の周辺のユーザの位置を検出し、ユーザの位置に関する位置情報とユーザの動作に関する動作情報を検出する装置と、
前記装置からユーザの位置に関する位置情報及び前記動作情報を取得する動作情報取得手段と、
前記表示装置における表示位置に前記位置情報を変換し、前記表示位置にユーザの位置を表すユーザ位置表示情報を表示する位置表示手段
前記動作情報に基づいて情報処理装置で動作するアプリケーションソフトの操作を受け付ける操作受付手段、として前記情報処理装置を機能させ、
前記位置表示手段、ユーザが前記表示装置に表示される内容を前記ユーザの動作に応じて操作する位置に前記ユーザを誘導するための誘導位置表示情報表示
前記装置から前記ユーザが手を挙げた旨の前記動作情報を受信した場合、前記位置表示手段は前記ユーザ位置表示情報を人が手を挙げた形状で表示し、前記操作受付手段は手を挙げたユーザにのみ操作権を与え、他のユーザが手を挙げても操作を受け付けないプログラムと、
前記装置がユーザを検出できる検出範囲が表示される前記表示装置と、
を有する表示システム。
A device that detects the user's position around the display device and detects the position information related to the user's position and the operation information related to the user's operation .
An operation information acquisition means for acquiring position information regarding a user's position and the operation information from the device, and
A position display means that converts the position information into a display position in the display device and displays the user position display information indicating the user's position at the display position.
Operation acceptance means for accepting an operation of application software that operates in the information processing device based on the operation information, and then caused to function the information processing apparatus,
It said position display means displays the derived position display information for the user to guide the user in a position to operate in accordance with contents displayed on the display device to the operation of the user,
When the operation information indicating that the user has raised his / her hand is received from the device, the position display means displays the user position display information in the form of a person raising his / her hand, and the operation receiving means raises his / her hand. A program that gives the operation right only to the user who has the information and does not accept the operation even if another user raises his / her hand.
The display device that displays the detection range in which the device can detect the user,
Display system having a.
情報処理装置にインストールされると、前記情報処理装置を、
表示装置の周辺のユーザの位置及びユーザの動作に関する動作情報を検出する装置からユーザの位置に関する位置情報及び前記動作情報を取得する動作情報取得手段と、
前記表示装置における表示位置に前記位置情報を変換し、前記表示位置にユーザの位置を表すユーザ位置表示情報を表示する位置表示手段
前記動作情報に基づいて前記情報処理装置で動作するアプリケーションソフトの操作を受け付ける操作受付手段、として機能させるプログラムであって、
前記位置表示手段は、ユーザが前記表示装置に表示される内容を前記ユーザの動作に応じて操作する位置に前記ユーザを誘導するための誘導位置表示情報を前記表示装置に表示し、
前記位置表示手段は、前記装置がユーザを検出できる検出範囲を前記表示装置に表示し、
前記装置から前記ユーザが手を挙げた旨の前記動作情報を受信した場合、前記位置表示手段は前記ユーザ位置表示情報を人が手を挙げた形状で表示し、前記操作受付手段は手を挙げたユーザにのみ操作権を与え、他のユーザが手を挙げても操作を受け付けないプログラム。
When installed in the information processing device, the information processing device is installed.
An operation information acquisition means for acquiring the position information regarding the user's position and the operation information from the device for detecting the user's position around the display device and the operation information regarding the user's operation, and
A position display means that converts the position information into a display position in the display device and displays the user position display information indicating the user's position at the display position.
A program that functions as an operation receiving means that accepts operations of application software that operates in the information processing device based on the operation information.
The position display means displays on the display device guidance position display information for guiding the user to a position where the user operates the contents displayed on the display device according to the operation of the user.
The position display means displays on the display device a detection range in which the device can detect a user.
When the operation information indicating that the user has raised his / her hand is received from the device, the position display means displays the user position display information in the form of a person raising his / her hand, and the operation receiving means raises his / her hand. A program that gives operation rights only to users who have used it, and does not accept operations even if other users raise their hands.
JP2016133365A 2016-07-05 2016-07-05 Information processing equipment, display system, program Active JP6834197B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016133365A JP6834197B2 (en) 2016-07-05 2016-07-05 Information processing equipment, display system, program
EP17178703.9A EP3267289B1 (en) 2016-07-05 2017-06-29 Information processing apparatus, position information generation method, and information processing system
US15/640,730 US10936077B2 (en) 2016-07-05 2017-07-03 User-interactive gesture and motion detection apparatus, method and system, for tracking one or more users in a presentation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016133365A JP6834197B2 (en) 2016-07-05 2016-07-05 Information processing equipment, display system, program

Publications (2)

Publication Number Publication Date
JP2018005663A JP2018005663A (en) 2018-01-11
JP6834197B2 true JP6834197B2 (en) 2021-02-24

Family

ID=60945009

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016133365A Active JP6834197B2 (en) 2016-07-05 2016-07-05 Information processing equipment, display system, program

Country Status (1)

Country Link
JP (1) JP6834197B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019164986A1 (en) 2018-02-20 2019-08-29 Uplift Labs, Inc. Identifying movements and generating prescriptive analytics using movement intelligence
JP7179180B2 (en) * 2019-07-01 2022-11-28 三菱電機株式会社 Display control device and display control method
CN111601129B (en) 2020-06-05 2022-04-01 北京字节跳动网络技术有限公司 Control method, control device, terminal and storage medium
TW202332246A (en) * 2021-12-20 2023-08-01 日商索尼集團公司 Display device, display method, and display program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9898675B2 (en) * 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
JP5039808B2 (en) * 2010-03-16 2012-10-03 株式会社コナミデジタルエンタテインメント GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP5494284B2 (en) * 2010-06-24 2014-05-14 ソニー株式会社 3D display device and 3D display device control method
JP5921981B2 (en) * 2012-07-25 2016-05-24 日立マクセル株式会社 Video display device and video display method
US8970390B2 (en) * 2012-08-29 2015-03-03 3M Innovative Properties Company Method and apparatus of aiding viewing position adjustment with autostereoscopic displays

Also Published As

Publication number Publication date
JP2018005663A (en) 2018-01-11

Similar Documents

Publication Publication Date Title
US10936077B2 (en) User-interactive gesture and motion detection apparatus, method and system, for tracking one or more users in a presentation
US10511778B2 (en) Method and apparatus for push interaction
US6594616B2 (en) System and method for providing a mobile input device
US20180292907A1 (en) Gesture control system and method for smart home
US10268339B2 (en) Enhanced camera-based input
US9684372B2 (en) System and method for human computer interaction
US20130055143A1 (en) Method for manipulating a graphical user interface and interactive input system employing the same
JP5103380B2 (en) Large touch system and method of interacting with the system
US9195345B2 (en) Position aware gestures with visual feedback as input method
JP4323180B2 (en) Interface method, apparatus, and program using self-image display
US20160291699A1 (en) Touch fee interface for augmented reality systems
US20150220149A1 (en) Systems and methods for a virtual grasping user interface
US20120326995A1 (en) Virtual touch panel system and interactive mode auto-switching method
US20130194173A1 (en) Touch free control of electronic systems and associated methods
JP6834197B2 (en) Information processing equipment, display system, program
US9547370B2 (en) Systems and methods for enabling fine-grained user interactions for projector-camera or display-camera systems
Mäkelä et al. " It's Natural to Grab and Pull": Retrieving Content from Large Displays Using Mid-Air Gestures
Clark et al. Seamless interaction in space
EP3447610B1 (en) User readiness for touchless gesture-controlled display systems
US9958946B2 (en) Switching input rails without a release command in a natural user interface
Zhang et al. A novel human-3DTV interaction system based on free hand gestures and a touch-based virtual interface
US20160266648A1 (en) Systems and methods for interacting with large displays using shadows
US20090213067A1 (en) Interacting with a computer via interaction with a projected image
JP6699406B2 (en) Information processing device, program, position information creation method, information processing system
Sharma et al. Interactive projector screen with hand detection using gestures

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190522

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210118

R151 Written notification of patent or utility model registration

Ref document number: 6834197

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151