JP2018005663A - Information processing unit, display system, and program - Google Patents

Information processing unit, display system, and program Download PDF

Info

Publication number
JP2018005663A
JP2018005663A JP2016133365A JP2016133365A JP2018005663A JP 2018005663 A JP2018005663 A JP 2018005663A JP 2016133365 A JP2016133365 A JP 2016133365A JP 2016133365 A JP2016133365 A JP 2016133365A JP 2018005663 A JP2018005663 A JP 2018005663A
Authority
JP
Japan
Prior art keywords
user
display
information
information processing
cursor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016133365A
Other languages
Japanese (ja)
Other versions
JP6834197B2 (en
Inventor
篤司 舟波
Tokuji Funanami
篤司 舟波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016133365A priority Critical patent/JP6834197B2/en
Priority to EP17178703.9A priority patent/EP3267289B1/en
Priority to US15/640,730 priority patent/US10936077B2/en
Publication of JP2018005663A publication Critical patent/JP2018005663A/en
Application granted granted Critical
Publication of JP6834197B2 publication Critical patent/JP6834197B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing unit capable of guiding a user to a location for operating an operation target.SOLUTION: An information processing unit 30 acquires positional information on a position of a user from a device 10 for detecting a position of the user in a periphery of a display device. The information processing unit includes position display means 42 configured to convert the positional information to a display position in the display device, and to display user position display information representing the position of the user at the display position. The position display means displays, on the display device, guide position display information for guiding the user to a location for operating a content displayed on the display device according to a movement of the user.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、表示システム及びプログラムに関する。   The present invention relates to an information processing apparatus, a display system, and a program.

人が集まる場所や通過する場所に設置されたディスプレイに情報を表示するシステムが知られている。ディスプレイにはネットワークなどを介して情報処理装置が接続されており、静止画や動画を情報処理装置がディスプレイに表示させることで、情報処理装置は例えば広告、天気、ニュースなどの有益な情報を発信できる。このようなシステムや仕組みをデジタルサイネージと称する。ディスプレイは屋外、店頭、公共空間、交通機関、通路などに設置されており、往来者、来客者、施設の利用者(以下、単にユーザという)等に詳細かつ新しい情報を提供できる。   There is known a system for displaying information on a display installed at a place where people gather or pass. An information processing device is connected to the display via a network or the like, and the information processing device displays useful information such as advertisements, weather, news, etc. by displaying still images and moving images on the display. it can. Such a system or mechanism is referred to as digital signage. The displays are installed outdoors, in stores, public spaces, transportation facilities, passages, and the like, and can provide detailed and new information to visitors, visitors, facility users (hereinafter simply referred to as users), and the like.

ところで、現状のデジタルサイネージのうち特に大画面のデジタルサイネージは一方的に情報を表示することが主な機能となっている。しかしながら、ユーザから見ると、情報が刻々と変化するため表示されたある情報に興味を持ってもゆっくりと閲覧することができない場合がある。また、情報の提供者から見ると、情報を流しているだけでユーザからのリアクションが得られないので、どのような情報にユーザが興味を示したかを把握できない。また、デジタルサイネージの情報を窓口にしてユーザがより詳細な情報を表示させたり、ユーザが興味を持った情報の詳細情報を提供者が提供したくても困難である。すなわち、従来のデジタルサイネージではインタラクティブ(双方向性)な操作が困難であった。   By the way, the main function is to display information unilaterally especially in the large-screen digital signage among the current digital signage. However, when viewed from the user, the information changes from moment to moment, so even if you are interested in the displayed information, you may not be able to browse slowly. Further, when viewed from the information provider, it is impossible to grasp what information the user has shown to interest because no reaction can be obtained from the user simply by flowing the information. In addition, it is difficult even if the user wants to display more detailed information using the digital signage information as a window, or the provider wants to provide detailed information on the information that the user is interested in. In other words, interactive (bidirectional) operation is difficult with conventional digital signage.

インタラクティブな操作を実現するにはディスプレイの近くにユーザが操作を入力するための入力装置が用意されていればよいが、設置スペースの確保が難しかったり、設置スペースがあるとしても入力装置の破損や盗難のおそれがある。そこで、ユーザのジェスチャーをデジタルサイネージが検出して操作を受け付ける操作態様が検討される(例えば、特許文献1参照。)。特許文献1には、検出したユーザの動きから、表示面に表示されるカーソルを移動させると共に、ユーザとの距離に基づいてカーソルの動きを調整するポインティング制御装置が開示されている。   In order to realize interactive operation, an input device for the user to input operations needs to be prepared near the display. However, it is difficult to secure an installation space, and even if there is an installation space, the input device may be damaged. There is a risk of theft. Therefore, an operation mode in which a digital signage detects a user's gesture and receives an operation is studied (for example, see Patent Document 1). Patent Document 1 discloses a pointing control device that moves a cursor displayed on a display surface based on a detected user movement and adjusts the movement of the cursor based on a distance from the user.

しかしながら、特許文献1には、どこに移動すればユーザがデジタルサイネージを操作できるかをユーザに把握させることができないという問題がある。以下、説明する。デジタルサイネージは多くのユーザが往来したり存在する場所に設置されるため、同時に一人の人間だけがデジタルサイネージを見ることは少ない。つまり、デジタルサイネージは同時に複数のユーザにより見られる可能性が高く、デジタルサイネージを見ることができる全てのユーザがデジタルサイネージを操作できてしまうと、各ユーザが所望の操作を行うことは困難になる。また、全てのユーザが操作できてしまうと単に通りかかったユーザの無意識の動作が、本当にデジタルサイネージを操作したいユーザの操作を邪魔してしまうおそれがある。   However, Patent Document 1 has a problem that the user cannot grasp where the user can operate the digital signage. This will be described below. Since digital signage is installed where many users come and go, only one person can see digital signage at the same time. In other words, digital signage is likely to be seen by multiple users at the same time, and if all users who can see digital signage can operate digital signage, it becomes difficult for each user to perform a desired operation. . In addition, if all users can operate, the user's unconscious operation that has just passed may interfere with the operation of the user who really wants to operate digital signage.

このような不都合に対し、特定の位置に立っているユーザのみの動作を動作検出装置が検知する方法が考えられる。特定の位置がそれほど広くなければ、動作検出装置が動作を検知するユーザを所定数(例えば一人)に限定できる。   For such inconvenience, a method in which the motion detection device detects the motion of only the user standing at a specific position is conceivable. If the specific position is not so wide, the number of users whose motion is detected by the motion detection device can be limited to a predetermined number (for example, one person).

しかし、物理的な指標(テープやペイントなどのマーキング)で特定の位置をユーザに把握させるためには、デジタルサイネージの管理者などが別途、指標を準備する必要がある。また、動作検出装置がユーザの動作を検知できる位置に合わせて指標を準備する必要があり、セッティングに時間やコストがかかってしまう。   However, in order for a user to grasp a specific position using a physical index (marking such as tape or paint), an administrator of the digital signage needs to prepare the index separately. In addition, it is necessary to prepare an index in accordance with a position where the motion detection device can detect the user's motion, and setting takes time and cost.

本発明は、上記課題に鑑み、操作対象を操作する場所にユーザを誘導できる情報処理装置を提供することを目的する。   An object of the present invention is to provide an information processing apparatus capable of guiding a user to a place where an operation target is operated.

本発明は、表示装置の周辺のユーザの位置を検出する装置から、ユーザの位置に関する位置情報を取得する情報処理装置であって、前記表示装置における表示位置に前記位置情報を変換し、前記表示位置にユーザの位置を表すユーザ位置表示情報を表示する位置表示手段を有し、前記位置表示手段は、ユーザが前記表示装置に表示される内容を前記ユーザの動作に応じて操作する位置に前記ユーザを誘導するための誘導位置表示情報を前記表示装置に表示する。   The present invention is an information processing apparatus that acquires position information related to a user's position from a device that detects a position of a user around the display device, the position information being converted into a display position on the display device, and the display Position display means for displaying user position display information representing the position of the user at the position, the position display means at the position where the user operates the content displayed on the display device according to the operation of the user; Guidance position display information for guiding the user is displayed on the display device.

操作対象を操作する場所にユーザを誘導できる情報処理装置を提供することができる。   An information processing apparatus capable of guiding a user to a place where an operation target is operated can be provided.

情報処理システムが有するディスプレイとカーソルの位置の制御について説明する図の一例である。It is an example of the figure explaining control of the position of the display and cursor which an information processing system has. 情報処理システムのシステム構成図の一例である。1 is an example of a system configuration diagram of an information processing system. 情報処理装置のハードウェア構成図の一例である。It is an example of the hardware block diagram of information processing apparatus. 動作検出装置のハードウェア構成図の一例である。It is an example of the hardware block diagram of an operation | movement detection apparatus. 三次元座標が得られる関節を示す図である。It is a figure which shows the joint from which a three-dimensional coordinate is obtained. アプリケーションソフトとジェスチャー操作受付プログラムの関係を説明する図の一例である。It is an example of the figure explaining the relationship between application software and a gesture operation reception program. ジェスチャー操作受付プログラムの機能がブロック状に示された機能ブロック図の一例である。It is an example of the functional block diagram in which the function of the gesture operation reception program was shown in the block shape. 動作検出装置に対する人の検出範囲と操作位置を説明する図の一例である。It is an example of the figure explaining the detection range and operation position of a person with respect to a motion detection apparatus. 検出範囲を立体的に示す図の一例である。It is an example of the figure which shows a detection range in three dimensions. 操作エリアを説明する図の一例である。It is an example of the figure explaining an operation area. 操作エリアを詳細に説明する図の一例である。It is an example of the figure explaining an operation area in detail. ユーザの非操作動作を説明する図の一例である。It is an example of the figure explaining a user's non-operation operation | movement. 図12の立方体を側方から見た図の一例である。It is an example of the figure which looked at the cube of FIG. 12 from the side. 操作エリアにおける手首関節又は手関節の座標とカーソルの位置を示す図の一例である。It is an example of the figure which shows the coordinate of a wrist joint or a wrist joint, and the position of a cursor in an operation area. ユーザUの手首関節又は手関節の三次元座標を側方から見た図である。It is the figure which looked at the three-dimensional coordinate of the wrist joint or wrist joint of the user U from the side. 操作エリアの変形例を説明する図の一例である。It is an example of the figure explaining the modification of an operation area. 手首関節又は手関節の速さの検出方法を説明する図の一例である。It is an example of the figure explaining the detection method of the speed of a wrist joint or a wrist joint. イベントの検出方法について説明する図の一例である。It is an example of the figure explaining the detection method of an event. 速さが閾値未満の場合の座標変換を説明する図の一例である。It is an example of the figure explaining coordinate conversion in case speed is less than a threshold value. 動作検出装置によりユーザが検出された時の操作受付支援アイコンを示す図の一例である。It is an example of the figure which shows the operation reception assistance icon when a user is detected by the motion detection apparatus. 操作受付支援アイコンにおける人アイコンの位置の算出方法を説明する図の一例である。It is an example of the figure explaining the calculation method of the position of the person icon in an operation reception assistance icon. ユーザが操作位置で手を挙げた際の操作受付支援アイコンを示す図の一例である。It is an example of the figure which shows the operation reception assistance icon when a user raises a hand in an operation position. ユーザが操作位置で手を挙げているが手首関節又は手関節の速さが閾値未満の場合のガイドメッシュを示す図の一例である。It is an example of the figure which shows a guide mesh in case the user is raising the hand in the operation position, but the wrist joint or the speed of a wrist joint is less than a threshold value. ジェスチャー操作受付プログラムがユーザに操作権を付与するまでの手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the procedure until a gesture operation reception program gives an operation right to a user. ジェスチャー操作受付プログラムがユーザの操作を受け付けてアプリケーションソフトを操作する手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the procedure in which a gesture operation reception program receives a user's operation and operates application software. 顔向きなどの分析のために情報記録部が記録するセンサ情報の一例を示す図である。It is a figure which shows an example of the sensor information which an information recording part records for analysis, such as face orientation. 図26のセンサ情報が取得された際に情報記録部が取得したスクリーンショットを示す図の一例である。It is an example of the figure which shows the screenshot which the information recording part acquired when the sensor information of FIG. 26 was acquired. 検出されないユーザを説明する図の一例である。It is an example of the figure explaining the user who is not detected. 情報記録部がセンサ情報DBに記憶したセンサ情報の解析例を説明する図の一例である。It is an example of the figure explaining the example of analysis of the sensor information which the information recording part memorize | stored in sensor information DB.

以下、本発明を実施するための情報処理システム100及び情報処理システム100が行う位置情報作成方法について図面を参照しながら説明する。   Hereinafter, an information processing system 100 for implementing the present invention and a position information creation method performed by the information processing system 100 will be described with reference to the drawings.

<情報処理システムの概略的特徴>
図1を用いて、情報処理システム100の概略的特徴について説明する。図1は、操作位置52へのユーザの誘導を説明する図の一例である。
<Schematic features of information processing system>
The general features of the information processing system 100 will be described with reference to FIG. FIG. 1 is an example of a diagram for explaining user guidance to the operation position 52.

図1(a)に示すように、ディスプレイ310にはデジタルサイネージとしてのコンテンツのリスト101や動画102が表示されると共に操作入力のための各種の操作ボタン103(動画102の再生、停止等)が表示されている。また、ディスプレイ310の下部には動作検出装置10が設置されている。動作検出装置10は、一定の角度範囲内かつ一定距離内の人の検出範囲51に進入したユーザを検出する。また、動作検出装置10は操作位置52のユーザの立ち位置と動作を検出する。   As shown in FIG. 1A, the display 310 displays a content list 101 and a moving image 102 as digital signage, and various operation buttons 103 (play, stop, etc. of the moving image 102) for operation input. It is displayed. In addition, the motion detection device 10 is installed below the display 310. The motion detection device 10 detects a user who has entered a human detection range 51 within a certain angular range and within a certain distance. Further, the motion detection device 10 detects the user's standing position and motion at the operation position 52.

ディスプレイ310は常時、操作受付支援アイコン81が表示されている。あるいは、動作検出装置10がユーザを検出した場合にだけ表示されてもよい。操作受付支援アイコン81には、後述する操作位置指示表示83が表示されている。動作検出装置10がユーザUを検出すると、情報処理装置30は操作受付支援アイコン81にはユーザUを表す人アイコン82を表示する。人アイコン82は、検出範囲51におけるユーザの位置に対応する操作受付支援アイコン81内の位置に人アイコン82を表示する。   The display 310 always displays an operation reception support icon 81. Alternatively, it may be displayed only when the motion detection device 10 detects a user. On the operation reception support icon 81, an operation position instruction display 83 described later is displayed. When the motion detection apparatus 10 detects the user U, the information processing apparatus 30 displays a person icon 82 representing the user U on the operation reception support icon 81. The person icon 82 displays the person icon 82 at a position in the operation reception support icon 81 corresponding to the position of the user in the detection range 51.

したがって、ディスプレイ310を見ているユーザは、自分が検出されたことを把握できる。また、ユーザが動くと、人アイコン82も移動することを把握できる。   Therefore, the user watching the display 310 can grasp that he / she has been detected. Further, it can be understood that the person icon 82 moves when the user moves.

デジタルサイネージを操作するためにユーザは人アイコン82を操作位置指示表示83に移動させなければならないことをガイドラインなどにより知っている。ユーザは自分の移動に伴って位置が変わる人アイコン82が操作位置指示表示83に進入するように、検出範囲51内を移動する。操作位置指示表示83に人アイコン82が存在する場合、ユーザが操作位置52に存在する。   In order to operate the digital signage, the user knows from the guidelines that the person icon 82 must be moved to the operation position instruction display 83. The user moves within the detection range 51 so that the person icon 82 whose position changes with his / her movement enters the operation position instruction display 83. When the person icon 82 is present on the operation position instruction display 83, the user is present at the operation position 52.

このように、人アイコン82が操作位置指示表示83に移動するようにユーザが移動することで、ユーザは自然に動作検出装置10がユーザの動作を検出する操作位置52に移動することができる。したがって、情報処理装置30は、ユーザの位置を検出してこの位置を操作受付支援アイコン81上の位置に変換して表示することで、操作位置52へユーザを誘導することができる。   In this way, the user moves so that the person icon 82 moves to the operation position instruction display 83, so that the user can naturally move to the operation position 52 where the motion detection device 10 detects the user's motion. Therefore, the information processing apparatus 30 can guide the user to the operation position 52 by detecting the position of the user and converting the position into a position on the operation reception support icon 81 and displaying it.

したがって、本実施形態の情報処理システムは、デジタルサイネージの管理者などが操作位置52に物理的な指標(テープやペイントなどのマーキング)を施すことなく、どこに移動すればユーザがデジタルサイネージを操作できるかをユーザに把握させることができる。ただし、物理的な指標がある場合、ユーザは更に操作位置52を把握しやすい。   Therefore, the information processing system according to the present embodiment allows the user to operate the digital signage wherever the user moves without the physical sign (marking such as tape or paint) being applied to the operation position 52 by the digital signage administrator or the like. It is possible to make the user grasp this. However, when there is a physical index, the user can easily grasp the operation position 52.

<用語について>
ユーザの位置に関する位置情報とは、ユーザの位置を特定する情報やユーザの位置を表す情報などである。例えば、動作検出装置10に対する相対的な位置であるが、動作検出装置10と表示装置の位置が固定的であれば、表示装置に対する相対位置と称してよい。なお、位置情報は座標などを含む絶対位置でもよい。
<Terminology>
The position information related to the user's position includes information for specifying the user's position, information representing the user's position, and the like. For example, the relative position with respect to the motion detection device 10 may be referred to as the relative position with respect to the display device if the position of the motion detection device 10 and the display device is fixed. The position information may be an absolute position including coordinates.

表示装置における表示位置とは、ディスプレイなどの表示装置上の位置をいう。具体的には、カーソルなどで表示位置が示される。   The display position in the display device refers to a position on a display device such as a display. Specifically, the display position is indicated by a cursor or the like.

表示装置に表示される内容とは、表示され視覚的に判断できる情報の全般をいう。内容と共に音声が流れる場合は、音声も内容に含まれる。本実施形態ではコンテンツという用語で説明する。   The content displayed on the display device refers to all information that is displayed and can be visually judged. If audio flows with the content, the audio is also included in the content. In this embodiment, the term “content” will be used.

ユーザ位置表示情報は、表示装置においてユーザ又はユーザの位置を表す表示情報である。本実施形態では人アイコン82という用語で説明する。   The user position display information is display information indicating the user or the position of the user on the display device. In the present embodiment, the term human icon 82 will be used.

誘導位置表示情報は、表示装置においてユーザを所定位置に誘導するための表示情報である。あるいは、ユーザの好ましい位置を表す表示情報である。本実施形態では操作位置指示表示83という用語で説明する。   The guidance position display information is display information for guiding the user to a predetermined position on the display device. Or it is display information showing a user's desirable position. In this embodiment, the term “operation position instruction display 83” is used.

動作情報とは、ユーザの動作を表す情報である。あるいは、ユーザの動作が情報処理装置に解釈できる形態に変換された情報である。あるいは、ユーザの動作を情報処理装置に非接触で入力するための情報である。具体的には、位置、姿勢、手足の動きなどであり、本実施形態ではセンサ情報という用語で説明する。   The operation information is information representing the user's operation. Or it is the information converted into the form which a user's operation | movement can interpret into an information processing apparatus. Or it is the information for inputting a user's operation into an information processor by non-contact. Specifically, the position, posture, movement of limbs, and the like are described in the present embodiment in terms of sensor information.

予め定められた速さの条件に合致する場合の条件とは、カーソルの位置の制御に関するユーザの意図を検出するための条件をいう。この意図は位置を精度よく制御したい意図をいう。条件に合致する場合とは、例えば、速さが閾値未満であること、速さが所定の範囲内であること、等が挙げられる。以下では、速さが閾値未満であることを例にして説明する。   The condition when the predetermined speed condition is met refers to a condition for detecting the user's intention regarding the control of the cursor position. This intention is an intention to control the position with high accuracy. The case where the conditions are met includes, for example, that the speed is less than a threshold and the speed is within a predetermined range. In the following, the case where the speed is less than the threshold value will be described as an example.

<システム構成例>
図2は、情報処理システム100のシステム構成図の一例である。図2(a)に示すように、情報処理システム100は、ディスプレイ310、動作検出装置10及び情報処理装置30を有する。動作検出装置10は情報処理装置30とUSBケーブルやIEEE1394などのケーブルで接続されており、情報処理装置30とディスプレイ310はDisplayPort(登録商標)、DVI(Digital Visual Interface)、HDMI(登録商標。High-Definition Multimedia Interface)及びVGA(Video Graphics Array)等の規格による通信が可能なケーブルを介して接続されている。なお、動作検出装置10と情報処理装置30は、無線LAN、Bluetooth(登録商標)、ZigBee(登録商標)などの無線で通信してもよい。同様に、情報処理装置30とディスプレイ310は、無線LAN、HDMIの無線規格などの無線で通信してもよい。
<System configuration example>
FIG. 2 is an example of a system configuration diagram of the information processing system 100. As illustrated in FIG. 2A, the information processing system 100 includes a display 310, an operation detection device 10, and an information processing device 30. The motion detection device 10 is connected to the information processing device 30 by a cable such as a USB cable or IEEE1394, and the information processing device 30 and the display 310 are DisplayPort (registered trademark), DVI (Digital Visual Interface), HDMI (registered trademark, High. -It is connected via a cable that can communicate with standards such as Definition Multimedia Interface (VGA) and Video Graphics Array (VGA). Note that the motion detection device 10 and the information processing device 30 may communicate with each other wirelessly such as a wireless LAN, Bluetooth (registered trademark), or ZigBee (registered trademark). Similarly, the information processing apparatus 30 and the display 310 may communicate wirelessly such as a wireless LAN or HDMI wireless standard.

情報処理装置30は、PC(Personal Computer)、タブレット端末、スマートフォン、携帯電話、PDA(Personal Digital Assistant)などの汎用的なものを利用できる。情報処理装置30ではOS(Operating System)が動作しており、マウスやタッチパネルなどのポインティングデバイスの位置を検出しこの位置にカーソル3を表示する機能を有する。また、OSはポインティングデバイスにより行われるイベント(左クリック、右クリック、ダブルクリック、マウスオーバー、マウスダウン、マウスアップなど)を検出する。また、情報処理装置30はOS上で各種のアプリケーションソフトを動作させている。OSはポインティングデバイスの位置とイベントをアプリケーションソフトに通知するため、アプリケーションソフトはポインティングデバイスの位置で行われたイベントに基づき動作する。   The information processing apparatus 30 can use general-purpose devices such as a PC (Personal Computer), a tablet terminal, a smartphone, a mobile phone, and a PDA (Personal Digital Assistant). An OS (Operating System) operates in the information processing apparatus 30 and has a function of detecting the position of a pointing device such as a mouse or a touch panel and displaying the cursor 3 at this position. Further, the OS detects an event (left click, right click, double click, mouse over, mouse down, mouse up, etc.) performed by the pointing device. The information processing apparatus 30 operates various application software on the OS. Since the OS notifies the application software of the position and event of the pointing device, the application software operates based on the event performed at the position of the pointing device.

本実施形態では、動作検出装置10と後述するジェスチャー操作受付プログラムがポインティングデバイスとして動作する。ジェスチャー操作受付プログラムは、動作検出装置10からセンサ情報を取得してカーソル3の位置に変換したりイベントを検出するプログラムであり、情報処理装置30で動作している。このジェスチャー操作受付プログラム110がカーソル3の位置とイベントをアプリケーションソフト120に通知することで、アプリケーションソフト120はポインティングデバイスを意識することなく(ポインティングデバイスが動作検出装置10であることによる変更が必要なく)動作できる。   In the present embodiment, the motion detection apparatus 10 and a gesture operation reception program described later operate as a pointing device. The gesture operation reception program is a program that acquires sensor information from the motion detection device 10 and converts it to the position of the cursor 3 or detects an event, and operates on the information processing device 30. The gesture operation reception program 110 notifies the application software 120 of the position of the cursor 3 and the event, so that the application software 120 is not aware of the pointing device (no need to change due to the pointing device being the motion detection device 10). ) Can work.

ディスプレイ310は液晶型の表示装置、有機ELを発光原理とする表示装置、又は、プラズマ発光を利用した表示装置などである。アプリケーションソフト120はCUI(Character User Interface)やGUI(Graphical User Interface)と呼ばれる画面を作成しディスプレイ310に表示させる。   The display 310 is a liquid crystal display device, a display device using an organic EL as a light emission principle, a display device using plasma light emission, or the like. The application software 120 creates a screen called CUI (Character User Interface) or GUI (Graphical User Interface) and displays it on the display 310.

なお、ディスプレイ310として、ディスプレイ310を備えた何らかの装置を使用してもよい。例えば電子黒板、ノートPCなどが備えるディスプレイをディスプレイ310として使用できる。   As the display 310, any device provided with the display 310 may be used. For example, a display provided in an electronic blackboard, a notebook PC, or the like can be used as the display 310.

動作検出装置10は、人の動作を検出するセンサである。例えば、ステレオカメラで空間を撮像すると画像データの画素毎に視差が得られ画素毎の距離情報が得られる。また、画像データをパターン認識することで人を検出したり、人の動作を認識することが可能になる。具体的には、人の手のひら、手首、肩等の三次元座標、姿勢などが得られる。このような人の動作の検出に適したセンサとしてキネクト(登録商標。以下、登録商標という付記を省略する)が知られている。キネクトについて詳細は後述する。なお、動作検出装置10はキネクトでなくてもよく、キネクトと同様の機能を備えたセンサ、ステレオカメラ、TOF(Time Of Flight)等により距離を検出するカメラなどでもよい。   The motion detection device 10 is a sensor that detects a human motion. For example, when a space is imaged with a stereo camera, parallax is obtained for each pixel of the image data, and distance information for each pixel is obtained. In addition, it is possible to detect a person and recognize a person's movement by recognizing the pattern of the image data. Specifically, three-dimensional coordinates such as the palm of the person, wrist, and shoulder, and posture can be obtained. Kinect (registered trademark, hereinafter abbreviated as a registered trademark) is known as a sensor suitable for detecting such human movements. Details of Kinect will be described later. Note that the motion detection apparatus 10 may not be a kinetic, but may be a sensor having a function similar to that of a kinetic, a stereo camera, a camera that detects a distance using TOF (Time Of Flight), or the like.

なお、図2(a)の動作検出装置10の設置位置は一例であり、ディスプレイ310の上方、左側、又は右側に設置されてもよい。また、情報処理装置30での設置位置も一例に過ぎず、例えばディスプレイ310の背後など設置されてもよい。また、ネットワークを介して動作検出装置10と接続されていてもよい。   Note that the installation position of the motion detection device 10 in FIG. 2A is an example, and may be installed on the upper side, the left side, or the right side of the display 310. Further, the installation position in the information processing apparatus 30 is merely an example, and may be installed behind the display 310, for example. Moreover, you may connect with the operation | movement detection apparatus 10 via the network.

図2(b)に示すように、情報処理システム100がディスプレイ310の代わりにプロジェクタ5を有していてもよい。この場合、情報処理システム100は、動作検出装置10、プロジェクタ5、及び情報処理装置30を有する。プロジェクタ5は、LCD(透過型液晶)方式、LCOS(反射型液晶)方式、又はDLP(Digital Light Processing)方式などで画像をスクリーンなどの投影面6に投影する表示装置である。   As illustrated in FIG. 2B, the information processing system 100 may include a projector 5 instead of the display 310. In this case, the information processing system 100 includes the motion detection device 10, the projector 5, and the information processing device 30. The projector 5 is a display device that projects an image on a projection surface 6 such as a screen by an LCD (transmission type liquid crystal) method, an LCOS (reflection type liquid crystal) method, or a DLP (Digital Light Processing) method.

プロジェクタ5と情報処理装置30は、ディスプレイ310と情報処理装置30間の接続態様と同様に接続されている。プロジェクタ5は、いわゆる極単焦点から投影できることが好ましい。これにより、ユーザUが動作するスペースを確保しやすくなる。動作検出装置10は、プロジェクタ5よりもユーザU側にあってもよいし、スクリーン側にあってもよい。スクリーン側にある場合はスクリーンの下辺、上辺、左辺又は右辺に固定されてよい。また、ユーザU側にある場合は用意された台の上に設置される。また、動作検出装置10がディスプレイ310の右端に設置されているのは一例であって、左端に設置されてもよい。右端又は左端に設置されるのは、プロジェクタ5の廃棄熱を避けるためである。廃棄熱を無視できる場合は、ディスプレイ310の中央に設置されてもよい。   The projector 5 and the information processing apparatus 30 are connected in the same manner as the connection mode between the display 310 and the information processing apparatus 30. The projector 5 is preferably capable of projecting from a so-called polar single focus. Thereby, it becomes easy to secure the space where the user U operates. The motion detection device 10 may be closer to the user U than the projector 5 or may be closer to the screen. When it is on the screen side, it may be fixed to the lower side, upper side, left side or right side of the screen. Moreover, when it exists in the user U side, it installs on the prepared stand. The motion detection device 10 is installed at the right end of the display 310 as an example, and may be installed at the left end. It is installed at the right end or the left end in order to avoid the waste heat of the projector 5. If the waste heat can be ignored, it may be installed at the center of the display 310.

なお、ディスプレイ310とプロジェクタ5を併用してもよい。この場合、例えばプロジェクタ5が床に向けて矢印などを投影することで、ユーザを操作位置52に誘導することができる。また、矢印を表示して進行方向を指示すること等ができる(例えば、エレベータはあちら、操作位置52はあちら等)。   Note that the display 310 and the projector 5 may be used in combination. In this case, for example, when the projector 5 projects an arrow or the like toward the floor, the user can be guided to the operation position 52. In addition, an arrow can be displayed to indicate the traveling direction (for example, the elevator is over and the operation position 52 is over).

<ハードウェア構成について>
<<情報処理装置30のハードウェア構成>>
図3は情報処理装置30のハードウェア構成図の一例である。情報処理装置30は、CPU301、ROM302、RAM303及び補助記憶装置304を備える。更に、私的使用サーバは、入力部305、表示制御部306、ネットワークI/F307及び外部機器I/F308を備える。なお、情報処理装置30の各部は、バスBを介して相互に接続されている。
<About hardware configuration>
<< Hardware configuration of information processing device 30 >>
FIG. 3 is an example of a hardware configuration diagram of the information processing apparatus 30. The information processing apparatus 30 includes a CPU 301, a ROM 302, a RAM 303, and an auxiliary storage device 304. The private use server further includes an input unit 305, a display control unit 306, a network I / F 307, and an external device I / F 308. Each unit of the information processing apparatus 30 is connected to each other via the bus B.

CPU301は、補助記憶装置304に格納された各種プログラム、OS等を実行する。ROM302は不揮発性メモリ16である。ROM302は、補助記憶装置304に格納された各種プログラムを、CPU301が実行するために必要なプログラム、データ等を格納する。   The CPU 301 executes various programs, OS, etc. stored in the auxiliary storage device 304. The ROM 302 is the nonvolatile memory 16. The ROM 302 stores programs, data, and the like necessary for the CPU 301 to execute various programs stored in the auxiliary storage device 304.

RAM303は、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等の主記憶装置である。CPU301によって実行される際に補助記憶装置304に格納された各種プログラムがRAM303に展開され、RAM303はCPU301の作業領域となる。   The RAM 303 is a main storage device such as a DRAM (Dynamic Random Access Memory) or an SRAM (Static Random Access Memory). Various programs stored in the auxiliary storage device 304 when executed by the CPU 301 are expanded in the RAM 303, and the RAM 303 becomes a work area of the CPU 301.

補助記憶装置304は、CPU301により実行される各種プログラム及び各種プログラムがCPU301により実行される際に利用される各種データベースを記憶する。補助記憶装置304は例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)などの不揮発性メモリである。   The auxiliary storage device 304 stores various programs executed by the CPU 301 and various databases used when the various programs are executed by the CPU 301. The auxiliary storage device 304 is a nonvolatile memory such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive).

入力部305は、オペレータが情報処理装置30に各種指示を入力するためのインタフェースである。例えば、キーボード、マウス、タッチパネル、音声入力装置などであるが、本実施形態では接続さてなくてよい。   The input unit 305 is an interface for an operator to input various instructions to the information processing apparatus 30. For example, a keyboard, a mouse, a touch panel, a voice input device, and the like may be used, but may not be connected in this embodiment.

表示制御部306は、CPU301からの要求により、情報処理装置30が有する各種情報をカーソル3、メニュー、ウィンドウ、文字、又は画像などの形態でディスプレイ310に表示する。表示制御部306は、例えばグラフィックチップやディスプレイ310I/Fである。   In response to a request from the CPU 301, the display control unit 306 displays various information included in the information processing apparatus 30 on the display 310 in the form of a cursor 3, a menu, a window, characters, an image, or the like. The display control unit 306 is, for example, a graphic chip or a display 310 I / F.

ネットワークI/F307は、ネットワークを介して、他の機器と通信を行う通信装置である。ネットワークI/F307は例えばイーサネット(登録商標)カードであるがこれに限られない。   The network I / F 307 is a communication device that communicates with other devices via a network. The network I / F 307 is, for example, an Ethernet (registered trademark) card, but is not limited thereto.

外部機器I/F308は、USBケーブル、又は、USBメモリ等の各種の記憶媒体320などを接続するためのインタフェースである。本実施形態では動作検出装置10が接続される。   The external device I / F 308 is an interface for connecting various storage media 320 such as a USB cable or a USB memory. In the present embodiment, the motion detection device 10 is connected.

なお、情報処理装置30は、いわゆるクラウドコンピューティングに対応していることが好ましく、情報処理装置30は、1つの筐体に収納されていたりひとまとまりの装置として備えられていたりする必要はない。この場合、情報処理装置30の構成は、負荷に応じてハード的なリソースが動的に接続・切断されることで構成される。   Note that the information processing apparatus 30 is preferably compatible with so-called cloud computing, and the information processing apparatus 30 does not need to be housed in a single housing or provided as a single device. In this case, the configuration of the information processing apparatus 30 is configured by dynamically connecting / disconnecting hardware resources according to the load.

<<動作検出装置10のハードウェア構成>>
図4は、動作検出装置10のハードウェア構成図の一例である。動作検出装置10は、CPU11、カラーカメラ12、赤外線カメラ13、赤外線プロジェクタ14、主記憶装置15、不揮発性メモリ16、マイク17、加速度センサ18、及びLED19を有する。CPUは不揮発性メモリ16に記憶されたファームウェアを主記憶装置15に展開して実行することで、動作検出装置10の全体を制御する。主記憶装置15は例えばDRAMなどの高速な揮発性メモリであり、不揮発性メモリ16はフラッシュメモリなどである。
<< Hardware configuration of motion detection device 10 >>
FIG. 4 is an example of a hardware configuration diagram of the motion detection apparatus 10. The motion detection device 10 includes a CPU 11, a color camera 12, an infrared camera 13, an infrared projector 14, a main storage device 15, a nonvolatile memory 16, a microphone 17, an acceleration sensor 18, and an LED 19. The CPU controls the entire operation detection device 10 by expanding and executing the firmware stored in the nonvolatile memory 16 in the main storage device 15. The main storage device 15 is a high-speed volatile memory such as a DRAM, and the nonvolatile memory 16 is a flash memory or the like.

カラーカメラ12は一例として1920×1080の解像度でカラー画像を撮像する撮像装置である。すなわち、画素毎にR・G・Bの濃度情報が得られている。赤外線カメラ13と赤外線プロジェクタ14はこれらで1つのデプスセンサ(距離センサ)として機能する。赤外線プロジェクタ14はパルス変調された赤外線を投光し、赤外線カメラ13が投光した赤外線を撮像する。デプスセンサは、赤外線を投光してから反射して戻ってくる時間を測定し、投光された赤外線ごとに距離情報を得る。なお、距離情報の解像度は512×424であるがあくまで一例である。   As an example, the color camera 12 is an imaging device that captures a color image with a resolution of 1920 × 1080. That is, R, G, and B density information is obtained for each pixel. The infrared camera 13 and the infrared projector 14 function as one depth sensor (distance sensor). The infrared projector 14 projects pulse-modulated infrared light and images the infrared light projected by the infrared camera 13. The depth sensor measures the time it returns after reflecting infrared light, and obtains distance information for each projected infrared light. Note that the resolution of the distance information is 512 × 424, but is merely an example.

また、デプスセンサが距離を測定する原理は一例に過ぎず、投光した赤外線パターンを赤外線カメラ13で撮像し、パターンのゆがみから距離情報を取得してもよい。   In addition, the principle that the depth sensor measures the distance is merely an example, and the projected infrared pattern may be captured by the infrared camera 13 to acquire distance information from the distortion of the pattern.

マイク17は周囲の音声を検出する装置であり、CPU11は複数のマイク17が検出する音声の位相を比較して音源の方向を推定する。加速度センサ18は動作検出装置10の水平に対する傾きを検出するセンサである。LED19は動作検出装置10の状態を色や点滅などで表示する。   The microphone 17 is a device that detects surrounding sounds, and the CPU 11 estimates the direction of the sound source by comparing the phases of the sounds detected by the plurality of microphones 17. The acceleration sensor 18 is a sensor that detects the inclination of the motion detection device 10 with respect to the horizontal. The LED 19 displays the state of the motion detection device 10 by color or blinking.

<動作検出装置10が取得する情報>
続いて、動作検出装置10が取得する情報について説明する。動作検出装置10が取得する情報であれば情報処理装置30が利用することができる。ただし、以下で説明する全ての情報を使用する必要はない。以下で説明される、動作検出装置10が取得する情報を「センサ情報」という。
<Information acquired by the motion detection device 10>
Next, information acquired by the motion detection device 10 will be described. Any information acquired by the motion detection device 10 can be used by the information processing device 30. However, it is not necessary to use all the information described below. Information acquired by the motion detection device 10 described below is referred to as “sensor information”.

1.カラー画像
画素毎にR・G・Bの濃度情報が含まれる画像データである。動作検出装置10の赤外線カメラ13は所定のフレームレート(例えば30fps)でカラー画像を撮像する。
1. Color image Image data including density information of R, G, and B for each pixel. The infrared camera 13 of the motion detection apparatus 10 captures a color image at a predetermined frame rate (for example, 30 fps).

2.距離画像
上記のように512×424の解像度で距離情報が得られた画像データである。動作検出装置10のデプスセンサは所定のフレームレート(例えば30fps)で距離画像を撮像する。したがって、所定の解像度でユーザUを含む対象までの距離が得られる。
2. Distance image This is image data in which distance information is obtained at a resolution of 512 × 424 as described above. The depth sensor of the motion detection device 10 captures a distance image at a predetermined frame rate (for example, 30 fps). Therefore, the distance to the target including the user U is obtained with a predetermined resolution.

3.赤外線画像
赤外線カメラ13で撮像されたグレイスケールの画像である。赤外線プロジェクタ14から投影されたパルスを撮像することができる。また、赤外線を発する人(ユーザU)を検出できる。
3. Infrared image A gray-scale image captured by the infrared camera 13. The pulse projected from the infrared projector 14 can be imaged. Further, it is possible to detect a person (user U) that emits infrared rays.

4.人物の形状データ
動作検出装置10は、距離画像から人物領域のみを抽出して人物の形状データを作成できる。例えば、赤外線画像から人の撮像領域を特定したり、フレームに応じて距離が変化する領域を人の撮像領域として特定する。距離画像からこの撮像領域を抽出したものが人物の形状データである。したがって、情報処理装置30はユーザUがいる画素領域が分かる。また、動作検出装置10は、複数のユーザUが検出された場合、ユーザUと画素領域とを対応付けて検出する。情報処理装置30はカラー画像から人物領域のみを切り出すこともできる。
4). The person shape data motion detection device 10 can create person shape data by extracting only a person region from a distance image. For example, a human imaging region is specified from an infrared image, or a region whose distance changes according to a frame is specified as a human imaging region. The shape data of the person is obtained by extracting the imaging region from the distance image. Therefore, the information processing apparatus 30 knows the pixel area where the user U is present. In addition, when a plurality of users U are detected, the motion detection device 10 detects the user U and the pixel area in association with each other. The information processing apparatus 30 can also cut out only a person area from a color image.

5.骨格情報
関節の座標情報である。ボーン情報やスケルトン情報と呼ばれる場合がある。図5に三次元座標が得られる関節を示す。なお、図5ではユーザの関節を正面から見た図である。図5の符号と関節の名称を説明する。また、図5では左半分の関節は右側と同じなので符号が省略されている。
a…頭関節、b…首関節、c…肩中央関節、d…右肩関節、e…右肘関節、f…右手首関節、g…右手関節、h…右手先関節、i…右手親指関節、j…背骨関節、k…腰中央関節、l…右腰関節、m…右膝関節、n…右かかと関節、o…右足関節
なお、動作検出装置10は各関節の空間中の三次元座標(X,Y,Z)だけでなく、カラー画像上(ディスプレイ310上)の関節の座標(x,y)を提供する。ユーザUがいる画素領域が明らかであるためである。また、「右手先関節」「右手親指関節」「左手先関節」「左手親指関節」の三次元座標が分かるので、動作検出装置10はユーザUが手のひらを開いているか閉じているかを判断できる。
5. It is the coordinate information of the skeletal information joint. Sometimes called bone information or skeleton information. FIG. 5 shows a joint from which three-dimensional coordinates can be obtained. In addition, in FIG. 5, it is the figure which looked at the joint of the user from the front. The symbols and joint names in FIG. 5 will be described. In FIG. 5, the left half joint is the same as the right side, so the reference numerals are omitted.
a ... head joint, b ... neck joint, c ... shoulder center joint, d ... right shoulder joint, e ... right elbow joint, f ... right wrist joint, g ... right wrist joint, h ... right wrist joint, i ... right thumb joint , J: spine joint, k: central hip joint, l: right hip joint, m: right knee joint, n: right heel joint, o: right foot joint Note that the motion detection device 10 is a three-dimensional coordinate in the space of each joint. In addition to (X, Y, Z), the coordinates (x, y) of the joint on the color image (on the display 310) are provided. This is because the pixel area where the user U is present is clear. Further, since the three-dimensional coordinates of the “right hand joint”, “right thumb joint”, “left hand joint”, and “left thumb joint” are known, the motion detection device 10 can determine whether the user U has opened or closed the palm.

6.表情
顔の認識に基づくユーザUの表情である。動作検出装置10は普通、笑っている、驚いている、左・右の目を閉じているか開いているか、口が開いているか閉じているか、画面から目を離しているか、メガネをかけているか、などを認識できる。
6). Expression An expression of the user U based on face recognition. The motion detection device 10 is usually laughing, surprised, with left / right eyes closed or open, mouth open / closed, looking away from the screen, wearing glasses , Etc.

7.顔向き
顔の向きである。動作検出装置10はヨー角、ピッチ角、ロール角を検出できる。
7). Face orientation The orientation of the face. The motion detection device 10 can detect the yaw angle, pitch angle, and roll angle.

8.心拍数
推定されたユーザUの心拍数である。カラー画像と赤外線画像で肌を推定し、血液の流れによる肌部分の微妙な変化から推定される。
8). Heart rate The estimated heart rate of the user U. The skin is estimated with a color image and an infrared image, and estimated from subtle changes in the skin due to blood flow.

<情報処理装置30の機能について>
まず、図6を用いてアプリケーションソフト120とジェスチャー操作受付プログラム110の関係を説明する。アプリケーションソフト120とジェスチャー操作受付プログラム110は共にOS130上で動作する。アプリケーションソフト120は位置情報やイベントで操作可能なものであればよい。例えば、広告を表示するアプリケーションソフト120、プレゼンテーションなどのためのアプリケーションソフト120等がある。しかしこれらに限られず、例えば、ブラウザ、ワードプロセッサ、ゲームなどが含まれてよい。
<About the function of the information processing apparatus 30>
First, the relationship between the application software 120 and the gesture operation reception program 110 will be described with reference to FIG. Both the application software 120 and the gesture operation reception program 110 operate on the OS 130. The application software 120 only needs to be operable by position information or an event. For example, there are application software 120 for displaying advertisements, application software 120 for presentations, and the like. However, the present invention is not limited to these, and for example, a browser, a word processor, a game, and the like may be included.

動作検出装置10のデバイスドライバ140が情報処理装置30にインストールされている。デバイスドライバ140は動作検出装置10が検出する信号をセンサ情報に加工するソフトウェアである。デバイスドライバ140はSDK(Software Development Kit)と呼ばれる場合がある。デバイスドライバ140が作成したセンサ情報を、任意のアプリケーションソフト120がOS130のAPI(Application Interface)を介して取得できる。本実施形態ではジェスチャー操作受付プログラム110がこのAPIを利用して処理に使用するセンサ情報を取得する。   A device driver 140 of the motion detection apparatus 10 is installed in the information processing apparatus 30. The device driver 140 is software that processes a signal detected by the motion detection apparatus 10 into sensor information. The device driver 140 may be called an SDK (Software Development Kit). Arbitrary application software 120 can acquire sensor information created by the device driver 140 via an API (Application Interface) of the OS 130. In this embodiment, the gesture operation reception program 110 uses this API to acquire sensor information used for processing.

ジェスチャー操作受付プログラム110は、動作検出装置10からセンサ情報を取得して種々の処理を行い、ジェスチャー操作受付プログラム110自身を制御すると共に、アプリケーションソフト120に操作のためのカーソル3の位置とイベントを送信する。アプリケーションソフト120はマウスやタッチパネルなどのポインティングデバイスが操作されることで入力されるカーソル3の位置とイベントを検出する機能を備えている。一般に、OS130はポインティングデバイスの位置とイベントを検出してアプリケーションソフト120に提供している。本実施形態では汎用的なポインティングデバイスが使用されないので(情報処理装置30に接続されていない)、ジェスチャー操作受付プログラム110がカーソル3の位置とイベントをアプリケーションソフト120に提供する。なお、ジェスチャー操作受付プログラム110は複数のアプリケーションソフト120にカーソル3の位置とイベントを提供できる。   The gesture operation reception program 110 acquires sensor information from the motion detection device 10 and performs various processes to control the gesture operation reception program 110 itself, and the application software 120 indicates the position and event of the cursor 3 for operation. Send. The application software 120 has a function of detecting the position and event of the cursor 3 input by operating a pointing device such as a mouse or a touch panel. In general, the OS 130 detects the position and event of the pointing device and provides them to the application software 120. In this embodiment, since a general-purpose pointing device is not used (not connected to the information processing apparatus 30), the gesture operation reception program 110 provides the application software 120 with the position of the cursor 3 and the event. The gesture operation reception program 110 can provide the position of the cursor 3 and the event to a plurality of application software 120.

提供方法はOS130やアプリケーションソフト120の仕様に従えばよい。例えば、OS130が提供するアプリケーションソフト120とジェスチャー操作受付プログラム110とのプロセス間通信を利用してもよいし、ジェスチャー操作受付プログラム110がOS130に対しカーソル3の位置とイベントを通知しそれをアプリケーションソフト120が取得するような方法でもよい。このような仕組みにより、アプリケーションソフト120がジェスチャー操作受付プログラム110からカーソル3の位置とイベントを取得するための変更は不要であり、ジェスチャー操作受付プログラム110は汎用的なアプリケーションソフト120と共に利用されることができる。   The providing method may follow the specifications of the OS 130 and the application software 120. For example, inter-process communication between the application software 120 provided by the OS 130 and the gesture operation reception program 110 may be used, or the gesture operation reception program 110 notifies the OS 130 of the position of the cursor 3 and the event, The method that 120 acquires may be used. With such a mechanism, it is not necessary for the application software 120 to change the acquisition of the position of the cursor 3 and the event from the gesture operation reception program 110, and the gesture operation reception program 110 is used together with the general-purpose application software 120. Can do.

なお、ジェスチャー操作受付プログラム110はアプリケーションソフトの1つであるが、デバイスドライバとして実装されてもよい。   The gesture operation reception program 110 is one of application software, but may be implemented as a device driver.

<<ジェスチャー操作受付プログラム110の機能>>
図7は、ジェスチャー操作受付プログラム110の機能がブロック状に示された機能ブロック図の一例である。ジェスチャー操作受付プログラム110は、情報取得部31、人検出部32、操作開始検出部33、操作エリア作成部34、座標変換部35、UI制御部36、速さ検出部37、イベント判断部38、情報記録部43、及び、出力部39を有する。これら各部は、図3に示された各構成要素のいずれかが、補助記憶装置304からRAM303に展開されたプログラム304pに従ったCPU301からの命令により動作することで実現される機能又は手段である。なお、プログラム304pには、OS130、デバイスドライバ140、アプリケーションソフト120、及び、ジェスチャー操作受付プログラム110が含まれている。
<< Function of Gesture Operation Reception Program 110 >>
FIG. 7 is an example of a functional block diagram showing the functions of the gesture operation reception program 110 in a block form. The gesture operation reception program 110 includes an information acquisition unit 31, a person detection unit 32, an operation start detection unit 33, an operation area creation unit 34, a coordinate conversion unit 35, a UI control unit 36, a speed detection unit 37, an event determination unit 38, An information recording unit 43 and an output unit 39 are included. Each of these units is a function or means realized by any one of the constituent elements shown in FIG. 3 operating according to a command from the CPU 301 according to the program 304p expanded from the auxiliary storage device 304 to the RAM 303. . The program 304p includes an OS 130, a device driver 140, application software 120, and a gesture operation reception program 110.

また、情報処理装置30はセンサ情報DB44(データベース)を有しており、情報記録部43はこのセンサ情報DB44にセンサ情報を記録する。センサ情報DB44は、図3に示された補助記憶装置304やRAM303に構築されている。   The information processing apparatus 30 has a sensor information DB 44 (database), and the information recording unit 43 records sensor information in the sensor information DB 44. The sensor information DB 44 is constructed in the auxiliary storage device 304 and the RAM 303 shown in FIG.

情報取得部31は、図3に示されたCPU301がジェスチャー操作受付プログラム110を実行すること等により実現され、デバイスドライバ140からセンサ情報を取得する。動作検出装置10は周期的に動作を検出しているため、情報取得部31は周期的に繰り返しセンサ情報を取得する。なお、全てのセンサ情報を取得する必要はなく、処理に使用するセンサ情報のみを取得すればよい。本実施形態では以下のような情報が使用される。
・ 右肩関節d、右手首関節f、右手関節g、右手先関節h、右手親指関節iの三次元座標が使用される。なお、ユーザは右手でも左手でも操作できるので、左肩関節、左手首関節、左手関節、左手先関節、左手親指関節の三次元座標も使用される。
・ユーザUごとの三次元座標(主に人アイコン82を表示するために使用される)
・顔の向き(人アイコン82の目を表示するために使用される)
人検出部32は、図3に示されたCPU301がジェスチャー操作受付プログラム110を実行すること等により実現され、情報取得部31が取得したセンサ情報に基づき動作検出装置10が人を検出したことを検出する。動作検出装置10が人を検出したことやその人数により人が検出されたことを検出してもよいし、動作検出装置10が人を検出すると人物形状データや骨格情報が得られることを利用して人が検出されたことを検出してもよい。なお、人の検出範囲51は動作検出装置10の仕様により決まっている。例えば、水平方向の角度は70度、距離は0.5〜4.5mの範囲である。動作検出装置10の仕様よりも狭い範囲でのみ人を検出してもよいし、動作検出装置10の仕様が変われば人を検出する範囲も変更されうる。また、同時に検出できる人の数は6人であるが、動作検出装置10の仕様が変わればこれも変更されうる。
The information acquisition unit 31 is realized by the CPU 301 illustrated in FIG. 3 executing the gesture operation reception program 110 and the like, and acquires sensor information from the device driver 140. Since the motion detection device 10 periodically detects motion, the information acquisition unit 31 periodically acquires sensor information. Note that it is not necessary to acquire all sensor information, and only sensor information used for processing needs to be acquired. In the present embodiment, the following information is used.
The three-dimensional coordinates of the right shoulder joint d, the right wrist joint f, the right hand joint g, the right hand joint h, and the right thumb joint i are used. Since the user can operate with either the right hand or the left hand, the three-dimensional coordinates of the left shoulder joint, the left wrist joint, the left hand joint, the left hand joint, and the left thumb joint are also used.
3D coordinates for each user U (mainly used to display the person icon 82)
Face orientation (used to display the eyes of the person icon 82)
The human detection unit 32 is realized by the CPU 301 shown in FIG. 3 executing the gesture operation reception program 110, and the like, and the motion detection device 10 detects that a person has been detected based on the sensor information acquired by the information acquisition unit 31. To detect. It may be detected that the motion detection device 10 has detected a person or that the number of people has been detected, or if the motion detection device 10 has detected a person, human shape data or skeleton information can be obtained. It may be detected that a person has been detected. The human detection range 51 is determined by the specification of the motion detection device 10. For example, the horizontal angle is 70 degrees and the distance is in the range of 0.5 to 4.5 m. A person may be detected only in a narrower range than the specification of the motion detection device 10, and if the specification of the motion detection device 10 is changed, the range in which the person is detected can be changed. The number of people that can be detected at the same time is six, but this can be changed if the specifications of the motion detection device 10 change.

操作開始検出部33は、図3に示されたCPU301がジェスチャー操作受付プログラム110を実行すること等により実現され、情報取得部31が取得したセンサ情報に基づきユーザUがアプリケーションソフト120を操作する意志を示したことを検出する。本実施形態では、ユーザUが「操作位置52に存在し+手を挙げること」により操作する意志を検出する。詳細は後述される。また、操作開始検出部33はセンサ情報に基づきユーザUがアプリケーションソフト120の操作を終了する意志を示したことを検出する。本実施形態では、ユーザUが「操作位置52から離れること」又は「手を下げること」により、操作を終了する意志を検出する。   The operation start detection unit 33 is realized by the CPU 301 illustrated in FIG. 3 executing the gesture operation reception program 110, and the user U intends to operate the application software 120 based on the sensor information acquired by the information acquisition unit 31. Is detected. In the present embodiment, the user U detects the intention to operate by “existing at the operation position 52 + raising a hand”. Details will be described later. In addition, the operation start detection unit 33 detects that the user U has indicated the intention to end the operation of the application software 120 based on the sensor information. In the present embodiment, the intention of ending the operation is detected by the user U “leaving the operation position 52” or “lowering his / her hand”.

操作エリア作成部34は、図3に示されたCPU301がジェスチャー操作受付プログラム110を実行すること等により実現され、操作開始検出部33が操作の意志を検出すると、ユーザUが操作を行うための操作エリア54を作成する。操作エリア54とはユーザUが情報処理装置30を操作できる三次元空間上の範囲(領域)である。ユーザUの右手関節gや右手首関節f等が操作エリア54に入っていると、右手関節gや右手首関節fの三次元座標がカーソル3の位置に反映されたり、ジェスチャーが検出される。   The operation area creation unit 34 is realized by the CPU 301 shown in FIG. 3 executing the gesture operation reception program 110 or the like. When the operation start detection unit 33 detects the intention of the operation, the user U performs an operation. An operation area 54 is created. The operation area 54 is a range (area) in the three-dimensional space where the user U can operate the information processing apparatus 30. If the right hand joint g or right wrist joint f of the user U is in the operation area 54, the three-dimensional coordinates of the right hand joint g or right wrist joint f are reflected in the position of the cursor 3, or a gesture is detected.

座標変換部35は、図3に示されたCPU301がジェスチャー操作受付プログラム110を実行すること等により実現され、情報取得部31が取得したセンサ情報に基づき操作エリア54におけるユーザUの右手関節gや右手首関節fの三次元座標をカーソル3の位置に変換する。   The coordinate conversion unit 35 is realized by the CPU 301 shown in FIG. 3 executing the gesture operation reception program 110 and the like, and based on the sensor information acquired by the information acquisition unit 31, the right joint g of the user U in the operation area 54 The three-dimensional coordinates of the right wrist joint f are converted into the position of the cursor 3.

速さ検出部37は、図3に示されたCPU301がジェスチャー操作受付プログラム110を実行すること等により実現され、情報取得部31が取得したセンサ情報に基づき操作エリア54におけるユーザUの右手関節gや右手首関節fの速さを検出する。右手関節gや右手首関節fはどちらの速さを検出してもよいが、ユーザUは肘を中心に操作するので手先に近い関節の方が早くカーソル3を移動させることができる。逆に、手先から遠い関節の方が微小な移動量を制御しやすい。   The speed detection unit 37 is realized by the CPU 301 illustrated in FIG. 3 executing the gesture operation reception program 110, and the right joint g of the user U in the operation area 54 based on the sensor information acquired by the information acquisition unit 31. And the speed of the right wrist joint f is detected. The right hand joint g and the right wrist joint f may detect either speed, but the user U operates around the elbow, so the joint close to the hand can move the cursor 3 faster. Conversely, a joint far from the hand can easily control a small amount of movement.

イベント判断部38は、図3に示されたCPU301がジェスチャー操作受付プログラム110を実行すること等により実現され、情報取得部31が取得したセンサ情報に基づき、ユーザUがイベントを発生させたかどうかを判断する。イベントは上記のように左クリック、右クリック、ダブルクリック、マウスオーバー、マウスダウン、マウスアップなどであるが、これらイベントに対応する一般的なジェスチャーは定められていない。このため、イベント判断部38はユーザUの動きをジェスチャーとして予めイベントに対応付けておき、ユーザUが予め定められたジェスチャーを行うと、対応付けられているイベントが発生したと判断する。例えば、ユーザUが操作エリア54で手を握るジェスチャーを行うと、イベント判断部38は左クリックであると判断する。   The event determination unit 38 is realized by, for example, the CPU 301 shown in FIG. 3 executing the gesture operation reception program 110, and based on the sensor information acquired by the information acquisition unit 31, whether or not the user U has generated an event is determined. to decide. Events are left click, right click, double click, mouse over, mouse down, mouse up, etc. as described above, but general gestures corresponding to these events are not defined. For this reason, the event determination unit 38 associates the movement of the user U with an event as a gesture in advance, and determines that the associated event has occurred when the user U performs a predetermined gesture. For example, when the user U performs a gesture of holding a hand in the operation area 54, the event determination unit 38 determines that the click is a left click.

情報記録部43は、図3に示されたCPU301がジェスチャー操作受付プログラム110を実行すること等により実現され、センサ情報をユーザごとに時系列にセンサ情報DB44に記憶しておく。上記のように動作検出装置10はユーザの位置とユーザの表情や顔向きを検出しているため、ディスプレイ310のどの辺り見ているかを推定できる程度にユーザがディスプレイ310を見ているかどうかを記録できる。また、情報記録部43はアプリケーションソフト120から、ディスプレイ310に表示されているコンテンツのスクリーンショットを取得する。センサ情報を記録するタイミングとスクリーンショットを取得するタイミングをほぼ同じにすることで、ユーザが興味を持っているコンテンツをコンテンツの提供者などが特定しやすくなる。   The information recording unit 43 is realized by the CPU 301 shown in FIG. 3 executing the gesture operation receiving program 110, and stores sensor information in the sensor information DB 44 in time series for each user. As described above, since the motion detection apparatus 10 detects the user's position and the user's facial expression and face orientation, it records whether the user is looking at the display 310 to such an extent that the user can estimate which part of the display 310 the user is looking at. it can. In addition, the information recording unit 43 acquires a screen shot of the content displayed on the display 310 from the application software 120. By making the timing for recording the sensor information and the timing for acquiring the screen shot substantially the same, it becomes easier for the content provider to identify the content that the user is interested in.

出力部39は、図3に示されたCPU301がジェスチャー操作受付プログラム110を実行すること等により実現され、座標変換部35が変換したカーソル3の位置と、イベント判断部38が判断したイベントを取得してアプリケーションソフト120に出力する。なお、出力部39は、アプリケーションソフト120の状況を取得する機能も有する。例えば、アプリケーションソフト120が全画面に動画を表示している場合、ユーザが操作する必要がないので、情報取得部31はセンサ情報を取得しない。また、出力部39は、現在、ユーザが操作中である場合はアプリケーションソフト120へその旨を通知する。これにより、アプリケーションソフト120はユーザの操作中に全画面の動画表示に移行しないので、ユーザが急に操作できなくなることを防止できる。   The output unit 39 is realized by, for example, the CPU 301 shown in FIG. 3 executing the gesture operation reception program 110, and acquires the position of the cursor 3 converted by the coordinate conversion unit 35 and the event determined by the event determination unit 38. And output to the application software 120. Note that the output unit 39 also has a function of acquiring the status of the application software 120. For example, when the application software 120 displays a moving image on the entire screen, the user does not need to operate, so the information acquisition unit 31 does not acquire sensor information. In addition, when the user is currently operating, the output unit 39 notifies the application software 120 to that effect. As a result, the application software 120 does not shift to the full-screen video display during the user's operation, so that the user can be prevented from suddenly becoming unable to operate.

UI制御部36は、図3に示されたCPU301がジェスチャー操作受付プログラム110を実行すること等により実現される。UI制御部36は更にカーソル表示部41とアイコン表示部42を有する。カーソル表示部41は、OS130の機能を利用してカーソル3を表示したり、通常のカーソル3の代わりにガイドメッシュ4を表示したりする。また、アイコン表示部42は、ディスプレイ310に操作受付支援アイコン81を表示する。アイコン表示部42は、ユーザUの状態に応じて操作受付支援アイコン81の表示態様を変更する。操作受付支援アイコン81は、ユーザUがジェスチャーによりアプリケーションソフト120を操作しやすくなるように支援するユーザインタフェースとして機能する。例えば、動作検出装置10がユーザの全ての骨格情報を取得できるようにユーザを操作位置52に誘導する。また、操作権を持っているユーザが誰なのかを明示する(複数の人アイコン82が表示されていても手を上げている人アイコン82が操作権を有する)。操作権とは、アプリケーションソフト120を操作する権利であり、同時には一人にのみ認められる。   The UI control unit 36 is realized by the CPU 301 illustrated in FIG. 3 executing the gesture operation reception program 110 or the like. The UI control unit 36 further includes a cursor display unit 41 and an icon display unit 42. The cursor display unit 41 displays the cursor 3 using the function of the OS 130, or displays the guide mesh 4 instead of the normal cursor 3. Further, the icon display unit 42 displays an operation reception support icon 81 on the display 310. The icon display unit 42 changes the display mode of the operation reception support icon 81 according to the state of the user U. The operation reception support icon 81 functions as a user interface that supports the user U so that the user U can easily operate the application software 120 by a gesture. For example, the user is guided to the operation position 52 so that the motion detection apparatus 10 can acquire all the skeleton information of the user. Further, the user who has the operation right is clearly indicated (the person icon 82 who has raised his hand has the operation right even if the plurality of person icons 82 are displayed). The operation right is a right to operate the application software 120, and only one person is allowed at the same time.

<人の検出範囲51と操作位置52>
図8を用いて人の検出範囲51と操作位置52を説明する。図8は、動作検出装置10に対する人の検出範囲51と操作位置52を説明する図の一例である。上記のように、動作検出装置10は所定の水平角度の範囲(例えば70度)で所定の距離内(例えば0.5〜4.5m)の人を検出する。当然ながら、操作位置52は人の検出範囲51内である。
<Human detection range 51 and operation position 52>
The human detection range 51 and the operation position 52 will be described with reference to FIG. FIG. 8 is an example of a diagram illustrating a human detection range 51 and an operation position 52 for the motion detection device 10. As described above, the motion detection device 10 detects a person within a predetermined distance (for example, 0.5 to 4.5 m) within a predetermined horizontal angle range (for example, 70 degrees). Naturally, the operation position 52 is within the human detection range 51.

操作位置52は、例えば人の検出範囲51の中央付近であるが、人の検出範囲51の内側であればどこでもよい。あえて操作位置52を決定するのは、人の検出範囲51を通過する任意のユーザUが手を挙げる動作をしてアプリケーションソフト120を操作できないようにするためでる。また、操作位置52があまり広いと操作権を取得できるユーザUの数が多くなり、自分が操作できるかどうかの判断が困難になるためである。また、操作位置52が決まっていることで、ユーザUは操作位置52に移動することでアプリケーションソフト120を操作できることを把握できる。なお、実際の操作位置52は他の場所と違う色で明示されていたり、「ここで操作してください」などの文字が表示されていることが好ましい。   The operation position 52 is, for example, near the center of the human detection range 51, but may be anywhere inside the human detection range 51. The reason why the operation position 52 is determined is to prevent any user U passing the human detection range 51 from raising his hand so that the application software 120 cannot be operated. Further, if the operation position 52 is too wide, the number of users U who can acquire the operation right increases, and it is difficult to determine whether or not the user can operate. Further, since the operation position 52 is determined, the user U can grasp that the application software 120 can be operated by moving to the operation position 52. It is preferable that the actual operation position 52 is clearly displayed in a color different from other places, or characters such as “Please operate here” are displayed.

後述するように、ユーザは人アイコン82が操作受付支援アイコン81の操作位置指示表示83に入るように移動する。人アイコン82が操作位置指示表示83に入った時、ユーザは操作位置52に存在する。したがって、ユーザは人アイコン82、操作受付支援アイコン81、及び操作位置指示表示83により操作位置52に誘導される。   As will be described later, the user moves so that the person icon 82 enters the operation position instruction display 83 of the operation reception support icon 81. When the person icon 82 enters the operation position instruction display 83, the user is present at the operation position 52. Therefore, the user is guided to the operation position 52 by the person icon 82, the operation reception support icon 81, and the operation position instruction display 83.

しかしながら、例えば操作中にユーザが操作位置52から外れてしまう場合も想定される。例えば、ディスプレイ310をよく見ようと接近するような場合である。   However, for example, a case where the user moves out of the operation position 52 during operation is also assumed. For example, the display 310 may be approached to look closely.

図9は、検出範囲51を立体的に示す図の一例である。図9(a)では検出範囲51にユーザの骨格情報の全て含まれている。したがって、動作検出装置10は骨格情報の全てを取得してジェスチャー操作受付プログラム110に送出できる。換言すると、ユーザは動作によりデジタルサイネージを操作できる。   FIG. 9 is an example of a diagram illustrating the detection range 51 in a three-dimensional manner. In FIG. 9A, the detection range 51 includes all the skeleton information of the user. Therefore, the motion detection device 10 can acquire all the skeleton information and send it to the gesture operation reception program 110. In other words, the user can operate the digital signage by operation.

これに対し図9(b)ではユーザの身体の一部が検出範囲51からはみ出ている。動作検出装置10は全ての骨格情報のうち取得できたものだけをジェスチャー操作受付プログラム110に送出する。例えば、ジェスチャー操作受付プログラム110の各機能(操作開始検出部33、操作エリア作成部34、座標変換部35、UI制御部36、速さ検出部37、イベント判断部38)は手の骨格情報を使用するが、センサ情報に含まれていない場合には骨格情報を取得できない。このため、所望の骨格情報が取得されていないことを検出できる。   On the other hand, in FIG. 9B, a part of the user's body protrudes from the detection range 51. The motion detection apparatus 10 sends only the skeleton information that has been acquired to the gesture operation reception program 110. For example, each function (the operation start detection unit 33, the operation area creation unit 34, the coordinate conversion unit 35, the UI control unit 36, the speed detection unit 37, and the event determination unit 38) of the gesture operation reception program 110 uses the skeleton information of the hand. If used but not included in the sensor information, the skeleton information cannot be acquired. For this reason, it can be detected that desired skeleton information is not acquired.

このような場合、UI制御部36は、図9(c)に示すようにメッセージ540をディスプレイ310に表示することで、ユーザを操作位置52に移動して貰うことができる。図9(c)では「Please away from the screen」というメッセージ540が表示されている。したがって、UI制御部36は重要な(制御に必要な)骨格情報が欠落するほどユーザの位置がずれてしまった場合、案内を表示してユーザを検出範囲51の中に誘導できる。   In such a case, the UI control unit 36 can move the user to the operation position 52 by displaying the message 540 on the display 310 as shown in FIG. 9C. In FIG. 9C, a message 540 “Please away from the screen” is displayed. Therefore, the UI control unit 36 can display the guidance and guide the user into the detection range 51 when the user's position is shifted so that important (necessary control) skeleton information is lost.

なお、図9ではユーザがディスプレイ310に接近しすぎた例を示すが、少なくとも関節を含むユーザの身体の一部が検出範囲51からはみ出した場合、ジェスチャー操作受付プログラム110は検出範囲51の中にユーザを誘導できる。   FIG. 9 shows an example in which the user has approached the display 310 too much. However, when at least a part of the user's body including the joint protrudes from the detection range 51, the gesture operation reception program 110 is included in the detection range 51. User can be guided.

<操作の意志の検出>
図10を用いて操作の意志の検出と操作エリア54について説明する。図10は操作の意志の検出と操作エリア54を説明する図の一例である。図10(a)は、ユーザUが操作位置52で行う初期動作を示している。ユーザUは操作位置52に到達するとまず手を挙げる。この操作を行うべきことは指示されているか既にユーザUが把握している。操作を開始する意志を検出することとしたのは、検出範囲51のユーザUの任意の手の動きから操作を受け付けると、ユーザが意図しない操作がアプリケーションソフト120に送出されてしまうためである。
<Detection of operation intention>
The operation will detection and the operation area 54 will be described with reference to FIG. FIG. 10 is an example of a diagram for explaining the detection of the will of operation and the operation area 54. FIG. 10A shows an initial operation performed by the user U at the operation position 52. When the user U reaches the operation position 52, the user U first raises his hand. The user U already knows whether or not it is instructed to perform this operation. The intention to start the operation is detected because an operation unintended by the user is sent to the application software 120 when the operation is accepted from the movement of an arbitrary hand of the user U within the detection range 51.

操作開始検出部33は頭関節aの高さよりも、右手関節gが高くなると操作を開始する意志を検出する。なお、ユーザUが挙げる手は、右でも左でもよい。操作開始検出部33は右手を優先に検出し、右手を挙げた後に左手を挙げても無視し、左手を挙げた後に右手を挙げても無視する。   The operation start detection unit 33 detects the intention to start the operation when the right hand joint g becomes higher than the height of the head joint a. Note that the user U's hand may be right or left. The operation start detection unit 33 preferentially detects the right hand, ignores even if the left hand is raised after raising the right hand, and ignores even if the right hand is raised after raising the left hand.

また、頭関節aの高さよりも、右手関節gが高くなることを操作開始検出部33が操作を開始する意志の検出基準としたのは、ユーザUは一般に頭よりも手を伸ばすことが少ないためである。例えば、携帯電話で通話したり、メガネを触ったりする場合、手は頭よりも低いままである。このため、アプリケーションソフト120を操作する意志のない人の動作により、操作の意志があると誤検出することを抑制しやすくなる。   In addition, the reason that the operation start detection unit 33 intends to start the operation is that the right hand joint g is higher than the height of the head joint a. The user U generally does not extend his hand more than the head. Because. For example, when talking on a mobile phone or touching glasses, the hand remains lower than the head. For this reason, it becomes easy to suppress erroneous detection that there is an intention to operate due to an action of a person who does not intend to operate the application software 120.

<操作エリア54>
操作エリア作成部34は、右肩関節dと頭関節aの長さ(以下、Aとする)を用いて操作エリア54を作成する。図10(b)に示すように、長さAを直径として右肩の上に中心がある円53を作成する。そして、図10(c)に示すように、円53の外接矩形を作成する。この外接矩形が操作エリア54である。なお、長さAは30cmくらいであるが、あくまで一例でありユーザUの手が届く程度の長さであればよい。
<Operation area 54>
The operation area creation unit 34 creates an operation area 54 using the lengths of the right shoulder joint d and the head joint a (hereinafter referred to as A). As shown in FIG. 10B, a circle 53 having a length A as a diameter and a center on the right shoulder is created. Then, a circumscribed rectangle of the circle 53 is created as shown in FIG. This circumscribed rectangle is the operation area 54. The length A is about 30 cm, but it is only an example and may be a length that can be reached by the user U.

このように、肩よりも上に中心がある円53から操作エリア54を作成することで、動作検出装置10からユーザUの手を撮像しやすくなる。動作検出装置10が設置される高さにもよるが、動作検出装置10がユーザUの腰の位置程度に設置された場合、手が肩と同じくらいの高さになると動作検出装置10が肩を撮像できない。このため、右肩関節dと頭関節aの長さの誤差が大きくなり(長さAが短くなったり大きくなったりしてしまう)、操作エリア54の形状が安定しなくなる。   In this manner, by creating the operation area 54 from the circle 53 centered above the shoulder, it becomes easier to image the user U's hand from the motion detection device 10. Although it depends on the height at which the motion detection device 10 is installed, when the motion detection device 10 is installed at the waist level of the user U, the motion detection device 10 is placed on the shoulder when the hand is as high as the shoulder. Cannot be captured. For this reason, the error of the length of the right shoulder joint d and the head joint a becomes large (the length A becomes short or large), and the shape of the operation area 54 becomes unstable.

図11は、操作エリア54を詳細に説明する図の一例である。頭関節aの三次元座標をP1(X1,Y1,Z1)とし、右肩関節dの三次元座標をP2(X2,Y2,Z2)とする。なお、水平方向をX軸、高さ方向をY軸、紙面の垂直方向をZ軸とする。長さAは以下のように算出される。
A=Y1−Y2
また、円53の中心Oの座標は(X2、Y2+A/2)である。したがって、操作エリア作成部34は中心Oを中心として半径A/2の円53を描画すればよい。また、円53を求めなくても、操作エリア54の4つの頂点C1〜C4の座標を以下のように算出できる。なお、Z座標については省略したが、例えばZ1、Z2又はその平均を用いる。
C1=(X2-A/2、Y2+A)
C2=(X2+A/2、Y2+A)
C3=(X2+A/2、Y2)
C4=(X2-A/2、Y2)
このように操作エリア54を作成することで、ユーザUはカーソル3の位置を制御しやすくなる。ユーザUは手を挙げたままなので(下げると操作権を失う)、必然的に肘を基準に動作する。肩の位置はほぼ固定なので、肩の上方に作成された操作エリア54を肘を中心に操作できる。したがって、ユーザUは操作エリア54がどこにあるかを探したりすることなく肘を中心に右手首関節fや右手関節gを動かすとカーソル3を操作できる。
FIG. 11 is an example of a diagram illustrating the operation area 54 in detail. The three-dimensional coordinate of the head joint a is P1 (X1, Y1, Z1), and the three-dimensional coordinate of the right shoulder joint d is P2 (X2, Y2, Z2). The horizontal direction is the X axis, the height direction is the Y axis, and the vertical direction of the paper is the Z axis. The length A is calculated as follows.
A = Y1-Y2
The coordinates of the center O of the circle 53 are (X2, Y2 + A / 2). Therefore, the operation area creation unit 34 may draw a circle 53 having a radius A / 2 with the center O as the center. Further, without obtaining the circle 53, the coordinates of the four vertices C1 to C4 of the operation area 54 can be calculated as follows. Although the Z coordinate is omitted, for example, Z1, Z2, or an average thereof is used.
C1 = (X2-A / 2, Y2 + A)
C2 = (X2 + A / 2, Y2 + A)
C3 = (X2 + A / 2, Y2)
C4 = (X2-A / 2, Y2)
By creating the operation area 54 in this way, the user U can easily control the position of the cursor 3. Since the user U keeps his hand up (when the user U is lowered, he loses the right to operate), and the user U inevitably moves based on the elbow. Since the position of the shoulder is substantially fixed, the operation area 54 created above the shoulder can be operated around the elbow. Therefore, the user U can operate the cursor 3 by moving the right wrist joint f and the right wrist joint g around the elbow without searching for where the operation area 54 is.

<操作権が付与されない非操作動作>
ユーザが携帯電話で通話したり、メガネを触ったりする場合にユーザが手を頭よりも高くすることは少なくない。このため、より好ましくは以下のようにユーザの非操作動作を操作開始検出部33が検出することが有効である。
<Non-operating action without operation right>
When a user talks on a mobile phone or touches glasses, the user often raises his hand above the head. For this reason, it is more effective that the operation start detection unit 33 detects the non-operation operation of the user as follows.

図12は、ユーザの非操作動作を説明する図の一例である。非操作動作は、ユーザがデジタルサイネージを操作する意志を示す動作(例えば手を挙げる)と類似した動作である。例えば、ユーザが携帯電話で通話する動作、メガネを触ったりする動作、額に手を当てる動作、頭をかく動作などである。   FIG. 12 is an example of a diagram illustrating a non-operation operation of the user. The non-operation operation is an operation similar to an operation (for example, raising a hand) indicating a user's intention to operate the digital signage. For example, an operation in which a user makes a call on a mobile phone, an operation of touching glasses, an operation of placing a hand on the forehead, an operation of stroking the head, and the like.

図12(a)に示すように、操作開始検出部33は頭関節aを中心とする立方体55を定義する。この定義とは、設定すると称してもよく、具体的には立方体55の座標を特定するという意味である。立方体55の寸法は頭部や顔よりもやや大きい程度であり、ユーザの手が顔に触れた際に手が入る程度の大きさである。ユーザごとに可変でもよいし、固定でもよい。また、立方体でなく直方体、球体又は楕円体でもよい。   As shown in FIG. 12A, the operation start detection unit 33 defines a cube 55 centered on the head joint a. This definition may be referred to as setting, and specifically means that the coordinates of the cube 55 are specified. The dimensions of the cube 55 are slightly larger than those of the head and the face, and are large enough to allow the user's hand to enter when touching the face. It may be variable for each user or may be fixed. Moreover, a rectangular parallelepiped, a spherical body, or an ellipsoid may be sufficient instead of a cube.

ユーザが非操作動作を行う場合、ユーザの手はこの立方体の中に入ることが多い。したがって、操作開始検出部33は手が立方体55に入るかどうかで非操作動作か否かを判断できる。   When the user performs a non-operational operation, the user's hand often enters the cube. Therefore, the operation start detection unit 33 can determine whether or not the operation is a non-operation operation based on whether or not the hand enters the cube 55.

図12(b)に示すように、右手関節gが立方体55に入らない場合、操作開始検出部33は非操作動作でないと判断する。この場合、ユーザUの手が挙がっているので操作開始検出部33は操作権を付与する。   As illustrated in FIG. 12B, when the right hand joint g does not enter the cube 55, the operation start detection unit 33 determines that it is not a non-operation operation. In this case, since the hand of the user U is raised, the operation start detection unit 33 gives the operation right.

図12(c)に示すように、右手関節gが立方体55に入る場合、操作開始検出部33は非操作動作であると判断する。この場合、操作開始検出部33は手が挙がっていても、立方体55の中に手が入っているので、操作権を付与しない。   As illustrated in FIG. 12C, when the right hand joint g enters the cube 55, the operation start detection unit 33 determines that it is a non-operation operation. In this case, the operation start detection unit 33 does not grant the operation right because the hand is in the cube 55 even if the hand is raised.

したがって、操作をする意志のないユーザUを操作する意志があるとして誤検出することを抑制できる。   Therefore, it is possible to suppress erroneous detection that the user U who does not intend to operate is willing to operate.

図13は、図12の立方体55を側方から見た図の一例である。立方体55であるため、動作検出装置10との距離方向(Z方向)に立方体55は奥行きを有する。ユーザU1の手は立方体55に入っていないので非操作動作でないと判断され、ユーザU2の手は立方体55に入っているので非操作動作であると判断される。   FIG. 13 is an example of a view of the cube 55 of FIG. 12 viewed from the side. Since it is the cube 55, the cube 55 has a depth in the distance direction (Z direction) with respect to the motion detection apparatus 10. Since the hand of the user U1 is not in the cube 55, it is determined that it is not a non-operation operation, and since the hand of the user U2 is in the cube 55, it is determined that it is a non-operation operation.

このように、立方体55で判断するのでユーザが立方体55の奥行きに入らないように手を挙げた場合、操作開始検出部33はユーザに操作権を付与し、座標変換部35が右手関節g等の座標を検出できる。一方、ユーザが立方体55の奥行きに入るように手を挙げた場合、ユーザが手を挙げていても、操作開始検出部33はユーザに操作権を認めない。したがって、単にXY平面で顔の近くに手があるかどうかを判断するよりも、立方体55で判断することで非操作動作と操作する意志を示す動作を区別して検出しやすくなる。   As described above, since the determination is made with the cube 55, when the user raises his / her hand so as not to enter the depth of the cube 55, the operation start detection unit 33 gives the user the operation right, and the coordinate conversion unit 35 receives the right hand joint g or the like. Can be detected. On the other hand, when the user raises his / her hand so as to enter the depth of the cube 55, even if the user raises his / her hand, the operation start detection unit 33 does not allow the user to operate. Therefore, rather than simply determining whether or not there is a hand near the face on the XY plane, it is easier to detect the non-operation operation and the operation indicating the intention to operate by determining with the cube 55.

<座標変換>
続いて、図14を用いて、操作エリア54における手首関節又は手関節の座標からカーソル3の位置への変換を説明する。図14は操作エリア54における手首関節又は手関節の座標とカーソル3の位置を示す図の一例である。なお、図14は手の速さが閾値以上の場合におけるカーソル3の位置の決定方法を説明する。
<Coordinate transformation>
Next, conversion from the wrist joint or wrist joint coordinates in the operation area 54 to the position of the cursor 3 will be described with reference to FIG. FIG. 14 is an example of a diagram showing the wrist joint or wrist joint coordinates and the position of the cursor 3 in the operation area 54. FIG. 14 illustrates a method for determining the position of the cursor 3 when the speed of the hand is equal to or greater than a threshold value.

座標変換部35は操作エリア54における手首関節又は手関節の三次元座標と、ディスプレイ310におけるカーソル3の位置を1対1に対応付ける。まず、座標変換部35は、操作エリア54の左上コーナーの頂点C1を原点(0,0)に決定する。そして、操作エリア54内の手首関節又は手関節の三次元座標を原点(0,0)を基準とする三次元座標に変換する。なお、操作エリア54はXY平面の二次元平面なので手首関節又は手関節のZ座標は使用されない。このためZ座標については常に一定と見なしてよく計算から省いてよい。C1を原点とする手首関節又は手関節の三次元座標をR(X,Y)とする。   The coordinate conversion unit 35 associates the wrist joint or the three-dimensional coordinates of the wrist joint in the operation area 54 with the position of the cursor 3 on the display 310 on a one-to-one basis. First, the coordinate conversion unit 35 determines the vertex C1 of the upper left corner of the operation area 54 as the origin (0, 0). Then, the three-dimensional coordinates of the wrist joint or the wrist joint in the operation area 54 are converted into three-dimensional coordinates based on the origin (0, 0). Since the operation area 54 is a two-dimensional plane of the XY plane, the wrist joint or the Z coordinate of the wrist joint is not used. For this reason, the Z coordinate may always be regarded as constant and may be omitted from the calculation. Let R (X, Y) be the three-dimensional coordinate of the wrist joint or wrist joint with C1 as the origin.

また、ディスプレイ310の縦方向の解像度をH,横方向の解像度をWとする。また、操作エリア54の縦横の長さはAである。したがって、簡単な比例計算によりディスプレイ310におけるカーソル3の位置S(x、y)を算出できる。
x=W×A/X
y=H×A/Y
ユーザUの手首関節又は手関節が操作エリア54の外にはみ出すことが当然あるが、座標変換部35は操作エリア54外の手首関節又は手関節を無視する。
Also, assume that the vertical resolution of the display 310 is H and the horizontal resolution is W. Further, the vertical and horizontal lengths of the operation area 54 are A. Therefore, the position S (x, y) of the cursor 3 on the display 310 can be calculated by simple proportional calculation.
x = W × A / X
y = H × A / Y
Of course, the wrist joint or wrist joint of the user U protrudes outside the operation area 54, but the coordinate conversion unit 35 ignores the wrist joint or wrist joint outside the operation area 54.

座標変換部35は、情報取得部31がセンサ情報を取得するごとに座標変換を行う。一方、操作エリア作成部34は、画像データの1フレームごとに操作エリア54を更新する。これにより、ユーザが正面を向いたり、肩を動作検出装置10に向けたりして動作が変わっても適切な操作エリア54を作成できる。   The coordinate conversion unit 35 performs coordinate conversion every time the information acquisition unit 31 acquires sensor information. On the other hand, the operation area creation unit 34 updates the operation area 54 for each frame of the image data. Thereby, even if a user changes a motion by facing the front or a shoulder toward the motion detection device 10, an appropriate operation area 54 can be created.

なお、操作エリア54は、操作開始検出部33が操作の終了の意志を検出すると(ユーザUが手を下げると)消去される。   The operation area 54 is deleted when the operation start detection unit 33 detects the intention to end the operation (when the user U lowers his / her hand).

図15は、ユーザUの手首関節又は手関節の三次元座標を側方から見た図である。つまり、図15の横方向がZ軸に対応する。図15のユーザU1は自分の身体の近くで腕を動かしており、ユーザU2は自分の身体よりも前方で腕を動かしている。つまり、ユーザU1とU2の手首関節又は手関節のZ座標は異なっている。しかし、ユーザU1とU2の手首関節又は手関節のY座標はほぼ同じである(図15からは明らかでないがX座標もほぼ同じ)。   FIG. 15 is a diagram of the three-dimensional coordinates of the wrist joint or wrist joint of the user U viewed from the side. That is, the horizontal direction in FIG. 15 corresponds to the Z axis. The user U1 in FIG. 15 moves his arm near his body, and the user U2 moves his arm in front of his body. That is, the Z coordinates of the wrist joints or wrist joints of the users U1 and U2 are different. However, the Y-coordinates of the wrist joints or wrist joints of the users U1 and U2 are substantially the same (although not apparent from FIG. 15, the X-coordinates are also substantially the same).

このようにZ座標が異なっても、座標変換部35は手首関節又は手関節の座標をカーソル3の位置に変換する際にZ座標を使用しないので、ユーザU1とU2が操作するカーソル3の位置(軌跡)は同じになる。   Thus, even if the Z coordinates are different, the coordinate conversion unit 35 does not use the Z coordinates when converting the wrist joint or the wrist joint coordinates to the position of the cursor 3, so the position of the cursor 3 operated by the users U1 and U2 The (trajectory) is the same.

<<操作エリア54の変形例>>
一般に、ディスプレイ310のアスペクト比は1対1でなく横方向の方が長い。これに対し、操作エリア54の縦横の長さはどちらも長さAである。したがって、ユーザUが横方向に手を動かすとカーソル3は横方向に大きく動くため、ユーザUは横方向のカーソル3の位置を制御しにくいおそれがある。そこで、操作エリア54の縦横の長さをディスプレイ310のアスペクト比に応じて変更することが有効になる。なお、ディスプレイ310のアスペクト比は情報処理装置30に入力されている。
<< Modification of Operation Area 54 >>
In general, the aspect ratio of the display 310 is not 1: 1 but longer in the horizontal direction. On the other hand, the vertical and horizontal lengths of the operation area 54 are both length A. Therefore, when the user U moves his / her hand in the horizontal direction, the cursor 3 moves greatly in the horizontal direction, and thus the user U may have difficulty controlling the position of the cursor 3 in the horizontal direction. Therefore, it is effective to change the vertical and horizontal lengths of the operation area 54 according to the aspect ratio of the display 310. Note that the aspect ratio of the display 310 is input to the information processing apparatus 30.

図16は、操作エリア54の変形例を説明する図の一例である。図16(a)はディスプレイ310のアスペクト比が横長の場合の操作エリア54の一例を示す。操作エリア作成部34は上記した正方形の操作エリア54の左右に拡張領域54aを付加して操作エリア54を作成する。拡張領域54aの長さαは例えば10cmである。これは、長さAが30cmであるとすると全体で50cmくらいの範囲ならユーザUの手が届くためである。したがって、10cmは一例に過ぎず、長さAを考慮して手の届く範囲で拡張すればよい。例えばユーザUの身長などに応じて可変としてもよい。   FIG. 16 is an example of a diagram illustrating a modified example of the operation area 54. FIG. 16A shows an example of the operation area 54 when the aspect ratio of the display 310 is horizontally long. The operation area creation unit 34 creates the operation area 54 by adding the extended areas 54a to the left and right of the square operation area 54 described above. The length α of the extended region 54a is, for example, 10 cm. This is because if the length A is 30 cm, the hand of the user U can reach within a range of about 50 cm. Therefore, 10 cm is only an example, and the length A may be taken into consideration within the reachable range. For example, it may be variable according to the height of the user U.

図16(b)はディスプレイ310のアスペクト比が縦長の場合の操作エリア54の一例を示す。αについては図16(a)と同様でよい。このように操作エリア54の縦横の長さがディスプレイ310のアスペクト比に応じて変更されることで、ユーザUの操作性が向上する。   FIG. 16B shows an example of the operation area 54 when the aspect ratio of the display 310 is vertically long. α may be the same as in FIG. Thus, the operability of the user U is improved by changing the vertical and horizontal lengths of the operation area 54 in accordance with the aspect ratio of the display 310.

<速さの検出>
図17を用いて速さの検出について説明する。図17は手首関節又は手関節の速さの検出方法を説明する図の一例である。速さ検出部37は、手首関節又は手関節の過去の数周期の三次元座標を用いて加速度を算出する。例えば、時刻t1の手首関節又は手関節の速度Vは、時刻t0とt1の手首関節又は手関節の三次元座標から求めることができる。なお、センサ情報が取得される周期をΔtとする。上記のようにX,Y成分だけを使用して、時刻t1の速度V1が算出される。
Vx=(Xt1−Xto)/Δt、Vy=(Yt1−Yto)/Δt、
=√(Vx+Vy
同様に、時刻t2の手首関節又は手関節の速度V2は、時刻t1とt2の手首関節又は手関節の三次元座標から求めることができる。そして、時刻t2の加速度αは、速度V1とV2の差を周期Δtで割った値なので以下のように算出できる。
α=(V−V)/Δt
したがって、過去の3周期の三次元座標があれば、速さ検出部37は周期ごとに手首関節又は手関節の加速度を算出できる。
<Speed detection>
The speed detection will be described with reference to FIG. FIG. 17 is an example of a diagram illustrating a wrist joint or wrist joint speed detection method. The speed detection unit 37 calculates acceleration using the wrist joint or the three-dimensional coordinates of the past several cycles of the wrist joint. For example, the wrist joint or velocity V 1 of the wrist of the time t1 can be obtained from the three-dimensional coordinates of the wrist joint or wrist of the time t0 and t1. Note that the period at which sensor information is acquired is denoted by Δt. As described above, the speed V1 at time t1 is calculated using only the X and Y components.
Vx = (X t1 −X to ) / Δt, Vy = (Y t1 −Y to ) / Δt,
V 1 = √ (Vx 2 + Vy 2 )
Similarly, the wrist joint or wrist joint velocity V2 at time t2 can be obtained from the three-dimensional coordinates of the wrist joint or wrist joint at times t1 and t2. Since the acceleration α at time t2 is a value obtained by dividing the difference between the speeds V1 and V2 by the period Δt, it can be calculated as follows.
α = (V 2 −V 1 ) / Δt
Therefore, if there are three-dimensional coordinates in the past three periods, the speed detector 37 can calculate the acceleration of the wrist joint or the wrist joint for each period.

本実施形態では速度や加速度を手の速さの指標として用いる。これらの速さと比較される閾値は、実験的に定められるものとする。例えば、停止するよりもやや速い程度の速さを閾値とする(例えば1〜10〔cm/sec〕)。操作ボタン103をクリックしようとするは手首関節又は手関節の速さはゆっくりとしている場合が多いためである。   In this embodiment, speed and acceleration are used as an index of hand speed. The threshold compared with these speeds shall be determined experimentally. For example, the threshold is a speed that is slightly faster than the stop (for example, 1 to 10 [cm / sec]). The reason for trying to click the operation button 103 is that the speed of the wrist joint or the wrist joint is often slow.

なお、手首関節又は手関節の速さとして速度を用いる場合、過去の2周期の三次元座標を用いれば速さ検出部37が速度を算出できる。また、加速度の加速度を更に算出して速さの指標としてもよい。この場合、過去の4周期の三次元座標を用いれば算出できる。   In addition, when using speed as the speed of a wrist joint or a wrist joint, the speed detection part 37 can calculate speed if the past two periods of three-dimensional coordinates are used. Further, the acceleration may be further calculated as an index of speed. In this case, it can be calculated by using the three-dimensional coordinates of the past four periods.

<イベントの検出>
図18を用いて、イベントの検出方法について説明する。図18(a)は手の部分に含まれる関節と手の形状を示し、図18(b)はユーザUが手を握った状態の手の部分に含まれる関節と手の形状を示す。イベント判断部38は、一例としてユーザUが手を握り素早く開くジェスチャーをクリックというイベントとして検出する。つまり、握った(グー)時点ではマウスの左ボタンダウン、開く(パー)と左ボタンアップというイベントになる。こうすることで、ユーザはクリックの他、握ったままドラッグすることなどが可能になる。また、握っている時間が長い場合、イベント判断部38は右ボタンダウンのイベントを検出する。
<Event detection>
The event detection method will be described with reference to FIG. FIG. 18A shows the joints and hand shapes included in the hand portion, and FIG. 18B shows the joints and hand shapes included in the hand portion in a state where the user U holds the hand. The event determination part 38 detects as an event that the user U grasps a hand and clicks the gesture which opens quickly as an example. In other words, at the time of grasping (goo), it becomes an event of left mouse button down, open (par) and left button up. This allows the user to click and drag while holding. In addition, when the time of holding is long, the event determination unit 38 detects a right button down event.

上記のように、動作検出装置10は右手関節g、右手首関節f、右手先関節h、右手親指関節i(及び、左手関節、左手首関節、左手先関節、左手親指関節)の三次元座標を検出している。図示するように、ユーザUが右手を握ると、右手先関節hと右手親指関節iの三次元座標が特定の方向に大きく移動する。図示するようにX,Y座標を取ると、右手先関節hのY座標が小さくなる。また、右手親指関節iのX座標も小さくなる。   As described above, the motion detection device 10 has the three-dimensional coordinates of the right hand joint g, the right wrist joint f, the right hand joint h, the right thumb joint i (and the left wrist joint, the left wrist joint, the left hand joint, the left thumb joint). Is detected. As shown in the figure, when the user U holds the right hand, the three-dimensional coordinates of the right hand joint h and the right thumb joint i greatly move in a specific direction. As shown in the figure, when the X and Y coordinates are taken, the Y coordinate of the right hand joint h becomes smaller. In addition, the X coordinate of the right thumb joint i is also reduced.

イベント判断部38は、右手先関節hのY座標が小さくなり、かつ、右手親指関節iのX座標も小さくなると、左ボタンダウンのイベントが生じたと判断する。右手先関節hのY座標が大きくなり、かつ、右手親指関節iのX座標も大きくなると、左ボタンダアップのイベントが生じたと判断する。なお、右手先関節hのY座標が小さくなるか、又は、右手親指関節iのX座標も小さくなった場合に、左ボタンダウンというイベントが生じたと判断してもよい。   The event determination unit 38 determines that a left button down event has occurred when the Y coordinate of the right hand joint h decreases and the X coordinate of the right thumb joint i also decreases. When the Y coordinate of the right hand joint h increases and the X coordinate of the right thumb joint i also increases, it is determined that a left button down event has occurred. When the Y coordinate of the right hand joint h becomes small or the X coordinate of the right thumb joint i also becomes small, it may be determined that an event of a left button down has occurred.

また、動作検出装置10は、いわゆるじゃんけん(グー、チョキ、パー)というジェスチャーを検出しているので、これを利用して握るというジェスチャーを検出してもよい。例えば、グー又はチョキというジェスチャーが検出された場合に、左ボタンダウンというイベントが生じたと判断する。   In addition, since the motion detection device 10 detects a gesture called so-called Janken (goo, choki, par), it may detect a gesture of grasping using this gesture. For example, when a gesture of goo or choki is detected, it is determined that an event of left button down has occurred.

また、イベント判断部38は、三次元座標のうち二次元の座標だけを使うのでなく、Z座標を使って握るというジェスチャーを検出してもよい。ユーザUはアプリケーションソフト120をクリックする場合に、例えば前方(又は後方)に手を移動させる。イベント判断部38は、右手関節g等の所定以上の速さのZ軸方向の三次元座標の変化を検出して、クリックというイベントが生じたと判断する。   Further, the event determination unit 38 may detect a gesture of gripping using the Z coordinate instead of using only the two-dimensional coordinate out of the three-dimensional coordinates. When the user U clicks the application software 120, the user U moves his / her hand forward (or backward), for example. The event determination unit 38 detects a change in the three-dimensional coordinates in the Z-axis direction at a predetermined speed or higher, such as the right hand joint g, and determines that a click event has occurred.

しかしながら、ユーザUがZ方向に手を動かそうとすると、X,Y座標も動きやすくなるため、カーソル3の位置がクリックしたい位置から動いてしまうおそれがある。このため、本実施形態のように、X座標、Y座標が変化しにくい手を握るというジェスチャーが有効である。したがって、主に指を動かすなどの手を握って開く以外のジェスチャーがクリックのイベントと対応付けられていてもよい。   However, if the user U tries to move his / her hand in the Z direction, the X and Y coordinates also move easily, and the position of the cursor 3 may move from the position to be clicked. For this reason, as in this embodiment, a gesture of grasping a hand in which the X coordinate and the Y coordinate are difficult to change is effective. Therefore, gestures other than mainly holding a hand such as moving a finger and opening may be associated with a click event.

<速さが閾値未満の場合の座標変換>
図19を用いて速さが閾値未満の場合の座標変換を説明する。図19は、速さが閾値未満の場合の座標変換を説明する図の一例である。速さ検出部37が手首関節又は手関節の速さが閾値未満になったと判断すると、座標変換部35とUI制御部36は以下のように動作する。
(i) カーソル表示部41はガイドメッシュ4をカーソル3の位置に表示する。
(ii)三次元座標が閾値以上変化したかどうか(手首関節が閾値以上の大きさで動作したかどうか)を判断する。
(iii) 三次元座標が閾値以上変化した場合、X方向又はY方向のうちどちらの成分が大きいかを判断する。
(iv) X方向又はY方向のうち成分が大きい方に、ガイドメッシュ4を沿って移動量に応じたマス目だけ移動させる。
<Coordinate conversion when speed is less than threshold>
The coordinate conversion when the speed is less than the threshold will be described with reference to FIG. FIG. 19 is an example of a diagram illustrating coordinate conversion when the speed is less than the threshold value. When the speed detection unit 37 determines that the wrist joint or wrist joint speed is less than the threshold, the coordinate conversion unit 35 and the UI control unit 36 operate as follows.
(i) The cursor display unit 41 displays the guide mesh 4 at the position of the cursor 3.
(ii) It is determined whether or not the three-dimensional coordinates have changed by more than a threshold value (whether the wrist joint has moved by a magnitude greater than the threshold value).
(iii) When the three-dimensional coordinate changes by a threshold value or more, it is determined which component is larger in the X direction or the Y direction.
(iv) Move the grid corresponding to the amount of movement along the guide mesh 4 in the X direction or Y direction with the larger component.

(i)について説明する。速さが閾値未満であると速さ検出部37が判断した旨の情報をカーソル表示部41が取得すると、カーソル表示部41はガイドメッシュ4の表示を開始する。図19(a)に示すように、カーソル表示部41は座標変換部35から取得したカーソル3の位置をガイドメッシュ4の所定の交点に対応付けて、交点にカーソル3を配置してガイドメッシュ4を表示する。所定の交点はガイドメッシュ4の略中央のいずれかで予め定められている。したがって、ガイドメッシュ4の略中央にカーソル3が表示される。また、このガイドメッシュ4と共に表示されるカーソル3は、速さが閾値以上である場合のカーソル3とは形状が異なっている。図19(a)では縦横の両端矢印が垂直に交わった形状である。   (i) is demonstrated. When the cursor display unit 41 acquires information indicating that the speed detection unit 37 determines that the speed is less than the threshold, the cursor display unit 41 starts displaying the guide mesh 4. As shown in FIG. 19A, the cursor display unit 41 associates the position of the cursor 3 acquired from the coordinate conversion unit 35 with a predetermined intersection of the guide mesh 4, arranges the cursor 3 at the intersection, and guides the mesh 4. Is displayed. The predetermined intersection is determined in advance at approximately the center of the guide mesh 4. Therefore, the cursor 3 is displayed at the approximate center of the guide mesh 4. The cursor 3 displayed with the guide mesh 4 has a different shape from the cursor 3 when the speed is equal to or higher than the threshold value. In FIG. 19A, the vertical and horizontal double-ended arrows intersect vertically.

カーソル3はガイドメッシュ4の交点上を移動する。ガイドメッシュ4は速さが閾値以上になると消去される。速さが閾値未満の間、ガイドメッシュ4は移動してもよいし固定でもよい。   The cursor 3 moves on the intersection of the guide mesh 4. The guide mesh 4 is deleted when the speed exceeds a threshold value. While the speed is less than the threshold value, the guide mesh 4 may move or may be fixed.

なお、ガイドメッシュ4の各マスは正方形でもよいが、ディスプレイ310のアスペクト比と同じ比で縦横の長さが決定されていてもよい。   Each square of the guide mesh 4 may be a square, but the length and width may be determined at the same ratio as the aspect ratio of the display 310.

次に、(ii)のように判断するのは、ユーザUが意図しないわずかな手の動きによりカーソル3の位置が変化しないようにするためである。また、カーソル3がアプリケーションソフト120の例えば操作ボタン103上にある状態でユーザUがクリックしようと握るというジェスチャーを行う場合に、ジェスチャーにより手がジェスチャー以外の動きを行う場合が少なくない。この場合、ジェスチャーした時にはカーソル3が操作ボタン103外に移動しており、ユーザUが操作ボタン103をクリックできない場合が生じてしまう。そこで、(ii)のように判断することで、ユーザUが意図しないわずかな手の動きによりカーソル3の位置が変化してしまうことを抑制できる。   Next, the determination as in (ii) is to prevent the position of the cursor 3 from being changed by a slight hand movement unintended by the user U. Further, when the user U performs a gesture that the user U wants to click while the cursor 3 is on, for example, the operation button 103 of the application software 120, the hand often moves other than the gesture by the gesture. In this case, when the gesture is performed, the cursor 3 is moved outside the operation button 103, and the user U cannot click the operation button 103. Therefore, by determining as in (ii), it is possible to suppress the position of the cursor 3 from being changed by a slight hand movement that is not intended by the user U.

図19(b)では、三次元座標が閾値以上変化したものとする。すなわち、手首関節又は手関節の座標が座標(X1,Y1)から(X2,Y2)に移動したものとする。カーソル表示部41は、X方向とY方向のそれぞれの移動量ΔX,ΔYを算出する。
ΔX=X2−X1
ΔY=Y2−Y1
カーソル表示部41は、ΔX,ΔYのうち少なくとも一方が閾値以上であるかどうかを判断する。閾値は、ユーザUが静止しようとしてもふらついてしまう一般的な手首関節又は手関節の移動量、及び、動作検出装置10の誤差が考慮して決定されている。例えば数cmにすればよいが、適宜、実験的に担当者等が定めることができる。
In FIG. 19B, it is assumed that the three-dimensional coordinates have changed by a threshold value or more. That is, it is assumed that the coordinates of the wrist joint or the wrist joint are moved from the coordinates (X1, Y1) to (X2, Y2). The cursor display unit 41 calculates respective movement amounts ΔX and ΔY in the X direction and the Y direction.
ΔX = X2-X1
ΔY = Y2−Y1
The cursor display unit 41 determines whether at least one of ΔX and ΔY is equal to or greater than a threshold value. The threshold value is determined in consideration of a general wrist joint or a movement amount of the wrist joint, which may fluctuate even when the user U tries to stop, and an error of the motion detection device 10. For example, it may be several centimeters, but a person in charge or the like can appropriately determine experimentally.

(iii)について説明する。移動量ΔX,ΔYの少なくとも一方が閾値以上である場合、カーソル表示部41はΔXとΔYのどちらの方が大きいかを判断する。図19(b)ではΔX>ΔYである。   (iii) will be described. When at least one of the movement amounts ΔX and ΔY is equal to or greater than the threshold value, the cursor display unit 41 determines which of ΔX and ΔY is greater. In FIG. 19B, ΔX> ΔY.

(iv)について説明する。カーソル表示部41は手首関節又は手関節の座標(X2,Y2)のうちX2のみをカーソル3の位置を決定する。カーソル3の位置のガイドメッシュにおけるy方向の位置は直前の値をそのまま使用する。座標変換部35が変換したカーソル3の位置のx座標はメッシュガイドの交点上にあるとは限らないので、カーソル表示部41はx座標をメッシュガイドの交点上に補正する。例えば、以下のように補正する。
・カーソル3の位置のx座標が最も近いメッシュガイドの交点に補正する
・カーソル3の位置のx座標の次のメッシュガイドの交点に補正する
・カーソル3の位置のx座標の手前のメッシュガイドの交点に補正する
このように補正することで、カーソル表示部41はメッシュガイドと共に表示されるカーソル3を交点上に表示できる。図19(c)では、直前のカーソル3の位置から右方向に2マス分移動した交点にカーソル3が移動して表示される。
(iv) will be described. The cursor display unit 41 determines the position of the cursor 3 for only the X2 of the wrist joint or the wrist joint coordinates (X2, Y2). The position in the y direction in the guide mesh at the position of the cursor 3 uses the previous value as it is. Since the x coordinate of the position of the cursor 3 converted by the coordinate conversion unit 35 is not necessarily on the intersection of the mesh guide, the cursor display unit 41 corrects the x coordinate on the intersection of the mesh guide. For example, the correction is performed as follows.
-Correct to the intersection of the mesh guide with the closest x-coordinate of the cursor 3-Correct to the intersection of the mesh guide next to the x-coordinate of the cursor 3-The mesh guide before the x-coordinate of the position of the cursor 3 Correction to the intersection point By correcting in this way, the cursor display unit 41 can display the cursor 3 displayed together with the mesh guide on the intersection point. In FIG. 19C, the cursor 3 is moved and displayed at the intersection point moved by two squares to the right from the position of the cursor 3 immediately before.

<手首関節又は手関節の切り替え>
ユーザUはカーソル3を大きく移動させたい場合と、操作ボタン103の近くなどのように小さく移動させたい場合がある。また、ユーザUは肘を中心に手を動かすので、手の外側の関節ほど速く動く。そこで、座標変換部35は、速さ検出部37が閾値以上の速さを検出したか否かに応じて、カーソル3の位置に変換する関節(ユーザの身体の部位)を切り替える。
A.速さが閾値以上の場合、右手関節gの三次元座標をカーソル3の位置に変換する。
B.速さが閾値未満の場合、右手首関節fの三次元座標をカーソル3の位置に変換する。
<Wrist joint or wrist joint switching>
There are a case where the user U wants to move the cursor 3 greatly and a case where the user U wants to move the cursor 3 small, such as near the operation button 103. Further, since the user U moves his hand around the elbow, the user U moves faster as the joints on the outer side of the hand move. Therefore, the coordinate conversion unit 35 switches the joint (part of the user's body) to be converted into the position of the cursor 3 according to whether or not the speed detection unit 37 has detected a speed equal to or higher than the threshold value.
A. If the speed is greater than or equal to the threshold, the three-dimensional coordinates of the right hand joint g are converted to the position of the cursor 3.
B. When the speed is less than the threshold value, the three-dimensional coordinates of the right wrist joint f are converted into the position of the cursor 3.

これにより、カーソル3を大きく移動させたい場合、ユーザUは素早くカーソル3を移動させやすくなり、操作ボタン103などの近くでは手首を使って意図した位置にカーソル3を移動させやすくなる。なお、Aの場合、右手先関節hや右手親指関節iの三次元座標を使用してもよい。肘から更に遠いので、ユーザはより速くカーソル3を操作できる。   Thereby, when it is desired to move the cursor 3 greatly, the user U can easily move the cursor 3 quickly, and the cursor 3 can be easily moved to an intended position using the wrist near the operation buttons 103 and the like. In the case of A, the three-dimensional coordinates of the right hand joint h and the right thumb joint i may be used. Since it is further from the elbow, the user can operate the cursor 3 faster.

<操作受付支援アイコンについて>
図20〜22を用いてアイコン表示部42が表示する操作受付支援アイコン81について説明する。図20は、動作検出装置10によりユーザUが検出された時の操作受付支援アイコン81を示す図の一例である。アイコン表示部42は、まずディスプレイ310に操作受付支援アイコン81を大きく表示させる。なお、操作受付支援アイコン81は動作検出装置10の検出範囲51とほぼ相似の形状を有している。
<Operation reception support icon>
The operation reception support icon 81 displayed by the icon display unit 42 will be described with reference to FIGS. FIG. 20 is an example of a diagram illustrating the operation reception support icon 81 when the user U is detected by the motion detection device 10. The icon display unit 42 first displays the operation reception support icon 81 on the display 310 in a large size. The operation reception support icon 81 has a shape that is substantially similar to the detection range 51 of the motion detection device 10.

操作受付支援アイコン81は常に表示されていてもよいし、人が検出された場合にだけ表示されてもよいが、検出された時には大きく表示される。これにより、ユーザUは動作検出装置10により検出されたことを認識できる。また、ユーザの目をディスプレイ310に向けさせる効果がある。なお、アイコン表示部42は操作受付支援アイコン81を大きく表示するだけでなく、点滅させたり色を変えたりするなどして表示してもよい。この他、ディスプレイ310と別のプロジェクタ5に操作受付支援アイコン81を表示させフォログラム投影(立体視)してもよい。   The operation reception support icon 81 may be always displayed, or may be displayed only when a person is detected, but is displayed large when it is detected. Thereby, the user U can recognize that it was detected by the motion detection device 10. In addition, there is an effect that the user's eyes are directed to the display 310. The icon display unit 42 may not only display the operation reception support icon 81 in a large size but also display it by blinking or changing the color. In addition, the operation acceptance support icon 81 may be displayed on the projector 5 separate from the display 310 to perform followogram projection (stereoscopic view).

図20では、ユーザUが動作検出装置10の検出範囲51の右後方から検出範囲51に進入している。情報取得部31は、ユーザUの三次元座標を取得しているので、操作受付支援アイコン81においてユーザUの位置に対応する位置(アイコン上位置という)に人アイコン82を表示する。人アイコン82がアイコン上位置に表示されるので、ユーザUは検出範囲51における自分の位置を把握できる。また、情報取得部31は、ユーザUの顔の向きを取得しているので、アイコン表示部42は顔の向きから推定した目の位置を人アイコン82に表示する。   In FIG. 20, the user U enters the detection range 51 from the right rear of the detection range 51 of the motion detection device 10. Since the information acquisition unit 31 has acquired the three-dimensional coordinates of the user U, the operation reception support icon 81 displays the person icon 82 at a position corresponding to the position of the user U (referred to as an icon position). Since the person icon 82 is displayed at the position on the icon, the user U can grasp his / her position in the detection range 51. Further, since the information acquisition unit 31 acquires the face orientation of the user U, the icon display unit 42 displays the eye position estimated from the face orientation on the person icon 82.

操作受付支援アイコン81には、操作位置52に対応する場所(以下、操作位置指示表示83という)が強調して表示されており、ユーザUは人アイコン82が操作位置指示表示83に入るように移動する。   In the operation reception support icon 81, a location corresponding to the operation position 52 (hereinafter referred to as an operation position instruction display 83) is highlighted, and the user U makes the person icon 82 enter the operation position instruction display 83. Moving.

図21は、操作受付支援アイコン81における人アイコン82の位置の算出方法を説明する図の一例である。図21(a)は操作受付支援アイコン81を示し、図21(b)は検出範囲51の上面図を示す。動作検出装置10はユーザの各関節の座標を検出している。例えば動作検出装置10の中心を原点OにユーザのX1座標やZ1座標を特定できる。すなわち、動作検出装置10に対するユーザの相対位置(第一の相対位置)を特定している。中心Oからの距離Dや正面を基準とする方向θも既知である。   FIG. 21 is an example of a diagram illustrating a method for calculating the position of the person icon 82 in the operation reception support icon 81. FIG. 21A shows the operation reception support icon 81, and FIG. 21B shows a top view of the detection range 51. The motion detection device 10 detects the coordinates of each joint of the user. For example, the user's X1 coordinate and Z1 coordinate can be specified with the center of the motion detection apparatus 10 as the origin O. That is, the relative position (first relative position) of the user with respect to the motion detection device 10 is specified. The distance D from the center O and the direction θ with respect to the front are also known.

一方、操作受付支援アイコン81は検出範囲51と相似(又は類似した)形状を有する。動作検出装置10が設置されている位置に対応する操作受付支援アイコン81の位置(図では上辺の中心)を原点Oとする。アイコン表示部42は、上記の相対位置を操作受付支援アイコン81の原点Oに対する相対位置(第二の相対位置)に変換して変換後の相対位置に人アイコン82を表示する。   On the other hand, the operation reception support icon 81 has a shape similar to (or similar to) the detection range 51. The position of the operation reception support icon 81 corresponding to the position where the motion detection device 10 is installed (the center of the upper side in the figure) is set as the origin O. The icon display unit 42 converts the above relative position into a relative position (second relative position) with respect to the origin O of the operation reception support icon 81 and displays the person icon 82 at the converted relative position.

検出範囲51がユーザを検知する距離をA〔m〕とする。一方、操作受付支援アイコン81の距離Aに相当する辺の長さa〔ピクセル〕は既知である。したがって、a/Aの比を用いて、操作受付支援アイコン81における人アイコン82の座標(x1,z1)を算出できる。
x1=X1×a/A
z1=Z1×a/A
アイコン表示部42は、情報取得部31がセンサ情報を周期的に取得するごとに人アイコン82の位置を更新する。
The distance that the detection range 51 detects the user is A [m]. On the other hand, the side length a [pixel] corresponding to the distance A of the operation reception support icon 81 is known. Therefore, the coordinates (x1, z1) of the person icon 82 in the operation reception support icon 81 can be calculated using the ratio of a / A.
x1 = X1 × a / A
z1 = Z1 × a / A
The icon display unit 42 updates the position of the person icon 82 every time the information acquisition unit 31 periodically acquires sensor information.

図22は、ユーザUが操作位置52で手を挙げた際の操作受付支援アイコン81を示す図の一例である。なお、図22は、手首関節又は手関節の速さが閾値以上の場合の画面例を示している。アイコン表示部42は、ユーザUが操作位置52に入って所定時間が経過するか、又は、ユーザUが操作位置52で手を挙げてから所定時間が経過すると、操作受付支援アイコン81を小さく表示する。これにより、ユーザUがディスプレイ310に表示されたアプリケーションソフト120の画面を見やすくなる。   FIG. 22 is an example of an operation reception support icon 81 when the user U raises his hand at the operation position 52. FIG. 22 shows an example of a screen when the wrist joint or the wrist joint speed is equal to or higher than a threshold value. The icon display unit 42 displays the operation reception support icon 81 in a small size when a predetermined time elapses after the user U enters the operation position 52 or when a predetermined time elapses after the user U raises his hand at the operation position 52. To do. This makes it easier for the user U to view the screen of the application software 120 displayed on the display 310.

また、ユーザUが手を挙げると操作開始検出部33はユーザUが手を挙げたことを検出するので、アイコン表示部42は人アイコン82の手を挙げる。換言すると右手を挙げた人アイコン82を表示する。これにより、手を挙げたユーザUに操作権が与えられる。ジェスチャー操作受付プログラム110は、仮に、他のユーザUが手を挙げても操作を受け付けない。図22では左後方から別のユーザUが検出範囲51に進入しているが、このユーザUはアプリケーションソフト120を操作できない。つまり、操作位置52で最も早く手を挙げたユーザU(のみ)が操作権を得る。   Further, when the user U raises his hand, the operation start detection unit 33 detects that the user U has raised his hand, so the icon display unit 42 raises the hand of the person icon 82. In other words, the person icon 82 with the right hand raised is displayed. Thereby, the operation right is given to the user U who raised his hand. The gesture operation reception program 110 does not receive an operation even if another user U raises his hand. In FIG. 22, another user U enters the detection range 51 from the left rear, but this user U cannot operate the application software 120. That is, the user U (only) who raised his hand earliest at the operation position 52 obtains the operation right.

ユーザUは操作位置52で上記のように操作エリア54を作り、手を動かしてカーソル3を表示したり、ジェスチャーを行いイベントを生じさせたりする。   The user U creates the operation area 54 at the operation position 52 as described above, and moves the hand to display the cursor 3, or performs a gesture to generate an event.

図23(a)は、ユーザUが操作位置52で手を挙げているが手首関節又は手関節の速さが閾値未満の場合のガイドメッシュを示す図の一例である。この場合、カーソル表示部41はガイドメッシュ4の交点にカーソル3を表示する。また、カーソル3は縦又は横にしか移動しないので、ユーザUはガイドメッシュ4のマスを参考にしてカーソル3の微小な動きを制御できる。   FIG. 23A is an example of a diagram illustrating a guide mesh when the user U raises his / her hand at the operation position 52 but the wrist joint or the wrist joint speed is less than a threshold value. In this case, the cursor display unit 41 displays the cursor 3 at the intersection of the guide mesh 4. Further, since the cursor 3 moves only vertically or horizontally, the user U can control the minute movement of the cursor 3 with reference to the square of the guide mesh 4.

なお、ガイドメッシュ4は表示されなくてもよい。ガイドメッシュ4がなくてもカーソル3は縦又は横にしか移動しない点に変わりはなく、ユーザUはカーソル3の微小な動きを制御できる。しかし、ガイドメッシュ4が表示されることでユーザUはマス単位にしかカーソル3を移動できないことを把握できるので、操作性しやすいと感じることが期待される。   The guide mesh 4 may not be displayed. Even without the guide mesh 4, the cursor 3 moves only vertically or horizontally, and the user U can control the minute movement of the cursor 3. However, since the guide mesh 4 is displayed, the user U can grasp that the cursor 3 can be moved only in units of cells, so that it is expected that the user U feels easy to operate.

また、ガイドメッシュ4の横線は水平でなくてもよく、縦線は垂直でなくてもよい。例えば、縦横の直線が交差していればよい。   Further, the horizontal line of the guide mesh 4 may not be horizontal, and the vertical line may not be vertical. For example, it suffices if vertical and horizontal straight lines intersect.

また、図23(b)に示すように、同心円の円周上を半径方向にカーソル3が移動してもよい。   Further, as shown in FIG. 23B, the cursor 3 may move in the radial direction on the circumference of a concentric circle.

<動作手順>
図24は、ジェスチャー操作受付プログラム110がユーザUに操作権を付与するまでの手順を示すフローチャート図の一例である。図24の処理は例えば、情報処理装置30がジェスチャー操作受付プログラム110を実行中、繰り返し実行される。
<Operation procedure>
FIG. 24 is an example of a flowchart illustrating a procedure until the gesture operation reception program 110 grants an operation right to the user U. The processing in FIG. 24 is repeatedly executed while the information processing apparatus 30 is executing the gesture operation reception program 110, for example.

まず、人検出部32により動作検出装置10が人を検出したか否かが判断される(S10)。人が検出されない場合(S10のNo)、図24の処理は終了する。   First, it is determined whether or not the motion detection device 10 has detected a person by the person detection unit 32 (S10). If no person is detected (No in S10), the process in FIG. 24 ends.

人が検出された場合(S10のYes)、アイコン表示部42は操作受付支援アイコン81をディスプレイ310に大きく表示する(S20)。この後、アイコン表示部42は、人が検出されていても操作受付支援アイコン81を一定時間後に小さく表示する。   When a person is detected (Yes in S10), the icon display unit 42 displays the operation reception support icon 81 on the display 310 (S20). Thereafter, the icon display unit 42 displays the operation reception support icon 81 smaller after a certain time even if a person is detected.

次に、アイコン表示部42は、ユーザUの位置に基づいて人アイコン82を操作受付支援アイコン81のアイコン上位置に表示する(S30)。情報取得部31はセンサ情報を周期的に取得するので、アイコン表示部42は人アイコン82の位置を更新する。   Next, the icon display unit 42 displays the person icon 82 on the icon reception position of the operation reception support icon 81 based on the position of the user U (S30). Since the information acquisition unit 31 periodically acquires sensor information, the icon display unit 42 updates the position of the person icon 82.

操作開始検出部33はユーザUの位置が操作位置52に入ったか否かを判断する(S40)。すなわち、ユーザUのX,Y,Z座標が操作位置52に含まれているか否かを判断する。   The operation start detection unit 33 determines whether or not the position of the user U has entered the operation position 52 (S40). That is, it is determined whether or not the operation position 52 includes the X, Y, and Z coordinates of the user U.

ユーザUが操作位置52に入るまでは(S40のNo)、人が未検出かどうか判断される(S50)。そして、人が未検出になると(S50のYes)、図24の処理が終了する。   Until the user U enters the operation position 52 (No in S40), it is determined whether or not a person has been detected (S50). When no person is detected (Yes in S50), the process in FIG.

人が検出されている間(S50のNo)、繰り返しユーザUが操作位置52に入ったか否かが判断される。   While a person is detected (No in S50), it is determined whether or not the user U has repeatedly entered the operation position 52.

次に、人が操作位置52に入った場合(S40のYes)、操作開始検出部33はユーザUが手を挙げたか否かを判断する(S60)。例えば、手がユーザの腰より一定(以上)の高さに位置するか否かを判断する。   Next, when a person enters the operation position 52 (Yes in S40), the operation start detection unit 33 determines whether or not the user U raised his hand (S60). For example, it is determined whether or not the hand is positioned at a certain (or higher) height than the user's waist.

ユーザUが手を挙げるまで(S60のNo)、ステップS40以降の判断が繰り返し実行される。   Until the user U raises his hand (No in S60), the determinations after step S40 are repeatedly executed.

ユーザUが手を挙げた場合(S60のYes)、操作開始検出部33は手が所定の周辺領域に入っていないかどうかを判断する(S70)。所定の周辺領域とは例えば、立方体55の内側をいう。なお、この立方体55を用いた判断は所定の領域内に入っているかどうかの判断の一例である。例えば、右手先関節hや右手関節gが頭関節aの周辺にないことを確認する。これにより、例えば電話中のユーザUがアプリケーションソフト120を操作してしまうことを抑制できる。なお、ステップS70の判断は、操作する意志のないユーザに操作権を与えることを防ぐものであって、必須ではない。また、ステップS70の判断では、ユーザの頭から腰に向かって作成される直方体(頭から腰のやや手前までを含む直方体)の領域(体の近くの周辺領域)に手が入っていないことを判断することが好ましい。これによりユーザの姿勢に依存しない領域が作成される。具体的には、ユーザがバインダーなどの荷物を抱えているケースでも、頭周辺の領域だけでなく胴回りの領域も非操作領域に含めることができる。   When the user U raises his / her hand (Yes in S60), the operation start detection unit 33 determines whether or not the hand is in the predetermined peripheral area (S70). The predetermined peripheral region refers to the inside of the cube 55, for example. The determination using the cube 55 is an example of determining whether or not the cube 55 is in a predetermined area. For example, it is confirmed that the right hand joint h and the right hand joint g are not around the head joint a. Thereby, it can suppress that the user U on the telephone operates the application software 120, for example. Note that the determination in step S70 is to prevent giving an operation right to a user who does not intend to operate, and is not essential. Further, in the determination of step S70, it is confirmed that the hand (the peripheral area near the body) of the rectangular parallelepiped (the rectangular parallelepiped including from the head to the waist slightly) created from the user's head to the waist is not included. It is preferable to judge. As a result, a region independent of the user's posture is created. Specifically, even in the case where the user holds a baggage such as a binder, not only the area around the head but also the area around the waist can be included in the non-operation area.

ステップS70の判断がYesの場合、操作開始検出部33は操作を開始する意志を検出して、手を挙げたユーザUに操作権を付与する(S80)。したがって、他のユーザUが操作位置52で手を挙げてもアプリケーションソフト120を操作できないようにすることができる。   When the determination in step S70 is Yes, the operation start detection unit 33 detects the intention to start the operation, and gives the operation right to the user U who raised his hand (S80). Therefore, even if another user U raises his hand at the operation position 52, the application software 120 can be prevented from being operated.

次に、アイコン表示部42はアイコン上位置に手を挙げた人アイコン82を表示する(S90)。これによりユーザUは自分が手を挙げたことが認識されたと判断でき、操作を開始できる。   Next, the icon display unit 42 displays the person icon 82 with the hand raised at the upper position of the icon (S90). Accordingly, the user U can determine that he / she has raised his / her hand and can start the operation.

操作を開始する意志が検出されると、操作エリア作成部34は操作エリア54を作成する(S100)。以降、ユーザUは手関節や手首関節によりカーソル3の位置を操作したり、ジェスチャーによりアプリケーションソフト120を操作できる。ジェスチャー操作受付プログラム110はユーザUによるアプリケーションソフト120の操作を受け付けを開始する。   When the intention to start the operation is detected, the operation area creating unit 34 creates the operation area 54 (S100). Thereafter, the user U can operate the position of the cursor 3 with a wrist joint or a wrist joint, or can operate the application software 120 with a gesture. The gesture operation reception program 110 starts receiving an operation of the application software 120 by the user U.

図25は、ジェスチャー操作受付プログラム110がユーザUの操作を受け付けてアプリケーションソフト120を操作する手順を示すフローチャート図の一例である。図25の処理は操作エリア54が作成されるスタートする。   FIG. 25 is an example of a flowchart illustrating a procedure in which the gesture operation reception program 110 receives the operation of the user U and operates the application software 120. The process of FIG. 25 starts when the operation area 54 is created.

まず、情報取得部31がセンサ情報を取得する(S110)。   First, the information acquisition unit 31 acquires sensor information (S110).

速さ検出部37はセンサ情報に基づいて手関節の速さが閾値以上か否かを判断する(S120)。   The speed detection unit 37 determines whether the speed of the wrist joint is greater than or equal to a threshold based on the sensor information (S120).

手関節の速さが閾値以上である場合(S120のYes)、座標変換部35は手関節の三次元座標をカーソル3の位置に変換する(S130)。   If the speed of the wrist joint is equal to or higher than the threshold (Yes in S120), the coordinate conversion unit 35 converts the three-dimensional coordinates of the wrist joint into the position of the cursor 3 (S130).

出力部39は、カーソル3の位置をアプリケーションソフト120に出力する(S140)。   The output unit 39 outputs the position of the cursor 3 to the application software 120 (S140).

また、イベント判断部38は、ユーザUがイベントを発生させるジェスチャーをしたか否かを判断する(S150)。これは、ガイドメッシュ4が表示されていなくてもユーザUはジェスチャーすることが可能なためである。   Further, the event determination unit 38 determines whether or not the user U has made a gesture for generating an event (S150). This is because the user U can perform a gesture even when the guide mesh 4 is not displayed.

イベントが検出された場合は、出力部39は、カーソル3の位置及びイベントをアプリケーションソフト120に出力する(S160)。なお、カーソル3の位置とイベントは同時に出力されなくてもよい。   If an event is detected, the output unit 39 outputs the position of the cursor 3 and the event to the application software 120 (S160). Note that the position of the cursor 3 and the event need not be output simultaneously.

次に、手関節の速さが閾値以上でない場合(S120のNo)、カーソル表示部41はガイドメッシュ4を表示中か否かを判断する(S180)。これは、ガイドメッシュ4を表示中に再度ガイドメッシュ4を表示する必要がないためである。   Next, when the speed of the wrist joint is not equal to or higher than the threshold (No in S120), the cursor display unit 41 determines whether the guide mesh 4 is being displayed (S180). This is because it is not necessary to display the guide mesh 4 again while the guide mesh 4 is displayed.

ガイドメッシュ4を表示中でない場合(S180のNo)、カーソル表示部41は中央にカーソル3が表示されたガイドメッシュ4を表示する(S190)。なお、カーソル表示部41は座標変換部35からカーソル3の位置を取得する。この後、処理はステップS140に進む。   When the guide mesh 4 is not being displayed (No in S180), the cursor display unit 41 displays the guide mesh 4 with the cursor 3 displayed at the center (S190). The cursor display unit 41 acquires the position of the cursor 3 from the coordinate conversion unit 35. Thereafter, the process proceeds to step S140.

ガイドメッシュ4を表示中である場合(S180のYes)、カーソル表示部41は手首関節の三次元座標が閾値以上移動したか否かを判断する(S200)。すなわち、手関節でなく手首関節に着目することで、ユーザUはカーソル3の微小な移動を制御しやすくなる。   When the guide mesh 4 is being displayed (Yes in S180), the cursor display unit 41 determines whether or not the three-dimensional coordinates of the wrist joint have moved by a threshold value or more (S200). That is, by focusing attention on the wrist joint instead of the wrist joint, the user U can easily control the minute movement of the cursor 3.

ステップS200の判断がYesの場合、カーソル表示部41はガイドメッシュ4のカーソル3の位置を更新する(S210)。すなわち、カーソル表示部41は手首関節が移動したX方向とY方向の移動量の内、大きい方だけをカーソル3の位置に変換する。カーソル表示部41はこのカーソル3の位置をガイドメッシュ4の交点に補正する。この後、処理はステップS140に進み、ガイドメッシュ4にカーソル3が表示される。   When the determination in step S200 is Yes, the cursor display unit 41 updates the position of the cursor 3 of the guide mesh 4 (S210). That is, the cursor display unit 41 converts only the larger one of the movement amounts in the X direction and the Y direction in which the wrist joint has moved into the position of the cursor 3. The cursor display unit 41 corrects the position of the cursor 3 to the intersection of the guide mesh 4. Thereafter, the process proceeds to step S140, and the cursor 3 is displayed on the guide mesh 4.

また、操作開始検出部33は、ユーザUが操作位置52に入っているかどうか及び手を挙げているかどうかを適宜、判断する(S170)。これは、操作する意志を確認するためである。   Further, the operation start detection unit 33 appropriately determines whether or not the user U is in the operation position 52 and whether or not the hand is raised (S170). This is to confirm the willingness to operate.

ステップS170の判断がYesの場合、処理はステップS110に戻りアプリケーションソフト120の操作が継続される。   If the determination in step S170 is Yes, the process returns to step S110 and the operation of the application software 120 is continued.

ステップS170の判断がNoの場合、出力部39はアプリケーションソフト120に対しガイドメッシュ及びカーソルを非表示にするよう要求する(S220)。以上で、図25の処理は終了する。この場合、操作エリア54が削除されユーザUは操作権を失う。   If the determination in step S170 is No, the output unit 39 requests the application software 120 to hide the guide mesh and cursor (S220). Thus, the process of FIG. 25 ends. In this case, the operation area 54 is deleted and the user U loses the operation right.

<センサ情報の記録と活用>
続いて、図26〜図29を用いて、センサ情報の記録と活用について説明する。従来のデジタルサイネージは、ユーザにより閲覧されているかどうか履歴として残せていなかった。本実形態の情報処理装置30はユーザの顔向き等を動作検出装置10から取得しているので、コンテンツの提供者などが、後でどのくらいのユーザが閲覧していたかを分析できる。また、情報記録部43はディスプレイ310に表示されたコンテンツのスクリーンショットを記録しているため、ユーザがどのようなスクリーンショットに興味を示したか等を分析できる。なお、スクリーンショットはデータサイズが大きいので、ユーザの顔向きがディスプレイ310を向いている場合にだけ、記録すればよい。
<Recording and using sensor information>
Subsequently, recording and utilization of sensor information will be described with reference to FIGS. Conventional digital signage cannot be left as a history whether it is viewed by a user. Since the information processing apparatus 30 according to the present embodiment acquires the user's face orientation and the like from the motion detection apparatus 10, the content provider and the like can analyze how many users were browsing later. Further, since the information recording unit 43 records a screen shot of the content displayed on the display 310, it is possible to analyze what screen shot the user has shown. Since the screen shot has a large data size, it may be recorded only when the user's face is facing the display 310.

図26は、顔向きなどの分析のために情報記録部43が記録するセンサ情報の一例を示す。図26では、XML形式で一人のユーザに関し記録されるセンサ情報が記述されている。以下、これらの情報について説明する。
<TrackingID>タグは認識されているユーザ(操作権限を持たないユーザも含む)に対して割り当てられているユーザの識別情報である。
<Glasses>タグは眼鏡をしているかどうかを示す。
<Happy>タグは笑顔かどうか(幸せそうか)を示す。
<LeftEyeClosed>タグは左目を閉じているどうかを示す。
<RightEyeClosed>タグは右目を閉じているかどうかを示す
<LookingAway>タグはこちらを向いているかどうかを示す。
<MouthMoved>タグは口が動いているかどうかを示す。
<MouthOpen>タグは口が開いているかどうかを示す。
<Yaw>タグは顔の横方向の角度(ヨー角)を示し、動作検出装置10に向かって左横に首を曲げるとプラス値、右に首を曲げるとマイナス値となる。
<Pitch>タグは顔の上下方向の角度(ピッチ角)を示し、動作検出装置10に向かって上を向くとプラス値、下を向くとマイナス値となる。
<Roll>タグは顔を傾ける方向の角度(ロール角)を示し、目や口元が垂直である場合はゼロとなる。
<PositionInfo>タグはユーザの位置を示し、<X>タグは動作検出装置10の中心から横方向の距離(右側プラス値、左側マイナス値)を示す。<Y>タグは身長を示し、<Z>タグは動作検出装置10からの距離を示す。
<MouseTrackingInfo>タグの<LeftButtonDown>タグはマウスの左ボタンを押下しているかどうかを示し、<RightButtonDown>タグはマウスの右ボタンを押下しているかどうかを示す。<MousePositionInfo>タグは、カーソルのX座標とY座標を示す。
FIG. 26 shows an example of sensor information recorded by the information recording unit 43 for analysis of face orientation and the like. In FIG. 26, sensor information recorded for one user in the XML format is described. Hereinafter, such information will be described.
The <TrackingID> tag is identification information of a user assigned to a recognized user (including a user who does not have operation authority).
The <Glasses> tag indicates whether you are wearing glasses.
The <Happy> tag indicates whether you are smiling (it looks happy).
The <LeftEyeClosed> tag indicates whether the left eye is closed.
<RightEyeClosed> tag indicates whether the right eye is closed
The <LookingAway> tag indicates whether it is facing you.
The <MouthMoved> tag indicates whether the mouth is moving.
The <MouthOpen> tag indicates whether the mouth is open.
The <Yaw> tag indicates a lateral angle (yaw angle) of the face, and becomes a positive value when the neck is bent to the left side toward the motion detection device 10 and becomes a negative value when the neck is bent to the right.
The <Pitch> tag indicates an angle (pitch angle) in the vertical direction of the face, and is a positive value when facing upward toward the motion detection device 10, and a negative value when facing downward.
The <Roll> tag indicates the angle in which the face is tilted (roll angle), and is zero when the eyes and mouth are vertical.
The <PositionInfo> tag indicates the position of the user, and the <X> tag indicates the distance in the horizontal direction from the center of the motion detection apparatus 10 (right plus value, left minus value). The <Y> tag indicates the height, and the <Z> tag indicates the distance from the motion detection device 10.
The <LeftButtonDown> tag of the <MouseTrackingInfo> tag indicates whether the left button of the mouse is pressed, and the <RightButtonDown> tag indicates whether the right button of the mouse is pressed. The <MousePositionInfo> tag indicates the X coordinate and Y coordinate of the cursor.

なお、<MouseTrackingInfo>や<MousePositionInfo>は操作権限を持つユーザについてだけ記録される。情報記録部43はこのような情報を各ユーザごとに記録する。   Note that <MouseTrackingInfo> and <MousePositionInfo> are recorded only for users with operational authority. The information recording unit 43 records such information for each user.

図27は、図26のセンサ情報が取得された際に情報記録部43が取得したスクリーンショット201を示す図の一例である。したがって、コンテンツの提供者等は、<Yaw>、<Pitch>、<Roll>の各タグにより、ユーザがコンテンツのどこを見ているか(どこに興味があるか)、更に視線の滞留時間等を測定することなどができる。また、<MouseTrackingInfo>タグにより、ユーザが何か操作をしているのか、操作をしていれば何に興味があるのかを、スクリーンショット201から判断できる。   FIG. 27 is an example of a diagram showing a screen shot 201 acquired by the information recording unit 43 when the sensor information of FIG. 26 is acquired. Therefore, content providers etc. measure <Waw>, <Pitch>, and <Roll> tags to determine where the user is looking at the content (where they are interested), and the gaze dwell time, etc. You can do it. In addition, the <MouseTrackingInfo> tag can be used to determine from the screen shot 201 whether the user is performing an operation or what the user is interested in.

ところで、動作検出装置10は距離情報をユーザの検出に使用しているので、複数のユーザの位置によってはユーザを検出できない場合がある。図28は、検出されないユーザを説明する図の一例である。図28では動作検出装置10の検出範囲51に3人のユーザU1〜U3がいることが示されている。しかしながら、ユーザU1とユーザU3が、動作検出装置10から見て距離方向に重なっているため、動作検出装置10はユーザU3を検出できない。すなわち、骨格情報を取得できない。   By the way, since the motion detection apparatus 10 uses distance information for user detection, the user may not be detected depending on the positions of a plurality of users. FIG. 28 is an example of a diagram illustrating users who are not detected. FIG. 28 shows that there are three users U <b> 1 to U <b> 3 in the detection range 51 of the motion detection device 10. However, since the user U1 and the user U3 overlap in the distance direction when viewed from the motion detection device 10, the motion detection device 10 cannot detect the user U3. That is, skeleton information cannot be acquired.

しかしながら、動作検出装置10は上記のようにカラー画像202を撮像しているため、カラー画像202にはユーザU3は写っている。また、ユーザU3が写っている領域の距離情報も取得されている。情報記録部43は、例えばカラー画像202から顔認識やシルエット認識することで、人だと判断する。これにより、検出範囲51のユーザの人数を正しく取得できる。   However, since the motion detection apparatus 10 captures the color image 202 as described above, the user U3 is shown in the color image 202. Further, the distance information of the area where the user U3 is shown is also acquired. The information recording unit 43 determines that the person is a person, for example, by recognizing a face or silhouette from the color image 202. Thereby, the number of users in the detection range 51 can be acquired correctly.

ユーザU3が写っている領域は、Z方向の座標がある範囲に入っている領域(例えば、ユーザU1よりも後方の処理範囲内)として抽出できるため、顔認識などを行う領域をユーザU1よりも後方のZ座標を有する領域に制限でき検出時間を短縮できる。   The area in which the user U3 is shown can be extracted as an area within a certain range of coordinates in the Z direction (for example, within the processing range behind the user U1). The detection time can be shortened by limiting to the area having the rear Z coordinate.

このように、骨格情報だけでは一度に取得できるユーザの人数に制限があるが(現在は最大6人)、カラー画像202や距離情報と組み合わせることで、人が群がっている場合でもユーザの数を検出できる。また、ユーザU3がU1により遮られる以前のカラー画像202と遮られた後のカラー画像を比較したり、ユーザU3がU1により遮られる以前の距離情報と遮られた後の距離情報を比較することもできる。人検出部32が検出するユーザの数が急に減った場合、情報記録部43はユーザが隠れていることを推定し、隠れる前と距離情報が同程度の領域から顔認識などで探索できる。   In this way, the number of users that can be acquired at one time is limited only by the skeleton information (currently a maximum of six people), but by combining with the color image 202 and distance information, the number of users can be reduced even when people are gathering It can be detected. Also, the color image 202 before the user U3 is obstructed by U1 is compared with the color image after the obstruction, or the distance information before the user U3 is obstructed by U1 is compared with the distance information after the obstruction. You can also. When the number of users detected by the human detection unit 32 suddenly decreases, the information recording unit 43 estimates that the user is hiding, and can search by face recognition or the like from an area where the distance information is similar to that before hiding.

図29は、情報記録部43がセンサ情報DB44に記憶したセンサ情報の解析例を説明する図の一例である。情報処理装置30は、センサ情報DB44に記憶したセンサ情報から時間帯ごと(図では10分)のユーザの人数を合計する。図29では、棒グラフ205の高さが時間帯ごとのユーザの数を示す。また、各棒グラフ205では、時間帯のユーザの数が、操作権を有したユーザの数204とそれ以外のユーザの数203に分けて表示されている。なお、継続的に検出されている同じユーザには同じ<TrackingID>が付与されるため、情報処理装置30が重複してカウントするおそれはほとんどない。   FIG. 29 is an example of a diagram illustrating an example of analysis of sensor information stored in the sensor information DB 44 by the information recording unit 43. The information processing apparatus 30 totals the number of users for each time zone (10 minutes in the figure) from the sensor information stored in the sensor information DB 44. In FIG. 29, the height of the bar graph 205 indicates the number of users for each time period. Further, in each bar graph 205, the number of users in the time zone is displayed separately for the number 204 of users having the operation right and the number 203 of other users. Note that since the same <TrackingID> is assigned to the same user that is continuously detected, there is little possibility that the information processing apparatus 30 counts twice.

また、図29では、各時間帯のスクリーンショット201がタイムラインのように棒グラフ205の上方に表示されている。あるいは、各時間帯の代表的なスクリーンショット201が表示されてもよい。代表的なスクリーンショット201とは、時間帯の最初又は最後のスクリーンショット、又は、画像の変化が最も大きいスクリーンショットなどである。   In FIG. 29, a screen shot 201 of each time zone is displayed above the bar graph 205 like a timeline. Alternatively, a representative screen shot 201 for each time period may be displayed. The representative screen shot 201 is a screen shot at the beginning or end of the time period, a screen shot with the largest image change, or the like.

したがって、コンテンツの提供者等は、多くのユーザを集めたコンテンツがどれなのか判断できる。例えば、図29のコンテンツが異なる講師(学校や予備校の先生、後援者など)の場合、どの講師に人気があるか判断できる。   Therefore, a content provider or the like can determine which content is a collection of many users. For example, in the case of a lecturer (school or prep school teacher, sponsor, etc.) with different contents in FIG. 29, it can be determined which lecturer is popular.

<まとめ>
以上説明したように、本実施形態の情報処理装置30は、動作の速さが閾値未満の場合、カーソル3の移動方向を所定方向に制限することで、カーソル3の位置の操作性を向上させることができる。また、動作の速さが閾値未満の場合、右手首関節fが閾値以上、移動しないとカーソルが移動しないので、ユーザがクリックのジェスチャーを行う際にカーソルが移動してしまうことを抑制しやすい。また、動作の速さが閾値以上か未満かによって、異なるユーザの関節を使って操作できるのでユーザの操作性を向上できる。また、ディスプレイ310のアスペクト比によって適宜、操作エリア54の縦横の長さを変更するのでユーザによるカーソル3の操作性を向上できる。また、複数のユーザが検出された場合も、最初に操作の意志を示したユーザに操作権を付与できる。また、操作受付支援アイコン81を表示することでユーザは操作位置52に移動しやすくなり、また、自分が操作していることを把握しやすい。
<Summary>
As described above, the information processing apparatus 30 according to the present embodiment improves the operability of the position of the cursor 3 by limiting the movement direction of the cursor 3 to a predetermined direction when the speed of movement is less than the threshold value. be able to. In addition, when the speed of movement is less than the threshold, the cursor does not move unless the right wrist joint f is moved beyond the threshold, and therefore it is easy to prevent the cursor from moving when the user performs a click gesture. Further, depending on whether the speed of operation is equal to or higher than the threshold value, the user can be operated using different joints, so that the user operability can be improved. In addition, since the vertical and horizontal lengths of the operation area 54 are appropriately changed according to the aspect ratio of the display 310, the operability of the cursor 3 by the user can be improved. Further, even when a plurality of users are detected, the operation right can be given to the user who first indicated the intention of the operation. Further, by displaying the operation reception support icon 81, the user can easily move to the operation position 52, and can easily understand that the user is operating.

<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
The best mode for carrying out the present invention has been described above with reference to the embodiments. However, the present invention is not limited to these embodiments, and various modifications can be made without departing from the scope of the present invention. And substitutions can be added.

例えば、情報処理装置30はサーバクライアント方式で動作してもよい。この場合、情報処理装置30はセンサ情報をサーバに送信し、サーバからカーソルの位置とイベントを受信する。そして、アプリケーションソフト120に送出する。このような情報処理装置30とサーバを有する表示システムによりユーザはデジタルサイネージを操作できる。   For example, the information processing apparatus 30 may operate using a server client method. In this case, the information processing apparatus 30 transmits the sensor information to the server, and receives the cursor position and the event from the server. Then, it is sent to the application software 120. With such a display system having the information processing apparatus 30 and the server, the user can operate the digital signage.

また、主にジェスチャー操作受付プログラムがカーソル3を表示すると説明したが、適宜OS130の機能を利用してカーソル3を表示してよい。また、アプリケーションソフト120がカーソル3を表示してもよい。   Further, although it has been described that the gesture operation reception program mainly displays the cursor 3, the cursor 3 may be displayed as appropriate using the function of the OS 130. Further, the application software 120 may display the cursor 3.

また、操作エリア54内の座標とカーソルの位置を1対1に対応させるのではなく、ユーザは手の移動量でカーソルの位置を操作してもよい。例えば、カーソルと移動させる場合、手を握り、一定以上の速さで動かす。座標変換部は、手の移動量をカーソルの移動量に変換して、最後のカーソルの位置を更新する。したがって、この場合、操作エリア54はなくてもよい。   Further, instead of making the coordinates in the operation area 54 and the cursor position correspond one-to-one, the user may operate the cursor position by the amount of movement of the hand. For example, when moving with the cursor, hold the hand and move it at a certain speed. The coordinate conversion unit converts the movement amount of the hand into the movement amount of the cursor and updates the position of the last cursor. Therefore, in this case, the operation area 54 may not be provided.

また、本実施例では左クリックのジェスチャーを説明したが、情報処理装置30が右手と左手を区別して検出するなどにより右クリックのジェスチャーを入力することなども可能である。また、足などの関節の三次元座標や顔向きなどでカーソルを移動させることもできる。また、手を握る以外に、人間の多種多様なジェスチャーをイベントと対応付けることができる。   Further, although the left click gesture has been described in the present embodiment, it is also possible to input the right click gesture by the information processing apparatus 30 distinguishing and detecting the right hand and the left hand. In addition, the cursor can be moved based on the three-dimensional coordinates of the joints such as feet or the face orientation. In addition to holding a hand, various human gestures can be associated with events.

また、手を挙げる動作が操作権を得る動作であると説明したが、以下のような動作により操作権が付与されてもよい。
・マイク17により声とか音(手を叩く)が検出された場合
・操作開始検出部33が検出した声とか音(手を叩く)が特定のリズムであると判断した場合
・操作開始検出部33が画像データを解析してスマートフォンなどの無線機器を持っていると判断した場合
・ユーザが持っているスマホなどの無線機器から送信された信号を操作開始検出部33が検出した場合
・ユーザが足を上げたことを操作開始検出部33が検出した場合
・手の形が予め定めた条件と一致する特定の形になったことを操作開始検出部33が検出した場合(グー、チョキ、パー等)
・ユーザが立っていることを操作開始検出部33が検出した場合(セミナーなどで会場に座っている人が立った場合に操作権を与えることができる)
・顔の表情が予め定めた条件と一致する特定の表情になったことを操作開始検出部33が検出した場合(例えば、笑っている等)
・ユーザの視線(顔向き)が特定の領域に向かっていることを操作開始検出部33が検出した場合
また、図7などの構成例は、情報処理装置30による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。情報処理装置30の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。
Further, although the operation of raising the hand has been described as the operation of obtaining the operation right, the operation right may be given by the following operation.
When a voice or sound (hand clapping) is detected by the microphone 17 When a voice or sound (hand clapping) detected by the operation start detection unit 33 is determined to be a specific rhythm When the operation start detection unit 33 detects a signal transmitted from a wireless device such as a smartphone that the user has ・ Analysis of image data When the operation start detection unit 33 detects that the hand has been raised ・ When the operation start detection unit 33 detects that the shape of the hand is in a specific shape that matches a predetermined condition (goo, choki, par, etc.) )
When the operation start detection unit 33 detects that the user is standing (the operation right can be given when a person sitting in the venue stands at a seminar or the like)
When the operation start detection unit 33 detects that the facial expression is a specific facial expression that matches a predetermined condition (for example, laughing)
When the operation start detection unit 33 detects that the user's line of sight (face orientation) is heading toward a specific area. The configuration example of FIG. These are divided according to the main functions. The present invention is not limited by the way of dividing the processing unit or the name. The processing of the information processing apparatus 30 can be divided into more processing units according to the processing content. Moreover, it can also divide | segment so that one process unit may contain many processes.

なお、アイコン表示部42は位置表示手段の一例であり、情報取得部31は動作情報取得手段の一例であり、座標変換部35とイベント判断部38は操作受付手段の一例である。   The icon display unit 42 is an example of a position display unit, the information acquisition unit 31 is an example of an operation information acquisition unit, and the coordinate conversion unit 35 and the event determination unit 38 are examples of an operation reception unit.

3 カーソル
4 ガイドメッシュ
10 動作検出装置
30 情報処理装置
31 情報取得部
32 人検出部
33 操作開始検出部
34 操作エリア作成部
35 座標変換部
36 UI制御部
37 検出部
38 イベント判断部
39 出力部
41 カーソル表示部
42 アイコン表示部
43 情報記録部
54 操作エリア
81 操作受付支援アイコン
100 情報処理システム
DESCRIPTION OF SYMBOLS 3 Cursor 4 Guide mesh 10 Motion detection apparatus 30 Information processing apparatus 31 Information acquisition part 32 Person detection part 33 Operation start detection part 34 Operation area creation part 35 Coordinate conversion part 36 UI control part 37 Detection part 38 Event judgment part 39 Output part 41 Cursor display section 42 Icon display section 43 Information recording section 54 Operation area 81 Operation reception support icon 100 Information processing system

特開2015−176451号公報Japanese Patent Laying-Open No. 2015-176451

Claims (10)

表示装置の周辺のユーザの位置を検出する装置から、ユーザの位置に関する位置情報を取得する情報処理装置であって、
前記表示装置における表示位置に前記位置情報を変換し、前記表示位置にユーザの位置を表すユーザ位置表示情報を表示する位置表示手段を有し、
前記位置表示手段は、ユーザが前記表示装置に表示される内容を前記ユーザの動作に応じて操作する位置に前記ユーザを誘導するための誘導位置表示情報を前記表示装置に表示する情報処理装置。
An information processing apparatus that acquires position information related to a user's position from an apparatus that detects the position of a user around the display device,
Converting the position information into a display position in the display device, and displaying a user position display information representing a user position at the display position;
The position display means is an information processing apparatus that displays guidance position display information on the display device for guiding the user to a position where the user operates the content displayed on the display device according to the operation of the user.
前記装置は前記位置情報に加えユーザの動作に関する動作情報を検出し、
前記動作情報を取得する動作情報取得手段を有し、
前記誘導位置表示情報は前記装置が前記動作情報を検出できるユーザの位置を表す請求項1に記載の情報処理装置。
In addition to the position information, the device detects operation information related to a user operation,
Having operation information acquisition means for acquiring the operation information;
The information processing apparatus according to claim 1, wherein the guidance position display information represents a position of a user from which the apparatus can detect the operation information.
前記動作情報に基づいて前記情報処理装置で動作するアプリケーションソフトの操作を受け付ける操作受付手段を有し、
前記誘導位置表示情報はユーザが前記アプリケーションソフトを操作できる位置を表す請求項2に記載の情報処理装置。
Operation receiving means for receiving an operation of application software operating on the information processing apparatus based on the operation information;
The information processing apparatus according to claim 2, wherein the guidance position display information represents a position where a user can operate the application software.
前記誘導位置表示情報に前記ユーザ位置表示情報が表示されており、前記動作情報によりユーザが手を挙げたことが検出された場合、
前記位置表示手段は、前記ユーザ位置表示情報の形状をユーザが手を挙げている形状に変更する請求項2又は3に記載の情報処理装置。
When the user position display information is displayed in the guidance position display information, and it is detected by the operation information that the user raised his hand,
The information processing apparatus according to claim 2, wherein the position display unit changes the shape of the user position display information to a shape in which a user raises his / her hand.
前記位置表示手段は、前記装置がユーザを検出できる検出範囲を前記表示装置に表示する請求項1〜4のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the position display unit displays a detection range in which the apparatus can detect a user on the display apparatus. 前記装置がユーザを検出した場合、
前記位置表示手段は、前記検出範囲の中に前記ユーザ位置表示情報を表示する請求項5に記載の情報処理装置。
If the device detects a user,
The information processing apparatus according to claim 5, wherein the position display unit displays the user position display information in the detection range.
前記位置情報は前記装置に対する第一の相対位置を表し、
前記位置表示手段は、前記第一の相対位置を前記検出範囲の所定位置に対する第二の相対位置に変換し、前記検出範囲の中の前記第二の相対位置に前記ユーザ位置表示情報を表示する請求項5又は6に記載の情報処理装置。
The position information represents a first relative position to the device;
The position display means converts the first relative position into a second relative position with respect to a predetermined position in the detection range, and displays the user position display information at the second relative position in the detection range. The information processing apparatus according to claim 5 or 6.
表示装置の周辺のユーザの位置を検出する装置から取得したユーザの位置に関する位置情報に基づきユーザを誘導する1つ以上の情報処理装置を有する表示システムであって、
前記表示装置における表示位置に前記位置情報を変換し、前記表示位置にユーザの位置を表すユーザ位置表示情報を表示する位置表示手段を有し、
前記位置表示手段は、ユーザが前記表示装置に表示される内容を前記ユーザの動作に応じて操作する位置に前記ユーザを誘導するための誘導位置表示情報を前記表示装置に表示する表示システム。
A display system having one or more information processing devices for guiding a user based on position information related to a user position acquired from a device that detects a position of a user around the display device,
Converting the position information into a display position in the display device, and displaying a user position display information representing a user position at the display position;
The said position display means is a display system which displays the guidance position display information for guide | inducing the said user to the position which operates the content displayed on the said display apparatus according to the said user's operation | movement on the said display apparatus.
表示装置の周辺のユーザの位置を検出する装置と、
前記装置からユーザの位置に関する位置情報を取得する動作情報取得手段と、
前記表示装置における表示位置に前記位置情報を変換し、前記表示位置にユーザの位置を表すユーザ位置表示情報を表示する位置表示手段、として機能する情報処理装置により実行されるプログラムと、
前記位置表示手段により、ユーザが前記表示装置に表示される内容を前記ユーザの動作に応じて操作する位置に前記ユーザを誘導するための誘導位置表示情報が表示される前記表示装置と、を有する表示システム。
A device for detecting a position of a user around the display device;
Action information acquisition means for acquiring position information relating to the position of the user from the device;
A program executed by an information processing device functioning as a position display unit that converts the position information into a display position in the display device and displays user position display information representing a user position at the display position;
The display device displays guidance position display information for guiding the user to a position where the user operates the content displayed on the display device according to the user's operation by the position display means. Display system.
情報処理装置にインストールされると、前記情報処理装置を、
表示装置の周辺のユーザの位置を検出する装置からユーザの位置に関する位置情報を取得する動作情報取得手段と、
前記表示装置における表示位置に前記位置情報を変換し、前記表示位置にユーザの位置を表すユーザ位置表示情報を表示する位置表示手段、として機能させるプログラムであって、前記位置表示手段は、ユーザが前記表示装置に表示される内容を前記ユーザの動作に応じて操作する位置に前記ユーザを誘導するための誘導位置表示情報を前記表示装置に表示するプログラム。
When installed in an information processing device, the information processing device is
Operation information acquisition means for acquiring position information relating to the position of the user from a device for detecting the position of the user around the display device;
A program for converting the position information into a display position in the display device and functioning as position display means for displaying user position display information representing the position of the user at the display position, wherein the position display means A program for displaying guidance position display information on the display device for guiding the user to a position where the content displayed on the display device is operated according to the user's operation.
JP2016133365A 2016-07-05 2016-07-05 Information processing equipment, display system, program Active JP6834197B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016133365A JP6834197B2 (en) 2016-07-05 2016-07-05 Information processing equipment, display system, program
EP17178703.9A EP3267289B1 (en) 2016-07-05 2017-06-29 Information processing apparatus, position information generation method, and information processing system
US15/640,730 US10936077B2 (en) 2016-07-05 2017-07-03 User-interactive gesture and motion detection apparatus, method and system, for tracking one or more users in a presentation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016133365A JP6834197B2 (en) 2016-07-05 2016-07-05 Information processing equipment, display system, program

Publications (2)

Publication Number Publication Date
JP2018005663A true JP2018005663A (en) 2018-01-11
JP6834197B2 JP6834197B2 (en) 2021-02-24

Family

ID=60945009

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016133365A Active JP6834197B2 (en) 2016-07-05 2016-07-05 Information processing equipment, display system, program

Country Status (1)

Country Link
JP (1) JP6834197B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021001894A1 (en) * 2019-07-01 2021-01-07 三菱電機株式会社 Display control device and display control method
JP2021514512A (en) * 2018-02-20 2021-06-10 アップリフト ラブズ インコーポレイテッド Motion identification and generation of normative analysis using motion information
WO2023120044A1 (en) * 2021-12-20 2023-06-29 ソニーグループ株式会社 Display device, display method, and display program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011189066A (en) * 2010-03-16 2011-09-29 Konami Digital Entertainment Co Ltd Game device, control method for game device, and program
US20110316987A1 (en) * 2010-06-24 2011-12-29 Sony Corporation Stereoscopic display device and control method of stereoscopic display device
JP2013539565A (en) * 2010-06-22 2013-10-24 マイクロソフト コーポレーション User tracking feedback
JP2014026355A (en) * 2012-07-25 2014-02-06 Hitachi Consumer Electronics Co Ltd Image display device and image display method
US20140062710A1 (en) * 2012-08-29 2014-03-06 3M Innovative Properties Company Method and apparatus of aiding viewing position adjustment with autostereoscopic displays

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011189066A (en) * 2010-03-16 2011-09-29 Konami Digital Entertainment Co Ltd Game device, control method for game device, and program
JP2013539565A (en) * 2010-06-22 2013-10-24 マイクロソフト コーポレーション User tracking feedback
US20110316987A1 (en) * 2010-06-24 2011-12-29 Sony Corporation Stereoscopic display device and control method of stereoscopic display device
JP2012010086A (en) * 2010-06-24 2012-01-12 Sony Corp Stereoscopic display device and stereoscopic display device control method
JP2014026355A (en) * 2012-07-25 2014-02-06 Hitachi Consumer Electronics Co Ltd Image display device and image display method
US20140062710A1 (en) * 2012-08-29 2014-03-06 3M Innovative Properties Company Method and apparatus of aiding viewing position adjustment with autostereoscopic displays

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021514512A (en) * 2018-02-20 2021-06-10 アップリフト ラブズ インコーポレイテッド Motion identification and generation of normative analysis using motion information
JP7160932B2 (en) 2018-02-20 2022-10-25 アップリフト ラブズ インコーポレイテッド Generating prescriptive analytics using motion identification and motion information
WO2021001894A1 (en) * 2019-07-01 2021-01-07 三菱電機株式会社 Display control device and display control method
WO2023120044A1 (en) * 2021-12-20 2023-06-29 ソニーグループ株式会社 Display device, display method, and display program

Also Published As

Publication number Publication date
JP6834197B2 (en) 2021-02-24

Similar Documents

Publication Publication Date Title
US10936077B2 (en) User-interactive gesture and motion detection apparatus, method and system, for tracking one or more users in a presentation
US11797146B2 (en) Systems, methods, and graphical user interfaces for annotating, measuring, and modeling environments
US11323658B2 (en) Display apparatus and control methods thereof
US10120454B2 (en) Gesture recognition control device
US10511778B2 (en) Method and apparatus for push interaction
US6594616B2 (en) System and method for providing a mobile input device
US20180292907A1 (en) Gesture control system and method for smart home
US9317198B2 (en) Multi display device and control method thereof
EP2919104B1 (en) Information processing device, information processing method, and computer-readable recording medium
US20160291699A1 (en) Touch fee interface for augmented reality systems
US20140300542A1 (en) Portable device and method for providing non-contact interface
US20120229509A1 (en) System and method for user interaction
KR101196291B1 (en) Terminal providing 3d interface by recognizing motion of fingers and method thereof
US20200142495A1 (en) Gesture recognition control device
JP2004246578A (en) Interface method and device using self-image display, and program
US9547370B2 (en) Systems and methods for enabling fine-grained user interactions for projector-camera or display-camera systems
Mäkelä et al. " It's Natural to Grab and Pull": Retrieving Content from Large Displays Using Mid-Air Gestures
EP3447610B1 (en) User readiness for touchless gesture-controlled display systems
JP6834197B2 (en) Information processing equipment, display system, program
US20160266648A1 (en) Systems and methods for interacting with large displays using shadows
US9958946B2 (en) Switching input rails without a release command in a natural user interface
JP6699406B2 (en) Information processing device, program, position information creation method, information processing system
US20230259265A1 (en) Devices, methods, and graphical user interfaces for navigating and inputting or revising content
KR20220057388A (en) Terminal for providing virtual augmented reality and control method thereof
Lee et al. Mouse operation on monitor by interactive analysis of intuitive hand motions

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190522

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210118

R151 Written notification of patent or utility model registration

Ref document number: 6834197

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151