JP2019028509A - Detection device, detection system, image processing device, detection method, image processing program, image display method, and image display system - Google Patents

Detection device, detection system, image processing device, detection method, image processing program, image display method, and image display system Download PDF

Info

Publication number
JP2019028509A
JP2019028509A JP2017143771A JP2017143771A JP2019028509A JP 2019028509 A JP2019028509 A JP 2019028509A JP 2017143771 A JP2017143771 A JP 2017143771A JP 2017143771 A JP2017143771 A JP 2017143771A JP 2019028509 A JP2019028509 A JP 2019028509A
Authority
JP
Japan
Prior art keywords
image
teaching
user
unit
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017143771A
Other languages
Japanese (ja)
Other versions
JP7126812B2 (en
Inventor
学千 金
Hakcheon Kim
学千 金
源洋 中川
Motohiro Nakagawa
源洋 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Quantum Inc
Original Assignee
Nikon Corp
Quantum Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp, Quantum Inc filed Critical Nikon Corp
Priority to JP2017143771A priority Critical patent/JP7126812B2/en
Publication of JP2019028509A publication Critical patent/JP2019028509A/en
Application granted granted Critical
Publication of JP7126812B2 publication Critical patent/JP7126812B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To allow a user to easily comprehend information on a posture of a user.SOLUTION: A detection device comprises: a detection unit which detects a user; a model generation unit which generates a model of the user, based on detection result of the detection unit; and an image processing unit which positions a teaching figure including a plurality of parts for each part, based on a posture of the user acquired from the detection unit, for the model of the user generated by the model generation unit, and generates a teaching image including the model of the user and the teaching figure.SELECTED DRAWING: Figure 1

Description

本発明は、検出装置、検出システム、画像処理装置、検出方法、画像処理プログラム、画像表示方法、及び画像表示システムに関する。   The present invention relates to a detection device, a detection system, an image processing device, a detection method, an image processing program, an image display method, and an image display system.

ユーザのトレーニング中の姿勢をリアルタイムにユーザに提供する技術が提案されている(例えば、下記の特許文献1)。ユーザの姿勢等の情報は、例えば、ユーザが容易に把握できるように提供されることが望まれる。   A technique for providing a user with a posture during training in real time has been proposed (for example, Patent Document 1 below). It is desired that information such as the user's posture is provided so that the user can easily grasp the information.

特開2011−19627号公報JP 2011-19627 A

本発明の第1の態様に従えば、ユーザを検出する検出部と、検出部の検出結果に基づいて、ユーザのモデルを生成するモデル生成部と、モデル生成部が生成したユーザのモデルに対し、検出部から得られるユーザの姿勢に基づいて、複数のパーツを含む教示図形をパーツごとに位置決めして、ユーザのモデルおよび教示図形を含む教示画像を生成する画像処理部と、を備える検出装置が提供される。   According to the first aspect of the present invention, a detection unit that detects a user, a model generation unit that generates a user model based on a detection result of the detection unit, and a user model generated by the model generation unit And an image processing unit that positions a teaching figure including a plurality of parts for each part based on the posture of the user obtained from the detecting unit, and generates a teaching image including the user model and the teaching figure. Is provided.

本発明の第2の態様に従えば、第1の態様の検出装置と、画像処理部が生成した教示画像を表示する表示部と、を備える検出システムが提供される。   According to a second aspect of the present invention, there is provided a detection system including the detection device according to the first aspect and a display unit that displays a teaching image generated by the image processing unit.

本発明の第4の態様に従えば、ユーザを検出した検出結果に基づいて生成されるユーザのモデルに対し、検出結果から得られるユーザの姿勢に基づいて、複数のパーツを含む教示図形をパーツごとに位置決めして、ユーザのモデルおよび教示図形を含む教示画像を生成する画像処理装置が提供される。   According to the fourth aspect of the present invention, for a user model generated based on a detection result of detecting a user, a teaching figure including a plurality of parts is converted into a part based on the posture of the user obtained from the detection result. An image processing apparatus is provided that generates a teaching image including a user's model and a teaching figure by positioning each of them.

本発明の第5の態様に従えば、ユーザを検出することと、ユーザを検出した検出結果に基づいて、ユーザのモデルを生成することと、ユーザのモデルに対し、検出結果から得られるユーザの姿勢に基づいて、複数のパーツを含む教示図形をパーツごとに位置決めして、ユーザのモデルおよび教示図形を含む教示画像を生成することと、を含む検出方法が提供される。   According to the fifth aspect of the present invention, detecting a user, generating a user model based on the detection result of detecting the user, and obtaining the user's model from the detection result A detection method including positioning a teaching figure including a plurality of parts for each part based on the posture and generating a teaching image including a user model and the teaching figure is provided.

本発明の第6の態様に従えば、コンピュータに、ユーザを検出した検出結果に基づいて生成されるユーザのモデルに対し、検出結果から得られるユーザの姿勢に基づいて、複数のパーツを含む教示図形をパーツごとに位置決めして、ユーザのモデルおよび教示図形を含む教示画像を生成することを実行させる画像処理プログラムが提供される。   According to the sixth aspect of the present invention, the computer includes a plurality of parts based on the user's posture obtained from the detection result with respect to the user's model generated based on the detection result of detecting the user. An image processing program for positioning a figure for each part and generating a teaching image including a user model and a teaching figure is provided.

本発明の第7の態様に従えば、表示部に、時間的に変化するユーザのモデルを動的に表示することと、表示部においてユーザのモデルに対して定められる位置に、ユーザのモデルの時間的な変化に基づいて選択される教示図形を、動的に表示することと、を含む画像表示方法が提供される。   According to the seventh aspect of the present invention, the display unit dynamically displays the user's model that changes with time, and the display unit displays the model of the user at a position determined with respect to the user's model. There is provided an image display method including dynamically displaying a teaching figure selected based on a temporal change.

本発明の第8の態様に従えば、画像を表示する表示部と、表示部に、時間的に変化するユーザのモデルを動的に表示させる第1表示処理部と、表示部においてユーザのモデルに対して定められる位置に、ユーザのモデルの時間的な変化に基づいて選択される教示図形を、動的に表示させる第2表示処理部と、を含む画像表示システムが提供される。   According to the eighth aspect of the present invention, a display unit that displays an image, a first display processing unit that dynamically displays a user model that changes over time on the display unit, and a user model in the display unit There is provided an image display system including a second display processing unit that dynamically displays a teaching figure selected based on a temporal change of a user's model at a position determined with respect to.

第1実施形態に係る検出システムを示す図である。It is a figure showing a detection system concerning a 1st embodiment. 第1実施形態に係る教示画像を示す図である。It is a figure which shows the teaching image which concerns on 1st Embodiment. 第1実施形態に係る教示画像を示す図である。It is a figure which shows the teaching image which concerns on 1st Embodiment. 第1実施形態に係る検出装置による処理を示す図である。It is a figure which shows the process by the detection apparatus which concerns on 1st Embodiment. 第1実施形態に係る姿勢データ、教示図形データ、表示条件データを示す概念図である。It is a conceptual diagram which shows the attitude | position data, teaching figure data, and display condition data which concern on 1st Embodiment. 第1実施形態に係る教示画像を示す図である。It is a figure which shows the teaching image which concerns on 1st Embodiment. 第1実施形態に係る教示画像を示す図である。It is a figure which shows the teaching image which concerns on 1st Embodiment. 第1実施形態に係る検出システムの動作を示す図である。It is a figure which shows operation | movement of the detection system which concerns on 1st Embodiment. 第1実施形態に係る検出システムの動作を示す図である。It is a figure which shows operation | movement of the detection system which concerns on 1st Embodiment. 第1実施形態に係る検出システムの動作を示す図である。It is a figure which shows operation | movement of the detection system which concerns on 1st Embodiment. 第1実施形態に係る検出システムの動作を示す図である。It is a figure which shows operation | movement of the detection system which concerns on 1st Embodiment. 第1実施形態に係る検出システムの動作を示す図である。It is a figure which shows operation | movement of the detection system which concerns on 1st Embodiment. 第1実施形態に係る検出システムの動作を示す図である。It is a figure which shows operation | movement of the detection system which concerns on 1st Embodiment. 第1実施形態に係る検出システムの動作を示す図である。It is a figure which shows operation | movement of the detection system which concerns on 1st Embodiment. 第1実施形態に係る検出システムの動作を示す図である。It is a figure which shows operation | movement of the detection system which concerns on 1st Embodiment. 第1実施形態に係る検出システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the detection system which concerns on 1st Embodiment. 第1実施形態に係る画像処理部による処理を示すフローチャートである。It is a flowchart which shows the process by the image process part which concerns on 1st Embodiment. 第2実施形態に係る検出システムを示す図である。It is a figure which shows the detection system which concerns on 2nd Embodiment. 第2実施形態に係る姿勢特定部による処理を示す図である。It is a figure which shows the process by the attitude | position identification part which concerns on 2nd Embodiment. 第2実施形態に係る画像処理部による処理を示す図である。It is a figure which shows the process by the image process part which concerns on 2nd Embodiment. 第2実施形態に係る画像処理部による処理を示すフローチャートである。It is a flowchart which shows the process by the image process part which concerns on 2nd Embodiment. 第3実施形態に係る検出システムを示す図である。It is a figure which shows the detection system which concerns on 3rd Embodiment. 第3実施形態に係る図形分割部による処理を示す図である。It is a figure which shows the process by the figure division part which concerns on 3rd Embodiment. 第4実施形態に係る検出システムを示す図である。It is a figure which shows the detection system which concerns on 4th Embodiment. 第4実施形態に係る履歴管理部の処理を示す図である。It is a figure which shows the process of the log | history management part which concerns on 4th Embodiment. 第5実施形態に係るユーザインターフェースを示す図である。It is a figure which shows the user interface which concerns on 5th Embodiment. 第6実施形態に係る画像処理部が生成する教示画像の例を示す図である。It is a figure which shows the example of the teaching image which the image process part which concerns on 6th Embodiment produces | generates. 第6実施形態に係る画像処理部が生成する教示画像の例を示す図である。It is a figure which shows the example of the teaching image which the image process part which concerns on 6th Embodiment produces | generates. 第7実施形態に係る検出システムを示す図である。It is a figure which shows the detection system which concerns on 7th Embodiment.

[第1実施形態]
第1実施形態について説明する。図1は、第1実施形態に係る検出システム、検出装置を示す図である。図1は、実施形態に係る検出システム1(情報提供システム)を示すブロック図である。検出システム1は、検出装置2および表示部3(表示装置)を備える。
[First Embodiment]
A first embodiment will be described. FIG. 1 is a diagram illustrating a detection system and a detection apparatus according to the first embodiment. FIG. 1 is a block diagram illustrating a detection system 1 (information providing system) according to the embodiment. The detection system 1 includes a detection device 2 and a display unit 3 (display device).

検出装置2は、例えば、所定(例、目標、基本、理想、見本)の姿勢(ポーズ、フォーム)に近づくように、動作するユーザUを検出する。検出装置2は、例えば、スポーツ(例、野球、サッカー、ゴルフ、体操、エクササイズ、ボディビル)、ファッションショー(例、ウォーキング、ポージング)、ゲーム、又は人物認証(例、セキュリティ)等の各種分野で利用可能である。例えば、ユーザUは、ヨガをテーマにしたゲームのプレイヤーでもよく、検出装置2は、ゲームをプレイするユーザUを検出してもよい。   For example, the detection device 2 detects the user U who moves so as to approach a predetermined posture (eg, target, basic, ideal, sample) (pose, form). The detection device 2 is used in various fields such as sports (eg, baseball, soccer, golf, gymnastics, exercise, body building), fashion shows (eg, walking, posing), games, or person authentication (eg, security). Is available. For example, the user U may be a player of a game on the theme of yoga, and the detection device 2 may detect the user U who plays the game.

以下の説明において、検出装置2は、ヨガにおける所定の姿勢(例、戦士のポーズ、三角のポーズ)をとるユーザUを検出するものとする。なお、検出装置2がユーザUを検出する際に、衣類、靴、あるいはプロテクタなどの装着物(例、ユーザUとともに移動する物体)を付けた状態でもよい。検出装置2によるユーザUの検出は、ユーザUとともに移動する装着物の検出を含んでもよい。   In the following description, it is assumed that the detection device 2 detects a user U taking a predetermined posture in yoga (eg, warrior pose, triangle pose). In addition, when the detection apparatus 2 detects the user U, a state in which an attachment (eg, an object that moves with the user U) such as clothing, shoes, or a protector may be attached. The detection of the user U by the detection device 2 may include detection of a wearing object that moves with the user U.

表示部3は、ユーザUに対して各種画像を表示する。表示部3は、有線または無線によって、検出装置2と通信可能に接続される。表示部3は、検出装置2から供給される画像データに基づいて、画像を表示する。表示部3は、例えば、フラットパネルディスプレイ(FPD)もしくはヘッドマウントディスプレイ(HMD)などの直視型表示部、又はプロジェクタなどの投影型表示部を含む。表示部3は、FPDなどのように据え置き型の表示部でもよいし、HMDなどのように携帯型(モバイル機器)もしくは装着型(ウェアラブル機器)の表示部でもよい。   The display unit 3 displays various images to the user U. The display unit 3 is communicably connected to the detection device 2 by wire or wireless. The display unit 3 displays an image based on the image data supplied from the detection device 2. The display unit 3 includes, for example, a direct view display unit such as a flat panel display (FPD) or a head mounted display (HMD), or a projection display unit such as a projector. The display unit 3 may be a stationary display unit such as an FPD or a portable (mobile device) or a wearable (wearable device) display unit such as an HMD.

以下、図1から図3を参照しつつ表示部3に表示される画像の例について説明し、次いで検出装置2について説明する。図2および図3は、それぞれ、表示部3に表示される画像を示す概念図である。図2および図3は、ヨガにおける戦士のポーズ(ヴィーラバドラ・アーサナ)に対応する。図2の画像Im1から画像Im3は、ユーザが足を開き、手を上に挙げて背筋を伸ばしながら息を深く吸うといった、一連の動作に対応する。   Hereinafter, an example of an image displayed on the display unit 3 will be described with reference to FIGS. 1 to 3, and then the detection device 2 will be described. 2 and 3 are conceptual diagrams showing images displayed on the display unit 3, respectively. 2 and 3 correspond to warrior poses in yoga (Vilabadra Asana). Image Im1 to Image Im3 in FIG. 2 correspond to a series of operations in which the user opens his / her leg, raises his hand and stretches his spine and inhales deeply.

表示部3は、予め登録された姿勢の画像(以下、サンプル画像Saという)を表示する。サンプル画像Saは、例えば、画像Im1の一部(例、左上)に重畳して配置される。サンプル画像Saは、例えば、ユーザが目標の姿勢をとる際に参照する画像(教師画像)である。サンプル画像Saは、例えば、ヨガのインストラクタが所定のポーズ(例、戦士のポーズ)をとった画像(例、静止画または動画)を含む。ユーザUは、表示部3に表示されたサンプル画像Saを見ることで、例えば、次に行うポーズの種類を確認することができる。   The display unit 3 displays a pre-registered posture image (hereinafter referred to as a sample image Sa). For example, the sample image Sa is arranged so as to overlap with a part of the image Im1 (eg, upper left). The sample image Sa is, for example, an image (teacher image) that is referred to when the user takes a target posture. The sample image Sa includes, for example, an image (eg, a still image or a moving image) in which a yoga instructor takes a predetermined pose (eg, a warrior's pose). The user U can confirm the type of pose to be performed next, for example, by looking at the sample image Sa displayed on the display unit 3.

なお、検出システム1は、所定のポーズの情報を報知する報知部を備えてもよい。所定のポーズの情報は、例えば、所定のポーズの名称、及び所定のポーズに関する動作説明の一方または双方を含む。報知部は、所定のポーズの情報をユーザが識別可能な形態(例、画像、音声)で出力する。例えば、報知部は、所定のポーズの情報としてサンプル画像Saを出力する表示部3を含む。また、上記の報知部は、表示部3がサンプル画像Saを表示する際に、サンプル画像Saに対応する所定のポーズの情報を音声で報知する音声報知部(例、音声出力部、音声ガイド部)を含んでもよい。   Note that the detection system 1 may include a notification unit that notifies information on a predetermined pose. The information on the predetermined pose includes, for example, one or both of the name of the predetermined pose and the operation description related to the predetermined pose. The notification unit outputs information on a predetermined pose in a form that can be identified by the user (eg, image, sound). For example, the notification unit includes a display unit 3 that outputs a sample image Sa as information on a predetermined pose. In addition, the notification unit described above is a voice notification unit (e.g., a voice output unit, a voice guide unit) that reports information on a predetermined pose corresponding to the sample image Sa when the display unit 3 displays the sample image Sa. ) May be included.

例えば、検出システム1(例、音声報知部)は、所定のポーズ(例、戦士のポーズ)のサンプル画像Saを表示する際に、所定のポーズの名称(例、「戦士のポーズ」)を読み上げた音声(音声ガイド)を出力してもよい。また、検出システム1(例、音声報知部)は、「戦士のポーズ」という音声の代わりに、戦士のポーズと予め関連付けられた音楽、曲、BGMを出力してもよい。例えば、ヨガの次のポーズに進む際に、検出システム1(例、音声報知部)は、音声として出力する音楽、曲、BGMの等を変更してもよい。   For example, when displaying the sample image Sa of a predetermined pose (for example, a warrior's pose), the detection system 1 (for example, the voice notification unit) reads a name of the predetermined pose (for example, “warrior's pose”). A voice (voice guide) may be output. Further, the detection system 1 (eg, a voice notification unit) may output music, music, and BGM that are associated with the warrior pose in advance, instead of the voice “warrior pose”. For example, when proceeding to the next pose of yoga, the detection system 1 (for example, a voice notification unit) may change music, music, BGM, and the like output as voice.

また、例えば、検出システム1(例、音声報知部)は、所定のポーズ(例、戦士のポーズ)のサンプル画像Saを表示する際に、上記の動作説明として、人体の少なくとも一部の部位の動作を表す文言(フレーズ)を読み上げた音声(例、「息を吸ってください」、「腕を水平に伸ばしてください」、「足を垂直に曲げてください」)を出力してもよい。また、検出システム1(例、音声報知部)は、サンプル画像Saを表示する代わりに、上記の音声(例、音声ガイド)を出力してもよい。   In addition, for example, when the detection system 1 (eg, a voice notification unit) displays a sample image Sa of a predetermined pose (eg, a warrior's pose), as an explanation of the above operation, at least a part of the human body You may output the voice (for example, “please breathe in”, “stretch your arm horizontally”, “bend your legs vertically”) that reads out the words (phrases) that represent the movement. In addition, the detection system 1 (eg, voice notification unit) may output the above voice (eg, voice guide) instead of displaying the sample image Sa.

また、表示部3は、ユーザUのモデル(適宜、ユーザモデルUMという)を表示する。図1の検出装置2は、ユーザUを検出し、その検出結果に基づいてユーザの姿勢などを示すユーザモデルUMを生成する。ユーザモデルUMは、ユーザUの二次元的な形状または三次元的な形状を表す図形である。ユーザモデルUMは、例えば、シルエット、ポリゴン、ボクセル、ワイヤーフレーム、ユーザUの表面上の点の集合体、アバター、または骨格モデルなどで表される。また、例えば、表示部3に表示されるオブジェクト(例、ユーザモデルUM、教示画像、サンプル画像Sa)のレイアウトは、表示部3の左上にサンプル画像Saが配置され、表示部3の中央にユーザモデルUMが配置され、ユーザモデルUMの周辺(近接)に教示画像が配置されるレイアウトである。   The display unit 3 displays a model of the user U (referred to as a user model UM as appropriate). The detection apparatus 2 in FIG. 1 detects the user U, and generates a user model UM indicating the user's posture and the like based on the detection result. The user model UM is a figure representing the user U's two-dimensional shape or three-dimensional shape. The user model UM is represented by, for example, a silhouette, a polygon, a voxel, a wire frame, a collection of points on the surface of the user U, an avatar, or a skeleton model. Further, for example, the layout of an object (eg, user model UM, teaching image, sample image Sa) displayed on the display unit 3 is such that the sample image Sa is arranged at the upper left of the display unit 3 and the user is displayed at the center of the display unit 3. This is a layout in which a model UM is arranged and a teaching image is arranged around (close to) the user model UM.

図1の検出装置2は、ユーザUを繰り返し光学的に検出し、表示部3は、検出装置2の検出結果に基づいて、ユーザモデルUMをリアルタイムで表示(更新)する。表示部3は、例えば、サンプル画像SaおよびユーザモデルUMを含む画像(例、画像Im1)を表示する。   The detection device 2 in FIG. 1 optically detects the user U repeatedly, and the display unit 3 displays (updates) the user model UM in real time based on the detection result of the detection device 2. The display unit 3 displays, for example, an image (for example, the image Im1) including the sample image Sa and the user model UM.

また、表示部3は、ユーザモデルUMおよび教示図形Fを含む教ユーザUの示画像(例、画像Im1から画像Im6)を表示する。教示図形Fは、例えば、ユーザUが所定の姿勢をとる際のユーザインターフェースを構成する。教示画像は、例えば、所定の姿勢をとる上での留意点などを、ユーザUが直感的に分かるように、表現する画像を含む。このように、表示部3は、ユーザインターフェースとしてサンプル画像Sa、ユーザモデルUM、教示画像などを所定の配置で表示する。   The display unit 3 also displays an image (eg, image Im1 to image Im6) of the teaching user U including the user model UM and the teaching figure F. The teaching figure F constitutes, for example, a user interface when the user U takes a predetermined posture. The teaching image includes, for example, an image that expresses points to be noted when taking a predetermined posture so that the user U can intuitively understand. As described above, the display unit 3 displays the sample image Sa, the user model UM, the teaching image, and the like as a user interface in a predetermined arrangement.

教示図形Fは、例えば、人体の部位を表す図形と、人体の形状を表す図形と、人体の動作を表す図形との少なくとも一つを含む。本明細書において「図形」は、線分、曲線、又は線分および曲線を含む形状(例、幾何形状)と、文字と、記号との少なくとも1つを含む。幾何形状は、例えば、円、楕円、多角形、多角形の角を丸めた形状、長円などである。   The teaching figure F includes, for example, at least one of a figure representing a part of the human body, a figure representing the shape of the human body, and a figure representing the action of the human body. In the present specification, the “graphic” includes at least one of a line segment, a curve, or a shape including a line segment and a curve (eg, geometric shape), a character, and a symbol. Examples of the geometric shape include a circle, an ellipse, a polygon, a shape obtained by rounding the corners of a polygon, and an ellipse.

また、本明細書において図形に含まれる文字は、表意文字と表音文字との一方または双方を含む。表意文字は、例えば、漢字、アラビア数字(1、2、・・・)などであり、1文字で意味を表す文字である。表示文字としては、例えば、骨、脇、肩、首などのように人体の部位を表す漢字、吐、呼、吸、伸などのように人体の動作を表す漢字、曲などのように人体の形状を表す漢字等が挙げられる。   Moreover, the character contained in a figure in this specification contains one or both of an ideogram and a phonetic character. The ideographic characters are, for example, Chinese characters, Arabic numerals (1, 2,...), Etc., and are characters that represent meaning with one character. Display characters include, for example, kanji characters that represent parts of the human body such as bones, armpits, shoulders, necks, kanji characters that represent human movements such as vomiting, calling, sucking, and stretching, Examples include kanji characters that represent shapes.

表音文字(音標文字)は、例えば、ひらがな、かたかな、アルファベット、ハングルなどのように、1文字で音素または音節を表す文字である。なお、漢字は、中国などにおいて表音文字として用いられる場合がある。図形に含まれる文字の数は、1でもよいし、2以上でもよい。例えば、本明細書における図形は、2以上の文字で構成される文字列を含んでもよい。また、本明細書における図形は、複数の表音文字で構成される単語、文節、又は文章を含んでもよい。   A phonetic character (phonetic character) is a character that represents a phoneme or syllable with a single character, such as hiragana, kana, alphabet, hangul, and the like. Note that Chinese characters are sometimes used as phonetic characters in China and the like. The number of characters included in the graphic may be one or two or more. For example, the graphic in the present specification may include a character string composed of two or more characters. In addition, the graphic in this specification may include a word, a phrase, or a sentence composed of a plurality of phonetic characters.

教示画像の少なくとも1つの画像において、教示図形は、複数のパーツ(例、要素、部分、部品、セグメント)を含む。例えば、画像Im1において、教示図形Fは、パーツp1およびパーツp2を含む。パーツp1は、「吸」という文字であり、人体の動作を表す図形である。パーツp1である「吸」は、ユーザUが息を吸う動作と関連付けられて、表示される。例えば、ユーザUがサンプル画像Saを参照してヨガを行う場合、人体が息を吸う動作に対応するサンプル画像Saが表示されるタイミングに基づいて、パーツp1である「吸」が表示部3に表示される。例えば、ヨガの実施中にサンプル画像Saを見たユーザUがこの動作を行う際に、パーツp1である「吸」が表示部3に表示される。   In at least one image of the teaching image, the teaching graphic includes a plurality of parts (eg, elements, parts, parts, segments). For example, in the image Im1, the teaching figure F includes a part p1 and a part p2. The part p1 is a character “sucking” and is a figure representing the motion of the human body. The part p1 “suck” is displayed in association with the action of the user U breathing. For example, when the user U performs yoga with reference to the sample image Sa, “sucking” as the part p1 is displayed on the display unit 3 based on the timing at which the sample image Sa corresponding to the action of the human body breathing is displayed. Is displayed. For example, when the user U who has seen the sample image Sa during yoga performs this operation, the part p1 “suck” is displayed on the display unit 3.

教示図形Fのパーツ(例、パーツp1)は、検出装置2(処理部6)によってユーザモデルUMに対して位置決めされる。例えば、画像Im1におけるパーツp1である「吸」は、ユーザモデルUMにおいて呼吸に関連するユーザUの人体の部位(例、口、胸)に対して位置決めされ、この部位に対して所定の位置関係で表示される。例えば、画像Im1から画像Im3へ進む際に、ユーザUが背筋を伸ばす動作が想定されており、パーツp1である「吸」は、ユーザモデルUMに対して上方へ移動するように、ユーザモデルUMに対して位置決めされる。ユーザUは、例えば、パーツp1の「吸」が上方へ移動するのに合わせて身体が上方へ引っ張られるイメージを持つことによって、背筋を伸ばす動作を直感的に行うことができる。実施形態に係る教示図形は、例えば、ユーザUに動作のイメージを想起させるように、動作がデフォルメされた図形から選択される。   The part (for example, part p1) of the teaching figure F is positioned with respect to the user model UM by the detection device 2 (processing unit 6). For example, “suction” which is the part p1 in the image Im1 is positioned with respect to a part of the human body of the user U (eg, mouth, chest) related to breathing in the user model UM, and has a predetermined positional relationship with this part. Is displayed. For example, when moving from the image Im1 to the image Im3, it is assumed that the user U stretches his / her back, and the user model UM is such that the “puff” that is the part p1 moves upward with respect to the user model UM. Is positioned with respect to. For example, the user U can intuitively perform the action of extending the spine by having the image that the body is pulled upward as the “sucking” of the part p1 moves upward. For example, the teaching figure according to the embodiment is selected from figures whose actions are deformed so as to remind the user U of an action image.

また、教示図形Fのパーツ(例、パーツp1)は、色(色相、明度、及び彩度の少なくとも1つ)が全体的に又は部分的に変化するように、表されてもよい。例えば図1において、「吸」というパーツp1は、息を吸う動作の進行(時間)に対応して、周囲とのコントラストが相対的に低い状態(画像Im1に点線で示す)から、周囲とのコントラストが相対的に高い状態(画像Im2に実線で示す)へ変化する。例えば、「吸」というパーツp1は、画像Im1から画像Im2へ進む際に、フェードインするように色が変化する。教示図形Fにおける複数(少なくとも2つ)のパーツのうち少なくとも1つのパーツは、例えば、サンプル画像Saにおける教師(例、ヨガのインストラクタ)の動作(例、サンプル画像Saのポーズなど)に基づき所定のタイミング(例、画像Im1から画像Im2へ進む時など)において表示の位置が変更される(表示部3の画面内において所定の移動速度で対象のパーツが移動する)。   Further, the part (eg, part p1) of the teaching figure F may be represented such that the color (at least one of hue, lightness, and saturation) changes entirely or partially. For example, in FIG. 1, the part p1 “sucking” corresponds to the progress (time) of the breathing operation from the state in which the contrast with the surroundings is relatively low (indicated by a dotted line in the image Im1). The contrast changes to a relatively high state (indicated by a solid line in the image Im2). For example, the color of the part p1 “suck” changes so as to fade in when proceeding from the image Im1 to the image Im2. At least one part of the plurality (at least two) parts in the teaching figure F is determined based on, for example, a teacher (eg, yoga instructor) operation (eg, pose of the sample image Sa) in the sample image Sa. The display position is changed at a timing (for example, when moving from the image Im1 to the image Im2) (the target part moves at a predetermined moving speed in the screen of the display unit 3).

また、教示図形Fのパーツp2は、ユーザモデルUMの手先を起点とする線分状(帯状)の図形である。パーツp2は、画像Im1から画像Im2へ進み、さらに画像Im2から画像Im3へ進む際に、ユーザモデルUMの手先の位置から下方に伸びるように、長さが変化する。画像Im3における教示図形Fのパーツp3は、人体の腰中央(ベース)を表す図形(ここでは円形)である。パーツp3は、パーツp2が人体の手先から腰中央まで伸びた際に、フェードインするように表示される。   The part p2 of the teaching figure F is a line-shaped (band-like) figure starting from the hand of the user model UM. The length of the part p2 changes so as to extend downward from the position of the hand of the user model UM when proceeding from the image Im1 to the image Im2, and further from the image Im2 to the image Im3. The part p3 of the teaching figure F in the image Im3 is a figure (here, a circle) representing the waist center (base) of the human body. The part p3 is displayed to fade in when the part p2 extends from the hand of the human body to the center of the waist.

図3の画像Im4から画像Im6は、ユーザUが前足の膝を垂直に曲げるように腰を落としながら息を深く吐くといった、一連の動作に対応する。画像Im4において、教示図形Fは、パーツp3、パーツp4、パーツp5、及びパーツp6を含む。パーツp3は、ユーザモデルUMにおいて人体の腰中央の位置を表す図形である。パーツp4は、例えば、人体の足の姿勢を示す図形である。画像Im4、画像Im5におけるパーツp4は、ユーザモデルUMに対して水平に伸びる線分状(帯状)の図形であり、人体の太ももを水平に保つイメージを表す。また、画像Im6におけるパーツp4は、ユーザモデルUMから水平に伸びて、さらに下方伸びる折れ線状の図形であり、膝を垂直に曲げるイメージを表す。   The images Im4 to Im6 in FIG. 3 correspond to a series of operations in which the user U exhales deeply while dropping his / her waist so that the knee of the front foot is bent vertically. In the image Im4, the teaching figure F includes a part p3, a part p4, a part p5, and a part p6. The part p3 is a graphic representing the position of the human waist center in the user model UM. The part p4 is, for example, a graphic indicating the posture of the human body foot. A part p4 in the image Im4 and the image Im5 is a line-shaped (band-like) figure extending horizontally with respect to the user model UM, and represents an image for keeping the thigh of the human body horizontal. Further, the part p4 in the image Im6 is a polygonal line shape extending horizontally from the user model UM and extending further downward, and represents an image in which the knee is bent vertically.

また、教示図形Fのパーツp5は、「吐」という漢字の一部(例、部首)である「口」である。パーツp6は、「吐」という漢字の一部(例、部首)である「土」である。パーツp5およびパーツp6は、一組で「吐」という漢字を表す。パーツp5およびパーツp6により構成される「吐」は、ユーザが息を吐く動作と関連付けられて、表示される。例えば、ユーザUがサンプル画像Saを参照してヨガを行う場合、人体が息を吐く動作に対応するサンプル画像Saが表示されるタイミングに基づいて、パーツp5およびパーツp6が表示される。例えば、サンプル画像Saを見たユーザUがこの動作を行う際に、「吐」が表示される。   Further, the part p5 of the teaching figure F is “mouth” which is a part (eg, radical) of the Chinese character “vomit”. The part p6 is “Sat”, which is a part (eg, radical) of the Chinese character “Yo”. The part p5 and the part p6 represent a kanji character called “vomit” as a set. “Vomiting” composed of the parts p5 and p6 is displayed in association with the action of the user exhaling. For example, when the user U performs yoga with reference to the sample image Sa, the part p5 and the part p6 are displayed based on the timing at which the sample image Sa corresponding to the action of the human body exhaling is displayed. For example, when the user U who has seen the sample image Sa performs this operation, “vomit” is displayed.

パーツp5およびパーツp6は、それぞれ、ユーザモデルUMに対して位置決めされる。例えば、画像Im4において、パーツp5およびパーツp6は、ユーザモデルUMにおいて呼吸に関連する部位(例、口、胸)に対して位置決めされ、この部位に対して所定の基準位置(例、部位に近い位置)に表示される。   The parts p5 and p6 are each positioned with respect to the user model UM. For example, in the image Im4, the part p5 and the part p6 are positioned with respect to a part (eg, mouth, chest) related to respiration in the user model UM, and a predetermined reference position (eg, close to the part) with respect to this part Position).

図3における「吐」という文字は、例えば、吐いた息のイメージで表現される。例えば、画像Im5における「吐」は、画像Im4に比べて、ユーザモデルUMから離れている。画像Im5におけるパーツp5の「口」およびパーツp6の「土」は、画像Im4に比べて、ユーザモデルUM(ユーザモデルUMにおける基準位置)から離れた位置に配置される(位置決めされる)。また、画像Im5における「吐」は、画像Im4に比べて、ユーザモデルUMから離れて散逸するように、変形する。例えば、画像Im5におけるパーツp6の「土」は、画像Im4に比べて、パーツp5の「口」から離れた位置に配置(位置決め)される。また、例えば、画像Im5におけるパーツp6の「土」は、画像Im4に比べて、教示図形の一部であるパーツp6の「土」の形が1方向又は2方向に伸びるように(又は大きくなるように)変更されてもよい。   The character “vomit” in FIG. 3 is expressed by an image of exhaled breath, for example. For example, “vomit” in the image Im5 is farther from the user model UM than in the image Im4. The “mouth” of the part p5 and the “soil” of the part p6 in the image Im5 are arranged (positioned) at positions farther from the user model UM (reference position in the user model UM) than the image Im4. In addition, the “vomit” in the image Im5 is deformed so as to be dissipated away from the user model UM compared to the image Im4. For example, the “soil” of the part p6 in the image Im5 is arranged (positioned) at a position farther from the “mouth” of the part p5 than the image Im4. Further, for example, the “soil” of the part p6 in the image Im5 is larger (or larger) than the image Im4 so that the shape of the “soil” of the part p6 that is a part of the teaching figure extends in one direction or two directions. As may be changed).

また、画像Im6における「吐」は、画像Im5に比べて、ユーザモデルUMから離れている。画像Im6において、パーツp5の「口」およびパーツp6の「土」は、画像Im5に比べてユーザモデルUMから離れた位置に、位置決めされる。また、画像Im6において「吐」は、画像Im5に比べて「口」と「土」とがバラバラになって散逸するイメージで表現される。画像Im6におけるパーツp6の「土」、画像Im5に比べてパーツp5の「口」から離れた位置に、位置決めされる。このように、教示図形は、変形させた漢字を含んでもよく、複数のパーツの少なくとも1つは、変形させた漢字の部首を含んでもよい。   In addition, “vomit” in the image Im6 is farther from the user model UM than in the image Im5. In the image Im6, the “mouth” of the part p5 and the “soil” of the part p6 are positioned at positions farther from the user model UM than the image Im5. In the image Im6, “vomit” is expressed as an image in which the “mouth” and the “earth” are dissociated and dissipated compared to the image Im5. In the image Im6, the “powder” of the part p6 is positioned at a position farther from the “mouth” of the part p5 than the image Im5. As described above, the teaching figure may include a deformed Chinese character, and at least one of the plurality of parts may include a radical of the deformed Chinese character.

また、画像Im5から画像Im6へ進む際に、「吐」は、周囲とのコントラストが相対的に高い状態(画像Im5に実線で示す)から、周囲とのコントラストが相対的に低い状態(画像Im6に点線で示す)へ変化してもよい。例えば、画像Im6における「吐」は、フェードアウトするように表示(例、色)の要素(例、コントラスト、色相、明度、彩度)が変化する。   Further, when proceeding from the image Im5 to the image Im6, “vomiting” is a state in which the contrast with the surroundings is relatively high (indicated by a solid line in the image Im5) and the contrast with the surroundings is relatively low (image Im6). (Indicated by a dotted line). For example, the elements (eg, contrast, hue, lightness, and saturation) of the display (eg, color) change so that “voking” in the image Im6 fades out.

上述のように、実施形態に係る画像表示方法は、表示部3に、時間的に変化するユーザUのモデルを動的に表示すること(第1表示処理)と、表示部3においてユーザUのモデルに対して定められる位置に、ユーザUのモデルの時間的な変化に基づいて選択される教示図形Fを、動的に表示すること(第2表示処理)と、を含む。   As described above, the image display method according to the embodiment dynamically displays the model of the user U that changes over time on the display unit 3 (first display process), and the display unit 3 displays the user U's model. Dynamically displaying a teaching figure F selected based on a temporal change in the model of the user U at a position determined with respect to the model (second display processing).

実施形態に係る画像表示方法は、ユーザUを検出して得られるユーザUのモデルを動的に表示することを含んでもよい。教示図形Fを動的に表示することは、例えば、画像内で教示図形Fを所定の移動速度で移動させる(教示図形の画像内での位置を時間変化させる)こと、教示図形Fを変形させること、及び教示図形Fの表示(例、色、色相、明度、彩度、コントラスト)を変化せることの少なくとも1つを含む。   The image display method according to the embodiment may include dynamically displaying a model of the user U obtained by detecting the user U. The dynamic display of the teaching figure F includes, for example, moving the teaching figure F at a predetermined moving speed in the image (changing the position of the teaching figure in the image with time), and deforming the teaching figure F. And at least one of changing the display (eg, color, hue, lightness, saturation, contrast) of the teaching figure F.

また、実施形態に係る画像表示方法は、動的に表示されるユーザUのモデルに対して図形を位置決めして、図形を動的に表示することを含んでもよい。この図形の種類は、例えば、ユーザUの動作(例、姿勢)と予め関連付けられてもよい。また、この図形が表示されるタイミングは、例えば、ユーザUの動作のタイミングと予め関連付けられてもよい。以下、実施形態に係る検出装置2の各部について説明する。   Further, the image display method according to the embodiment may include displaying a figure dynamically by positioning the figure with respect to the model of the user U that is dynamically displayed. This type of figure may be associated in advance with the operation (eg, posture) of the user U, for example. Moreover, the timing at which this graphic is displayed may be associated in advance with the timing of the operation of the user U, for example. Hereinafter, each part of the detection apparatus 2 according to the embodiment will be described.

図1の検出装置2は、検出部5、処理部6、表示制御部7、及び記憶部8を備える。以下の説明において、適宜、図4を参照する。図4(A)検出部の検出結果を示す概念図であり、図4(B)は処理部による処理結果を示す概念図である。検出部5は、ユーザUを光学的に検出する。検出部5は、例えば、ユーザUを三次元的に検出する。検出部5は、例えば、距離を検出するデプスセンサを含む。検出部5は、例えば、所定の視点(例、検出部5の位置、視点)からユーザUの表面上の各点までの距離を検出する。検出部5は、例えば、所定の周波数(例、サンプリングレート、フレームレート)で検出処理を繰り返し実行する。   The detection device 2 of FIG. 1 includes a detection unit 5, a processing unit 6, a display control unit 7, and a storage unit 8. In the following description, FIG. 4 will be referred to as appropriate. FIG. 4A is a conceptual diagram illustrating a detection result of the detection unit, and FIG. 4B is a conceptual diagram illustrating a processing result by the processing unit. The detection unit 5 optically detects the user U. For example, the detection unit 5 detects the user U three-dimensionally. The detection unit 5 includes, for example, a depth sensor that detects a distance. The detection unit 5 detects, for example, the distance from a predetermined viewpoint (eg, position of the detection unit 5, viewpoint) to each point on the surface of the user U. For example, the detection unit 5 repeatedly performs detection processing at a predetermined frequency (eg, sampling rate, frame rate).

検出部5は、例えば、TOF(time of flight)法によって距離を検出する。検出部5は、その検出結果(例、位置情報)として、例えば距離の分布を示す位置情報を出力する。上記の位置情報は、例えば、デプス情報(例、デプス画像のデータ、奥行き情報、デプスマップ)を含む。検出部5は、検出結果として、例えば図4(A)に示すデプス画像Im7のデータを出力する。デプス画像Im7において、各画素の画素値は、例えば、デプス画像Im7上の画素の位置に相当する実空間上の点と検出部5との距離を表す。例えば、デプス画像Im7はグレースケールで表され、暗い部分は、明るい部分よりも検出部5からの距離が離れている。   The detection unit 5 detects the distance by, for example, the TOF (time of flight) method. The detection unit 5 outputs, for example, position information indicating a distance distribution as the detection result (eg, position information). The position information includes, for example, depth information (eg, depth image data, depth information, depth map). For example, the detection unit 5 outputs data of a depth image Im7 illustrated in FIG. In the depth image Im7, the pixel value of each pixel represents, for example, the distance between a point on the real space corresponding to the position of the pixel on the depth image Im7 and the detection unit 5. For example, the depth image Im7 is expressed in gray scale, and the dark part is more distant from the detection unit 5 than the bright part.

なお、検出部5は、TOF法以外他の手法で距離を検出するデバイスでもよい。検出部5は、例えば、レーザスキャナ(例、レーザ測距器)を含み、レーザスキャンによって距離を検出するデバイスでもよい。検出部5は、例えば、ユーザUが存在する領域に所定のパターン(例、水玉パターン、格子パターン)を投影し、このパターンの検出結果をもとに距離を測定するデバイスでもよい。検出部5は、例えば、位相差センサを含み、位相差法によって距離を検出するデバイスでもよい。検出部5は、例えば、DFD(depth from defocus)法によって距離を検出するデバイスでもよい。   Note that the detection unit 5 may be a device that detects a distance by a method other than the TOF method. The detection unit 5 may be, for example, a device that includes a laser scanner (for example, a laser range finder) and detects a distance by laser scanning. The detection unit 5 may be, for example, a device that projects a predetermined pattern (eg, a polka dot pattern or a lattice pattern) onto an area where the user U exists, and measures the distance based on the detection result of this pattern. The detection unit 5 may be, for example, a device that includes a phase difference sensor and detects a distance by a phase difference method. The detection unit 5 may be, for example, a device that detects a distance by a DFD (depth from defocus) method.

また、検出部5は、例えばステレオカメラなどによって複数の視点からユーザUを撮像した撮像画像を用いて、三角測量によって距離を検出するデバイスでもよい。検出部5は、上述した複数の検出法のうち2以上を組み合わせて、ユーザUを検出するデバイスでもよい。検出部5は、距離を検出するセンサ、及びイメージセンサを含んでもよい。また、検出部5は、光学的な手法以外の手法(例、超音波によるスキャン)でユーザUを検出してもよい。また、検出部5は、所定の視点(例、単一視点又は複数の視点)から得られたユーザUの画像の特徴(ユーザUの画像を画像処理して得られる特徴点など)から距離を推定してもよい。   The detection unit 5 may be a device that detects a distance by triangulation using captured images obtained by capturing the user U from a plurality of viewpoints using, for example, a stereo camera. The detection unit 5 may be a device that detects the user U by combining two or more of the plurality of detection methods described above. The detection unit 5 may include a sensor that detects a distance and an image sensor. Further, the detection unit 5 may detect the user U by a method other than the optical method (for example, scanning with ultrasonic waves). Further, the detection unit 5 determines the distance from the feature of the user U image obtained from a predetermined viewpoint (eg, a single viewpoint or a plurality of viewpoints) (such as a feature point obtained by image processing of the user U image). It may be estimated.

処理部6は、検出部5が出力する情報(例、検出結果)を処理する情報処理部である。処理部6は、検出部5と有線または無線によって通信可能に接続される。処理部6は、検出部5の検出結果としてデプス情報を、検出部5から取得(例、受信)する。処理部6は、検出部5の検出結果あるいは処理結果を、検出部5との通信を介することなく取得してもよい。例えば、処理部6は、不揮発性メモリなどの記憶媒体を介して、検出部5から検出結果を取得してもよい。   The processing unit 6 is an information processing unit that processes information (for example, a detection result) output from the detection unit 5. The processing unit 6 is communicably connected to the detection unit 5 by wired or wireless communication. The processing unit 6 acquires (eg, receives) depth information from the detection unit 5 as a detection result of the detection unit 5. The processing unit 6 may acquire the detection result or the processing result of the detection unit 5 without communication with the detection unit 5. For example, the processing unit 6 may acquire the detection result from the detection unit 5 via a storage medium such as a nonvolatile memory.

処理部6は、モデル生成部11、部位特定部12、及び画像処理部13を備える。モデル生成部11は、検出部5の検出結果に基づいて、ユーザUのモデル(例、図2のユーザモデルUM)を生成する。モデル生成部11は、検出部5の検出結果に基づいて、ユーザUの人体の各部の位置を検出(算出)する。モデル生成部11は、例えば、図4(A)のデプス画像Im7のデータを処理(例、透視変換処理、射影変換処理)することによって、ユーザUの三次元形状を表す形状情報を生成(算出)する。形状情報は、例えば、点群データを含む。点群データは、例えばユーザUの表面の複数の点データを含む。複数の点データは、それぞれ3次元座標で表される。   The processing unit 6 includes a model generation unit 11, a part specifying unit 12, and an image processing unit 13. The model generation unit 11 generates a model of the user U (for example, the user model UM in FIG. 2) based on the detection result of the detection unit 5. The model generation unit 11 detects (calculates) the position of each part of the human body of the user U based on the detection result of the detection unit 5. For example, the model generation unit 11 generates (calculates) shape information representing the three-dimensional shape of the user U by processing the data of the depth image Im7 in FIG. 4A (eg, perspective conversion processing, projective conversion processing). ) The shape information includes, for example, point cloud data. The point cloud data includes, for example, a plurality of point data on the surface of the user U. The plurality of point data are each represented by three-dimensional coordinates.

モデル生成部11は、形状情報としてサーフェス情報を算出してもよい。サーフェス情報は、例えばポリゴンデータ、ベクタデータ、ドローデータなどである。サーフェス情報は、例えば、複数の点の座標と複数の点間の連結情報とを含む。連結情報は、例えば、物体(例、人体)の稜線(例、エッジ)に相当する線の両端の点を互いに関連付ける情報を含む。連結情報は、例えば、物体上の面の輪郭に相当する複数の線を互いに関連付ける情報を含む。   The model generation unit 11 may calculate surface information as shape information. The surface information is, for example, polygon data, vector data, draw data, or the like. The surface information includes, for example, coordinates of a plurality of points and connection information between the plurality of points. The connection information includes, for example, information that associates points at both ends of a line corresponding to a ridge line (eg, edge) of an object (eg, human body). The connection information includes, for example, information that associates a plurality of lines corresponding to the contour of the surface on the object.

モデル生成部11は、例えば、点群データに含まれる複数の点から選択される点とその近傍の点との間の面を推定し、点群データを点間の平面情報を持つポリゴンデータに変換してもよい。モデル生成部11は、例えば、最小二乗法を用いたアルゴリズムにより、点群データをポリゴンデータへ変換する。このアルゴリズムは、例えば、点群処理ライブラリに公開されているアルゴリズムを適用したものでもよい。   For example, the model generation unit 11 estimates a surface between a point selected from a plurality of points included in the point cloud data and its neighboring points, and converts the point cloud data into polygon data having plane information between the points. It may be converted. For example, the model generation unit 11 converts the point cloud data into polygon data by an algorithm using a least square method. This algorithm may be, for example, an algorithm published in the point cloud processing library.

部位特定部12は、検出部5の検出結果に基づいて、ユーザUの部位を特定する。部位特定部12は、検出部5の検出結果に基づいて、ユーザUの人体の特徴的な部位(例、特徴部位、特徴点)の位置情報を生成する。人体の特徴部位は、例えば、人体の他の部位と区別可能な部位である。人体の特徴部位は、例えば、人体の末端部、関節、又は末端部と関節との間もしくは2つの関節の間の中間部の少なくとも1つを含む。   The part specifying unit 12 specifies the part of the user U based on the detection result of the detecting unit 5. The part specifying unit 12 generates position information of a characteristic part (eg, characteristic part, feature point) of the human body of the user U based on the detection result of the detection part 5. The characteristic part of the human body is, for example, a part that can be distinguished from other parts of the human body. The characteristic part of the human body includes, for example, at least one of an end portion of the human body, a joint, or an intermediate portion between the end portion and the joint or between the two joints.

部位特定部12は、その処理結果として、ユーザUの部位の位置情報(例、(図4(B)に示す骨格情報SD)を生成する。図4(B)の骨格情報SDにおいて、丸印(〇)は、特徴部位に相当する。部位特定部12は、例えば、モデル生成部11が生成した点群データを用いた認識処理(例、パターン認識、形状認識、骨格認識)等によって、上記の特徴部位の位置情報を生成する。特徴部位の位置情報は、例えば、特徴部位を代表する点の座標(例、3次元座標)を含む。部位特定部12は、例えば、上記の認識処理によって、特徴部位を表す点の座標を算出する。   The part specifying unit 12 generates position information of the part of the user U (eg, (skeleton information SD shown in FIG. 4B)) as the processing result. In the skeleton information SD of FIG. (◯) corresponds to a characteristic part, for example, by the recognition process (eg, pattern recognition, shape recognition, skeleton recognition) using the point cloud data generated by the model generation unit 11 and the like. The position information of the characteristic part includes, for example, the coordinates (eg, three-dimensional coordinates) of the point representing the characteristic part, for example, by the above recognition process. The coordinates of a point representing the characteristic part are calculated.

部位特定部12は、例えば、特徴部位のそれぞれについて、特徴部位の名称と、特徴部位の位置とを関連付けたデータを生成する。モデル生成部11は、位置情報(例、骨格情報SD)として、予め設定された1または2以上の特徴部位のそれぞれの座標を含むテーブルデータを生成する。位置情報(例、骨格情報SD)は、例えば、同じ検出タイミングの検出結果から得られる複数の特徴部位の位置情報を含む。   For example, the part specifying unit 12 generates data that associates the name of the characteristic part and the position of the characteristic part for each of the characteristic parts. The model generation unit 11 generates table data including the coordinates of one or more preset characteristic parts as position information (eg, skeleton information SD). The position information (eg, skeleton information SD) includes, for example, position information of a plurality of characteristic parts obtained from detection results at the same detection timing.

画像処理部13は、検出結果(例、撮像画像)を用いてユーザUのモデル(例、図2のユーザモデルUM)および教示図形F(図2参照)を含む教示画像(例、図2、図3の画像Im1から画像Im6)を生成する。画像処理部13は、教示画像を生成する際に、モデル生成部11が生成したユーザのモデルに対し、教示図形F(図2参照)をパーツ(例、図2のパーツp1、パーツp2)ごとに位置決めする。画像処理部13は、検出部5から得られるユーザの姿勢に基づいて、教示図形Fをパーツごとに位置決めする。例えば、画像処理部13は、検出部5から得られるユーザの姿勢として、部位特定部12が生成したユーザの部位の位置情報(例、図4(B)の骨格情報SD)に基づいて、教示図形Fをパーツごとに位置決めする。   The image processing unit 13 uses the detection result (for example, the captured image) to teach the user U's model (for example, the user model UM in FIG. 2) and the teaching figure F (see FIG. 2) (for example, FIG. 2, FIG. 2). An image Im6) is generated from the image Im1 in FIG. When generating the teaching image, the image processing unit 13 applies the teaching figure F (see FIG. 2) to each part (eg, part p1 and part p2 in FIG. 2) for the user model generated by the model generating unit 11. Position to. The image processing unit 13 positions the teaching figure F for each part based on the user's posture obtained from the detecting unit 5. For example, the image processing unit 13 teaches the user's posture obtained from the detection unit 5 based on the position information (for example, the skeleton information SD in FIG. 4B) of the user's part generated by the part specifying unit 12. Position figure F for each part.

画像処理部13は、例えば、姿勢定義データD1、教示図形データD2、及び表示条件データD3に基づいて、教示画像を生成する。姿勢定義データD1、教示図形データD2、及び表示条件データD3は、記憶部8に予め記憶される。記憶部8は、例えば、不揮発性メモリまたはハードディスクを含む。   The image processing unit 13 generates a teaching image based on, for example, posture definition data D1, teaching graphic data D2, and display condition data D3. Posture definition data D1, teaching figure data D2, and display condition data D3 are stored in the storage unit 8 in advance. The storage unit 8 includes, for example, a nonvolatile memory or a hard disk.

図5は、第1実施形態に係る姿勢定義データ、教示図形データ、表示条件データを示す概念図である。図5(A)には、姿勢定義データD1を概念的に示した。姿勢定義データD1は、例えば、姿勢の種類を示す情報(例、「姿勢名称」)と、姿勢の定義を示す情報(例、「サンプル画像データ」)とを一組にした情報(例、テーブルデータ)を含む。「姿勢名称」は、例えば、「戦士のポーズ」、「三角のポーズ」などである。   FIG. 5 is a conceptual diagram showing posture definition data, teaching graphic data, and display condition data according to the first embodiment. FIG. 5A conceptually shows the posture definition data D1. The posture definition data D1 is, for example, information (eg, table) that is a set of information indicating the type of posture (eg, “posture name”) and information indicating the definition of posture (eg, “sample image data”). Data). The “posture name” is, for example, “warrior pose”, “triangular pose”, or the like.

図5(A)において、符号Sa1は、「戦士のポーズ」に対応するサンプル画像である。また、符号Sa2は、「三角のポーズ」に対応するサンプル画像である。「姿勢名称」が「戦士のポーズ」である行の「サンプル画像データ」には、「戦士のポーズ」の定義を示す情報として、サンプル画像Saを示す画像データである「戦士のポーズ.dat」の所在を示す情報が格納される。「戦士のポーズ.dat」は、例えば、静止画形式のファイル(例、jpg、ビットマップ)などでもよいし、動画形式のファイル(例、mpeg、avi)などでもよい。   In FIG. 5A, reference symbol Sa <b> 1 is a sample image corresponding to “warrior pose”. Reference numeral Sa <b> 2 is a sample image corresponding to “triangular pose”. In the “sample image data” in the row whose “posture name” is “warrior pose”, “warrior pose.dat” which is image data indicating the sample image Sa is used as information indicating the definition of “warrior pose”. The information indicating the location of is stored. The “warrior pose.dat” may be, for example, a still image format file (eg, jpg, bitmap) or a moving image format file (eg, mpeg, avi).

なお、ユーザは、姿勢定義データD1を適宜編集可能である。例えば、ユーザは、姿勢定義データD1に、姿勢の種類と、姿勢の定義とを一組にした情報(以下、定義ファイルという)を登録可能である。また、ユーザは、姿勢定義データD1から定義ファイルを削除することが可能である。上記の定義ファイルは、インターネット回線などを介して自動または手動で取得されてもよい。また、取得された定義ファイルは、自動または手動で姿勢定義データD1に登録されてもよい。   Note that the user can edit the posture definition data D1 as appropriate. For example, the user can register information (hereinafter referred to as a definition file) in which the posture type and the posture definition are set as one set in the posture definition data D1. Further, the user can delete the definition file from the posture definition data D1. The above definition file may be acquired automatically or manually via an Internet line or the like. The acquired definition file may be registered in the posture definition data D1 automatically or manually.

図5(B)には、教示図形データD2を概念的に示した。教示図形データD2は、例えば、教示図形の識別情報(例、教示図形識別番号)と、教示図形に含まれるパーツの識別情報(例、パーツ識別番号)と、パーツの形状を示す情報(例、形状データ)とを一組にした情報を含む。「教示図形識別番号」は、教示画像ごとに割り付けられる識別番号である。例えば、「教示図形識別番号」が「01」のデータは、図2に示した教示図形Fに対応する。   FIG. 5B conceptually shows the teaching graphic data D2. The teaching figure data D2 includes, for example, teaching figure identification information (eg, teaching figure identification number), part identification information (eg, part identification number) included in the teaching figure, and information (eg, (Shape data) as a set. “Teaching figure identification number” is an identification number assigned to each teaching image. For example, data whose “teaching figure identification number” is “01” corresponds to the teaching figure F shown in FIG.

また、「教示図形識別番号」が「01」、かつ「パーツ識別番号」が「01」のデータは、図2のパーツp2(線分)に対応する。符号Imp1は、パーツp2(線分)に対応するイメージである。「教示図形識別番号」が「01」であり、かつ「パーツ識別番号」が「01」である「形状データ」には、パーツp2の形状を規定するデータ(例、「form_0101.dat」)が格納される。「form_0101.dat」は、例えば、イメージImp1を表すベクトルデータまたはラスターデータを含む。   Further, data having “teaching figure identification number” “01” and “part identification number” “01” corresponds to the part p2 (line segment) in FIG. The symbol Imp1 is an image corresponding to the part p2 (line segment). The “shape data” whose “teaching figure identification number” is “01” and whose “part identification number” is “01” includes data defining the shape of the part p2 (eg, “form — 0101.dat”). Stored. “Form — 0101.dat” includes, for example, vector data or raster data representing the image Imp1.

また、「教示図形識別番号」が「01」、かつ「パーツ識別番号」が「02」のデータは、図2のパーツp3(丸印)に対応する。符号Imp2は、パーツp3(丸印)に対応するイメージである。「教示図形識別番号」が「01」であり、かつ「パーツ識別番号」が「02」である「形状データ」には、パーツp3の形状を規定するデータ(例、「form_0102.dat」)が格納される。「form_0102.dat」は、例えば、イメージImp2を表すベクトルデータまたはラスターデータを含む。   Further, data having “teaching figure identification number” “01” and “part identification number” “02” corresponds to the part p3 (circle) in FIG. The symbol Imp2 is an image corresponding to the part p3 (circle). In “shape data” whose “teaching figure identification number” is “01” and whose “part identification number” is “02”, data defining the shape of the part p3 (eg, “form — 0102.dat”) is included. Stored. “Form — 0102.dat” includes, for example, vector data or raster data representing the image Imp2.

また、「教示図形識別番号」が「01」、かつ「パーツ識別番号」が「03」のデータは、図2のパーツp1である「吸」に対応する。符号Imp3は、パーツp3「吸」に対応するイメージである。「教示図形識別番号」が「01」であり、かつ「パーツ識別番号」が「03」である「形状データ」には、パーツp1の形状を規定するデータ(例、「form_0103.dat」)が格納される。「form_0103.dat」は、例えば、イメージImp3を表すベクトルデータまたはラスターデータを含む。「form_0103.dat」は、例えば、イメージImp3を表す文字データを含んでもよい。文字データは、例えば、文字コード、フォントの種類、フォントサイズなどを含む。   Further, data having “teaching figure identification number” “01” and “part identification number” “03” corresponds to “suction” which is the part p1 in FIG. The symbol Imp3 is an image corresponding to the part p3 “suck”. The “shape data” whose “teaching figure identification number” is “01” and whose “part identification number” is “03” includes data defining the shape of the part p1 (eg, “form — 0103.dat”). Stored. “Form — 0103.dat” includes, for example, vector data or raster data representing the image Imp3. “Form — 0103.dat” may include, for example, character data representing the image Imp3. The character data includes, for example, a character code, a font type, a font size, and the like.

また、「教示図形識別番号」が「i」のデータは、図3に示した教示図形F(例、「吐」)に対応する。「教示図形識別番号」が「i」、かつ「パーツ識別番号」が「01」のデータは、図3のパーツp5の「口」に対応する。符号Imp5は、パーツp5の「口」に対応するイメージである。「教示図形識別番号」が「i」であり、かつ「パーツ識別番号」が「01」である「形状データ」には、パーツp5の形状を規定するデータ(例、「form_i01.dat」)が格納される。「form_i01.dat」は、例えば、イメージImp5を表すベクトルデータまたはラスターデータを含む。   The data with “teach figure identification number” “i” corresponds to the teach figure F (for example, “eject”) shown in FIG. Data with “teach figure identification number” “i” and “part identification number” “01” corresponds to “mouth” of part p5 in FIG. The symbol Imp5 is an image corresponding to the “mouth” of the part p5. In “shape data” whose “teaching figure identification number” is “i” and whose “part identification number” is “01”, data defining the shape of the part p5 (eg, “form_i01.dat”) is included. Stored. “Form_i01.dat” includes, for example, vector data or raster data representing the image Imp5.

また、「教示図形識別番号」が「i」、かつ「パーツ識別番号」が「02」のデータは、図3のパーツp6の「土」に対応する。符号Imp6は、パーツp6の「土」に対応するイメージである。「教示図形識別番号」が「i」であり、かつ「パーツ識別番号」が「02」である「形状データ」には、パーツp6の形状を規定するデータ(例、「form_i02.dat」)が格納される。「form_i02.dat」は、例えば、イメージImp6を表すベクトルデータまたはラスターデータを含む。   Further, data having “teach figure identification number” “i” and “part identification number” “02” corresponds to “soil” of part p6 in FIG. The symbol Imp6 is an image corresponding to the “soil” of the part p6. In “shape data” whose “teaching figure identification number” is “i” and whose “part identification number” is “02”, data defining the shape of the part p6 (eg, “form_i02.dat”) is included. Stored. “Form_i02.dat” includes, for example, vector data or raster data representing the image Imp6.

なお、パーツp5に対応するイメージImp5と、パーツp6に対応するイメージImp6とが組み合わされることで、「吐」に対応するイメージImp7が構成される。なお、パーツに対応する文字コードが存在する場合(例、「吐」における「口」、「土」)、パーツの形状データは、文字データで表されてもよい。   Note that the image Imp5 corresponding to the part p5 and the image Imp6 corresponding to the part p6 are combined to form an image Imp7 corresponding to “discharge”. When there is a character code corresponding to the part (eg, “mouth” or “earth” in “voking”), the shape data of the part may be represented by character data.

図5(C)には、表示条件データD3を概念的に示した。表示条件データD3は、例えば、教示図形の識別情報(例、教示図形識別番号)と、教示図形に含まれるパーツの識別情報(例、パーツ識別番号)と、表示のタイミングを規定する情報(例、表示開始条件、表示終了条件)と、表示位置を規定する情報(例、表示開始位置、表示移動条件)とを含む。   FIG. 5C conceptually shows the display condition data D3. The display condition data D3 includes, for example, identification information (eg, teaching figure identification number) of a teaching figure, identification information (eg, part identification number) of a part included in the teaching figure, and information (eg, an example) that defines display timing. Display start condition, display end condition) and information defining the display position (eg, display start position, display movement condition).

「教示図形識別番号」および「パーツ識別番号」は、それぞれ、図5(B)の教示図形データD2と同様である。例えば、「教示図形識別番号」が「01」、かつ「パーツ識別番号」が「03」のデータは、図2のパーツp1である「吸」に対応する。ここでは、「教示図形識別番号」が「01」かつ「パーツ識別番号」が「03」のパーツ(パーツp1である「吸」)を例として、説明する。   The “teaching figure identification number” and the “part identification number” are the same as the teaching figure data D2 in FIG. For example, data having “teaching figure identification number” of “01” and “part identification number” of “03” corresponds to “suction” which is the part p1 of FIG. Here, a description will be given by taking, as an example, a part (“pick” that is part p1) whose “teaching figure identification number” is “01” and “part identification number” is “03”.

「表示開始条件」は、対応する形状データ(例、図5(B)の「吸」)の表示を開始する条件(例、タイミング、トリガー)を規定する情報である。図1の画像処理部13は、各パーツについて、「表示開始条件」を満たすと判定した場合に、このパーツの表示を開始させる。例えば、パーツp1である「吸」の表示開始条件は、このパーツに対応するポーズ(例、図2の戦士のポーズ)のサンプル画像Saの表示開始から所定の時間T1が経過した時点と規定されている。画像処理部13は、パーツp1である「吸」について「表示開始条件」を満たすと判定した場合に、パーツp1を含む教示画像を生成する。この教示画像のデータが表示部3に供給されることで、パーツp1である「吸」が表示部3に表示される。   The “display start condition” is information that defines a condition (eg, timing, trigger) for starting display of corresponding shape data (eg, “suction” in FIG. 5B). When it is determined that the “display start condition” is satisfied for each part, the image processing unit 13 in FIG. 1 starts displaying the part. For example, the display start condition of “suck” that is the part p1 is defined as the time when a predetermined time T1 has elapsed since the display of the sample image Sa of the pose corresponding to this part (for example, the pose of the warrior in FIG. 2). ing. When the image processing unit 13 determines that the “display start condition” is satisfied for “sucking” that is the part p1, the image processing unit 13 generates a teaching image including the part p1. By supplying the teaching image data to the display unit 3, “suck” as the part p <b> 1 is displayed on the display unit 3.

このように、表示部3は、予め登録された姿勢の画像(例、サンプル画像)をユーザに対して表示し、教示画像は、予め定められた時間的なスケジュールで表示部に表示される。教示画像は、例えば、サンプル画像の表示タイミングに基づくタイミングで表示部3に表示される。   As described above, the display unit 3 displays an image of an attitude registered in advance (for example, a sample image) to the user, and the teaching image is displayed on the display unit according to a predetermined time schedule. The teaching image is displayed on the display unit 3 at a timing based on the display timing of the sample image, for example.

「表示開始位置」は、対応する形状データ(例、図5(B)の「吸」)の表示開始時における表示位置を規定する情報である。「表示開始位置」は、例えば、基準の位置を規定する情報(例、「基準の部位名」)と、基準の位置に対するオフセット量を規定する情報(例、「オフセット量」)とを含む。   “Display start position” is information that defines the display position at the start of display of the corresponding shape data (eg, “suction” in FIG. 5B). The “display start position” includes, for example, information defining a reference position (eg, “reference part name”) and information defining an offset amount with respect to the reference position (eg, “offset amount”).

例えば、図2において「吸」は、ユーザモデルUMの胸の位置に対して位置決めされる。この場合、「基準の部位名」として、「胸」を指定する情報が格納される。また、「オフセット量」には、画像上の基準の位置(例、「胸」の座標)に対するオフセット量が画像上のスケール(例、水平走査方向の画素数、垂直走査方向の画素数)で規定されている。オフセット量は、固定値でもよいし、例えば画像上のユーザモデルUMのスケールに基づいた可変値でもよい。   For example, “suck” in FIG. 2 is positioned with respect to the chest position of the user model UM. In this case, information specifying “chest” is stored as “reference part name”. The “offset amount” includes an offset amount with respect to a reference position on the image (eg, the coordinates of “chest”) on a scale (eg, the number of pixels in the horizontal scanning direction and the number of pixels in the vertical scanning direction). It is prescribed. The offset amount may be a fixed value, for example, a variable value based on the scale of the user model UM on the image.

また、オフセット量は、検出部5の検出結果から得られるユーザUの姿勢(例、ユーザモデルUM)と、予め登録された姿勢(例、サンプル画像Saにおける姿勢)との比較結果に基づいて、設定されてもよい。例えば、第1のパーツのオフセット量が他のパーツのオフセット量に対して相対的に大きい場合、又は第1のパーツのオフセット量が所定の値より大きい場合に、第1のパーツは、第1のパーツに対応する部位の動作を大きくすることをユーザUに示してもよい。   Further, the offset amount is based on the comparison result between the posture of the user U (for example, the user model UM) obtained from the detection result of the detection unit 5 and the posture registered in advance (for example, the posture in the sample image Sa). It may be set. For example, when the offset amount of the first part is relatively large with respect to the offset amounts of other parts, or when the offset amount of the first part is larger than a predetermined value, the first part is The user U may be shown to increase the operation of the part corresponding to the part.

図1の画像処理部13は、部位特定部12が特定した部位の座標に基づいて、「基準の部位名」に指定された部位の位置(例、画像上のユーザモデルUMにおける「胸」の座標)を取得する。また、画像処理部13は、「基準の部位名」に指定された部位の位置を基準の位置として、基準の位置から「オフセット量」に規定されたオフセット量だけシフトした位置を算出し、算出した位置をパーツp1の「吸」の位置として決定する(位置決めする)。   The image processing unit 13 in FIG. 1 determines the position of the part specified by the “reference part name” based on the coordinates of the part specified by the part specifying unit 12 (for example, “chest” in the user model UM on the image). Get coordinates). Further, the image processing unit 13 calculates a position shifted from the reference position by the offset amount defined in the “offset amount”, with the position of the portion specified in the “reference portion name” as the reference position. The determined position is determined (positioned) as the “sucking” position of the part p1.

例えば、画像上のユーザモデルUMにおける「胸」の座標が(X1,Y1)で表され、オフセット量が(ΔX1,ΔY1)で表される場合、画像処理部13は、パーツp1である「吸」の位置を、(X1+ΔX1,Y1+ΔY1))に決定する。画像処理部13は、決定した位置である(X1+ΔX1,Y1+ΔY1)に、図5(B)の教示図形データD2における形状データ(form_0103.dat)に規定されたイメージImp3の「吸」を配置することで、教示画像として図2の画像Im1を生成する。このように、画像処理部13は、部位特定部12が特定したユーザの部位に対応するユーザモデルUM上の位置(例、(X1,Y1))に対して、複数のパーツのうちユーザの部位(例、「胸」)に予め関連付けられたパーツ(例、「吸」)を位置決めする。   For example, when the coordinates of “chest” in the user model UM on the image are represented by (X1, Y1) and the offset amount is represented by (ΔX1, ΔY1), the image processing unit 13 performs “suction” which is the part p1. Is determined as (X1 + ΔX1, Y1 + ΔY1)). The image processing unit 13 arranges “suction” of the image Imp3 defined in the shape data (form — 0103.dat) in the teaching graphic data D2 of FIG. 5B at the determined position (X1 + ΔX1, Y1 + ΔY1). 2 is generated as the teaching image. As described above, the image processing unit 13 is configured so that the part of the user among a plurality of parts is relative to the position (for example, (X1, Y1)) on the user model UM corresponding to the part of the user specified by the part specifying unit 12. A part (eg, “suck”) previously associated with (eg, “chest”) is positioned.

図5(C)の「表示移動条件」は、対応する形状データ(例、図5(B)の「吸」)の移動を規定する情報である。「表示移動条件」は、例えば、水平走査方向における移動量を画素数で表した「V1x」、及び垂直走査方向における移動量を画素数で表した「V1y」を含む。画像処理部13は、教示画像として次回のフレームの画像を生成する際に、パーツp1である「吸」の位置を、次回のフレームの画像における位置から「表示移動条件」に規定された移動量だけシフトさせる。例えば、画像処理部13は、教示画像として図2の画像Im1の次のフレームの画像を生成する際に、パーツp1である「吸」の位置を(X1+ΔX1+V1x,Y1+ΔY1+V1y)に決定する。なお、移動させないパーツである場合、例えば移動量が「0」に設定される。   The “display movement condition” in FIG. 5C is information that defines the movement of the corresponding shape data (eg, “suction” in FIG. 5B). The “display movement condition” includes, for example, “V1x” in which the movement amount in the horizontal scanning direction is represented by the number of pixels and “V1y” in which the movement amount in the vertical scanning direction is represented by the number of pixels. When the image processing unit 13 generates an image of the next frame as the teaching image, the movement amount specified by the “display movement condition” from the position in the image of the next frame is changed from the position of the “pick” part p1. Just shift. For example, when generating an image of the next frame of the image Im1 of FIG. 2 as the teaching image, the image processing unit 13 determines the position of “suction” as the part p1 as (X1 + ΔX1 + V1x, Y1 + ΔY1 + V1y). When the part is not moved, for example, the movement amount is set to “0”.

「表示終了条件」は、対応する形状データ(例、図5(B)の「吸」)の表示を終了する条件(例、タイミング、トリガー)を規定する情報である。図1の画像処理部13は、各パーツについて、「表示終了条件」を満たすと判定した場合に、このパーツの表示を終了させる。例えば、パーツp1である「吸」の表示終了条件は、このパーツに対応するポーズ(例、図2の戦士のポーズ)のサンプル画像Saの表示開始から時間T2が経過した時点と規定されている。画像処理部13は、パーツp1である「吸」について「表示終了条件」を満たすと判定した場合に、例えば、パーツp1を含まない画像を生成する。この画像のデータが表示部3に供給されることで、パーツp1である「吸」が表示部3に非表示となる。   The “display end condition” is information that defines a condition (eg, timing, trigger) for ending the display of the corresponding shape data (eg, “suction” in FIG. 5B). When the image processing unit 13 of FIG. 1 determines that the “display end condition” is satisfied for each part, the display of the part is ended. For example, the display end condition of “suck” that is the part p1 is defined as the time when the time T2 has elapsed from the display start of the sample image Sa of the pose corresponding to this part (eg, the pose of the warrior in FIG. 2). . For example, when the image processing unit 13 determines that the “display end condition” is satisfied for “sucking” that is the part p1, the image processing unit 13 generates an image that does not include the part p1, for example. By supplying the image data to the display unit 3, the “pickup” that is the part p <b> 1 is not displayed on the display unit 3.

図1の表示制御部7は、画像処理部13が生成したパーツを含む教示画像(例、教示図形、コメント、動作の時間(例、ポーズを維持する残り時間)など)を表示部3に表示させる。例えば、表示制御部7は、画像処理部13が生成した教示画像のデータを表示部3に供給することによって、表示部3に教示画像を表示させる。教示画像のデータは、記憶部8に記憶されてもよく、表示制御部7は、記憶部8に記憶された教示画像のデータを表示部3に供給してもよい。   The display control unit 7 in FIG. 1 displays on the display unit 3 a teaching image (eg, teaching figure, comment, operation time (eg, remaining time for maintaining a pose)) including the parts generated by the image processing unit 13. Let For example, the display control unit 7 causes the display unit 3 to display the teaching image by supplying the display unit 3 with the data of the teaching image generated by the image processing unit 13. The teaching image data may be stored in the storage unit 8, and the display control unit 7 may supply the teaching image data stored in the storage unit 8 to the display unit 3.

図6および図7は、それぞれ、第1実施形態に係る教示画像を示す図である。図6および図7において、ユーザはヨガの「三角のポーズ」を行うものとする。図6(A)に示す教示画像Im11は、サンプル画像SaおよびユーザモデルUMを含み、教示図形を含まない。実施形態において、図1の画像処理部13が生成する複数の教示画像は、その少なくとも一部が教示図形を含めばよく、一部の教示画像が教示図形を含まなくてもよい。なお、教示画像は、サンプル画像Saを含まなくてもよい。   6 and 7 are diagrams showing teaching images according to the first embodiment, respectively. 6 and 7, it is assumed that the user performs a “triangular pose” of yoga. A teaching image Im11 illustrated in FIG. 6A includes a sample image Sa and a user model UM, and does not include a teaching figure. In the embodiment, the plurality of teaching images generated by the image processing unit 13 in FIG. 1 may include at least a part of the teaching figure, and the part of the teaching image may not include the teaching figure. Note that the teaching image may not include the sample image Sa.

図6(B)において、教示画像Im12は、ユーザモデルUMおよび教示図形Fを含む。教示図形Fは、複数のパーツ(パーツp11、パーツp12、パーツp13、パーツp14、及びパーツp15)を含む。パーツp11は、ユーザモデルUMの右足に位置決めされた三角形である。パーツp12は、ユーザモデルUMの左足に位置決めされた三角形である。パーツp13は、パーツp11とパーツp12とを結ぶ線分である。パーツp14およびパーツp15は、それぞれ、「50」という文字(文字列)である。パーツp14およびパーツp15は、例えば、右足と左足とにかける体重の比率として推奨される値を表す。例えば、パーツp14は右足に体重の50%をかけることを表し、パーツp15は左足に体重の50%をかけることを表す。例えば、ユーザは、左足と右足とに、それぞれ体重の50%をかけるイメージをもつことで、目的のポーズに近づけることが容易になる。図6(B)における教示図形Fの「50」という文字によって、ユーザUは体重のかける割合を把握し人体の重心をイメージすることができ、目的のポーズに近づけることが容易になる。   In FIG. 6B, the teaching image Im12 includes a user model UM and a teaching figure F. The teaching figure F includes a plurality of parts (part p11, part p12, part p13, part p14, and part p15). The part p11 is a triangle positioned on the right foot of the user model UM. The part p12 is a triangle positioned on the left foot of the user model UM. The part p13 is a line segment connecting the parts p11 and p12. Each of the parts p14 and p15 is a character (character string) “50”. The parts p14 and p15 represent values recommended as the ratio of the weight applied to the right foot and the left foot, for example. For example, the part p14 represents applying 50% of the weight to the right foot, and the part p15 represents applying 50% of the weight to the left foot. For example, the user has an image of applying 50% of his / her weight to the left foot and the right foot, so that the user can easily approach the target pose. The character “50” of the teaching figure F in FIG. 6B allows the user U to grasp the proportion of weight and to image the center of gravity of the human body, and to easily approach the target pose.

図6(C)において、教示画像Im13は、ユーザモデルUMおよび教示図形Fを含む。教示図形Fは、複数のパーツ(パーツp11、パーツp12、及びパーツp16)を含む。パーツp16は、例えば、右足と左足との姿勢(相対位置)を表す三角形である。パーツp16は、例えば、パーツp11(右足の位置)およびパーツp12(左足の位置)に対して位置決めされる。パーツp16の底辺は、例えば水平方向と平行に配置される。パーツp16の2つの斜辺は、それぞれ、目標となる左右の足の傾きのイメージを表す。ユーザは、左足の傾きと右足の傾きとをパーツp16に合わせるようにイメージすることで、目的のポーズに近づけることが容易になる。   In FIG. 6C, the teaching image Im13 includes a user model UM and a teaching figure F. The teaching figure F includes a plurality of parts (part p11, part p12, and part p16). The part p16 is, for example, a triangle that represents the posture (relative position) between the right foot and the left foot. The part p16 is positioned with respect to the part p11 (right foot position) and the part p12 (left foot position), for example. The bottom side of the part p16 is disposed in parallel with the horizontal direction, for example. The two hypotenuses of the part p16 represent images of the left and right foot inclinations as targets. The user can easily approximate the target pose by imaging the left foot inclination and the right foot inclination so as to match the part p16.

図7(A)において、教示画像Im14は、ユーザモデルUMおよび教示図形Fを含む。教示図形Fは、複数のパーツ(パーツp17及びパーツp18)を含む。パーツp17は、例えば、頭部と右足先と腰中央との位置関係のイメージを表す三角形である。パーツp17は、例えば、右手先と左手先との位置関係のイメージを表す三角形である。ユーザは、体の各部の位置関係をパーツp17およびパーツp18に合わせるようにイメージすることで、目的のポーズに近づけることが容易になる。   In FIG. 7A, the teaching image Im14 includes a user model UM and a teaching figure F. The teaching figure F includes a plurality of parts (part p17 and part p18). The part p17 is, for example, a triangle representing an image of the positional relationship between the head, the right foot tip, and the waist center. The part p17 is a triangle that represents an image of the positional relationship between the right hand tip and the left hand tip, for example. The user can easily approach the target pose by imaging the positional relationship of each part of the body so as to match the parts p17 and p18.

図7(B)において、教示画像Im15は、ユーザモデルUMおよび教示図形Fを含む。教示図形は、複数のパーツ(パーツp21からパーツp30)を含む。パーツp21は、頂点が下向きの三角形であり、右手を下方に伸ばすイメージを表す。パーツp22は、頂点が上向きの三角形であり、左手を上方に伸ばすイメージを表す。パーツp23は、パーツp21およびパーツp22を結ぶ線分である。   In FIG. 7B, the teaching image Im15 includes a user model UM and a teaching figure F. The teaching figure includes a plurality of parts (part p21 to part p30). The part p21 is a triangle whose apex is downward and represents an image in which the right hand is extended downward. The part p22 is a triangle whose apex is upward and represents an image in which the left hand is extended upward. The part p23 is a line segment connecting the parts p21 and p22.

パーツp24は、頭部に対して位置決めされる三角形である。パーツp24は、頂点が上向きの三角形であり、顔を上方に向けるイメージを表す。パーツp25は、腰に対して位置決めされ、頂点が下向きの三角形である。パーツp26は、パーツp24およびパーツp25を結ぶ線分である。パーツp26は、水平方向と平行に配置され、頭と腰とを結ぶ線が水平になるイメージを表す。   Part p24 is a triangle positioned with respect to the head. The part p24 is a triangle whose vertex is upward and represents an image in which the face is directed upward. The part p25 is a triangle which is positioned with respect to the waist and whose apex is downward. The part p26 is a line segment connecting the parts p24 and p25. The part p26 is arranged in parallel with the horizontal direction and represents an image in which the line connecting the head and the waist is horizontal.

パーツp27からパーツp30は、それぞれ、「脇」という漢字の一部である。この「脇」という漢字は、ユーザモデルUMの左脇に対して位置決めされる。三角のポーズにおいては、左脇を伸ばすとよいとされる。パーツp27は、「脇」の一部(へん)である「月」であり、パーツp28からパーツp30は、それぞれ、「脇」の一部(つくりの一部)である「力」である。パーツp30は、ユーザモデルUMの左脇(左腰)に沿うように位置決めされ、「脇」という漢字は、ユーザモデルUMの左脇(左腰)に沿うように変形している。   Parts p27 to p30 are each a part of the kanji “Waki”. This Chinese character “side” is positioned with respect to the left side of the user model UM. In a triangular pose, the left side should be extended. The part p27 is “month” which is a part of “side”, and the parts p28 to p30 are “power” which is a part of “side” (part of making). The part p30 is positioned along the left side (left waist) of the user model UM, and the Chinese character “side” is deformed along the left side (left waist) of the user model UM.

図7(C)において、教示画像Im15は、ユーザモデルUMおよび教示図形Fを含む。教示図形Fは、複数のパーツ(パーツp31からパーツp37)を含む。パーツp31からパーツp37は、それぞれ、「s」、「t」、「r」、「e」、「t」、「c」、「h」のアルファベット(表音文字)である。パーツp31からパーツp37は、一組で「stretch」という単語を表す。パーツp31からパーツp37は、それぞれ、ユーザモデルUMの左脇に対して位置決めされ、「stretch」はユーザモデルUMの左脇に沿うように変形している。このように、教示図形は、変形させた単語を含み、複数のパーツの少なくとも1つは、変形させた単語を構成する表音文字を含んでもよい。   In FIG. 7C, the teaching image Im15 includes a user model UM and a teaching figure F. The teaching figure F includes a plurality of parts (parts p31 to p37). Parts p31 to p37 are alphabets (phonetic characters) of “s”, “t”, “r”, “e”, “t”, “c”, and “h”, respectively. Parts p31 to p37 represent the word “stretch” as a set. Parts p31 to p37 are each positioned with respect to the left side of the user model UM, and “stretch” is deformed so as to be along the left side of the user model UM. Thus, the teaching figure may include a deformed word, and at least one of the plurality of parts may include a phonetic character that constitutes the deformed word.

教示図形に文字を用いる場合、図7(B)のように教示図形が漢字(例、脇)を含んでもよいし、図7(C)のようにアルファベット(例、「stretch」)を含んでもよい。また、教示図形に文字を用いる場合、教示図形は、「わき」などのひらがなと、「ワキ」などのカタカナとの一方または双方を含んでもよい。教示図形は、表音文字の文字列からなる単語(例、「わき」)を含む場合、単語を構成する各文字(例、「わ」、「き」)が教示図形のパーツでもよい。また、表音文字の文字列(例、「わき」)が教示図形の全体または1つのパーツでもよい。また、教示図形に文字を用いる場合、その言語は任意であり、例えば、教示図形は、韓国語で用いられる文字(例、ハングル)、人為的に作られた文字(例、フォント)などを含んでもよい。   When a character is used for the teaching graphic, the teaching graphic may include a kanji character (eg, side) as shown in FIG. 7B, or an alphabet (eg, “stretch”) as shown in FIG. 7C. Good. Further, in the case where characters are used for the teaching graphic, the teaching graphic may include one or both of a hiragana such as “Waki” and a katakana such as “Waki”. When the teaching figure includes a word (eg, “Waki”) composed of a phonetic character string, each character (eg, “Wa”, “Ki”) constituting the word may be a part of the teaching figure. The character string of phonograms (for example, “Waki”) may be the whole teaching figure or one part. When characters are used for teaching graphics, the language is arbitrary. For example, teaching graphics include characters used in Korean (eg, Korean), artificially created characters (eg, font), etc. But you can.

次に、図8から図15を参照して、上述の実施形態に係る検出システム1の動作について説明する。図8から図15は、それぞれ、実施形態に係る検出システムの動作を示す図である。図8から図15のそれぞれには、表示部3に表示される教示画像を示した。図8から図11は「戦士のポーズ」に対応し、図12および図13は「三角のポーズ」に対応し、図14および図15は、「木のポーズ」に対応する。   Next, the operation of the detection system 1 according to the above-described embodiment will be described with reference to FIGS. 8 to 15 are diagrams illustrating the operation of the detection system according to the embodiment. Each of FIGS. 8 to 15 shows a teaching image displayed on the display unit 3. 8 to 11 correspond to “warrior poses”, FIGS. 12 and 13 correspond to “triangular poses”, and FIGS. 14 and 15 correspond to “tree poses”.

ヨガの一連の動作において各ポーズを行うスケジュール(タイミング、順番、時間)は、例えば、図1の記憶部8に予め記憶される姿勢定義データD1に定められている。例えば、姿勢定義データD1には、まず「戦士のポーズ」を行い、次いで「三角のポーズ」行った後、「木のポーズ」を行うことが定められている。この場合、行うポーズの順番で各ポーズのサンプル画像が表示される。また、各ポーズを行うと想定されている期間にわたって、このポーズのサンプル画像が表示される。   The schedule (timing, order, time) for performing each pose in a series of yoga operations is determined, for example, in posture definition data D1 stored in advance in the storage unit 8 of FIG. For example, the posture definition data D1 stipulates that “warrior pose” is first performed, then “triangular pose” is performed, and then “tree pose” is performed. In this case, sample images of each pose are displayed in the order of poses to be performed. In addition, a sample image of this pose is displayed over a period during which each pose is assumed to be performed.

図8から図15において、ユーザモデルUMは、黒のシルエットで表されている。このユーザモデルUMは、例えば、点群データに含まれる各点を黒のドットで表したものである。ユーザモデルUMは、例えば、予め設定された背景画像(例、海岸の画像、夕暮れの画像、森林の画像)等と合成されて表示されるが、図8から図15においては背景画像を省略する。また、以下の説明において、検出システム1の各部については、適宜、図1を参照する。   8 to 15, the user model UM is represented by a black silhouette. This user model UM represents, for example, each point included in the point cloud data by black dots. The user model UM is displayed by being synthesized with, for example, a preset background image (e.g., coast image, dusk image, forest image) or the like, but the background image is omitted in FIGS. 8 to 15. . Moreover, in the following description, FIG. 1 is suitably referred for about each part of the detection system 1.

図8から図11において、画像処理部13(図1参照)は、「戦士のポーズ」に対応するサンプル画像Sa、検出部5(図1参照)がユーザを検出して得られるユーザモデルUM、及び教示図形Fを含む教示画像Imを生成する。表示制御部7(図1参照)は、教示画像Imのデータを表示部3(図1参照)に供給し、表示部3は、教示画像Imを表示する。   8 to 11, the image processing unit 13 (see FIG. 1) is a sample image Sa corresponding to “warrior pose”, the user model UM obtained by detecting the user by the detection unit 5 (see FIG. 1), And a teaching image Im including the teaching figure F is generated. The display control unit 7 (see FIG. 1) supplies the data of the teaching image Im to the display unit 3 (see FIG. 1), and the display unit 3 displays the teaching image Im.

図8(A)において教示図形Fは、「吸」という漢字である。「吸」という教示図形Fは、例えば、息を吸う動作を伴う姿勢のサンプル画像Saが表示されるタイミングに基づいて、ユーザモデルUMに対して所定の位置に表示される。この場合、例えば、ユーザUがサンプル画像Saを参照して息を吸うタイミングで、「吸」という教示図形FがユーザモデルUMの胸に対して位置決めされて表示される。   In FIG. 8A, the teaching figure F is a Chinese character “suck”. The teaching figure F “sucking” is displayed at a predetermined position with respect to the user model UM based on, for example, the timing at which the sample image Sa in a posture with a breathing action is displayed. In this case, for example, at the timing when the user U inhales with reference to the sample image Sa, the teaching figure F “inhalation” is positioned and displayed with respect to the chest of the user model UM.

図8(B)において教示図形Fは、パーツp41、パーツp42、及びパーツp43を含む。パーツp41は、例えば、背筋を伸ばすイメージを表す帯状の図形である。パーツp42は、例えば、低い位置に重心を置くイメージを表す丸印の図形である。図8(B)において、ユーザUは腰が下に落としきれおらず、ユーザモデルUMは、サンプル画像Saに比べて腰の位置が高い。ユーザUは、例えば、重心を低くするイメージを、教示図形Fのパーツp42によって直感的に得ることができる。   In FIG. 8B, the teaching figure F includes a part p41, a part p42, and a part p43. The part p41 is, for example, a belt-like figure representing an image of extending the back. The part p42 is, for example, a circle graphic representing an image in which the center of gravity is placed at a low position. In FIG. 8 (B), the user U has not fully lowered his / her waist, and the user model UM has a higher waist position than the sample image Sa. For example, the user U can intuitively obtain an image of lowering the center of gravity by the part p42 of the teaching figure F.

また、パーツp43は、「吐」という漢字である。「吐」というパーツp43は、例えば、息を吐く動作を伴う姿勢のサンプル画像Saが表示されるタイミングに基づいて、ユーザモデルUMに対して所定の位置に表示される。この場合、例えば、ユーザUがサンプル画像Saを参照して息を吐くタイミングで、「吐」という教示図形FがユーザモデルUMの胸に対して位置決めされて表示される。   Also, the part p43 is a Chinese character “vomit”. The part “p43” “exhale” is displayed at a predetermined position with respect to the user model UM based on, for example, the timing at which the sample image Sa in a posture with a breathing operation is displayed. In this case, for example, at the timing when the user U exhales with reference to the sample image Sa, the teaching figure F “exhale” is positioned and displayed with respect to the chest of the user model UM.

図8(C)において教示図形Fは、パーツp43およびパーツp44を含む。パーツp43は、図8(B)と同様に「吐」という漢字であるが、図8(B)に比べてユーザモデルUMから離れた位置に表示される。例えば、ユーザUは、吐いた息を遠くまで届かせるイメージを、パーツp43から直感的に得ることで、息を深く吐く動作を直感的に行うことができる。パーツp44は、図8(B)のパーツp41を折れ線状に変形させた図形である。パーツp44は、背筋を伸ばすとともに膝を垂直に曲げるイメージを表す。   In FIG. 8C, the teaching figure F includes a part p43 and a part p44. The part p43 is a Chinese character “vomit” as in FIG. 8B, but is displayed at a position farther from the user model UM than in FIG. 8B. For example, the user U can intuitively perform an operation of exhaling deeply by intuitively obtaining an image that makes the exhaled breath reach far from the part p43. The part p44 is a figure obtained by deforming the part p41 of FIG. Part p44 represents an image in which the back is stretched and the knee is bent vertically.

図9(A)において教示図形Fは、パーツp45、パーツp46、及びパーツp47を含む。パーツp45からパーツp47は、それぞれ、三角形の図形(例、矢印の先端部の形状)である。パーツp45は、ユーザモデルUMの頭部に対して位置決めされる。パーツp45は、例えば、ユーザの頭部を向ける方向のイメージを表す。パーツp46は、ユーザモデルUMの右足に対して位置決めされる。パーツp46は、例えば、ユーザの右足を向ける方向のイメージを表す。パーツp47は、ユーザモデルUMの左足に対して位置決めされる。パーツp47は、例えば、ユーザの左足を向ける方向のイメージを表す。   In FIG. 9A, the teaching figure F includes a part p45, a part p46, and a part p47. Each of the parts p45 to p47 is a triangular figure (eg, the shape of the tip of the arrow). The part p45 is positioned with respect to the head of the user model UM. The part p45 represents an image in a direction in which the user's head is directed, for example. The part p46 is positioned with respect to the right foot of the user model UM. The part p46 represents an image in a direction in which the user's right foot is directed, for example. The part p47 is positioned with respect to the left foot of the user model UM. The part p47 represents an image in a direction in which the user's left foot is directed, for example.

図9(B)において教示図形Fは、パーツp48、パーツp49、パーツp50、及びパーツp51を含む。パーツp48は、例えば、ユーザモデルUMの右肩と左肩との中心に対して位置決めされる。パーツp48は、水平方向に延びる棒状の図形である。パーツp48は、例えば、右腕および左腕を水平方向に伸ばすイメージを表す。パーツp49は、折れ線状の図形であり、ユーザモデルUMの脚部に対して位置決めされる。パーツp49は、例えば、脚部を足首と膝とで曲げるイメージを表す。パーツp50およびパーツp51は、それぞれ、正方形状の図形である。パーツp49は、例えば、ユーザモデルUMの足首に対して位置決めされ、足首を垂直に曲げるイメージを表す。パーツp50は、例えば、ユーザモデルUMの膝に対して位置決めされ、膝を垂直に曲げるイメージを表す。   9B, the teaching figure F includes a part p48, a part p49, a part p50, and a part p51. The part p48 is positioned with respect to the center of the right shoulder and the left shoulder of the user model UM, for example. The part p48 is a bar-like figure extending in the horizontal direction. The part p48 represents an image of extending the right arm and the left arm in the horizontal direction, for example. The part p49 is a polygonal figure and is positioned with respect to the leg portion of the user model UM. The part p49 represents an image in which the leg is bent with an ankle and a knee, for example. Each of the parts p50 and p51 is a square figure. For example, the part p49 is positioned with respect to the ankle of the user model UM and represents an image in which the ankle is bent vertically. For example, the part p50 is positioned with respect to the knee of the user model UM and represents an image in which the knee is bent vertically.

図9(C)において教示図形Fは、パーツp52、パーツp53、及びパーツp54を含む。パーツp52は、例えば、ユーザモデルUMの右足と左足とに対して位置決めされる。パーツp52は、水平方向に延びる棒状の図形であり、その両端に体重をかける位置を表す三角形を含む。パーツp53は「70」という数字であり、右足にかける体重の割合が70%であるイメージを表す。パーツp54は「30」という数字であり、左足にかける体重の割合が30%であるイメージを表す。   In FIG. 9C, the teaching figure F includes a part p52, a part p53, and a part p54. The part p52 is positioned with respect to the right foot and the left foot of the user model UM, for example. The part p52 is a bar-like figure extending in the horizontal direction, and includes a triangle representing a position where the weight is applied to both ends thereof. The part p53 is a number “70” and represents an image in which the proportion of the weight on the right foot is 70%. The part p54 is a number “30” and represents an image in which the proportion of the weight on the left foot is 30%.

図10(A)において教示図形Fは、外形が長方形の枠状の図形である。教示図形Fは、例えば、ユーザモデルUMの胸に対して位置決めされ、胸の外形が長方形状になるように胸を張るイメージを表す。図10(B)において教示図形Fは、「吸」という漢字である。「吸」という教示図形Fは、例えば、ユーザモデルUMの胸に対して位置決めされ、息を吸うイメージを表す。   In FIG. 10A, the teaching figure F is a frame-like figure whose outer shape is a rectangle. The teaching figure F represents, for example, an image that is positioned with respect to the chest of the user model UM and stretches the chest so that the outer shape of the chest becomes a rectangular shape. In FIG. 10B, the teaching figure F is a Chinese character “suck”. The teaching figure F “inhalation” is positioned with respect to the chest of the user model UM and represents an inhalation image, for example.

図10(C)において教示図形Fは、パーツp55およびパーツp56を含む。パーツp55は、1つの頂点が上方を向いた3つの三角形である。パーツp55は、例えば、ユーザモデルUMの右腕に対して位置決めされ、右腕を上方に伸ばすイメージを表す。パーツp56は、「吐」という漢字である。「吐」というパーツp56は、例えば、ユーザモデルUMの胸に対して位置決めされ、息を吐くイメージを表す。   In FIG. 10C, the teaching figure F includes a part p55 and a part p56. The part p55 is three triangles with one vertex facing upward. The part p55 represents, for example, an image positioned with respect to the right arm of the user model UM and extending the right arm upward. The part p56 is a Chinese character “vomit”. The part p56 “exhale” is positioned with respect to the chest of the user model UM, for example, and represents an image of exhaling.

図11(A)は、図10(C)と連続する動作に対応する。図11(A)において教示図形Fは、パーツp55およびパーツp56を含む。パーツ「吐」というパーツp56は、例えば、図10(C)に比べて、ユーザモデルUMから離れた位置に位置決めされている。図11(B)において、教示図形Fは、円弧状に並ぶ複数の丸印の図形である。この教示図形Fは、例えば、右脇を湾曲させて伸ばすイメージを表す。   FIG. 11A corresponds to the operation continued from FIG. In FIG. 11A, the teaching figure F includes a part p55 and a part p56. For example, the part p56 called “part” is positioned at a position distant from the user model UM as compared with FIG. In FIG. 11B, the teaching figure F is a plurality of round figures arranged in an arc. This teaching figure F represents, for example, an image in which the right side is curved and extended.

図12および図13において、画像処理部13(図1参照)は、「三角のポーズ」に対応するサンプル画像Sa、検出部5(図1参照)がユーザを検出して得られるユーザモデルUM、及び教示図形Fを含む教示画像Imを生成する。表示制御部7(図1参照)は、教示画像Imのデータを表示部3(図1参照)に供給し、表示部3は、教示画像Imを表示する。   12 and 13, the image processing unit 13 (see FIG. 1) includes a sample image Sa corresponding to “triangular pose”, and a user model UM obtained by detecting the user by the detecting unit 5 (see FIG. 1). And a teaching image Im including the teaching figure F is generated. The display control unit 7 (see FIG. 1) supplies the data of the teaching image Im to the display unit 3 (see FIG. 1), and the display unit 3 displays the teaching image Im.

図12(A)において教示図形Fは、「吐」という漢字である。図12(B)において教示図形Fは、パーツp57、パーツp58、及びパーツp59を含む。パーツp57は、例えば、ユーザモデルUMの右足と左足とに対して位置決めされる。パーツp57は、水平方向に延びる棒状の図形であり、その両端に体重をかける位置を表す三角形を含む。パーツp58は「50」という数字であり、右足にかける体重の割合が50%であるイメージを表す。パーツp59は「50」という数字であり、左足にかける体重の割合が50であるイメージを表す。   In FIG. 12A, the teaching figure F is a Chinese character “vomit”. In FIG. 12B, the teaching figure F includes a part p57, a part p58, and a part p59. The part p57 is positioned with respect to the right foot and the left foot of the user model UM, for example. The part p57 is a bar-like figure extending in the horizontal direction, and includes a triangle representing a position where the weight is applied to both ends thereof. The part p58 is a number “50” and represents an image in which the proportion of the weight on the right foot is 50%. The part p59 is a number “50” and represents an image in which the ratio of the weight applied to the left foot is 50.

図13(A)において教示図形Fは、パーツp57、パーツp58、パーツp59、パーツp60、及びパーツp61を含む。パーツp60は、例えば、右足と左足との姿勢(相対位置)のイメージを表す三角形である。パーツp60は、例えば、ユーザモデルUMの右足および左足に対して位置決めされる。パーツp60の底辺は、例えば水平方向と平行に配置される。パーツp60の2つの斜辺は、それぞれ、目標となる左右の足の傾きのイメージを表す。ユーザUは、左足の傾きと右足の傾きとをパーツp60に合わせるようにイメージすることで、目的のポーズに近づけることが容易になる。パーツp61は、1つの頂点が上向きの三角形(上向きの矢印の先端部)である。パーツp61は、例えば、ユーザモデルUMの頭部に対して位置決めされ、顔を向ける方向のイメージを表す。   In FIG. 13A, the teaching figure F includes a part p57, a part p58, a part p59, a part p60, and a part p61. The part p60 is, for example, a triangle representing an image of the posture (relative position) between the right foot and the left foot. The part p60 is positioned with respect to the right foot and the left foot of the user model UM, for example. The bottom side of the part p60 is disposed in parallel with the horizontal direction, for example. The two hypotenuses of the part p60 each represent an image of the left and right foot inclination as a target. The user U can easily approximate the target pose by imaging the left foot and the right foot so as to match the part p60. The part p61 is a triangle whose apex is upward (the tip of an upward arrow). For example, the part p61 is positioned with respect to the head of the user model UM and represents an image in a direction in which the face is directed.

図13(B)において、教示図形Fは、パーツp62及びパーツp63を含む。パーツp62は、例えば、頭部と右足先と腰中央との位置関係のイメージを表す。パーツp63は、例えば、右手先と左手先との位置関係のイメージを表す。ユーザUは、体の各部の位置関係を教示図形に合わせるようにイメージすることで、目的のポーズに近づけることが容易になる。   In FIG. 13B, the teaching figure F includes a part p62 and a part p63. The part p62 represents, for example, an image of the positional relationship between the head, right foot tip, and waist center. The part p63 represents an image of the positional relationship between the right hand tip and the left hand tip, for example. The user U can easily approach the target pose by imaging the positional relationship of each part of the body to match the teaching figure.

図14および図15において、画像処理部13(図1参照)は、「木のポーズ」に対応するサンプル画像Sa、検出部5(図1参照)がユーザを検出して得られるユーザモデルUM、及び教示図形Fを含む教示画像Imを生成する。表示制御部7(図1参照)は、教示画像Imのデータを表示部3(図1参照)に供給し、表示部3は、教示画像Imを表示する。   14 and 15, the image processing unit 13 (see FIG. 1) includes a sample image Sa corresponding to “a tree pose”, and a user model UM obtained by detecting the user by the detecting unit 5 (see FIG. 1). And a teaching image Im including the teaching figure F is generated. The display control unit 7 (see FIG. 1) supplies the data of the teaching image Im to the display unit 3 (see FIG. 1), and the display unit 3 displays the teaching image Im.

図14(A)において、教示図形Fは、パーツp65及びパーツp66を含む。パーツp65は、例えば、右足と左足との位置関係のイメージを表す折れ線である。パーツp66は、右足と左足の脛とを垂直にするイメージを示す正方形である。図14(B)において、教示図形Fは、「吸」という漢字である。図14(C)は、図14(B)と連続する動作に対応する。図14(C)において、教示図形Fの「吸」は、例えば背筋を伸ばしながら息を吸うイメージを与えるように、図14(B)に比べて上方に移動している。   In FIG. 14A, the teaching figure F includes a part p65 and a part p66. The part p65 is, for example, a broken line representing an image of the positional relationship between the right foot and the left foot. The part p66 is a square indicating an image in which the right foot and the shin of the left foot are vertical. In FIG. 14B, the teaching figure F is a Chinese character “suck”. FIG. 14C corresponds to the operation continued from FIG. In FIG. 14C, the “sucking” of the teaching figure F has moved upward as compared with FIG. 14B so as to give an image of inhaling while stretching the back muscles, for example.

図15(A)において、教示図形Fは、パーツp67及びパーツp68を含む。パーツp67は、垂直方向に延びる棒状の図形である。パーツp68は、頂点が上向きの三角形(矢印の先端状の図形)である。パーツp67及びパーツp68は、例えば、右足、背骨、頭を一直線にして上方に伸ばすイメージを表す。図15(B)および図15(C)において、教示図形Fは、パーツp69およびパーツp70を含む。パーツp69は「呼」という漢字であり、パーツp70は「吸」という漢字である。パーツp69の「呼」は、ユーザモデルUMの左側に位置決めされ、パーツp70はユーザモデルUMの右側に位置決めされる。パーツp69およびパーツp70は、一組で「呼吸」という単語を表す。   In FIG. 15A, the teaching figure F includes a part p67 and a part p68. The part p67 is a bar-like figure extending in the vertical direction. The part p68 is a triangle whose top is upward (a figure with a tip of an arrow). The part p67 and the part p68 represent, for example, an image in which the right foot, the spine, and the head are aligned and extended upward. 15B and 15C, the teaching figure F includes a part p69 and a part p70. Part p69 is a Chinese character “call”, and part p70 is a Chinese character “suck”. The “call” of the part p69 is positioned on the left side of the user model UM, and the part p70 is positioned on the right side of the user model UM. Parts p69 and p70 represent the word “breathing” as a set.

図15(B)および図15(C)のそれぞれにおいて、「呼」と「吸」とのうち相対的にコントラストが高い方を実線で表し、「呼」と「吸」とのうち相対的にコントラストが低い方を点線で表した。図15(B)はユーザが息を吐く動作に対応しており、パーツp69の「呼」は、パーツp70の「吸」よりも高いコントラストで表示される。また、図15(C)はユーザUが息を吸う動作に対応しており、パーツp70の「吸」は、パーツp69の「吐」よりも高いコントラストで表示される。このように、画像処理部13は、教示画像として、複数のパーツのうちの第1パーツ(例、パーツp69)を第2パーツ(例、パーツp70)と異なる表示で表した画像を生成してよい。本実施形態において、「異なる表示」は、表示の要素(例、色、色相、明度、彩度、周囲に対するコントラスト)の少なくとも1つが異なることを含む。   In each of FIG. 15B and FIG. 15C, the relatively high contrast of “call” and “suck” is represented by a solid line, and “call” and “suck” are relatively The lower contrast is represented by a dotted line. FIG. 15B corresponds to an operation in which the user exhales, and the “call” of the part p69 is displayed with a higher contrast than the “suck” of the part p70. FIG. 15C corresponds to the operation in which the user U inhales, and the “puff” of the part p70 is displayed with a higher contrast than the “pump” of the part p69. As described above, the image processing unit 13 generates an image representing the first part (eg, part p69) of the plurality of parts in a display different from the second part (eg, part p70) as the teaching image. Good. In the present embodiment, “different display” includes that at least one of display elements (eg, color, hue, brightness, saturation, contrast to surroundings) is different.

次に、上述のような検出システムの構成に基づいて、実施形態に係る検出方法について説明する。図16は、第1実施形態に係る検出システムの動作を示すフローチャートである。検出システムの各部については、適宜、図1を参照する。   Next, a detection method according to the embodiment will be described based on the configuration of the detection system as described above. FIG. 16 is a flowchart showing the operation of the detection system according to the first embodiment. For each part of the detection system, refer to FIG. 1 as appropriate.

ステップS1において、検出装置2(例、検出部5)は、ユーザUの検出を開始する。ステップS2において、検出装置(例、モデル生成部11)はステップS1の検出結果に基づいて、ユーザUのモデルを生成する。ステップS3において、検出装置(例、表示制御部7)は、ユーザUのモデルの表示を開始させる指令(表示開始指令)を表示部3に送信する。例えば、表示制御部7は、ステップS2で生成されたユーザUのモデルに対応する画像(例、図2のユーザモデルUMを含む画像)の画像データを、表示開始指令として表示部3に供給する。表示部3は、ステップS4において、検出装置から供給されたデータに基づいてユーザUのモデルの表示を開始する。   In step S <b> 1, the detection device 2 (for example, the detection unit 5) starts detecting the user U. In step S <b> 2, the detection device (e.g., model generation unit 11) generates the user U model based on the detection result in step S <b> 1. In step S <b> 3, the detection device (for example, the display control unit 7) transmits a command (display start command) for starting display of the model of the user U to the display unit 3. For example, the display control unit 7 supplies image data of an image (eg, an image including the user model UM in FIG. 2) corresponding to the model of the user U generated in step S2 to the display unit 3 as a display start command. . In step S4, the display unit 3 starts displaying the model of the user U based on the data supplied from the detection device.

検出装置は、ステップS5において、対象のポーズを設定する。行うポーズの種類、順番、及びポーズを行う時間として設定された時間は、例えば、図5(A)に示した姿勢定義データD1に定められる。以下の説明において、適宜、ポーズを行う順番として設定された順番をポーズの設定順番と称する。また、以下の説明において、適宜、ポーズを行う時間(例、15秒、30秒)として設定された時間をポーズの設定時間という。図5(A)では、例えば、最初に行うポーズとして「戦士のポーズ」が予め設定され、その後に行うポーズとして「三角のポーズ」が設定される。ここでは、対象のポーズとして「戦士のポーズ」が設定されるものとする。対象のポーズが設定されてから、設定されたポーズの設定時間が経過した際に、対象のポーズは、後述するステップS15の処理を経てポーズの設定順番に基づいて次にポーズに変更される。   In step S5, the detection apparatus sets a target pose. The type and order of the poses to be performed and the time set as the time for performing the poses are determined, for example, in the posture definition data D1 shown in FIG. In the following description, the order set as the order in which pauses are performed as appropriate is referred to as a pause setting order. In the following description, a time set as a time for performing a pause (eg, 15 seconds, 30 seconds) is referred to as a pause setting time. In FIG. 5A, for example, “warrior pose” is set in advance as the first pose, and “triangular pose” is set as the pose to be performed thereafter. Here, it is assumed that “warrior pose” is set as the target pose. When the set time of the set pose elapses after the target pose is set, the target pose is changed to the next pose based on the pose setting order through the process of step S15 described later.

ステップS6において、検出装置(例、表示制御部7)は、ステップS5で設定されたポーズのサンプル画像の表示を開始させる指令(表示開始指令)を表示部3に送信する。例えば、画像処理部13は、図5(A)の姿勢定義データD1に基づいて「戦士のポーズ」のサンプル画像Saのデータを取得し、サンプル画像SaとユーザモデルUMとを含む画像のデータを生成する。表示制御部7は、サンプル画像の表示開始指令として、画像処理部13が生成したサンプル画像SaとユーザモデルUMとを含む画像のデータを表示部3に供給する。表示部3は、ステップS7において、検出装置から供給されたデータに基づいて、ステップS5で設定されたポーズのサンプル画像の表示を開始する。   In step S <b> 6, the detection device (for example, the display control unit 7) transmits a command (display start command) for starting display of the sample image of the pose set in step S <b> 5 to the display unit 3. For example, the image processing unit 13 acquires the data of the sample image Sa of “warrior's pose” based on the posture definition data D1 in FIG. 5A, and obtains image data including the sample image Sa and the user model UM. Generate. The display control unit 7 supplies the display unit 3 with image data including the sample image Sa and the user model UM generated by the image processing unit 13 as a sample image display start command. In step S7, the display unit 3 starts displaying the sample image of the pose set in step S5 based on the data supplied from the detection device.

検出装置(例、画像処理部13)は、ステップS8において、教示図形の表示開始条件を満たすか否かを判定する。画像処理部13は、例えば、図5(C)に示した表示条件データD3に基づいて、教示図形の表示開始条件を満たすか否かを判定する。例えば、画像処理部13は、ステップS5で設定されたポーズに関連付けられた教示図形のパーツごとに、表示条件データD3の「表示開始条件」に規定された条件を満たすか否かを判定する。   In step S <b> 8, the detection device (for example, the image processing unit 13) determines whether or not the display start condition for the teaching graphic is satisfied. For example, the image processing unit 13 determines whether or not the display start condition for the teaching graphic is satisfied based on the display condition data D3 illustrated in FIG. For example, the image processing unit 13 determines whether or not the condition defined in the “display start condition” of the display condition data D3 is satisfied for each part of the teaching graphic associated with the pose set in step S5.

例えば、図5(B)に示した教示図形データにおいて、「戦士のポーズ」と関連付けられた教示図形は「教示図形識別番号」が「01」であり、画像処理部13は、「教示図形識別番号」が「01」のパーツのそれぞれについて上記の判定を行う。例えば、「教示図形識別番号」が「01」であり、「パーツ識別番号」が「03」のパーツは、パーツp1の「吸」である。図5(C)に示すように、このパーツp1「吸」の「表示開始条件」は、ポーズの表示開始から時間T1経過することである。画像処理部13は、ステップS6においてポーズのサンプル画像の表示開始指令が送信されてから時間T1が経過したと判定した場合に、教示図形の表示開始条件を満たすと判定する(ステップS8;Yes)。画像処理部13は、教示図形の表示開始条件を満たさないと判定した場合(ステップS8;No)、ステップS8の処理を繰り返す。   For example, in the teaching figure data shown in FIG. 5B, the teaching figure associated with the “warrior pose” has “teaching figure identification number” “01”, and the image processing unit 13 The above determination is performed for each of the parts whose number is “01”. For example, a part whose “teaching figure identification number” is “01” and whose “part identification number” is “03” is “suck” of the part p1. As shown in FIG. 5C, the “display start condition” of this part p1 “suck” is that the time T1 has elapsed from the start of the display of the pose. The image processing unit 13 determines that the teaching figure display start condition is satisfied when it is determined in step S6 that the time T1 has elapsed since the instruction to start displaying the pause sample image has been transmitted (step S8; Yes). . If the image processing unit 13 determines that the teaching graphic display start condition is not satisfied (step S8; No), the process of step S8 is repeated.

検出装置(例、画像処理部13)は、教示図形の表示開始条件を満たすと判定した場合(ステップS8;Yes)、ステップS9において教示画像を生成する。画像処理部13は、ステップS8において表示開始条件を満たすと判定した教示図形のパーツを、ユーザモデルUMに対して位置決めして、教示画像を生成する。教示画像を生成する処理については、後に図17を参照して説明する。   When it is determined that the display start condition for the teaching graphic is satisfied (step S8; Yes), the detection device (for example, the image processing unit 13) generates a teaching image in step S9. The image processing unit 13 positions the teaching figure part determined to satisfy the display start condition in step S8 with respect to the user model UM, and generates a teaching image. The processing for generating the teaching image will be described later with reference to FIG.

検出装置(例、表示制御部7)は、ステップS10において、教示画像の表示を開始させる指令(表示開始指令)を表示部3に送信する。例えば、表示制御部7は、教示画像の表示開始指令(信号)として、ステップS9において画像処理部13が生成した表示画像のデータを表示部3に供給する。表示制御部7は、ユーザUの人体に関連する位置(部位)に対して所定の位置関係で教示図形Fを現在の動作又は次の動作を示すガイド表示として表示部3に表示する。表示部3は、ステップS11において、検出装置から供給されたデータに基づいて表示画像を表示する。   In step S <b> 10, the detection device (for example, the display control unit 7) transmits a command (display start command) for starting display of the teaching image to the display unit 3. For example, the display control unit 7 supplies the display unit 3 with the display image data generated by the image processing unit 13 in step S9 as a teaching image display start command (signal). The display control unit 7 displays the teaching figure F on the display unit 3 as a guide display indicating the current operation or the next operation in a predetermined positional relationship with respect to a position (part) related to the human body of the user U. In step S11, the display unit 3 displays a display image based on the data supplied from the detection device.

検出装置(例、画像処理部13)は、ステップS12において、教示図形の表示終了条件を満たすか否かを判定する。画像処理部13は、例えば、図5(C)に示した表示条件データD3に基づいて、教示図形の表示終了条件を満たすか否かを判定する。例えば、画像処理部13は、ステップS5で設定されたポーズに関連付けられた教示図形のパーツごとに、表示条件データD3の「表示終了条件」に規定された条件(データ)を満たすか否かを判定する。   In step S <b> 12, the detection device (for example, the image processing unit 13) determines whether or not a teaching graphic display end condition is satisfied. For example, the image processing unit 13 determines whether or not the display end condition of the teaching graphic is satisfied based on the display condition data D3 illustrated in FIG. For example, the image processing unit 13 determines whether or not the condition (data) defined in the “display end condition” of the display condition data D3 is satisfied for each part of the teaching graphic associated with the pose set in step S5. judge.

例えば、図5(B)に示した教示図形データにおいて、「戦士のポーズ」と関連付けられた教示図形は「教示図形識別番号」が「01」であり、画像処理部13は、「教示図形識別番号」が「01」のパーツのそれぞれについて上記の判定を行う。例えば、「教示図形識別番号」が「01」であり、「パーツ識別番号」が「03」のパーツは、パーツp1の「吸」である。   For example, in the teaching figure data shown in FIG. 5B, the teaching figure associated with the “warrior pose” has “teaching figure identification number” “01”, and the image processing unit 13 The above determination is performed for each of the parts whose number is “01”. For example, a part whose “teaching figure identification number” is “01” and whose “part identification number” is “03” is “suck” of the part p1.

図5(C)に示すように、このパーツp1「吸」の「表示終了条件」は、ポーズの表示開始から時間T2経過することである。画像処理部13は、ステップS6においてポーズのサンプル画像の表示開始指令が送信されてから時間T2が経過したと判定した場合に、教示図形の表示終了条件を満たすと判定する(ステップS12;Yes)。画像処理部13は、教示図形の表示終了条件を満たさないと判定した場合(ステップS12;No)、ステップS12の処理を繰り返す。   As shown in FIG. 5C, the “display end condition” of this part p1 “suck” is that the time T2 has elapsed from the start of the display of the pose. If it is determined in step S6 that the time T2 has elapsed since the instruction to start displaying the pause sample image is transmitted, the image processing unit 13 determines that the teaching figure display end condition is satisfied (step S12; Yes). . If the image processing unit 13 determines that the teaching graphic display end condition is not satisfied (step S12; No), the process of step S12 is repeated.

検出装置(例、画像処理部13)は、教示図形の表示終了条件を満たすと判定した場合(ステップS12;Yes)、教示図形の表示を停止させる。例えば、画像処理部13は、教示図形の表示終了条件を満たすと判定した場合(ステップS12;Yes)、表示終了条件を満たすと判定したパーツを含まない教示画像を生成する。ステップS13において、表示制御部7は、パーツを含まない教示画像のデータを、表示停止指令として表示部3に供給する。表示部3は、ステップS14において、検出装置から供給されるデータに基づいて画像を表示することによって、教示図形の表示を停止する。ここでは、検出装置(例、表示制御部7)は、教示図形を含まない教示画像のデータを表示部3に供給し、表示部3は、教示図形を含まない教示画像を表示する。   When the detection device (eg, the image processing unit 13) determines that the display end condition of the teaching graphic is satisfied (step S12; Yes), the detection device stops displaying the teaching graphic. For example, if the image processing unit 13 determines that the display end condition of the teaching graphic is satisfied (step S12; Yes), the image processing unit 13 generates a teaching image that does not include the part determined to satisfy the display end condition. In step S <b> 13, the display control unit 7 supplies the teaching image data including no parts to the display unit 3 as a display stop command. In step S <b> 14, the display unit 3 stops displaying the teaching graphic by displaying an image based on the data supplied from the detection device. Here, the detection device (for example, the display control unit 7) supplies the teaching image data that does not include the teaching graphic to the display unit 3, and the display unit 3 displays the teaching image that does not include the teaching graphic.

検出装置は、ステップS15において、対象のポーズを変更するか否かを判定する。例えば、検出装置は、図5(A)に示した姿勢定義データD1に基づいて次の対象のポーズがあるか否かを判定する。検出装置は、次の対象のポーズがあると判定した場合に、ステップS5において設定された対象のポーズの設定時間が経過した際に、対象のポーズを変更すると判定する(ステップS15;Yes)。検出装置は、対象のポーズを変更すると判定した場合(ステップS15;Yes)、ステップS5の処理に戻り、対象のポーズを次のポーズに設定し、ステップS6以降の処理を繰り返す。また、対象のポーズを変更しないと検出装置が判定した場合(ステップS15;No)、例えば、検出装置および表示部は、待機状態となる。   In step S15, the detection device determines whether or not to change the target pose. For example, the detection apparatus determines whether there is a next target pose based on the attitude definition data D1 illustrated in FIG. When it is determined that there is a next target pose, the detection apparatus determines to change the target pose when the set time of the target pose set in step S5 has elapsed (step S15; Yes). When it is determined that the target pose is to be changed (step S15; Yes), the detection apparatus returns to the process of step S5, sets the target pose to the next pose, and repeats the processes after step S6. In addition, when the detection device determines that the target pose is not changed (step S15; No), for example, the detection device and the display unit are in a standby state.

検出装置2(例、処理部6、画像処理部13、表示制御部7)は、例えば、教示画像(教示図形)の表示開始指示(トリガ信号)が検出された場合、特定(複数)の表示要素(例、パーツ)を、表示画面(表示部3)における表示位置を所定方向へ移動させる表示移動処理を、表示部3に実行させる。また、検出装置2(例、処理部6、画像処理部13、表示制御部7)は、例えば、上記の表示移動処理を実行させるとともに、サンプル画像Saが切り替わる信号に基づいて、表示要素を順次更新して表示画面に表示させる表示更新処理を、表示部3に実行させる。また、検出装置2(例、処理部6、画像処理部13、表示制御部7)は、例えば表示終了指令(表示終了の指示)が検出された場合、特定の表示要素の表示位置の移動を停止させる表示停止処理を、表示部に実行させる。   The detection device 2 (for example, the processing unit 6, the image processing unit 13, and the display control unit 7) displays a specific (plural) display when a display start instruction (trigger signal) of a teaching image (teaching figure) is detected, for example. The display unit 3 is caused to execute display movement processing for moving an element (eg, part) in a predetermined direction at a display position on the display screen (display unit 3). In addition, the detection device 2 (for example, the processing unit 6, the image processing unit 13, and the display control unit 7) executes the above display movement process and sequentially displays display elements based on a signal for switching the sample image Sa. The display unit 3 is caused to execute display update processing for updating and displaying on the display screen. The detection device 2 (eg, the processing unit 6, the image processing unit 13, and the display control unit 7) moves the display position of a specific display element when, for example, a display end command (display end instruction) is detected. The display unit is caused to execute display stop processing to be stopped.

なお、検出装置は、各種情報を音声で入力可能な音声入力部を備えてもよい。検出装置は、ユーザの入力(例、音声入力)に基づいて、ポーズを変更するか否かを判定してもよい。例えば、ユーザは、次の対象のポーズの種類を音声で入力してもよい。例えば、検出装置は、ユーザが発声したポーズの名称(例、「三角のポーズ))を識別してもよい。検出装置2は、識別した音声と予め関連付けられた種類のポーズを、ステップS5の処理において、次の対象のポーズの種類として設定してもよい。   Note that the detection apparatus may include a voice input unit that can input various types of information by voice. The detection device may determine whether to change the pose based on a user input (eg, voice input). For example, the user may input the next target pose type by voice. For example, the detection device may identify the name of a pose uttered by the user (for example, “triangular pose”) The detection device 2 uses the type of pose previously associated with the identified speech in step S5. In the processing, it may be set as the type of the next target pose.

次に、画像処理部13の動作に基づいて、図16のステップS9において教示画像を生成する処理について説明する。図17は、第1実施形態に係る画像処理部による処理を示すフローチャートである。なお、検出システム1の各部については、適宜、図1を参照する。また、ステップS1からステップS15の処理については、適宜、図16を参照する。   Next, based on the operation of the image processing unit 13, a process for generating a teaching image in step S9 of FIG. 16 will be described. FIG. 17 is a flowchart showing processing by the image processing unit according to the first embodiment. In addition, about each part of the detection system 1, FIG. 1 is referred suitably. For the processing from step S1 to step S15, refer to FIG. 16 as appropriate.

ステップS21において、画像処理部13は、モデル生成部11(図1参照)が図16のステップS2において生成したユーザのモデルを取得する。ステップS22において、画像処理部13は、教示図形のパーツを選択する。例えば、画像処理部13は、ステップS5において設定された対象のポーズについて、図5(B)に示した教示図形データD2を参照して、対象のポーズと関連付けられた教示図形に属するパーツを特定する。例えば、「対象のポーズ」として「戦士のポーズ」が設定されている場合、「戦士のポーズ」に対応する「教示図形識別番号」は「01」であり、画像処理部13は「教示図形識別番号」が「01」であるパーツを特定する。図5(B)において、「教示図形識別番号」が「01」の教示図形に属するパーツは、「パーツ識別番号」が「01」、「02」、「03」である。画像処理部13は、ステップS22において、「パーツ識別番号」を「01」、「02」、「03」から選択する。   In step S21, the image processing unit 13 acquires the user model generated by the model generation unit 11 (see FIG. 1) in step S2 of FIG. In step S22, the image processing unit 13 selects a part of the teaching graphic. For example, with respect to the target pose set in step S5, the image processing unit 13 refers to the teaching graphic data D2 shown in FIG. 5B, and identifies parts belonging to the teaching graphic associated with the target pose. To do. For example, when “warrior pose” is set as “target pose”, the “teaching figure identification number” corresponding to “warrior pose” is “01”, and the image processing unit 13 performs “teaching figure identification”. A part whose number is “01” is specified. In FIG. 5B, the parts belonging to the teaching graphic whose “teaching graphic identification number” is “01” have the “part identification number” “01”, “02”, and “03”. In step S22, the image processing unit 13 selects “part identification number” from “01”, “02”, and “03”.

ステップS23において、画像処理部13は、ステップS22で選択したパーツの表示開始位置を取得する。例えば、ステップS22において、図5(B)に示した「パーツ識別番号」が「03」であるパーツ(「吸」)が選択されたとする。画像処理部13は、図5(C)の表示条件データに基づいて、「教示図形識別番号」が「01」であり、かつ「パーツ識別番号」が「03」であるパーツの「表示開始位置」を取得する。「表示開始位置」は、例えば、「基準の部位名」および「オフセット量」(表示位置のオフセット)を含む。   In step S23, the image processing unit 13 acquires the display start position of the part selected in step S22. For example, in step S22, it is assumed that a part (“Suck”) whose “part identification number” shown in FIG. 5B is “03” is selected. Based on the display condition data shown in FIG. 5C, the image processing unit 13 displays the “display start position” of the part whose “teaching figure identification number” is “01” and whose “part identification number” is “03”. Is obtained. “Display start position” includes, for example, “reference part name” and “offset amount” (offset of display position).

ステップS24において、画像処理部13は、「表示開始位置」の「基準の部位名」に対応する位置を取得する。画像処理部13は、部位特定部12が特定した部位の座標に基づいて、「基準の部位名」に指定された部位の位置を取得する。例えば、「基準の部位名」が「胸」であるとする。この場合、画像処理部13は、部位特定部12が「胸」であると特定した部位の位置(例、座標)を取得する。   In step S <b> 24, the image processing unit 13 acquires a position corresponding to “reference part name” of “display start position”. The image processing unit 13 acquires the position of the part specified in the “reference part name” based on the coordinates of the part specified by the part specifying unit 12. For example, it is assumed that “reference part name” is “chest”. In this case, the image processing unit 13 acquires the position (for example, coordinates) of the part specified by the part specifying unit 12 as “chest”.

ステップS25において、画像処理部13は、オフセット量に基づいて、教示画像上でパーツを位置決めする。例えば、画像処理部13は、「基準の部位名」に指定された部位の位置(ステップS24参照)を基準の位置として、基準の位置から「表示開始位置」の「オフセット量」に規定された量だけシフトした位置を算出し、算出した位置を選択されたパーツである「吸」の位置に決定する(位置決めする)。画像処理部13は、決定した位置に、図5(B)の教示図形データD2における形状データ(例、「form_0103.dat))に規定されたImp3の「吸」を配置する。   In step S25, the image processing unit 13 positions the part on the teaching image based on the offset amount. For example, the image processing unit 13 defines the “offset amount” from the reference position to the “display start position” with the position of the part specified in the “reference part name” (see step S24) as the reference position. The position shifted by the amount is calculated, and the calculated position is determined (positioned) as the position of “suction” as the selected part. The image processing unit 13 arranges “suction” of Imp3 defined in the shape data (eg, “form — 0103.dat) in the teaching graphic data D2 of FIG. 5B at the determined position.

ステップS26において、画像処理部13は、次のパーツがあるか否かを判定する。画像処理部13は、ステップS5で設定された対象のポーズに属するパーツの少なくとも1つについて、ステップS25の位置決め処理が完了していない場合に、次のパーツがあると判定する(ステップS26;Yes)。画像処理部13は、次のパーツがあると判定した場合(ステップS26;Yes)、ステップS22に戻って次のパーツを選択し、以降の処理を繰り返す。画像処理部13は、次のパーツがないと判定した場合(ステップS26;No)、ステップS25で位置決めされたパーツを教示図形として含む教示画像のデータを出力し、一連の処理を終了する。   In step S26, the image processing unit 13 determines whether there is a next part. The image processing unit 13 determines that there is a next part when the positioning process in step S25 is not completed for at least one part belonging to the target pose set in step S5 (step S26; Yes). ). If it is determined that there is a next part (step S26; Yes), the image processing unit 13 returns to step S22, selects the next part, and repeats the subsequent processes. If the image processing unit 13 determines that there is no next part (step S26; No), the image processing unit 13 outputs teaching image data including the part positioned in step S25 as a teaching figure, and ends a series of processing.

[第2実施形態]
第2実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図18は、第2実施形態に係る検出システムを示す図である。本実施形態に係る検出システム1は、検出部5の検出結果に基づくタイミングで、教示図形を表示する。例えば、検出装置2は、ユーザUの姿勢を特定し、特定した姿勢に関連付けられたタイミングで教示図形を表示させる。
[Second Embodiment]
A second embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are denoted by the same reference numerals, and the description thereof is omitted or simplified. FIG. 18 is a diagram illustrating a detection system according to the second embodiment. The detection system 1 according to the present embodiment displays a teaching graphic at a timing based on the detection result of the detection unit 5. For example, the detection device 2 identifies the posture of the user U and displays the teaching figure at a timing associated with the identified posture.

本実施形態に係る検出装置2は、姿勢特定部15を備える。姿勢特定部15は、例えば、処理部6に設けられる。姿勢特定部15は、検出部5から得られるユーザUの姿勢の種類を、予め登録された複数の種類から特定する。姿勢特定部15は、例えば、記憶部8に記憶された姿勢定義データD1に基づいて、ユーザUの姿勢の種類を特定する。   The detection device 2 according to the present embodiment includes a posture specifying unit 15. The posture specifying unit 15 is provided in the processing unit 6, for example. The posture specifying unit 15 specifies the type of posture of the user U obtained from the detection unit 5 from a plurality of types registered in advance. For example, the posture specifying unit 15 specifies the type of posture of the user U based on the posture definition data D1 stored in the storage unit 8.

図19は、第2実施形態に係る姿勢特定部による処理を示す図である。図19(A)には、本実施形態に係る姿勢定義データを概念的に示した。図19(B)には、実施形態に係る姿勢特定部による処理を概念的に示した。姿勢定義データD1は、複数の種類の姿勢データ(D1a、D1b)を含む。姿勢データD1a、姿勢データD1bは、それぞれ、「姿勢名称」の情報と、「定義データ」の情報とを含む。   FIG. 19 is a diagram illustrating processing by the posture specifying unit according to the second embodiment. FIG. 19A conceptually shows posture definition data according to the present embodiment. FIG. 19B conceptually shows processing by the posture specifying unit according to the embodiment. The posture definition data D1 includes a plurality of types of posture data (D1a, D1b). Each of the posture data D1a and the posture data D1b includes “posture name” information and “definition data” information.

「姿勢名称」は、各姿勢データが定義する姿勢の種類の名称を示す情報(例、識別情報)である。例えば、姿勢データD1aは、「戦士のポーズ」の定義を示すデータであり、姿勢データD1aの「姿勢名称」には「戦士のポーズ」という情報が格納される。また、姿勢データD1bは、「三角のポーズ」の定義を示すデータであり、姿勢データD1bの「姿勢名称」には「三角のポーズ」という情報が格納される。   The “posture name” is information (for example, identification information) indicating the name of the kind of posture defined by each piece of posture data. For example, the posture data D1a is data indicating the definition of “warrior pose”, and information “warrior pose” is stored in “posture name” of the posture data D1a. The posture data D1b is data indicating the definition of “triangular pose”, and information “triangular pose” is stored in the “posture name” of the posture data D1b.

「定義データ」は、各姿勢の定義を示すデータである。「定義データ」は、例えば、「部位01の条件」、「部位02の条件」、・・・「部位nの条件」を含む。部位01、部位02、・・・部位nは、それぞれ、部位特定部12が特定する部位の種類の1つに対応する。部位特定部12が特定する部位の種類は、例えば、頭部、首、右肩、左肩、肩中央、右肘、右手首、右手先、左肘、左手首、左手先、背骨、右腰、左腰、腰中央、右膝、右足首、右足先、左膝、左足首、左足先などである。   “Definition data” is data indicating the definition of each posture. “Definition data” includes, for example, “condition of part 01”, “condition of part 02”,... “Condition of part n”. Site 01, site 02,... Site n each correspond to one of the types of sites specified by site specifying unit 12. The types of parts specified by the part specifying unit 12 include, for example, the head, neck, right shoulder, left shoulder, shoulder center, right elbow, right wrist, right hand, left elbow, left wrist, left hand, spine, right hip, Left waist, middle waist, right knee, right ankle, right foot tip, left knee, left ankle, left foot tip, etc.

「「部位01の条件」、「部位02の条件」、・・・「部位nの条件」には、それぞれの部位が満たす条件が格納される。例えば、「部位02」が「右肘」であるとする、姿勢データD1aにおける「定義データ」の「部位02の条件」には、「戦士のポーズ」をとる場合の右肘の位置(例、他の部位に対する相対位置)の条件が格納される。例えば、右肘の位置の条件は、例えば、右肘の曲がり角度の範囲を含む。右肘の曲がり角度は、例えば、右肘と右手先とを結ぶ線(前腕)と、右肘と右肩とを結ぶ線(上腕)との角度である。   In ““ Condition for part 01 ”,“ Condition for part 02 ”,...,“ Condition for part n ”, conditions that each part satisfies are stored. For example, assuming that “part 02” is “right elbow”, the “condition of part 02” of “definition data” in the posture data D1a includes the position of the right elbow when taking the “warrior pose” (eg, The condition of the relative position) with respect to other parts is stored. For example, the condition of the position of the right elbow includes, for example, a range of the bending angle of the right elbow. The bending angle of the right elbow is, for example, an angle between a line connecting the right elbow and the right hand (forearm) and a line connecting the right elbow and the right shoulder (upper arm).

姿勢特定部15は、例えば、検出部5の検出結果に基づいて部位特定部が特定した各部位の位置を取得する。そして、姿勢特定部15は、検出部5の検出結果から得られる各部位の位置関係と、「定義データ」に定義される各部位の位置関係との類似度を算出する。姿勢特定部15は、複数の種類の姿勢データのそれぞれについて上記の類似度を算出する。姿勢特定部15は、複数の種類の姿勢について上記の類似度を比較することによって、ユーザUの姿勢の種類を複数の種類から特定する。   For example, the posture specifying unit 15 acquires the position of each part specified by the part specifying unit based on the detection result of the detecting unit 5. Then, the posture specifying unit 15 calculates the similarity between the positional relationship of each part obtained from the detection result of the detecting unit 5 and the positional relationship of each part defined in the “definition data”. The posture specifying unit 15 calculates the similarity for each of a plurality of types of posture data. The posture specifying unit 15 specifies the type of posture of the user U from a plurality of types by comparing the above similarities for a plurality of types of postures.

例えば、図11(B)において、符号SDは、検出部5の検出結果から得られるユーザUの各部位の位置を示す骨格情報である。姿勢特定部15は、骨格情報SDと、「戦士のポーズ」の定義データD1aとを用いて、「戦士のポーズ」についての類似度を算出する。また、姿勢特定部15は、骨格情報SDと、「三角のポーズ」の定義データD1bとを用いて、「三角のポーズ」についての類似度を算出する。姿勢特定部15は、「戦士のポーズ」についての類似度と「三角のポーズ」についての類似度とを比較し、類似度が高い方の姿勢をユーザの姿勢として特定する。   For example, in FIG. 11B, the symbol SD is skeleton information indicating the position of each part of the user U obtained from the detection result of the detection unit 5. The posture identifying unit 15 calculates the degree of similarity for the “warrior pose” using the skeleton information SD and the definition data D1a of the “warrior pose”. In addition, the posture specifying unit 15 calculates the degree of similarity for “triangular pose” using the skeleton information SD and the definition data D1b of “triangular pose”. The posture specifying unit 15 compares the similarity for the “warrior pose” and the similarity for the “triangular pose”, and specifies the posture with the higher similarity as the posture of the user.

図20は、第2実施形態に係る画像処理部による処理を示す図である。ここでは、戦士のポーズについて説明する。図20(A)において、符号Q1は部位特定部12が特定した手先であり、符号Q2は部位特定部12が特定した肘であり、符号Q3は部位特定部12が特定した肩である。また、符号αは、手先Q1と肘Q2とを結ぶ線(前腕Q4)と、肘Q2と肩Q3とを結ぶ線(上腕Q5)との角度(肘の角度)である。   FIG. 20 is a diagram illustrating processing by the image processing unit according to the second embodiment. Here, the pose of the warrior will be described. In FIG. 20A, reference sign Q1 is the hand specified by the part specifying part 12, reference sign Q2 is the elbow specified by the part specifying part 12, and reference sign Q3 is the shoulder specified by the part specifying part 12. Further, symbol α is an angle (elbow angle) between a line connecting the hand Q1 and the elbow Q2 (forearm Q4) and a line connecting the elbow Q2 and the shoulder Q3 (upper arm Q5).

本実施形態に係る検出装置2(図18参照)は、例えば、検出部5の検出結果から得られる肘の角度αに基づいて、教示図形を表示させる。例えば、検出装置2の処理部6は、肘の角度αが所定の条件を満たしたことをトリガーとして、教示図形を表示制御部7によって表示させる。例えば、戦士のポーズにおける動作には、肘が曲がっている状態ST1(実線)よりも、肘が伸びている状態ST2(二点鎖線)の方が望ましい場合がある(図2参照)。   The detection apparatus 2 (refer FIG. 18) which concerns on this embodiment displays a teaching figure based on the elbow angle (alpha) obtained from the detection result of the detection part 5, for example. For example, the processing unit 6 of the detection device 2 causes the display control unit 7 to display the teaching figure with a trigger that the elbow angle α satisfies a predetermined condition. For example, in a warrior's pose, the state ST2 (two-dot chain line) in which the elbow is extended may be more desirable than the state ST1 (solid line) in which the elbow is bent (see FIG. 2).

図20(A)の符号G1は、時間に対する肘の角度αを示すグラフである。肘の角度αが増加する場合、ユーザが肘を伸ばす動作をしていると推定される。画像処理部13は、例えば、時間Δtにおける肘の角度αの変化量Δαを監視する。画像処理部13は、例えば、肘の角度の時間変化量であるΔα/Δtが閾値以上である場合に、ユーザが肘を伸ばす動作をしていると判定する。この閾値は、例えば、図5(C)に示した表示条件データD3における「表示開始条件」に格納されている。画像処理部13は、画像処理部13は、ユーザが肘を伸ばす動作をしていると判定した場合に、肘を伸ばす動作と関連付けられた教示図形(例、図2の「吸」)を表示させる。   Symbol G1 in FIG. 20A is a graph showing the elbow angle α with respect to time. When the elbow angle α increases, it is estimated that the user is moving the elbow. For example, the image processing unit 13 monitors the amount of change Δα of the elbow angle α at time Δt. For example, the image processing unit 13 determines that the user is performing an action of extending the elbow when Δα / Δt, which is the amount of time change in the elbow angle, is equal to or greater than a threshold value. This threshold value is stored in, for example, “display start condition” in the display condition data D3 shown in FIG. When the image processing unit 13 determines that the user is performing an action of extending the elbow, the image processing unit 13 displays a teaching figure (eg, “suction” in FIG. 2) associated with the operation of extending the elbow. Let

また、図20(B)において、符号Q6は部位特定部12が特定した足首であり、符号Q7は部位特定部12が特定した膝であり、符号Q8は部位特定部12が特定した腰である。また、符号βは、足首Q6と膝Q7とを結ぶ線(すね部Q9)と、膝Q7と腰Q8とを結ぶ線(大腿部Q10)との角度(膝の角度)である。   In FIG. 20B, reference sign Q6 is the ankle specified by the part specifying part 12, reference sign Q7 is the knee specified by the part specifying part 12, and reference sign Q8 is the waist specified by the part specifying part 12. . Further, symbol β is an angle (a knee angle) between a line connecting the ankle Q6 and the knee Q7 (shin portion Q9) and a line connecting the knee Q7 and the waist Q8 (thigh Q10).

本実施形態に係る検出装置2(図18参照)は、例えば、検出部5の検出結果から得られる膝の角度βに基づいて、教示図形を表示させる。例えば、検出装置2は、膝の角度βが所定の条件を満たしたことをトリガーとして、教示図形を表示させる。例えば、戦士のポーズにおける動作には、膝が開いた状態ST3(実線)よりも、膝が垂直に曲がった状態ST4(二点鎖線)の方が望ましい場合がある(例、図3参照)。   The detection device 2 (see FIG. 18) according to the present embodiment displays a teaching figure based on, for example, the knee angle β obtained from the detection result of the detection unit 5. For example, the detection device 2 displays a teaching figure with a trigger that the knee angle β satisfies a predetermined condition. For example, in a warrior's pose, a state ST4 (two-dot chain line) in which the knee is bent vertically may be preferable to a state ST3 (solid line) in which the knee is open (see FIG. 3 for example).

図20(B)の符号G2は、時間に対する膝の角度βを示すグラフである。肘の角度βが減少する場合、ユーザが膝を曲げる動作をしていると推定される。画像処理部13は、例えば、時間Δtにおける膝の角度βの変化量Δβを監視する。画像処理部13は、例えば、膝の角度の時間変化量であるΔβ/Δtが閾値以上である場合に、ユーザが膝を曲げる動作をしていると判定する。この閾値は、例えば、図5(C)に示した表示条件データD3における「表示開始条件」に格納されている。画像処理部13は、ユーザが膝を曲げる動作をしていると判定した場合に、膝を曲げる動作と関連付けられた教示図形(例、図2の「吐」)を表示させる。   A symbol G2 in FIG. 20B is a graph showing the knee angle β with respect to time. When the elbow angle β decreases, it is estimated that the user is bending the knee. For example, the image processing unit 13 monitors the change amount Δβ of the knee angle β at time Δt. For example, when Δβ / Δt, which is a temporal change amount of the knee angle, is equal to or greater than a threshold value, the image processing unit 13 determines that the user is bending the knee. This threshold value is stored in, for example, “display start condition” in the display condition data D3 shown in FIG. When the image processing unit 13 determines that the user is performing an operation of bending the knee, the image processing unit 13 displays a teaching graphic (for example, “vomit” in FIG. 2) associated with the operation of bending the knee.

次に、処理部6の動作に基づいて、本実施形態に係る教示画像を生成する処理について説明する。図21は、第2実施形態に係る処理部による処理を示すフローチャートである。検出システム1の各部については、適宜、図18を参照する。ステップS31において、姿勢特定部15は、検出から得られるユーザの姿勢の種類を特定する。例えば、図18の検出部5はユーザUを検出し、部位特定部12は、検出部5の検出結果に基づいてユーザUの各部位の位置を特定する。また、姿勢特定部15は、図19で説明したように、部位特定部12が特定しユーザの各部位の位置関係を示す情報(例、図19(B)の骨格情報SD)と、予め登録された複数の種類の姿勢の情報(例、図19(A)の姿勢定義データD1)とを比較して、ユーザの姿勢の種類を特定する。   Next, processing for generating a teaching image according to the present embodiment will be described based on the operation of the processing unit 6. FIG. 21 is a flowchart showing processing by the processing unit according to the second embodiment. For each part of the detection system 1, refer to FIG. 18 as appropriate. In step S31, the posture identifying unit 15 identifies the type of user posture obtained from the detection. For example, the detection unit 5 in FIG. 18 detects the user U, and the part specifying unit 12 specifies the position of each part of the user U based on the detection result of the detection unit 5. In addition, as described with reference to FIG. 19, the posture specifying unit 15 specifies information (for example, skeleton information SD in FIG. 19B) that is specified by the part specifying unit 12 and indicates the positional relationship of each part of the user, and is registered in advance. A plurality of types of posture information (for example, posture definition data D1 in FIG. 19A) are compared to identify the type of posture of the user.

ステップS32において、画像処理部13は、ステップS31において姿勢特定部15が特定した姿勢に関連付けられた教示図形を特定する。例えば、図5(B)で説明したように、教示図形は、予め登録された姿勢の種類(例、図5(A)の「姿勢名称」)と関連付けられている。例えば、姿勢特定部15が特定した姿勢が「戦士のポーズ」である場合、画像処理部13は、図5(B)の教示図形データD2において「教示図形識別番号」が「01」の教示図形を、「戦士のポーズ」に関連付けられた教示図形として特定する。   In step S <b> 32, the image processing unit 13 specifies the teaching graphic associated with the posture specified by the posture specifying unit 15 in step S <b> 31. For example, as described with reference to FIG. 5B, the teaching figure is associated with a registered posture type (eg, “posture name” in FIG. 5A). For example, when the posture identified by the posture identifying unit 15 is “warrior's pose”, the image processing unit 13 teaches the teaching graphic whose teaching graphic identification number is “01” in the teaching graphic data D2 of FIG. Is identified as the teaching figure associated with the “warrior pose”.

ステップS33において、画像処理部13は、ステップS32で特定した教示図形のパーツを選択する。例えば、画像処理部13は、図5(B)の教示図形データD2を用いて、教示図形のパーツを選択する。例えば、画像処理部13は、ステップS32において「教示図形識別番号」が「01」の教示図形を特定した場合、「教示図形識別番号」が「01」の教示図形に属する「パーツ識別番号」が「01」、「02」、「03」のいずれかのパーツを選択する。   In step S33, the image processing unit 13 selects the part of the teaching graphic identified in step S32. For example, the image processing unit 13 selects a teaching graphic part using the teaching graphic data D2 of FIG. For example, if the image processing unit 13 specifies a teaching figure whose “teaching figure identification number” is “01” in step S32, the “part identification number” belonging to the teaching figure whose “teaching figure identification number” is “01” is displayed. Select one of the parts “01”, “02”, and “03”.

ステップS34において、画像処理部13は、ステップS33において選択したパーツの表示条件を取得する。パーツの表示条件は、例えば、図5(C)の表示条件データD3に規定されている。例えば、図20(A)で説明したように、「戦士のポーズ」(図2参照)に関する教示図形である「吸」の表示条件は、肘の角度αの時間変化量であるΔα/Δtが閾値以上である条件を含み、この閾値は、図5(C)の表示条件データD3の「表示開始条件」に予め格納される。画像処理部13は、例えば、記憶部8に記憶された表示条件データD3から、パーツの表示条件を取得する。   In step S34, the image processing unit 13 acquires display conditions for the parts selected in step S33. The display conditions for parts are defined in, for example, display condition data D3 in FIG. For example, as described with reference to FIG. 20A, the display condition of “sucking”, which is a teaching figure related to “warrior pose” (see FIG. 2), is expressed by Δα / Δt, which is the amount of time change of the elbow angle α. The threshold value is stored in advance in the “display start condition” of the display condition data D3 in FIG. For example, the image processing unit 13 acquires the display conditions of the parts from the display condition data D3 stored in the storage unit 8.

ステップS35において、画像処理部13は、ステップS33において選択されたパーツが表示条件を満たすか否かを判定する。例えば、画像処理部13は、図20(A)で説明したように、部位特定部12が特定した各部位の位置に基づいて、肘の角度αの時間変化量であるΔα/Δtを算出する。また、部位特定部12は、算出したΔα/ΔtとステップS34で取得した閾値とを比較し、Δα/Δtが閾値以上である場合に、選択されたパーツが表示条件を満たすと判定する(ステップS35;Yes)。画像処理部13は、選択されたパーツが表示条件を満たすと判定した場合(ステップS35;Yes)、ステップS36において、ステップS33で選択されたパーツを表示すると決定し、図17のステップS23からステップS25の処理と同様にしてパーツを位置決めする。   In step S35, the image processing unit 13 determines whether or not the part selected in step S33 satisfies the display condition. For example, as described with reference to FIG. 20A, the image processing unit 13 calculates Δα / Δt, which is a temporal change amount of the elbow angle α, based on the position of each part specified by the part specifying unit 12. . The part specifying unit 12 compares the calculated Δα / Δt with the threshold acquired in step S34, and determines that the selected part satisfies the display condition if Δα / Δt is equal to or greater than the threshold (step) S35; Yes). If the image processing unit 13 determines that the selected part satisfies the display condition (step S35; Yes), in step S36, the image processing unit 13 determines to display the part selected in step S33, and the process from step S23 in FIG. The parts are positioned in the same manner as in S25.

画像処理部13は、選択されたパーツが表示条件を満たさないと判定した場合(ステップS35;No)、ステップS37において、ステップS33で選択されたパーツを表示しないと決定する。ステップS36の処理の終了後、又はステップS37の処理の終了後に、画像処理部13は、ステップS38において次のパーツがあるか否かを判定する。ステップS38の処理は、ステップS26の処理と同様である。   When it is determined that the selected part does not satisfy the display condition (step S35; No), the image processing unit 13 determines in step S37 that the part selected in step S33 is not displayed. After the process of step S36 is completed or after the process of step S37 is completed, the image processing unit 13 determines whether there is a next part in step S38. The process of step S38 is the same as the process of step S26.

[第3実施形態]
第3実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図22は、第3実施形態に係る検出システムを示す図である。本実施形態に係る検出装置2は、図形分割部16を備える。図形分割部16は、教示図形を複数のパーツに分割する。検出装置2には、入力部17が設けられる。入力部17は、例えば、キーボード、マウス、タッチパネル、音声入力デバイスなどである。ユーザは、入力部17によって検出装置2に各種情報を入力可能である。例えば、ユーザは、入力部17を介して、教示図形を登録可能である。図形分割部16は、例えば、ユーザが入力した教示図形を複数のパーツに分割し、分割された複数のパーツの情報を記憶部8の教示図形データD2に格納する。
[Third Embodiment]
A third embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are denoted by the same reference numerals, and the description thereof is omitted or simplified. FIG. 22 is a diagram illustrating a detection system according to the third embodiment. The detection apparatus 2 according to the present embodiment includes a figure dividing unit 16. The figure dividing unit 16 divides the teaching figure into a plurality of parts. The detection device 2 is provided with an input unit 17. The input unit 17 is, for example, a keyboard, a mouse, a touch panel, a voice input device, or the like. The user can input various types of information to the detection device 2 through the input unit 17. For example, the user can register the teaching graphic via the input unit 17. For example, the graphic dividing unit 16 divides the teaching graphic input by the user into a plurality of parts, and stores information of the divided parts in the teaching graphic data D2 of the storage unit 8.

図23は、第3実施形態に係る図形分割部による処理を示す図である。図23(A)において、分割前の教示図形Fは、2以上の部首を含む漢字(例、「伸」)である。図形分割部16は、例えば、教示図形Fを含む領域ARを対象にして、探索木(二分探索木)を用いた経路探索によって、領域ARを分割する経路を探索する。   FIG. 23 is a diagram illustrating processing by the graphic dividing unit according to the third embodiment. In FIG. 23A, the teaching figure F before division is a Chinese character (eg, “extension”) including two or more radicals. For example, the figure dividing unit 16 searches for a route that divides the region AR by searching for a region AR including the teaching figure F by a route search using a search tree (binary search tree).

例えば、図形分割部16は、図23(A)の中段左図に示すように、水平方向の端を開始位置として経路R1を探索する。図形分割部16は、開始位置から、教示図形Fの線と交差せずに領域ARの端に至る経路を探索する。図形分割部16は、例えば、経路R1が領域ARの中央側を通り、経路R1の長さが最小になるように、経路R1を最適化する。   For example, as shown in the middle left diagram of FIG. 23A, the figure dividing unit 16 searches for the route R1 with the horizontal end as the start position. The figure dividing unit 16 searches for a route from the start position to the end of the area AR without intersecting with the line of the teaching figure F. For example, the graphic dividing unit 16 optimizes the route R1 so that the route R1 passes through the center of the area AR and the length of the route R1 is minimized.

図形分割部16は、経路R1を境界として、領域ARを複数の領域(例、領域A1、領域A2)に分割する。分割された複数の領域は、それぞれ、教示図形のパーツの候補である。図形分割部16は、領域A1、領域A2のそれぞれに、教示図形Fの一部が配置されているか否かを判定する。図形分割部16は、領域A1、領域A2の少なくとも1つに教示図形Fの一部が配置されていない場合に、これら教示図形Fのパーツの候補を却下する。また、図形分割部16は、領域A1、領域A2のそれぞれが所定のサイズ以上であるか否かを判定する。図形分割部16は、領域A1、領域A2の少なくとも1つが所定のサイズ未満である場合に、これら教示図形のパーツの候補を却下する。   The figure dividing unit 16 divides the area AR into a plurality of areas (for example, the area A1 and the area A2) with the route R1 as a boundary. Each of the plurality of divided areas is a candidate for a part of the teaching figure. The figure dividing unit 16 determines whether or not a part of the teaching figure F is arranged in each of the area A1 and the area A2. The graphic dividing unit 16 rejects candidate parts for the teaching graphic F when at least one of the teaching graphic F is not arranged in at least one of the area A1 and the area A2. The graphic dividing unit 16 determines whether each of the area A1 and the area A2 is equal to or larger than a predetermined size. When at least one of the area A1 and the area A2 is smaller than a predetermined size, the figure dividing unit 16 rejects the candidate parts for these teaching figures.

また、図形分割部16は、図23(A)の中段右図に示すように、垂直方向の端を開始位置として経路R2を探索する。図形分割部16は、開始位置から、教示図形Fの線と交差せずに領域ARの端に至る経路R2を探索する。図形分割部16は、例えば、経路R2が領域ARの中央側を通り、経路R2の長さが最小になるように、経路R2を最適化する。図形分割部16は、   Further, as shown in the middle right diagram of FIG. 23A, the figure dividing unit 16 searches for the route R2 with the end in the vertical direction as the start position. The figure dividing unit 16 searches for a route R2 from the start position to the end of the area AR without intersecting with the line of the teaching figure F. For example, the graphic dividing unit 16 optimizes the route R2 so that the route R2 passes through the center of the area AR and the length of the route R2 is minimized. The figure dividing unit 16

図形分割部16は、経路R2を境界として、領域R2を複数の領域(例、領域A3、領域A4)に分割する。分割された複数の領域は、それぞれ、教示図形Fのパーツの候補である。図形分割部16は、領域A3、領域A4のそれぞれに、教示図形Fの一部が配置されているか否かを判定する。図形分割部16は、領域A3、領域A4の少なくとも1つに教示図形Fの一部が配置されていない場合に、これら教示図形のパーツの候補を却下する。また、図形分割部16は、領域A3、領域A4のそれぞれが所定のサイズ以上であるか否かを判定する。図形分割部16は、領域A3、領域A4の少なくとも1つが所定のサイズ未満である場合に、これら教示図形Fのパーツの候補を却下する。   The graphic dividing unit 16 divides the region R2 into a plurality of regions (eg, region A3, region A4) with the route R2 as a boundary. Each of the divided areas is a candidate for a part of the teaching figure F. The figure dividing unit 16 determines whether or not a part of the teaching figure F is arranged in each of the area A3 and the area A4. When a part of the teaching figure F is not arranged in at least one of the area A3 and the area A4, the figure dividing unit 16 rejects these teaching figure part candidates. The graphic dividing unit 16 determines whether each of the area A3 and the area A4 is equal to or larger than a predetermined size. When at least one of the area A3 and the area A4 is less than a predetermined size, the figure dividing unit 16 rejects the candidate parts for the teaching figure F.

図23(A)においては、中段左図のように開始位置が水平方向の端である経路R1と、中段右図のように開始位置が垂直方向の端である経路R2との双方で、教示図形Fのパーツの候補が有効である。このような場合、図形分割部16は、経路R1または経路R2を境界として採用する。例えば、図形分割部16は、経路R1を境界として採用し、教示図形Fのうち経路R1を境界として分割される部分paと部分pbとを、それぞれ、教示図形Fのパーツとして採用する。図形分割部16は、採用した教示図形Fのパーツの情報を、図5(B)で説明した教示図形データD2に登録する。   In FIG. 23 (A), teaching is performed on both the path R1 whose start position is the horizontal end as shown in the middle left figure and the path R2 whose start position is the vertical end as shown in the middle right figure. The candidate for the part of figure F is effective. In such a case, the graphic dividing unit 16 employs the route R1 or the route R2 as a boundary. For example, the graphic dividing unit 16 employs the route R1 as a boundary, and employs a portion pa and a portion pb of the teaching graphic F that are divided with the route R1 as the boundary as parts of the teaching graphic F, respectively. The figure dividing unit 16 registers the information of the parts of the adopted teaching figure F in the teaching figure data D2 described with reference to FIG.

図23(B)は、上述のような図23(A)と異なる手法で分割するケースである。例えば、図23(B)の教示図形Fは、「首」という漢字であり、独立した部首(他の部分と不連続な部首)がない。このような場合、中段左図のように、教示図形Fを含む領域ARの端を開始位置として、教示図形Fの線と交差せずに領域ARの端に至る経路を探索すると、例えば経路R3が得られる。この経路R3を境界として、領域ARを領域A5と領域A6とに分割すると、領域A6には、教示図形Fの一部が含まれず、教示図形Fが分割されない。   FIG. 23B shows a case where the image is divided by a method different from that shown in FIG. For example, the teaching figure F in FIG. 23B is a Chinese character “neck” and does not have an independent radical (a radical discontinuous with other parts). In such a case, as shown in the middle left figure, when the end of the area AR including the teaching figure F is set as the start position and a path reaching the end of the area AR without intersecting with the line of the teaching figure F is searched, for example, the path R3 Is obtained. When the area AR is divided into the area A5 and the area A6 with the route R3 as a boundary, the area A6 does not include a part of the teaching figure F, and the teaching figure F is not divided.

このような場合、図形分割部16は、経路が教示図形Fの線と交差しないという条件を、経路が教示図形Fの線と交差し、その交差部分の経路の長さが最小となるとう条件に変更する。図形分割部16は、変更した条件で経路を探索し、中段右図のような経路R4を得る。図形分割部16は、経路R4を境界として、領域ARを領域A7と領域A8とに分割する。図形分割部16は、教示図形Fのうち領域A7に含まれる部分pcと、教示図形Fのうち領域A8に含まれる部分pdとを、それぞれ、教示図形Fのパーツとして採用する。図形分割部16は、採用した教示図形Fのパーツの情報を、図5(B)で説明した教示図形データD2に登録する。   In such a case, the graphic dividing unit 16 sets the condition that the route does not intersect with the line of the teaching graphic F, and the condition that the path intersects with the line of the teaching graphic F and the length of the path at the intersection is minimum. Change to The figure dividing unit 16 searches for a route under the changed conditions, and obtains a route R4 as shown in the middle right diagram. The figure dividing unit 16 divides the area AR into an area A7 and an area A8 with the route R4 as a boundary. The figure dividing unit 16 employs a part pc included in the area A7 of the teaching figure F and a part pd included in the area A8 of the teaching figure F as parts of the teaching figure F, respectively. The figure dividing unit 16 registers the information of the parts of the adopted teaching figure F in the teaching figure data D2 described with reference to FIG.

[第4実施形態]
第4実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図24は、第4実施形態に係る検出システムを示す図である。本実施形態において、検出装置2は、過去に取得されたユーザUの姿勢に関する情報(例、図2のユーザモデルUM)を表示可能である。
[Fourth Embodiment]
A fourth embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are denoted by the same reference numerals, and the description thereof is omitted or simplified. FIG. 24 is a diagram illustrating a detection system according to the fourth embodiment. In the present embodiment, the detection device 2 can display information on the posture of the user U acquired in the past (for example, the user model UM in FIG. 2).

本実施形態において、検出装置2は、姿勢特定部15および履歴管理部18を備える。姿勢特定部15は、図19で説明したように、検出部5の検出結果から得られるユーザUの各部位の位置関係と、記憶部8に記憶された姿勢定義データD1の「定義データ」(図19(A)参照)に定義される各部位の位置関係との類似度を算出する。姿勢特定部15は、算出した類似度に基づいてユーザの姿勢の種類を特定し、特定した姿勢の種類と、算出した類似度(例、スコア)と、姿勢の種類の特定のもとになった検出部5の検出結果から得られるユーザUのモデル(例、図2のユーザモデルUM)とを関連付けた姿勢履歴データD4を生成する。姿勢特定部15は、生成した姿勢履歴データD4を記憶部8に記憶させる。   In the present embodiment, the detection device 2 includes a posture specifying unit 15 and a history management unit 18. As described with reference to FIG. 19, the posture specifying unit 15 determines the positional relationship between the parts of the user U obtained from the detection result of the detection unit 5 and the “definition data” of the posture definition data D <b> 1 stored in the storage unit 8. The similarity with the positional relationship of each part defined in FIG. 19 (A) is calculated. The posture identifying unit 15 identifies the type of posture of the user based on the calculated similarity, and based on the identified posture type, the calculated similarity (eg, score), and the posture type. Posture history data D4 in which the model of the user U (for example, the user model UM in FIG. 2) obtained from the detection result of the detection unit 5 is associated is generated. The posture identifying unit 15 stores the generated posture history data D4 in the storage unit 8.

履歴管理部18は、記憶部8に記憶された姿勢履歴データD4に基づいて、過去に取得されたユーザUの姿勢に関する情報を表示部3に表示させる。履歴管理部18は、例えば、入力部17に入力された指令(表示を要求する表示要求指令)に基づいて、ユーザUの姿勢に関する情報を表示させる。履歴管理部18は、入力部17に表示要求指令が入力された場合に、姿勢リスト画像(後に図24に示す)を生成する。姿勢リスト画像は、例えば、記憶部8に記憶されているユーザのモデルの一覧を示すユーザインターフェースの画像である。表示制御部7は、履歴管理部18が生成した姿勢リスト画像のデータを表示部3に供給し、表示部3に姿勢リスト画像を表示させる。   The history management unit 18 causes the display unit 3 to display information related to the posture of the user U acquired in the past based on the posture history data D4 stored in the storage unit 8. For example, the history management unit 18 displays information on the posture of the user U based on a command (display request command for requesting display) input to the input unit 17. The history management unit 18 generates a posture list image (shown later in FIG. 24) when a display request command is input to the input unit 17. The posture list image is, for example, a user interface image showing a list of user models stored in the storage unit 8. The display control unit 7 supplies the posture list image data generated by the history management unit 18 to the display unit 3 and causes the display unit 3 to display the posture list image.

図25は、第4実施形態に係る履歴管理部による処理を示す図である。検出システム1の各部については、適宜、図24を参照する。図25(A)には、図24に示した履歴管理部18の処理によって表示部3に表示される姿勢リスト画像Im21を示した。姿勢リスト画像Im21において、符号D5は、表示要求指令が入力された日付である。「Teacher」の欄に表示されるサムネイル画像は、それぞれ、記憶部8に記憶された姿勢定義データD1(図5(A)参照)に含まれるサンプル画像Saである。   FIG. 25 is a diagram illustrating processing by the history management unit according to the fourth embodiment. For each part of the detection system 1, refer to FIG. 24 as appropriate. FIG. 25A shows an attitude list image Im21 displayed on the display unit 3 by the process of the history management unit 18 shown in FIG. In the posture list image Im21, a symbol D5 is a date when the display request command is input. The thumbnail images displayed in the “Teacher” column are sample images Sa included in the posture definition data D1 (see FIG. 5A) stored in the storage unit 8, respectively.

また、姿勢リスト画像Im21において、「Teacher」のサンプル画像Saに対して水平走査方向(以下、同じ行という)に表示される「Today」の欄のサムネイル画像Tn1は、例えば、同じ行の「Teacher」と同じ姿勢の最新のユーザモデルを示す画像である。サムネイル画像Tn1は、例えば、表示要求指令が入力された日付に取得されたユーザモデルを示す画像である。また、「Your Best」の欄のサムネイル画像Tn2は、過去に取得されたユーザモデルのうち、姿勢特定部15が算出した類似度が最も高いユーザモデルを示す画像である。サムネイル画像Tn2は、例えば、「Teacher」のサンプル画像Saを評価基準として、評価値(例、上記の類似度、スコア)が最も高いユーザモデルを示す画像である。   Further, in the posture list image Im21, the thumbnail image Tn1 in the “Today” column displayed in the horizontal scanning direction (hereinafter referred to as the same row) with respect to the sample image Sa of “Teacher” is, for example, “Teacher” in the same row. ] Is an image showing the latest user model in the same posture. The thumbnail image Tn1 is, for example, an image showing a user model acquired on the date when the display request command is input. Also, the thumbnail image Tn2 in the “Your Best” column is an image showing the user model having the highest similarity calculated by the posture specifying unit 15 among the user models acquired in the past. For example, the thumbnail image Tn2 is an image indicating a user model having the highest evaluation value (for example, the above-described similarity and score) with the sample image Sa of “Teacher” as an evaluation criterion.

また、「Your Best」の隣の欄SP1は、「Today」の欄のサムネイル画像Tn1または「Your Best」の欄のサムネイル画像Tn2についての情報(例、詳細情報、コメント)を表示するスペースである。例えば、「Today」の欄のサムネイル画像Tn1または「Your Best」の欄のサムネイル画像Tn2にカーソルを重ねた際に、カーソルが重ねられた欄の画像に対応する類似度D6(例、スコア)、テキストデータD7(例、コメント)が表示される。また、「過去log」のタグTgは、表示される情報を切り替えるユーザインターフェースである。例えば、「過去log」のタグTgがクリックされると、図25(B)に示す姿勢リスト画像Im22が表示部3に表示される。   A column SP1 next to “Your Best” is a space for displaying information (eg, detailed information, comments) about the thumbnail image Tn1 in the “Today” column or the thumbnail image Tn2 in the “Your Best” column. . For example, when the cursor is overlaid on the thumbnail image Tn1 in the “Today” column or the thumbnail image Tn2 in the “Your Best” column, the similarity D6 (eg, score) corresponding to the image in the column where the cursor is overlaid, Text data D7 (eg, comment) is displayed. A tag “Tg” of “past log” is a user interface for switching displayed information. For example, when the tag “Tg” of “past log” is clicked, the posture list image Im22 shown in FIG.

姿勢リスト画像Im22は、一つの姿勢(例、戦士のポーズ)について、過去に取得されたユーザのモデルを示すサムネイル画像Tn3の一覧を示す画像である。サムネイル画像Tn3には、それぞれ、ユーザのモデルが取得された日付D8が付されている。また、サムネイル画像Tn3をクリックすると、このサムネイル画像Tn3に関連付けられた情報(例、スコア、コメント)が表示される。例えば、履歴管理部18(又は表示制御部7)は、ユーザによってサムネイル画像Tn3がクリックして選択された信号(選択信号)を受信すると、このサムネイル画像Tn3に関連付けられた情報(例、スコア、コメント)を表示部3に表示させる。また、例えば、履歴管理部18(又は表示制御部7)は、上記選択信号を受信すると、このサムネイル画像Tn3に関連付けられた情報に加えて、サムネイル画像Tn3の3D画像(3次元で表示される画像)を表示部3に表示させることも可能である。   The posture list image Im22 is an image showing a list of thumbnail images Tn3 indicating the user's model acquired in the past for one posture (eg, warrior's pose). Each thumbnail image Tn3 is given a date D8 when the user's model is acquired. When the thumbnail image Tn3 is clicked, information (eg, score, comment) associated with the thumbnail image Tn3 is displayed. For example, when the history management unit 18 (or the display control unit 7) receives a signal (selection signal) selected by clicking the thumbnail image Tn3 by the user, information associated with the thumbnail image Tn3 (eg, score, Comment) is displayed on the display unit 3. Further, for example, when the history management unit 18 (or the display control unit 7) receives the selection signal, in addition to the information associated with the thumbnail image Tn3, the history management unit 18 (or the display control unit 7) displays the 3D image (three-dimensionally) of the thumbnail image Tn3. It is also possible to display (image) on the display unit 3.

[第5実施形態]
第5実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図26は、第5実施形態に係るユーザインターフェースを示す図である。図26には、実施形態に係るユーザインターフェースとして、表示部3に表示される教示画像の例を図示した。
[Fifth Embodiment]
A fifth embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are denoted by the same reference numerals, and the description thereof is omitted or simplified. FIG. 26 is a diagram showing a user interface according to the fifth embodiment. FIG. 26 illustrates an example of a teaching image displayed on the display unit 3 as a user interface according to the embodiment.

教示画像Im30aから教師画像Im30cは、時間順次で表示される。例えば、まず教示画像Im30aが表示され、次に教示画像Im30bが表示された後、教示画像Im30cが表示される。本実施形態において、教示画像Im30aから教示画像Im30cを区別しない場合、適宜、教示画像Im30と表記する。   The teaching image Im30a to the teacher image Im30c are displayed in time sequence. For example, the teaching image Im30a is displayed first, then the teaching image Im30b is displayed, and then the teaching image Im30c is displayed. In the present embodiment, when the teaching image Im30c is not distinguished from the teaching image Im30a, the teaching image Im30 is appropriately described.

本実施形態において、教示画像Im30は、第1領域AR1、第2領域AR2、及び第3領域AR3を含む。図26において、第1領域AR1、第2領域AR2、及び第3領域AR3は、それぞれ、表示部3上の1つの領域(例、画面、ウィンドウ、情報窓)に並んで(まとめて)表示される。図26において、第1領域AR1は、教示画像Im30における左下の領域である。また、第2領域AR2は、教示画像Im30における左上の領域(第1領域AR1の上の領域)である。第3領域AR3は、教示画像Im30において、第1領域AR1および第2領域AR2の右側の領域である。   In the present embodiment, the teaching image Im30 includes a first area AR1, a second area AR2, and a third area AR3. In FIG. 26, the first area AR1, the second area AR2, and the third area AR3 are each displayed side by side (collectively) in one area (eg, screen, window, information window) on the display unit 3. The In FIG. 26, the first area AR1 is a lower left area in the teaching image Im30. The second area AR2 is an upper left area (area above the first area AR1) in the teaching image Im30. The third area AR3 is an area on the right side of the first area AR1 and the second area AR2 in the teaching image Im30.

第1領域AR1には、予め登録された複数のサンプル画像Saが表示される。複数のサンプル画像Saは、サンプル画像Sa1からサンプル画像Sa5を含む。第1領域AR1において、サンプル画像Sa1からサンプル画像Sa5は、姿勢を行うことが予定される順番で並んでいる。姿勢を行うことが予定される順番は、例えば、図5(A)に示した姿勢定義データD1に定められるポーズの設定順番である。   In the first area AR1, a plurality of sample images Sa registered in advance are displayed. The plurality of sample images Sa include sample images Sa1 to Sa5. In the first area AR1, the sample images Sa1 to Sa5 are arranged in the order in which the posture is scheduled to be performed. The order in which postures are scheduled to be performed is, for example, the order in which poses are set in the posture definition data D1 shown in FIG.

サンプル画像Sa1からサンプル画像Sa5は、行う姿勢の順番で左から右へ並んでいる。例えば、サンプル画像Sa1は、第1領域AR1で最も左に配置され、サンプル画像Sa1からサンプル画像Sa5のうち最初に行う姿勢に対応する。また、例えば、サンプル画像Sa2は、サンプル画像Sa1の右隣に配置され、サンプル画像Sa1の次に行う姿勢に対応する。   Sample image Sa1 to sample image Sa5 are arranged from left to right in the order of postures to be performed. For example, the sample image Sa1 is arranged on the leftmost side in the first area AR1, and corresponds to the posture that is first performed among the sample images Sa1 to Sa5. Further, for example, the sample image Sa2 is arranged on the right side of the sample image Sa1, and corresponds to the posture performed next to the sample image Sa1.

また、第1領域AR1には、マークMKが表示される。マークMKは、現在の姿勢に対応するサンプル画像Saに対して位置決めされる。現在の姿勢は、例えば、図16のステップS5の処理で設定されている対象のポーズである。マークMKは、周囲と識別容易な色、明るさで表される図形である。マークMKは、例えば、矩形枠状の図形であり、現在の姿勢に対応するサンプル画像Saを囲む位置に配置される。   A mark MK is displayed in the first area AR1. The mark MK is positioned with respect to the sample image Sa corresponding to the current posture. The current posture is, for example, the target pose set in the process of step S5 in FIG. The mark MK is a figure represented by a color and brightness that can be easily distinguished from the surroundings. The mark MK is, for example, a rectangular frame shape, and is arranged at a position surrounding the sample image Sa corresponding to the current posture.

例えば、教示画像Im30aにおいて、サンプル画像Sa1が現在の姿勢に対応し、マークMKは、サンプル画像Sa1に対して位置決めされる。第2領域AR2には、現在の姿勢に対応するサンプル画像Saを拡大したサンプル画像Sbが表示される。例えば、教示画像Im30aにおいて、第2領域AR2には、サンプル画像Sa1を拡大したサンプル画像Sbが表示される。第3領域AR3には、ユーザモデルUMおよび教示図形Fが表示される。   For example, in the teaching image Im30a, the sample image Sa1 corresponds to the current posture, and the mark MK is positioned with respect to the sample image Sa1. In the second area AR2, a sample image Sb obtained by enlarging the sample image Sa corresponding to the current posture is displayed. For example, in the teaching image Im30a, the sample image Sb obtained by enlarging the sample image Sa1 is displayed in the second area AR2. The user model UM and the teaching figure F are displayed in the third area AR3.

サンプル画像Sa1の姿勢が対象に設定されてから、このポーズの設定時間が経過すると、教示画像Im30bに示すように、サンプル画像Sa2の姿勢が次の対象に設定される。教示画像Im30bの第1領域AR1において、マークMKは、サンプル画像Sa2に対して位置決めされ、表示される。また、教示画像Im30bにおいて、第2領域ARにはサンプル画像Sa2を拡大したサンプル画像Sbが表示される。第3領域AR3には、ユーザモデルUMおよび教示図形Fが表示される。   When this posture setting time elapses after the posture of the sample image Sa1 is set as the target, the posture of the sample image Sa2 is set as the next target as shown in the teaching image Im30b. In the first area AR1 of the teaching image Im30b, the mark MK is positioned and displayed with respect to the sample image Sa2. In the teaching image Im30b, the sample image Sb obtained by enlarging the sample image Sa2 is displayed in the second area AR. The user model UM and the teaching figure F are displayed in the third area AR3.

また、サンプル画像Sa2の姿勢が対象に設定されてから、このポーズの設定時間が経過すると、教示画像Im30cに示すように、サンプル画像Sa3の姿勢が次の対象に設定される。教示画像Im30cの第1領域AR1において、マークMKは、サンプル画像Sa3に対して位置決めされ、表示される。また、教示画像Im30cにおいて、第2領域ARにはサンプル画像Sa3を拡大したサンプル画像Sbが表示される。第3領域AR3には、ユーザモデルUMおよび教示図形Fが表示される。   Further, when the set time of the pose elapses after the posture of the sample image Sa2 is set as the target, the posture of the sample image Sa3 is set as the next target as shown in the teaching image Im30c. In the first area AR1 of the teaching image Im30c, the mark MK is positioned and displayed with respect to the sample image Sa3. In the teaching image Im30c, the sample image Sb obtained by enlarging the sample image Sa3 is displayed in the second area AR. The user model UM and the teaching figure F are displayed in the third area AR3.

なお、第1領域AR1、第2領域AR2、及び第3領域AR3は、2以上の領域(例、画面、ウィンドウ、情報窓)に分かれて表示される領域でもよい。また、第1領域AR1、第2領域AR2、及び第3領域AR3の配置は、図26に示した例に限定されず、任意に設定される。また、第1領域AR1、第2領域AR2、及び第3領域AR3の配置は、ユーザが設定可能でもよいし、ユーザの指定により変更可能でもよい。   Note that the first area AR1, the second area AR2, and the third area AR3 may be areas that are divided into two or more areas (for example, a screen, a window, and an information window). In addition, the arrangement of the first area AR1, the second area AR2, and the third area AR3 is not limited to the example illustrated in FIG. 26, and is arbitrarily set. Further, the arrangement of the first area AR1, the second area AR2, and the third area AR3 may be set by the user or may be changed by the user's designation.

[第6実施形態]
次に、第6実施形態について説明する。本実施形態の説明において、適宜、図18、図19、図24、及び図25等を参照する。本実施形態において、画像処理部13は、検出部5の検出結果から得られるユーザの姿勢と予め登録された姿勢との比較結果に基づいて、複数のパーツの少なくとも一部の大きさと色との一方または双方を変化させる。
[Sixth Embodiment]
Next, a sixth embodiment will be described. In the description of this embodiment, FIG. 18, FIG. 19, FIG. 24, FIG. In the present embodiment, the image processing unit 13 determines the size and color of at least some of the plurality of parts based on the comparison result between the user posture obtained from the detection result of the detection unit 5 and the posture registered in advance. Change one or both.

本実施形態に係る検出システム1(図18参照)は、検出部5の検出結果から得られるユーザUの姿勢と予め登録された姿勢との類似度を、人体の部位ごとに算出する類似度算出部を備える。本実施形態に係る検出システムは、上記の類似度算出部として図18に示した姿勢特定部15を備える。姿勢特定部15は、図24および図25で説明したように、検出部5の検出結果から得られるユーザUの各部位の位置関係と、記憶部8に記憶された姿勢定義データD1の「定義データ」(図19(A)参照)に定義される各部位の位置関係との類似度を算出する。   The detection system 1 according to the present embodiment (see FIG. 18) calculates the similarity between the posture of the user U obtained from the detection result of the detection unit 5 and the posture registered in advance for each part of the human body. A part. The detection system according to the present embodiment includes the posture specifying unit 15 illustrated in FIG. 18 as the similarity calculation unit. The posture specifying unit 15, as described with reference to FIGS. 24 and 25, describes the positional relationship of each part of the user U obtained from the detection result of the detection unit 5 and the “definition” of the posture definition data D <b> 1 stored in the storage unit 8. The degree of similarity with the positional relationship of each part defined in “Data” (see FIG. 19A) is calculated.

本実施形態において、画像処理部13(図18参照)は、姿勢特定部15が算出した各部位の類似度に基づいて、教示図形の表示を調整する。本実施形態に係る画像処理部13の処理については、後に図27、図28などでも説明するが、画像処理部13は、姿勢特定部15が算出した類似度に基づいて、複数のパーツの少なくとも一部の大きさ(サイズ)、色(例、色相、彩度、明るさ、コントラスト)、太さ(例、線の太さ)、表示位置のオフセット量、移動速度、および書体(例、文字のフォント)のうち少なくとも1つを決定する。画像処理部13は、複数のパーツのうち、類似度に対応する人体の部位と関連付けられたパーツについて、類似度に基づいて大きさ、色、太さ(例、線の太さ)、表示位置のオフセット量、移動速度、および書体(例、文字のフォント)のうち少なくとも1つを決定する。例えば、画像処理部13は、教示図形に含まれる複数のパーツのそれぞれについて、各パーツと関連付けられた部位の類似度に基づいて、各パーツの大きさ、色、太さ(例、線の太さ)、表示位置のオフセット量、移動速度、および書体(例、文字のフォント)のうち少なくとも1つを調整する(変更する)。   In the present embodiment, the image processing unit 13 (see FIG. 18) adjusts the display of the teaching graphic based on the similarity of each part calculated by the posture specifying unit 15. The processing of the image processing unit 13 according to the present embodiment will be described later with reference to FIG. 27, FIG. 28, and the like, but the image processing unit 13 uses at least a plurality of parts based on the similarity calculated by the posture specifying unit 15. Partial size (size), color (eg, hue, saturation, brightness, contrast), thickness (eg, line thickness), display position offset, movement speed, and typeface (eg, text) At least one of the fonts). The image processing unit 13 uses a size, a color, a thickness (eg, a line thickness), a display position based on the similarity for a part associated with a human body part corresponding to the similarity among the plurality of parts. At least one of the offset amount, the moving speed, and the typeface (for example, character font) is determined. For example, for each of a plurality of parts included in the teaching graphic, the image processing unit 13 determines the size, color, and thickness (eg, line thickness) of each part based on the similarity of the part associated with each part. A), adjusting (changing) at least one of the offset amount of the display position, the moving speed, and the typeface (eg, the font of the character).

図27および図28は、それぞれ、本実施形態に係る画像処理部が生成する教示画像の例を示す図である。図27(A)に示す教示画像Im41は、一例として、類似度に基づいてパーツのサイズが調整されている。教示画像Im41は、ユーザモデルUMおよび教示図形Fを含む。教示図形Fは、複数のパーツ(p81、p82、p83)を含む。   27 and 28 are diagrams each illustrating an example of a teaching image generated by the image processing unit according to the present embodiment. In the teaching image Im41 shown in FIG. 27A, for example, the size of a part is adjusted based on the degree of similarity. The teaching image Im41 includes a user model UM and a teaching figure F. The teaching figure F includes a plurality of parts (p81, p82, p83).

パーツp81は、ユーザモデルUMの頭部と位置決めされる。パーツp81は、矢印の先端形状であり、頭部(顔)の向きのイメージを表す。パーツp82は、ユーザモデルUMの右足と位置決めされる。パーツp82は、矢印の先端形状であり、右足の向きのイメージを表す。パーツp83は、ユーザモデルUMの左足と位置決めされる。パーツp83は、矢印の先端形状であり、左足の向きのイメージを表す。   The part p81 is positioned with the head of the user model UM. The part p81 has a tip shape of an arrow and represents an image of the direction of the head (face). The part p82 is positioned with the right foot of the user model UM. The part p82 has an arrow tip shape and represents an image of the right foot. The part p83 is positioned with the left foot of the user model UM. A part p83 has a tip shape of an arrow and represents an image of the direction of the left foot.

教示画像Im41において、サンプル画像SaとユーザモデルUMとを比較すると、パーツp82に関連付けられた右足の類似度が低い。このような場合、画像処理部13(図18参照)は、パーツp82と、他のパーツ(p81、p83)とで表示が異なる教示画像Im41を生成する。教示画像Im41において、パーツp81とパーツp83とは同じサイズで表示される。教示画像Im41において、パーツp82は、パーツp81およびパーツp83のいずれよりも大きいサイズで強調して表示される。   When the sample image Sa and the user model UM are compared in the teaching image Im41, the similarity degree of the right foot associated with the part p82 is low. In such a case, the image processing unit 13 (see FIG. 18) generates a teaching image Im41 whose display is different between the part p82 and the other parts (p81, p83). In the teaching image Im41, the part p81 and the part p83 are displayed in the same size. In the teaching image Im41, the part p82 is highlighted and displayed with a size larger than both the part p81 and the part p83.

画像処理部13は、例えば、パーツごとに部位の類似度と閾値とを演算して比較し、類似度が閾値以上である場合に当該パーツを第1のサイズに設定する。また、画像処理部13は、例えば、パーツごとに部位の類似度と閾値とを比較し、類似度が閾値未満である場合に当該パーツを、第1のサイズよりも大きい第2のサイズに設定する。   For example, the image processing unit 13 calculates and compares the similarity of a part and a threshold for each part, and sets the part to the first size when the similarity is equal to or greater than the threshold. In addition, for example, the image processing unit 13 compares the similarity between the parts for each part and a threshold, and sets the part to a second size larger than the first size when the similarity is less than the threshold. To do.

なお、画像処理部13は、パーツのサイズを、当該パーツに対応する部位の類似度から変換して算出される値(例、各類似度を相対変換した相対値)に設定してもよい。例えば、画像処理部13は、パーツのサイズを、類似度に反比例するように決定してもよい。また、画像処理部13は、上記の類似度をもとに統計的処理(例、多変量解析)を用いて得られる相関度に基づいてパーツのサイズ等を変更してもよい。例、画像処理部13は、上記相関度が低いパーツを、他のパーツのサイズよりも大きいサイズに設定する。   The image processing unit 13 may set the size of the part to a value calculated by converting the similarity of the part corresponding to the part (for example, a relative value obtained by relatively converting each similarity). For example, the image processing unit 13 may determine the size of the part so as to be inversely proportional to the similarity. Further, the image processing unit 13 may change the size of the parts based on the degree of correlation obtained by using statistical processing (eg, multivariate analysis) based on the above-described similarity. For example, the image processing unit 13 sets a part having a low correlation degree to a size larger than the size of other parts.

図27(B)に示す教示画像Im41は、一例として、類似度に基づいてパーツの色が調整されている。図27(B)において、サンプル画像SaおよびユーザモデルUMは、図27(A)と同様である。図27(B)において、パーツp81、パーツp82、及びパーツp83は、同じサイズで表示される。教示画像Im41において、パーツp81とパーツp83とは同じ色で表示される。教示画像Im41において、パーツp82は、パーツp81およびパーツp83のいずれとも異なる色で強調して表示される。   In the teaching image Im41 shown in FIG. 27B, as an example, the color of a part is adjusted based on the degree of similarity. In FIG. 27B, the sample image Sa and the user model UM are the same as those in FIG. In FIG. 27B, part p81, part p82, and part p83 are displayed in the same size. In the teaching image Im41, the part p81 and the part p83 are displayed in the same color. In the teaching image Im41, the part p82 is highlighted and displayed in a color different from both the part p81 and the part p83.

画像処理部13は、例えば、パーツごとに部位の類似度と閾値とを比較し、類似度が閾値以上である場合に当該パーツを第1の色に設定する。また、画像処理部13は、例えば、パーツごとに部位の類似度と閾値とを比較し、類似度が閾値未満である場合に当該パーツを、第1の色と異なる第2の色に設定する。   For example, the image processing unit 13 compares the similarity of a part with a threshold for each part, and sets the part to the first color when the similarity is equal to or higher than the threshold. In addition, for example, the image processing unit 13 compares the similarity of a part with a threshold value for each part, and sets the part to a second color different from the first color when the similarity is less than the threshold value. .

なお、画像処理部13は、パーツの色(例、コントラスト、明るさ)を、当該パーツに対応する部位の類似度から算出される値(例、階調値)に設定してもよい。例えば、画像処理部13は、パーツの明るさ(コントラスト)を、類似度に反比例するように決定してもよい。また、画像処理部13は、類似度に基づいて、パーツの色およびサイズなどを変更してもよい。例えば、パーツp82は、パーツp81およびパーツp83のいずれとも異なるサイズ、かつ異なる色で強調して表示されてもよい。   Note that the image processing unit 13 may set the color (eg, contrast, brightness) of the part to a value (eg, gradation value) calculated from the similarity of the part corresponding to the part. For example, the image processing unit 13 may determine the brightness (contrast) of the parts so as to be inversely proportional to the similarity. The image processing unit 13 may change the color and size of the parts based on the similarity. For example, the part p82 may be displayed with a different size and a different color from the parts p81 and p83.

図28(A)に示す教示画像Im42は、類似度に基づいてパーツのサイズが調整されている。教示画像Im42は、ユーザモデルUMおよび教示図形Fを含む。教示図形Fは、複数のパーツ(p91からp98)を含む。複数のパーツ(p91からp98)は、それぞれ、ユーザモデルUMの左の体側に位置決めされる。パーツp91、パーツp95からパーツp98は、第1のサイズで表示される。パーツp92およびパーツp94は、例えば、対応する部位の類似度が第1閾値未満である。パーツp92およびパーツp94は、第1のサイズよりも大きい第2のサイズで強調して表示される。また、パーツp93は、例えば、対応する部位の類似度が第2閾値未満である。第2閾値は、第1閾値よりも小さい。パーツp93は、第2のサイズよりも大きい第3のサイズで強調して表示される。   In the teaching image Im42 shown in FIG. 28A, the size of the part is adjusted based on the similarity. The teaching image Im42 includes a user model UM and a teaching figure F. The teaching figure F includes a plurality of parts (p91 to p98). The plurality of parts (p91 to p98) are each positioned on the left body side of the user model UM. Parts p91, parts p95 to p98 are displayed in the first size. For part p92 and part p94, for example, the similarity of corresponding parts is less than the first threshold. The part p92 and the part p94 are highlighted and displayed with a second size larger than the first size. Further, for the part p93, for example, the similarity of the corresponding part is less than the second threshold value. The second threshold is smaller than the first threshold. The part p93 is highlighted and displayed in a third size larger than the second size.

図28(B)に示す教示画像Im42は、類似度に基づいてパーツの色が調整されている。図28(B)において、サンプル画像SaおよびユーザモデルUMは、図28(A)と同様である。図28(B)において、パーツp91からパーツp98は、同じサイズで表示される。また、パーツp91、パーツp95からパーツp98は、第1の色で表示される。また、パーツp92からパーツp94は、第1の色と異なる第2の色で強調して表示される。   In the teaching image Im42 shown in FIG. 28B, the colors of the parts are adjusted based on the similarity. In FIG. 28B, the sample image Sa and the user model UM are the same as those in FIG. In FIG. 28B, parts p91 to p98 are displayed in the same size. Further, the parts p91 and parts p95 to p98 are displayed in the first color. Further, the parts p92 to p94 are displayed with being emphasized with a second color different from the first color.

画像処理部13は、例えば、検出部5の検出結果から得られるユーザUの姿勢(例、ユーザモデルUMの形状)と予め登録された姿勢(例、姿勢データD1に定義された姿勢)との比較結果に基づいて、複数のパーツの少なくとも1つを視覚的に他のパーツと識別できるように強調させる。上記したように、本実施形態において、画像処理部13は、姿勢特定部15が算出した類似度に基づいて、複数のパーツのうち少なくとも1つを視覚的に他のパーツと識別できるように強調させて、強調させた該パーツを他のパーツと識別できる識別情報(強調情報)として他のパーツとともに表示部3に表示させる。   For example, the image processing unit 13 includes a posture of the user U (for example, the shape of the user model UM) obtained from the detection result of the detection unit 5 and a posture registered in advance (for example, a posture defined in the posture data D1). Based on the comparison result, at least one of the plurality of parts is emphasized so as to be visually distinguishable from other parts. As described above, in the present embodiment, the image processing unit 13 emphasizes so that at least one of a plurality of parts can be visually distinguished from other parts based on the similarity calculated by the posture specifying unit 15. Then, the highlighted part is displayed on the display unit 3 together with other parts as identification information (emphasis information) that can be distinguished from other parts.

画像処理部13は、例えば、検出部5の検出結果から得られるユーザUの姿勢(例、ユーザモデルUMの形状)と予め登録された姿勢例、姿勢データD1に定義された姿勢)との比較結果に基づいて、複数のパーツの少なくとも一部の大きさ、色、太さ、表示位置のオフセット量、移動速度、および書体のうち少なくとも1つを変更させる
例えば、画像処理部13は、類似度に基づいて、複数のパーツの少なくとも一部の大きさ(サイズ)、色(例、色相、彩度、明るさ、コントラスト)、太さ(例、線の太さ)、表示位置のオフセット量、移動速度、および書体(例、文字のフォント)のうち少なくとも1つを他のパーツとは異なる識別情報に変更して強調する。
For example, the image processing unit 13 compares the posture of the user U (for example, the shape of the user model UM) obtained from the detection result of the detection unit 5 with a pre-registered posture example, the posture defined in the posture data D1). Based on the result, at least one of the size, color, thickness, display position offset amount, moving speed, and typeface of the plurality of parts is changed. Based on the size (size), color (e.g., hue, saturation, brightness, contrast), thickness (e.g., line thickness) of at least some of the parts, display position offset, At least one of the moving speed and the typeface (for example, the font of the character) is changed to identification information different from the other parts and emphasized.

[第7実施形態]
第7実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図29は、第7実施形態に係る検出システムを示す図である。この検出システム1は、検出装置2、表示部3(表示装置)、記憶部8(記憶装置)、及び画像処理装置20を備える。検出装置2は、例えば、モーションキャプチャ装置を含む、検出装置2は、検出部5、モデル生成部11、及び部位特定部12を備える。検出装置2は、その検出結果として、ユーザUのモデル情報(例、ユーザモデル、骨格情報、スケルトンデータ)を出力する。
[Seventh Embodiment]
A seventh embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are denoted by the same reference numerals, and the description thereof is omitted or simplified. FIG. 29 is a diagram illustrating a detection system according to the seventh embodiment. The detection system 1 includes a detection device 2, a display unit 3 (display device), a storage unit 8 (storage device), and an image processing device 20. The detection device 2 includes, for example, a motion capture device. The detection device 2 includes a detection unit 5, a model generation unit 11, and a part specifying unit 12. The detection device 2 outputs model information (eg, user model, skeleton information, skeleton data) of the user U as the detection result.

画像処理装置20は、ユーザUを検出した検出結果に基づいて生成されるユーザのモデルに対し、検出結果から得られるユーザの姿勢に基づいて、複数のパーツを含む教示図形をパーツごとに位置決めして、ユーザのモデルおよび教示図形を含む教示画像を生成する。画像処理装置20は、例えば、表示制御部7および画像処理部13を備える。画像処理装置20は、ユーザUを検出した検出結果に基づいて生成されるユーザのモデルとして、検出装置2が出力するモデル情報を用いる。画像処理装置20は、例えば、インターネット回線を介して検出装置2と通信可能に接続されるクラウドコンピュータを含んでもよい。   The image processing device 20 positions a teaching figure including a plurality of parts for each part based on the user's posture obtained from the detection result with respect to the user's model generated based on the detection result of detecting the user U. Then, a teaching image including a user model and a teaching figure is generated. The image processing device 20 includes, for example, a display control unit 7 and an image processing unit 13. The image processing apparatus 20 uses the model information output from the detection apparatus 2 as a user model generated based on the detection result of detecting the user U. The image processing device 20 may include, for example, a cloud computer that is communicably connected to the detection device 2 via an Internet line.

記憶部8は、画像処理装置20が実行する処理に使われる各種データを記憶する。記憶部8は、例えば、図5で説明した姿勢定義データD1、教示図形データD2、及び表示条件データD3を記憶する。表示部3は、画像処理装置20から供給される画像データに基づいて、画像を表示する。表示部3は、例えば、据え置き型のディスプレイでもよいし、ユーザが形態可能な端末の少なくとも一部であってもよい。上記の端末は、例えば、スマートフォン、タブレット、ヘッドマウントディスプレイ、ウェアラブル端末などを含む。   The storage unit 8 stores various data used for processing executed by the image processing apparatus 20. The storage unit 8 stores, for example, the posture definition data D1, the teaching figure data D2, and the display condition data D3 described with reference to FIG. The display unit 3 displays an image based on the image data supplied from the image processing device 20. The display unit 3 may be, for example, a stationary display or at least a part of a terminal that can be configured by the user. Examples of the terminal include a smartphone, a tablet, a head mounted display, and a wearable terminal.

上述の実施形態において、画像処理部13(画像処理装置20)は、例えばコンピュータシステムを含む。画像処理部13は、記憶部8に記憶されている画像処理プログラムを読み出し、この画像処理プログラムに従って各種の処理を実行する。この画像処理プログラムは、コンピュータに、ユーザを検出した検出結果に基づいて生成されるユーザのモデルに対し、検出結果から得られるユーザの姿勢に基づいて、複数のパーツを含む教示図形をパーツごとに位置決めして、ユーザのモデルおよび教示図形を含む教示画像を生成することを実行させる。この画像処理プログラムは、コンピュータ読み取り可能な記憶媒体(例、非一時的な記録媒体、non-transitory tangible media)に記録されて提供されてもよい。   In the above-described embodiment, the image processing unit 13 (image processing apparatus 20) includes, for example, a computer system. The image processing unit 13 reads an image processing program stored in the storage unit 8 and executes various processes according to the image processing program. This image processing program stores, for each part, a teaching figure including a plurality of parts based on the user's posture obtained from the detection result for a user model generated based on the detection result obtained by detecting the user. Positioning is performed to generate a teaching image including a user model and a teaching figure. The image processing program may be provided by being recorded on a computer-readable storage medium (eg, non-transitory tangible media).

上述の実施形態において、検出システム1は、画像表示システムを含む。この表示システムは、画像を表示する表示部3と、表示部3に、時間的に変化するユーザのモデル(例、ユーザモデルUM)を動的に表示させる第1表示処理部(例、モデル生成部11)と、表示部3においてユーザのモデルに対して定められる位置に、ユーザのモデルの時間的な変化に基づいて選択される教示図形を、動的に表示させる第2表示処理部(例、画像処理部13)と、を含む。   In the above-described embodiment, the detection system 1 includes an image display system. This display system includes a display unit 3 that displays an image, and a first display processing unit (e.g., model generation) that dynamically displays a user model (e.g., user model UM) that changes over time on the display unit 3. Unit 11) and a second display processing unit (example) that dynamically displays a teaching figure selected based on a temporal change of the user's model at a position determined with respect to the user's model in the display unit 3 And image processing unit 13).

上述の実施形態に係るシステム(検出システム、画像表示システム、情報提供システム)は、例えば、ヨガ、ゴルフなど身体上のスキルを向上させるレッスン(活動、練習)に広く利用可能である。例えば、レッスン設備において、インストラクタ(先生)あるいは、ユーザ自身を写す鏡が見えにくい場合に、上述の実施形態に係るシステムは、鏡の代わりに表示部(例、ディスプレイ、タブレット)を利用して、教師動画を見ながら自分の姿勢と教師の姿勢とをリアルタイムに確認することに利用可能である。また、上述の実施形態に係るシステムは、レッスン対象の動作(例、自分が苦手なポーズ)の復習、予習に利用可能である。また、時間的な制約あるいは地理的な制約によって、所望のレッスン設備において行くことが難しい場合などに、ユーザUは、自宅などで実施形態に係るシステムを利用して、レッスンを行うことができる。   The system (detection system, image display system, information providing system) according to the above-described embodiments can be widely used for lessons (activity, practice) for improving physical skills such as yoga and golf. For example, in a lesson facility, when it is difficult to see an instructor (teacher) or a mirror reflecting the user, the system according to the above embodiment uses a display unit (eg, display, tablet) instead of a mirror, It can be used to check the posture of the teacher and the posture of the teacher in real time while watching the teacher video. In addition, the system according to the above-described embodiment can be used for reviewing and preparing for a lesson target operation (for example, a pose that I am not good at). In addition, when it is difficult to go to a desired lesson facility due to time restrictions or geographical restrictions, the user U can take lessons using the system according to the embodiment at home or the like.

なお、本発明の技術範囲は、上述の実施形態などで説明した態様に限定されるものではない。上述の実施形態などで説明した要件の1つ以上は、省略されることがある。また、上述の実施形態などで説明した要件は、適宜組み合わせることができる。また、法令で許容される限りにおいて、上述の実施形態などで引用した全ての文献の開示を援用して本文の記載の一部とする。   The technical scope of the present invention is not limited to the aspects described in the above-described embodiments. One or more of the requirements described in the above embodiments and the like may be omitted. In addition, the requirements described in the above-described embodiments and the like can be combined as appropriate. In addition, as long as it is permitted by law, the disclosure of all documents cited in the above-described embodiments and the like is incorporated as a part of the description of the text.

1・・・検出システム、2・・・検出装置、3・・・表示部、5・・・検出部、6・・・処理部、7・・・表示制御部、8・・・記憶部、11・・・モデル生成部、12・・・部位特定部、13・・・画像処理部、15・・・姿勢特定部、16・・・図形分割部、17・・・入力部、18・・・履歴管理部、F・・・教示図形、U・・・ユーザ DESCRIPTION OF SYMBOLS 1 ... Detection system, 2 ... Detection apparatus, 3 ... Display part, 5 ... Detection part, 6 ... Processing part, 7 ... Display control part, 8 ... Memory | storage part, DESCRIPTION OF SYMBOLS 11 ... Model production | generation part, 12 ... Part specific | specification part, 13 ... Image processing part, 15 ... Posture specific part, 16 ... Graphic division | segmentation part, 17 ... Input part, 18 ...・ History management unit, F ... Teach figure, U ... User

Claims (22)

ユーザを検出する検出部と、
前記検出部の検出結果に基づいて、前記ユーザのモデルを生成するモデル生成部と、
前記モデル生成部が生成した前記ユーザのモデルに対し、前記検出部から得られる前記ユーザの姿勢に基づいて、複数のパーツを含む教示図形を前記パーツごとに位置決めして、前記ユーザのモデルおよび前記教示図形を含む教示画像を生成する画像処理部と、を備える検出装置。
A detection unit for detecting a user;
A model generation unit that generates a model of the user based on a detection result of the detection unit;
For the user model generated by the model generation unit, a teaching figure including a plurality of parts is positioned for each part based on the posture of the user obtained from the detection unit, and the model of the user and the user An image processing unit that generates a teaching image including a teaching figure.
前記教示図形は、人体の部位を表す図形と、人体の形状を表す図形と、人体の動作を表す図形との少なくとも一つを含む、
請求項1に記載の検出装置。
The teaching graphic includes at least one of a graphic representing a part of the human body, a graphic representing the shape of the human body, and a graphic representing the action of the human body.
The detection device according to claim 1.
前記図形は文字を含む、
請求項2に記載の検出装置。
The figure includes characters,
The detection device according to claim 2.
前記教示図形は、変形させた漢字を含み、
前記複数のパーツの少なくとも1つは、前記変形させた漢字の部首を含む、
請求項1から請求項3のいずれか一項に記載の検出装置。
The teaching figure includes a deformed Chinese character,
At least one of the plurality of parts includes the radical of the deformed Chinese character,
The detection device according to any one of claims 1 to 3.
前記教示図形は、変形させた単語を含み、
前記複数のパーツの少なくとも1つは、前記変形させた単語を構成する表音文字を含む、
請求項1から請求項4のいずれか一項に記載の検出装置。
The teaching figure includes a deformed word,
At least one of the plurality of parts includes a phonetic character constituting the deformed word.
The detection device according to any one of claims 1 to 4.
前記教示図形を前記複数のパーツに分割する図形分割部を備える、
請求項1から請求項5のいずれか一項に記載の検出装置。
A graphic dividing unit that divides the teaching graphic into the plurality of parts;
The detection device according to any one of claims 1 to 5.
前記画像処理部は、前記検出部から得られる前記ユーザの姿勢の変化に基づいて、前記教示画像として、前記複数のパーツの相対位置が異なる複数の画像を生成する、
請求項1から請求項6のいずれか一項に検出装置。
The image processing unit generates a plurality of images having different relative positions of the plurality of parts as the teaching image based on a change in the posture of the user obtained from the detection unit.
The detection device according to any one of claims 1 to 6.
前記画像処理部は、前記教示画像として、前記複数のパーツのうちの第1パーツを第2パーツと異なる色で表した画像を生成する、
請求項1から請求項7のいずれか一項に記載の検出装置。
The image processing unit generates, as the teaching image, an image in which a first part of the plurality of parts is expressed in a color different from that of a second part;
The detection device according to any one of claims 1 to 7.
前記画像処理部は、前記検出部の検出結果から得られる前記ユーザの姿勢と予め登録された姿勢との比較結果に基づいて、前記複数のパーツの少なくとも1つを視覚的に他の前記パーツと識別できるように強調させる、
請求項1から請求項8のいずれか一項に記載の検出装置。
The image processing unit visually compares at least one of the plurality of parts with another part based on a comparison result between the posture of the user obtained from the detection result of the detection unit and a pre-registered posture. Emphasize so that it can be identified
The detection device according to any one of claims 1 to 8.
前記画像処理部は、前記検出部の検出結果から得られる前記ユーザの姿勢と予め登録された姿勢との比較結果に基づいて、前記複数のパーツの少なくとも一部の大きさ、色、太さ、表示位置のオフセット量、移動速度、および書体のうち少なくとも1つを変更させる、
請求項1から請求項9のいずれか一項に記載の検出装置。
The image processing unit, based on a comparison result between the user posture obtained from the detection result of the detection unit and a posture registered in advance, the size, color, thickness of at least some of the plurality of parts, Change at least one of the offset amount of the display position, the moving speed, and the typeface.
The detection device according to any one of claims 1 to 9.
前記検出部の検出結果から得られる前記ユーザの姿勢と前記予め登録された姿勢との類似度を、人体の部位ごとに算出する姿勢特定部を備え、
前記画像処理部は、前記姿勢特定部が算出した前記類似度に基づいて、前記複数のパーツの少なくとも一部の大きさ、色、太さ、表示位置のオフセット量、移動速度、および書体のうち少なくとも1つを決定する、
請求項9又は請求項10に記載の検出装置。
A posture identifying unit that calculates the similarity between the posture of the user obtained from the detection result of the detection unit and the posture registered in advance for each part of the human body;
The image processing unit includes at least a size, a color, a thickness, a display position offset amount, a moving speed, and a typeface of the plurality of parts based on the similarity calculated by the posture specifying unit. Determine at least one,
The detection device according to claim 9 or 10.
前記画像処理部は、前記複数のパーツのうち、前記類似度に対応する前記人体の部位と関連付けられたパーツについて、前記類似度に基づいて大きさ、色、太さ、表示位置のオフセット量、移動速度、および書体のうち少なくとも1つを決定する、
請求項11に記載の検出装置。
The image processing unit, for the parts associated with the part of the human body corresponding to the similarity among the plurality of parts, based on the similarity, size, color, thickness, display position offset amount, Determine the speed of movement and at least one of the typefaces;
The detection device according to claim 11.
前記検出部の検出結果に基づいて、前記ユーザの部位を特定する部位特定部を備え、
前記画像処理部は、
前記部位特定部が特定した前記ユーザの部位に対応する前記ユーザのモデル上の位置に対して、前記複数のパーツのうち前記ユーザの部位に予め関連付けられたパーツを位置決めする、
請求項1から請求項12のいずれか一項に記載の検出装置。
Based on the detection result of the detection unit, comprising a site specifying unit for specifying the user site,
The image processing unit
Positioning a part previously associated with the user part of the plurality of parts with respect to a position on the user model corresponding to the user part specified by the part specifying unit;
The detection device according to any one of claims 1 to 12.
前記検出部から得られる前記ユーザの姿勢の種類を、予め登録された複数の種類から特定する姿勢特定部を備え、
前記画像処理部は、前記姿勢特定部が特定した前記ユーザの姿勢の種類に基づいて、前記ユーザの姿勢の種類に予め対応付けられた前記教示図形を用いて、前記教示画像を生成する、
請求項1から請求項13のいずれか一項に記載の検出装置。
A posture identifying unit that identifies the type of posture of the user obtained from the detection unit from a plurality of types registered in advance;
The image processing unit generates the teaching image using the teaching figure previously associated with the type of posture of the user based on the type of posture of the user specified by the posture specifying unit.
The detection device according to any one of claims 1 to 13.
前記教示画像は、予め登録された姿勢の画像を前記ユーザに対して表示する表示部に、予め定められたスケジュールで表示される、
請求項1から請求項13のいずれか一項に記載の検出装置。
The teaching image is displayed in a predetermined schedule on a display unit that displays an image of a posture registered in advance to the user.
The detection device according to any one of claims 1 to 13.
前記画像処理部が生成した前記教示画像を表示部に表示させる表示制御部を備える、
請求項1から請求項15のいずれか一項に記載の検出装置。
A display control unit that causes the display unit to display the teaching image generated by the image processing unit;
The detection device according to any one of claims 1 to 15.
請求項1から請求項16のいずれか一項に記載の検出装置と、
前記画像処理部が生成した前記教示画像を表示する表示部と、を備える検出システム。
The detection device according to any one of claims 1 to 16,
And a display unit that displays the teaching image generated by the image processing unit.
ユーザを検出した検出結果に基づいて生成される前記ユーザのモデルに対し、前記検出結果から得られる前記ユーザの姿勢に基づいて、複数のパーツを含む教示図形を前記パーツごとに位置決めして、前記ユーザのモデルおよび前記教示図形を含む教示画像を生成する画像処理装置。   The teaching figure including a plurality of parts is positioned for each of the parts based on the posture of the user obtained from the detection result with respect to the model of the user generated based on the detection result of detecting the user, An image processing apparatus that generates a teaching image including a user model and the teaching figure. ユーザを検出することと、
前記ユーザを検出した検出結果に基づいて、前記ユーザのモデルを生成することと、
前記ユーザのモデルに対し、前記検出結果から得られる前記ユーザの姿勢に基づいて、複数のパーツを含む教示図形を前記パーツごとに位置決めして、前記ユーザのモデルおよび前記教示図形を含む教示画像を生成することと、を含む検出方法。
Detecting users,
Generating a model of the user based on a detection result of detecting the user;
A teaching graphic including a plurality of parts is positioned for each of the parts based on the posture of the user obtained from the detection result with respect to the user model, and a teaching image including the user model and the teaching graphic is obtained. Generating a detection method.
コンピュータに、
ユーザを検出した検出結果に基づいて生成される前記ユーザのモデルに対し、前記検出結果から得られる前記ユーザの姿勢に基づいて、複数のパーツを含む教示図形を前記パーツごとに位置決めして、前記ユーザのモデルおよび前記教示図形を含む教示画像を生成することを実行させる画像処理プログラム。
On the computer,
The teaching figure including a plurality of parts is positioned for each of the parts based on the posture of the user obtained from the detection result with respect to the model of the user generated based on the detection result of detecting the user, An image processing program for executing generation of a teaching image including a user model and the teaching figure.
表示部に、時間的に変化するユーザのモデルを動的に表示することと、
前記表示部において前記ユーザのモデルに対して定められる位置に、前記ユーザのモデルの時間的な変化に基づいて選択される教示図形を、動的に表示することと、を含む画像表示方法。
Dynamically displaying a user's model that changes over time on the display;
An image display method comprising: dynamically displaying a teaching figure selected based on a temporal change of the user's model at a position determined with respect to the user's model in the display unit.
画像を表示する表示部と、
前記表示部に、時間的に変化するユーザのモデルを動的に表示させる第1表示処理部と、
前記表示部において前記ユーザのモデルに対して定められる位置に、前記ユーザのモデルの時間的な変化に基づいて選択される教示図形を、動的に表示させる第2表示処理部と、を含む画像表示システム。
A display for displaying an image;
A first display processing unit for dynamically displaying a time-varying user model on the display unit;
An image including a second display processing unit that dynamically displays a teaching figure selected based on a temporal change of the user's model at a position determined with respect to the user's model in the display unit; Display system.
JP2017143771A 2017-07-25 2017-07-25 Detection device, detection system, image processing device, detection method, image processing program, image display method, and image display system Active JP7126812B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017143771A JP7126812B2 (en) 2017-07-25 2017-07-25 Detection device, detection system, image processing device, detection method, image processing program, image display method, and image display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017143771A JP7126812B2 (en) 2017-07-25 2017-07-25 Detection device, detection system, image processing device, detection method, image processing program, image display method, and image display system

Publications (2)

Publication Number Publication Date
JP2019028509A true JP2019028509A (en) 2019-02-21
JP7126812B2 JP7126812B2 (en) 2022-08-29

Family

ID=65476223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017143771A Active JP7126812B2 (en) 2017-07-25 2017-07-25 Detection device, detection system, image processing device, detection method, image processing program, image display method, and image display system

Country Status (1)

Country Link
JP (1) JP7126812B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020184197A (en) * 2019-05-08 2020-11-12 株式会社オレンジテクラボ Information processing apparatus, imaging device, information processing program, and imaging program
JP2021037168A (en) * 2019-09-04 2021-03-11 ヨクト株式会社 Movement analysis system, movement analysis program, and movement analysis method
WO2021084677A1 (en) * 2019-10-31 2021-05-06 日本電気株式会社 Image processing device, image processing method, and non-transitory computer-readable medium having image processing program stored thereon
JP2022531188A (en) * 2019-07-15 2022-07-06 深▲セン▼市商▲湯▼科技有限公司 Human body key point detection method and devices, electronic devices and storage media
WO2022154483A1 (en) * 2021-01-12 2022-07-21 삼성전자 주식회사 Electronic device and operation method of electronic device
CN115578707A (en) * 2022-10-25 2023-01-06 上海壁仞智能科技有限公司 Target identification method and device, electronic equipment and storage medium
WO2023012915A1 (en) * 2021-08-03 2023-02-09 富士通株式会社 Posture identification program, posture identification method, and information processing device
WO2023233650A1 (en) * 2022-06-03 2023-12-07 Nec Corporation Pose analyzing apparatus, pose analyzing method, and non-transitory computer-readable storage medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014502178A (en) * 2010-11-05 2014-01-30 ナイキ インターナショナル リミテッド Method and system for automated personal training

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014502178A (en) * 2010-11-05 2014-01-30 ナイキ インターナショナル リミテッド Method and system for automated personal training

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020184197A (en) * 2019-05-08 2020-11-12 株式会社オレンジテクラボ Information processing apparatus, imaging device, information processing program, and imaging program
JP7337354B2 (en) 2019-05-08 2023-09-04 株式会社オレンジテクラボ Information processing device and information processing program
JP2022531188A (en) * 2019-07-15 2022-07-06 深▲セン▼市商▲湯▼科技有限公司 Human body key point detection method and devices, electronic devices and storage media
JP2021037168A (en) * 2019-09-04 2021-03-11 ヨクト株式会社 Movement analysis system, movement analysis program, and movement analysis method
JP7023004B2 (en) 2019-09-04 2022-02-21 ヨクト株式会社 Motion analysis system, motion analysis program, and motion analysis method
WO2021084677A1 (en) * 2019-10-31 2021-05-06 日本電気株式会社 Image processing device, image processing method, and non-transitory computer-readable medium having image processing program stored thereon
JPWO2021084677A1 (en) * 2019-10-31 2021-05-06
WO2022154483A1 (en) * 2021-01-12 2022-07-21 삼성전자 주식회사 Electronic device and operation method of electronic device
WO2023012915A1 (en) * 2021-08-03 2023-02-09 富士通株式会社 Posture identification program, posture identification method, and information processing device
WO2023233650A1 (en) * 2022-06-03 2023-12-07 Nec Corporation Pose analyzing apparatus, pose analyzing method, and non-transitory computer-readable storage medium
CN115578707A (en) * 2022-10-25 2023-01-06 上海壁仞智能科技有限公司 Target identification method and device, electronic equipment and storage medium
CN115578707B (en) * 2022-10-25 2023-06-27 上海壁仞智能科技有限公司 Target identification method, device, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP7126812B2 (en) 2022-08-29

Similar Documents

Publication Publication Date Title
JP7126812B2 (en) Detection device, detection system, image processing device, detection method, image processing program, image display method, and image display system
US11790589B1 (en) System and method for creating avatars or animated sequences using human body features extracted from a still image
CN111460875B (en) Image processing method and apparatus, image device, and storage medium
CN106201173B (en) A kind of interaction control method and system of user&#39;s interactive icons based on projection
CN110147737B (en) Method, apparatus, device and storage medium for generating video
CN104353240A (en) Running machine system based on Kinect
KR20220028654A (en) Apparatus and method for providing taekwondo movement coaching service using mirror dispaly
US20210041957A1 (en) Control of virtual objects based on gesture changes of users
CN112348942A (en) Body-building interaction method and system
CN113409651B (en) Live broadcast body building method, system, electronic equipment and storage medium
JP2007323268A (en) Video providing device
KR102438488B1 (en) 3d avatar creation apparatus and method based on 3d markerless motion capture
WO2023035725A1 (en) Virtual prop display method and apparatus
US11837255B2 (en) Display method, computer-readable recording medium recording display program, and information processing apparatus
JP2015018485A (en) Electronic control device, control method, and control program
JP2005339363A (en) Device and method for automatically dividing human body part
JP2021099666A (en) Method for generating learning model
KR102510048B1 (en) Control method of electronic device to output augmented reality data according to the exercise motion
Sutopo et al. Synchronization of dance motion data acquisition using motion capture
KR20040084173A (en) Real Time Motion Comparing Method and System
CN113705483A (en) Icon generation method, device, equipment and storage medium
CN113593016A (en) Method and device for generating sticker
CN116630490A (en) Automatic generation method of digital twin three-dimensional character action based on big data
KR20230102011A (en) Sports performance analysis and coaching system and the method thereof
CN116434345A (en) Motion matching method, system, terminal and storage medium based on motion sense

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200612

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220719

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220817

R150 Certificate of patent or registration of utility model

Ref document number: 7126812

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150