JP7126812B2 - 検出装置、検出システム、画像処理装置、検出方法、画像処理プログラム、画像表示方法、及び画像表示システム - Google Patents

検出装置、検出システム、画像処理装置、検出方法、画像処理プログラム、画像表示方法、及び画像表示システム Download PDF

Info

Publication number
JP7126812B2
JP7126812B2 JP2017143771A JP2017143771A JP7126812B2 JP 7126812 B2 JP7126812 B2 JP 7126812B2 JP 2017143771 A JP2017143771 A JP 2017143771A JP 2017143771 A JP2017143771 A JP 2017143771A JP 7126812 B2 JP7126812 B2 JP 7126812B2
Authority
JP
Japan
Prior art keywords
teaching
user
image
unit
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017143771A
Other languages
English (en)
Other versions
JP2019028509A (ja
Inventor
学千 金
源洋 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2017143771A priority Critical patent/JP7126812B2/ja
Publication of JP2019028509A publication Critical patent/JP2019028509A/ja
Application granted granted Critical
Publication of JP7126812B2 publication Critical patent/JP7126812B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、検出装置、検出システム、画像処理装置、検出方法、画像処理プログラム、画像表示方法、及び画像表示システムに関する。
ユーザのトレーニング中の姿勢をリアルタイムにユーザに提供する技術が提案されている(例えば、下記の特許文献1)。ユーザの姿勢等の情報は、例えば、ユーザが容易に把握できるように提供されることが望まれる。
特開2011-19627号公報
本発明の第1の態様においては、検出装置を提供する。検出装置は、ユーザを検出する検出部を備えてよい。検出装置は、検出部の検出結果に基づいて、ユーザのモデルを生成するモデル生成部を備えてよい。検出装置は、モデル生成部が生成したユーザのモデルに対し、検出部から得られるユーザの姿勢に基づいて、複数のパーツを含む教示図形をパーツごとに位置決めして、ユーザのモデルおよび教示図形を含む教示画像を生成する画像処理部を備えてよい教示図形は、漢字を含んでよい。複数のパーツの少なくとも1つは、漢字の部首を含んでよい。
本発明の第2の態様においては、検出装置を提供する。検出装置は、ユーザを検出する検出部を備えてよい。検出装置は、検出部の検出結果に基づいて、ユーザのモデルを生成するモデル生成部を備えてよい。検出装置モデル生成部が生成したユーザのモデルに対し、検出部から得られるユーザの姿勢に基づいて、複数のパーツを含む教示図形をパーツごとに位置決めして、ユーザのモデルおよび教示図形を含む教示画像を生成する画像処理部を備えてよい教示図形は、単語を含んでよい。複数のパーツの少なくとも1つは、単語を構成する表音文字を含んでよい。
本発明の第の態様においては、検出装置を提供する。検出装置は、ユーザを検出する検出部を備えてよい。検出装置は、検出部の検出結果に基づいて、ユーザのモデルを生成するモデル生成部を備えてよい。検出装置は、教示図形を複数のパーツに分割する図形分割部を備えてよい。検出装置は、モデル生成部が生成したユーザのモデルに対し、検出から得られるユーザの姿勢に基づいて、教示図形をパーツごとに位置決めして、ユーザのモデルおよび教示図形を含む教示画像を生成する画像処理部を備えてよい
本発明の第の態様においては、検出システムを提供する。検出システムは、前述のとりの検出装置を備えてよい。検出システムは画像処理部が生成した教示画像を表示する表示部を備えてよい
本発明の第の態様においては、画像処理装置を提供する。画像処理装置は、ユーザを検出した検出結果に基づいて生成されるユーザのモデルに対し、検出結果から得られるユーザの姿勢に基づいて、教示図形をパーツごとに位置決めして、ユーザのモデルおよび教示図形を含む教示画像を生成してよい
本発明の第の態様においては、画像処理プログラムを提供する。画像処理プログラムは、コンピュータに、ユーザを検出した検出結果に基づいて生成されたユーザのモデルを取得させてよい。画像処理プログラムは、コンピュータに、教示図形を複数のパーツに分割させてよい。画像処理プログラムは、コンピュータに、検出結果から得られるユーザの姿勢に基づいて、ユーザのモデルに対して教示図形をパーツごとに位置決めさせてよい。画像処理プログラムは、コンピュータに、ユーザのモデルおよび教示図形を含む教示画像を生成させてよい。
第1実施形態に係る検出システムを示す図である。 第1実施形態に係る教示画像を示す図である。 第1実施形態に係る教示画像を示す図である。 第1実施形態に係る検出装置による処理を示す図である。 第1実施形態に係る姿勢データ、教示図形データ、表示条件データを示す概念図である。 第1実施形態に係る教示画像を示す図である。 第1実施形態に係る教示画像を示す図である。 第1実施形態に係る検出システムの動作を示す図である。 第1実施形態に係る検出システムの動作を示す図である。 第1実施形態に係る検出システムの動作を示す図である。 第1実施形態に係る検出システムの動作を示す図である。 第1実施形態に係る検出システムの動作を示す図である。 第1実施形態に係る検出システムの動作を示す図である。 第1実施形態に係る検出システムの動作を示す図である。 第1実施形態に係る検出システムの動作を示す図である。 第1実施形態に係る検出システムの動作を示すフローチャートである。 第1実施形態に係る画像処理部による処理を示すフローチャートである。 第2実施形態に係る検出システムを示す図である。 第2実施形態に係る姿勢特定部による処理を示す図である。 第2実施形態に係る画像処理部による処理を示す図である。 第2実施形態に係る画像処理部による処理を示すフローチャートである。 第3実施形態に係る検出システムを示す図である。 第3実施形態に係る図形分割部による処理を示す図である。 第4実施形態に係る検出システムを示す図である。 第4実施形態に係る履歴管理部の処理を示す図である。 第5実施形態に係るユーザインターフェースを示す図である。 第6実施形態に係る画像処理部が生成する教示画像の例を示す図である。 第6実施形態に係る画像処理部が生成する教示画像の例を示す図である。 第7実施形態に係る検出システムを示す図である。
[第1実施形態]
第1実施形態について説明する。図1は、第1実施形態に係る検出システム、検出装置を示す図である。図1は、実施形態に係る検出システム1(情報提供システム)を示すブロック図である。検出システム1は、検出装置2および表示部3(表示装置)を備える。
検出装置2は、例えば、所定(例、目標、基本、理想、見本)の姿勢(ポーズ、フォーム)に近づくように、動作するユーザUを検出する。検出装置2は、例えば、スポーツ(例、野球、サッカー、ゴルフ、体操、エクササイズ、ボディビル)、ファッションショー(例、ウォーキング、ポージング)、ゲーム、又は人物認証(例、セキュリティ)等の各種分野で利用可能である。例えば、ユーザUは、ヨガをテーマにしたゲームのプレイヤーでもよく、検出装置2は、ゲームをプレイするユーザUを検出してもよい。
以下の説明において、検出装置2は、ヨガにおける所定の姿勢(例、戦士のポーズ、三角のポーズ)をとるユーザUを検出するものとする。なお、検出装置2がユーザUを検出する際に、衣類、靴、あるいはプロテクタなどの装着物(例、ユーザUとともに移動する物体)を付けた状態でもよい。検出装置2によるユーザUの検出は、ユーザUとともに移動する装着物の検出を含んでもよい。
表示部3は、ユーザUに対して各種画像を表示する。表示部3は、有線または無線によって、検出装置2と通信可能に接続される。表示部3は、検出装置2から供給される画像データに基づいて、画像を表示する。表示部3は、例えば、フラットパネルディスプレイ(FPD)もしくはヘッドマウントディスプレイ(HMD)などの直視型表示部、又はプロジェクタなどの投影型表示部を含む。表示部3は、FPDなどのように据え置き型の表示部でもよいし、HMDなどのように携帯型(モバイル機器)もしくは装着型(ウェアラブル機器)の表示部でもよい。
以下、図1から図3を参照しつつ表示部3に表示される画像の例について説明し、次いで検出装置2について説明する。図2および図3は、それぞれ、表示部3に表示される画像を示す概念図である。図2および図3は、ヨガにおける戦士のポーズ(ヴィーラバドラ・アーサナ)に対応する。図2の画像Im1から画像Im3は、ユーザが足を開き、手を上に挙げて背筋を伸ばしながら息を深く吸うといった、一連の動作に対応する。
表示部3は、予め登録された姿勢の画像(以下、サンプル画像Saという)を表示する。サンプル画像Saは、例えば、画像Im1の一部(例、左上)に重畳して配置される。サンプル画像Saは、例えば、ユーザが目標の姿勢をとる際に参照する画像(教師画像)である。サンプル画像Saは、例えば、ヨガのインストラクタが所定のポーズ(例、戦士のポーズ)をとった画像(例、静止画または動画)を含む。ユーザUは、表示部3に表示されたサンプル画像Saを見ることで、例えば、次に行うポーズの種類を確認することができる。
なお、検出システム1は、所定のポーズの情報を報知する報知部を備えてもよい。所定のポーズの情報は、例えば、所定のポーズの名称、及び所定のポーズに関する動作説明の一方または双方を含む。報知部は、所定のポーズの情報をユーザが識別可能な形態(例、画像、音声)で出力する。例えば、報知部は、所定のポーズの情報としてサンプル画像Saを出力する表示部3を含む。また、上記の報知部は、表示部3がサンプル画像Saを表示する際に、サンプル画像Saに対応する所定のポーズの情報を音声で報知する音声報知部(例、音声出力部、音声ガイド部)を含んでもよい。
例えば、検出システム1(例、音声報知部)は、所定のポーズ(例、戦士のポーズ)のサンプル画像Saを表示する際に、所定のポーズの名称(例、「戦士のポーズ」)を読み上げた音声(音声ガイド)を出力してもよい。また、検出システム1(例、音声報知部)は、「戦士のポーズ」という音声の代わりに、戦士のポーズと予め関連付けられた音楽、曲、BGMを出力してもよい。例えば、ヨガの次のポーズに進む際に、検出システム1(例、音声報知部)は、音声として出力する音楽、曲、BGMの等を変更してもよい。
また、例えば、検出システム1(例、音声報知部)は、所定のポーズ(例、戦士のポーズ)のサンプル画像Saを表示する際に、上記の動作説明として、人体の少なくとも一部の部位の動作を表す文言(フレーズ)を読み上げた音声(例、「息を吸ってください」、「腕を水平に伸ばしてください」、「足を垂直に曲げてください」)を出力してもよい。また、検出システム1(例、音声報知部)は、サンプル画像Saを表示する代わりに、上記の音声(例、音声ガイド)を出力してもよい。
また、表示部3は、ユーザUのモデル(適宜、ユーザモデルUMという)を表示する。図1の検出装置2は、ユーザUを検出し、その検出結果に基づいてユーザの姿勢などを示すユーザモデルUMを生成する。ユーザモデルUMは、ユーザUの二次元的な形状または三次元的な形状を表す図形である。ユーザモデルUMは、例えば、シルエット、ポリゴン、ボクセル、ワイヤーフレーム、ユーザUの表面上の点の集合体、アバター、または骨格モデルなどで表される。また、例えば、表示部3に表示されるオブジェクト(例、ユーザモデルUM、教示画像、サンプル画像Sa)のレイアウトは、表示部3の左上にサンプル画像Saが配置され、表示部3の中央にユーザモデルUMが配置され、ユーザモデルUMの周辺(近接)に教示画像が配置されるレイアウトである。
図1の検出装置2は、ユーザUを繰り返し光学的に検出し、表示部3は、検出装置2の検出結果に基づいて、ユーザモデルUMをリアルタイムで表示(更新)する。表示部3は、例えば、サンプル画像SaおよびユーザモデルUMを含む画像(例、画像Im1)を表示する。
また、表示部3は、ユーザモデルUMおよび教示図形Fを含む教ユーザUの示画像(例、画像Im1から画像Im6)を表示する。教示図形Fは、例えば、ユーザUが所定の姿勢をとる際のユーザインターフェースを構成する。教示画像は、例えば、所定の姿勢をとる上での留意点などを、ユーザUが直感的に分かるように、表現する画像を含む。このように、表示部3は、ユーザインターフェースとしてサンプル画像Sa、ユーザモデルUM、教示画像などを所定の配置で表示する。
教示図形Fは、例えば、人体の部位を表す図形と、人体の形状を表す図形と、人体の動作を表す図形との少なくとも一つを含む。本明細書において「図形」は、線分、曲線、又は線分および曲線を含む形状(例、幾何形状)と、文字と、記号との少なくとも1つを含む。幾何形状は、例えば、円、楕円、多角形、多角形の角を丸めた形状、長円などである。
また、本明細書において図形に含まれる文字は、表意文字と表音文字との一方または双方を含む。表意文字は、例えば、漢字、アラビア数字(1、2、・・・)などであり、1文字で意味を表す文字である。表示文字としては、例えば、骨、脇、肩、首などのように人体の部位を表す漢字、吐、呼、吸、伸などのように人体の動作を表す漢字、曲などのように人体の形状を表す漢字等が挙げられる。
表音文字(音標文字)は、例えば、ひらがな、かたかな、アルファベット、ハングルなどのように、1文字で音素または音節を表す文字である。なお、漢字は、中国などにおいて表音文字として用いられる場合がある。図形に含まれる文字の数は、1でもよいし、2以上でもよい。例えば、本明細書における図形は、2以上の文字で構成される文字列を含んでもよい。また、本明細書における図形は、複数の表音文字で構成される単語、文節、又は文章を含んでもよい。
教示画像の少なくとも1つの画像において、教示図形は、複数のパーツ(例、要素、部分、部品、セグメント)を含む。例えば、画像Im1において、教示図形Fは、パーツp1およびパーツp2を含む。パーツp1は、「吸」という文字であり、人体の動作を表す図形である。パーツp1である「吸」は、ユーザUが息を吸う動作と関連付けられて、表示される。例えば、ユーザUがサンプル画像Saを参照してヨガを行う場合、人体が息を吸う動作に対応するサンプル画像Saが表示されるタイミングに基づいて、パーツp1である「吸」が表示部3に表示される。例えば、ヨガの実施中にサンプル画像Saを見たユーザUがこの動作を行う際に、パーツp1である「吸」が表示部3に表示される。
教示図形Fのパーツ(例、パーツp1)は、検出装置2(処理部6)によってユーザモデルUMに対して位置決めされる。例えば、画像Im1におけるパーツp1である「吸」は、ユーザモデルUMにおいて呼吸に関連するユーザUの人体の部位(例、口、胸)に対して位置決めされ、この部位に対して所定の位置関係で表示される。例えば、画像Im1から画像Im3へ進む際に、ユーザUが背筋を伸ばす動作が想定されており、パーツp1である「吸」は、ユーザモデルUMに対して上方へ移動するように、ユーザモデルUMに対して位置決めされる。ユーザUは、例えば、パーツp1の「吸」が上方へ移動するのに合わせて身体が上方へ引っ張られるイメージを持つことによって、背筋を伸ばす動作を直感的に行うことができる。実施形態に係る教示図形は、例えば、ユーザUに動作のイメージを想起させるように、動作がデフォルメされた図形から選択される。
また、教示図形Fのパーツ(例、パーツp1)は、色(色相、明度、及び彩度の少なくとも1つ)が全体的に又は部分的に変化するように、表されてもよい。例えば図1において、「吸」というパーツp1は、息を吸う動作の進行(時間)に対応して、周囲とのコントラストが相対的に低い状態(画像Im1に点線で示す)から、周囲とのコントラストが相対的に高い状態(画像Im2に実線で示す)へ変化する。例えば、「吸」というパーツp1は、画像Im1から画像Im2へ進む際に、フェードインするように色が変化する。教示図形Fにおける複数(少なくとも2つ)のパーツのうち少なくとも1つのパーツは、例えば、サンプル画像Saにおける教師(例、ヨガのインストラクタ)の動作(例、サンプル画像Saのポーズなど)に基づき所定のタイミング(例、画像Im1から画像Im2へ進む時など)において表示の位置が変更される(表示部3の画面内において所定の移動速度で対象のパーツが移動する)。
また、教示図形Fのパーツp2は、ユーザモデルUMの手先を起点とする線分状(帯状)の図形である。パーツp2は、画像Im1から画像Im2へ進み、さらに画像Im2から画像Im3へ進む際に、ユーザモデルUMの手先の位置から下方に伸びるように、長さが変化する。画像Im3における教示図形Fのパーツp3は、人体の腰中央(ベース)を表す図形(ここでは円形)である。パーツp3は、パーツp2が人体の手先から腰中央まで伸びた際に、フェードインするように表示される。
図3の画像Im4から画像Im6は、ユーザUが前足の膝を垂直に曲げるように腰を落としながら息を深く吐くといった、一連の動作に対応する。画像Im4において、教示図形Fは、パーツp3、パーツp4、パーツp5、及びパーツp6を含む。パーツp3は、ユーザモデルUMにおいて人体の腰中央の位置を表す図形である。パーツp4は、例えば、人体の足の姿勢を示す図形である。画像Im4、画像Im5におけるパーツp4は、ユーザモデルUMに対して水平に伸びる線分状(帯状)の図形であり、人体の太ももを水平に保つイメージを表す。また、画像Im6におけるパーツp4は、ユーザモデルUMから水平に伸びて、さらに下方伸びる折れ線状の図形であり、膝を垂直に曲げるイメージを表す。
また、教示図形Fのパーツp5は、「吐」という漢字の一部(例、部首)である「口」である。パーツp6は、「吐」という漢字の一部(例、部首)である「土」である。パーツp5およびパーツp6は、一組で「吐」という漢字を表す。パーツp5およびパーツp6により構成される「吐」は、ユーザが息を吐く動作と関連付けられて、表示される。例えば、ユーザUがサンプル画像Saを参照してヨガを行う場合、人体が息を吐く動作に対応するサンプル画像Saが表示されるタイミングに基づいて、パーツp5およびパーツp6が表示される。例えば、サンプル画像Saを見たユーザUがこの動作を行う際に、「吐」が表示される。
パーツp5およびパーツp6は、それぞれ、ユーザモデルUMに対して位置決めされる。例えば、画像Im4において、パーツp5およびパーツp6は、ユーザモデルUMにおいて呼吸に関連する部位(例、口、胸)に対して位置決めされ、この部位に対して所定の基準位置(例、部位に近い位置)に表示される。
図3における「吐」という文字は、例えば、吐いた息のイメージで表現される。例えば、画像Im5における「吐」は、画像Im4に比べて、ユーザモデルUMから離れている。画像Im5におけるパーツp5の「口」およびパーツp6の「土」は、画像Im4に比べて、ユーザモデルUM(ユーザモデルUMにおける基準位置)から離れた位置に配置される(位置決めされる)。また、画像Im5における「吐」は、画像Im4に比べて、ユーザモデルUMから離れて散逸するように、変形する。例えば、画像Im5におけるパーツp6の「土」は、画像Im4に比べて、パーツp5の「口」から離れた位置に配置(位置決め)される。また、例えば、画像Im5におけるパーツp6の「土」は、画像Im4に比べて、教示図形の一部であるパーツp6の「土」の形が1方向又は2方向に伸びるように(又は大きくなるように)変更されてもよい。
また、画像Im6における「吐」は、画像Im5に比べて、ユーザモデルUMから離れている。画像Im6において、パーツp5の「口」およびパーツp6の「土」は、画像Im5に比べてユーザモデルUMから離れた位置に、位置決めされる。また、画像Im6において「吐」は、画像Im5に比べて「口」と「土」とがバラバラになって散逸するイメージで表現される。画像Im6におけるパーツp6の「土」、画像Im5に比べてパーツp5の「口」から離れた位置に、位置決めされる。このように、教示図形は、変形させた漢字を含んでもよく、複数のパーツの少なくとも1つは、変形させた漢字の部首を含んでもよい。
また、画像Im5から画像Im6へ進む際に、「吐」は、周囲とのコントラストが相対的に高い状態(画像Im5に実線で示す)から、周囲とのコントラストが相対的に低い状態(画像Im6に点線で示す)へ変化してもよい。例えば、画像Im6における「吐」は、フェードアウトするように表示(例、色)の要素(例、コントラスト、色相、明度、彩度)が変化する。
上述のように、実施形態に係る画像表示方法は、表示部3に、時間的に変化するユーザUのモデルを動的に表示すること(第1表示処理)と、表示部3においてユーザUのモデルに対して定められる位置に、ユーザUのモデルの時間的な変化に基づいて選択される教示図形Fを、動的に表示すること(第2表示処理)と、を含む。
実施形態に係る画像表示方法は、ユーザUを検出して得られるユーザUのモデルを動的に表示することを含んでもよい。教示図形Fを動的に表示することは、例えば、画像内で教示図形Fを所定の移動速度で移動させる(教示図形の画像内での位置を時間変化させる)こと、教示図形Fを変形させること、及び教示図形Fの表示(例、色、色相、明度、彩度、コントラスト)を変化せることの少なくとも1つを含む。
また、実施形態に係る画像表示方法は、動的に表示されるユーザUのモデルに対して図形を位置決めして、図形を動的に表示することを含んでもよい。この図形の種類は、例えば、ユーザUの動作(例、姿勢)と予め関連付けられてもよい。また、この図形が表示されるタイミングは、例えば、ユーザUの動作のタイミングと予め関連付けられてもよい。以下、実施形態に係る検出装置2の各部について説明する。
図1の検出装置2は、検出部5、処理部6、表示制御部7、及び記憶部8を備える。以下の説明において、適宜、図4を参照する。図4(A)検出部の検出結果を示す概念図であり、図4(B)は処理部による処理結果を示す概念図である。検出部5は、ユーザUを光学的に検出する。検出部5は、例えば、ユーザUを三次元的に検出する。検出部5は、例えば、距離を検出するデプスセンサを含む。検出部5は、例えば、所定の視点(例、検出部5の位置、視点)からユーザUの表面上の各点までの距離を検出する。検出部5は、例えば、所定の周波数(例、サンプリングレート、フレームレート)で検出処理を繰り返し実行する。
検出部5は、例えば、TOF(time of flight)法によって距離を検出する。検出部5は、その検出結果(例、位置情報)として、例えば距離の分布を示す位置情報を出力する。上記の位置情報は、例えば、デプス情報(例、デプス画像のデータ、奥行き情報、デプスマップ)を含む。検出部5は、検出結果として、例えば図4(A)に示すデプス画像Im7のデータを出力する。デプス画像Im7において、各画素の画素値は、例えば、デプス画像Im7上の画素の位置に相当する実空間上の点と検出部5との距離を表す。例えば、デプス画像Im7はグレースケールで表され、暗い部分は、明るい部分よりも検出部5からの距離が離れている。
なお、検出部5は、TOF法以外他の手法で距離を検出するデバイスでもよい。検出部5は、例えば、レーザスキャナ(例、レーザ測距器)を含み、レーザスキャンによって距離を検出するデバイスでもよい。検出部5は、例えば、ユーザUが存在する領域に所定のパターン(例、水玉パターン、格子パターン)を投影し、このパターンの検出結果をもとに距離を測定するデバイスでもよい。検出部5は、例えば、位相差センサを含み、位相差法によって距離を検出するデバイスでもよい。検出部5は、例えば、DFD(depth from defocus)法によって距離を検出するデバイスでもよい。
また、検出部5は、例えばステレオカメラなどによって複数の視点からユーザUを撮像した撮像画像を用いて、三角測量によって距離を検出するデバイスでもよい。検出部5は、上述した複数の検出法のうち2以上を組み合わせて、ユーザUを検出するデバイスでもよい。検出部5は、距離を検出するセンサ、及びイメージセンサを含んでもよい。また、検出部5は、光学的な手法以外の手法(例、超音波によるスキャン)でユーザUを検出してもよい。また、検出部5は、所定の視点(例、単一視点又は複数の視点)から得られたユーザUの画像の特徴(ユーザUの画像を画像処理して得られる特徴点など)から距離を推定してもよい。
処理部6は、検出部5が出力する情報(例、検出結果)を処理する情報処理部である。処理部6は、検出部5と有線または無線によって通信可能に接続される。処理部6は、検出部5の検出結果としてデプス情報を、検出部5から取得(例、受信)する。処理部6は、検出部5の検出結果あるいは処理結果を、検出部5との通信を介することなく取得してもよい。例えば、処理部6は、不揮発性メモリなどの記憶媒体を介して、検出部5から検出結果を取得してもよい。
処理部6は、モデル生成部11、部位特定部12、及び画像処理部13を備える。モデル生成部11は、検出部5の検出結果に基づいて、ユーザUのモデル(例、図2のユーザモデルUM)を生成する。モデル生成部11は、検出部5の検出結果に基づいて、ユーザUの人体の各部の位置を検出(算出)する。モデル生成部11は、例えば、図4(A)のデプス画像Im7のデータを処理(例、透視変換処理、射影変換処理)することによって、ユーザUの三次元形状を表す形状情報を生成(算出)する。形状情報は、例えば、点群データを含む。点群データは、例えばユーザUの表面の複数の点データを含む。複数の点データは、それぞれ3次元座標で表される。
モデル生成部11は、形状情報としてサーフェス情報を算出してもよい。サーフェス情報は、例えばポリゴンデータ、ベクタデータ、ドローデータなどである。サーフェス情報は、例えば、複数の点の座標と複数の点間の連結情報とを含む。連結情報は、例えば、物体(例、人体)の稜線(例、エッジ)に相当する線の両端の点を互いに関連付ける情報を含む。連結情報は、例えば、物体上の面の輪郭に相当する複数の線を互いに関連付ける情報を含む。
モデル生成部11は、例えば、点群データに含まれる複数の点から選択される点とその近傍の点との間の面を推定し、点群データを点間の平面情報を持つポリゴンデータに変換してもよい。モデル生成部11は、例えば、最小二乗法を用いたアルゴリズムにより、点群データをポリゴンデータへ変換する。このアルゴリズムは、例えば、点群処理ライブラリに公開されているアルゴリズムを適用したものでもよい。
部位特定部12は、検出部5の検出結果に基づいて、ユーザUの部位を特定する。部位特定部12は、検出部5の検出結果に基づいて、ユーザUの人体の特徴的な部位(例、特徴部位、特徴点)の位置情報を生成する。人体の特徴部位は、例えば、人体の他の部位と区別可能な部位である。人体の特徴部位は、例えば、人体の末端部、関節、又は末端部と関節との間もしくは2つの関節の間の中間部の少なくとも1つを含む。
部位特定部12は、その処理結果として、ユーザUの部位の位置情報(例、(図4(B)に示す骨格情報SD)を生成する。図4(B)の骨格情報SDにおいて、丸印(〇)は、特徴部位に相当する。部位特定部12は、例えば、モデル生成部11が生成した点群データを用いた認識処理(例、パターン認識、形状認識、骨格認識)等によって、上記の特徴部位の位置情報を生成する。特徴部位の位置情報は、例えば、特徴部位を代表する点の座標(例、3次元座標)を含む。部位特定部12は、例えば、上記の認識処理によって、特徴部位を表す点の座標を算出する。
部位特定部12は、例えば、特徴部位のそれぞれについて、特徴部位の名称と、特徴部位の位置とを関連付けたデータを生成する。モデル生成部11は、位置情報(例、骨格情報SD)として、予め設定された1または2以上の特徴部位のそれぞれの座標を含むテーブルデータを生成する。位置情報(例、骨格情報SD)は、例えば、同じ検出タイミングの検出結果から得られる複数の特徴部位の位置情報を含む。
画像処理部13は、検出結果(例、撮像画像)を用いてユーザUのモデル(例、図2のユーザモデルUM)および教示図形F(図2参照)を含む教示画像(例、図2、図3の画像Im1から画像Im6)を生成する。画像処理部13は、教示画像を生成する際に、モデル生成部11が生成したユーザのモデルに対し、教示図形F(図2参照)をパーツ(例、図2のパーツp1、パーツp2)ごとに位置決めする。画像処理部13は、検出部5から得られるユーザの姿勢に基づいて、教示図形Fをパーツごとに位置決めする。例えば、画像処理部13は、検出部5から得られるユーザの姿勢として、部位特定部12が生成したユーザの部位の位置情報(例、図4(B)の骨格情報SD)に基づいて、教示図形Fをパーツごとに位置決めする。
画像処理部13は、例えば、姿勢定義データD1、教示図形データD2、及び表示条件データD3に基づいて、教示画像を生成する。姿勢定義データD1、教示図形データD2、及び表示条件データD3は、記憶部8に予め記憶される。記憶部8は、例えば、不揮発性メモリまたはハードディスクを含む。
図5は、第1実施形態に係る姿勢定義データ、教示図形データ、表示条件データを示す概念図である。図5(A)には、姿勢定義データD1を概念的に示した。姿勢定義データD1は、例えば、姿勢の種類を示す情報(例、「姿勢名称」)と、姿勢の定義を示す情報(例、「サンプル画像データ」)とを一組にした情報(例、テーブルデータ)を含む。「姿勢名称」は、例えば、「戦士のポーズ」、「三角のポーズ」などである。
図5(A)において、符号Sa1は、「戦士のポーズ」に対応するサンプル画像である。また、符号Sa2は、「三角のポーズ」に対応するサンプル画像である。「姿勢名称」が「戦士のポーズ」である行の「サンプル画像データ」には、「戦士のポーズ」の定義を示す情報として、サンプル画像Saを示す画像データである「戦士のポーズ.dat」の所在を示す情報が格納される。「戦士のポーズ.dat」は、例えば、静止画形式のファイル(例、jpg、ビットマップ)などでもよいし、動画形式のファイル(例、mpeg、avi)などでもよい。
なお、ユーザは、姿勢定義データD1を適宜編集可能である。例えば、ユーザは、姿勢定義データD1に、姿勢の種類と、姿勢の定義とを一組にした情報(以下、定義ファイルという)を登録可能である。また、ユーザは、姿勢定義データD1から定義ファイルを削除することが可能である。上記の定義ファイルは、インターネット回線などを介して自動または手動で取得されてもよい。また、取得された定義ファイルは、自動または手動で姿勢定義データD1に登録されてもよい。
図5(B)には、教示図形データD2を概念的に示した。教示図形データD2は、例えば、教示図形の識別情報(例、教示図形識別番号)と、教示図形に含まれるパーツの識別情報(例、パーツ識別番号)と、パーツの形状を示す情報(例、形状データ)とを一組にした情報を含む。「教示図形識別番号」は、教示画像ごとに割り付けられる識別番号である。例えば、「教示図形識別番号」が「01」のデータは、図2に示した教示図形Fに対応する。
また、「教示図形識別番号」が「01」、かつ「パーツ識別番号」が「01」のデータは、図2のパーツp2(線分)に対応する。符号Imp1は、パーツp2(線分)に対応するイメージである。「教示図形識別番号」が「01」であり、かつ「パーツ識別番号」が「01」である「形状データ」には、パーツp2の形状を規定するデータ(例、「form_0101.dat」)が格納される。「form_0101.dat」は、例えば、イメージImp1を表すベクトルデータまたはラスターデータを含む。
また、「教示図形識別番号」が「01」、かつ「パーツ識別番号」が「02」のデータは、図2のパーツp3(丸印)に対応する。符号Imp2は、パーツp3(丸印)に対応するイメージである。「教示図形識別番号」が「01」であり、かつ「パーツ識別番号」が「02」である「形状データ」には、パーツp3の形状を規定するデータ(例、「form_0102.dat」)が格納される。「form_0102.dat」は、例えば、イメージImp2を表すベクトルデータまたはラスターデータを含む。
また、「教示図形識別番号」が「01」、かつ「パーツ識別番号」が「03」のデータは、図2のパーツp1である「吸」に対応する。符号Imp3は、パーツp3「吸」に対応するイメージである。「教示図形識別番号」が「01」であり、かつ「パーツ識別番号」が「03」である「形状データ」には、パーツp1の形状を規定するデータ(例、「form_0103.dat」)が格納される。「form_0103.dat」は、例えば、イメージImp3を表すベクトルデータまたはラスターデータを含む。「form_0103.dat」は、例えば、イメージImp3を表す文字データを含んでもよい。文字データは、例えば、文字コード、フォントの種類、フォントサイズなどを含む。
また、「教示図形識別番号」が「i」のデータは、図3に示した教示図形F(例、「吐」)に対応する。「教示図形識別番号」が「i」、かつ「パーツ識別番号」が「01」のデータは、図3のパーツp5の「口」に対応する。符号Imp5は、パーツp5の「口」に対応するイメージである。「教示図形識別番号」が「i」であり、かつ「パーツ識別番号」が「01」である「形状データ」には、パーツp5の形状を規定するデータ(例、「form_i01.dat」)が格納される。「form_i01.dat」は、例えば、イメージImp5を表すベクトルデータまたはラスターデータを含む。
また、「教示図形識別番号」が「i」、かつ「パーツ識別番号」が「02」のデータは、図3のパーツp6の「土」に対応する。符号Imp6は、パーツp6の「土」に対応するイメージである。「教示図形識別番号」が「i」であり、かつ「パーツ識別番号」が「02」である「形状データ」には、パーツp6の形状を規定するデータ(例、「form_i02.dat」)が格納される。「form_i02.dat」は、例えば、イメージImp6を表すベクトルデータまたはラスターデータを含む。
なお、パーツp5に対応するイメージImp5と、パーツp6に対応するイメージImp6とが組み合わされることで、「吐」に対応するイメージImp7が構成される。なお、パーツに対応する文字コードが存在する場合(例、「吐」における「口」、「土」)、パーツの形状データは、文字データで表されてもよい。
図5(C)には、表示条件データD3を概念的に示した。表示条件データD3は、例えば、教示図形の識別情報(例、教示図形識別番号)と、教示図形に含まれるパーツの識別情報(例、パーツ識別番号)と、表示のタイミングを規定する情報(例、表示開始条件、表示終了条件)と、表示位置を規定する情報(例、表示開始位置、表示移動条件)とを含む。
「教示図形識別番号」および「パーツ識別番号」は、それぞれ、図5(B)の教示図形データD2と同様である。例えば、「教示図形識別番号」が「01」、かつ「パーツ識別番号」が「03」のデータは、図2のパーツp1である「吸」に対応する。ここでは、「教示図形識別番号」が「01」かつ「パーツ識別番号」が「03」のパーツ(パーツp1である「吸」)を例として、説明する。
「表示開始条件」は、対応する形状データ(例、図5(B)の「吸」)の表示を開始する条件(例、タイミング、トリガー)を規定する情報である。図1の画像処理部13は、各パーツについて、「表示開始条件」を満たすと判定した場合に、このパーツの表示を開始させる。例えば、パーツp1である「吸」の表示開始条件は、このパーツに対応するポーズ(例、図2の戦士のポーズ)のサンプル画像Saの表示開始から所定の時間T1が経過した時点と規定されている。画像処理部13は、パーツp1である「吸」について「表示開始条件」を満たすと判定した場合に、パーツp1を含む教示画像を生成する。この教示画像のデータが表示部3に供給されることで、パーツp1である「吸」が表示部3に表示される。
このように、表示部3は、予め登録された姿勢の画像(例、サンプル画像)をユーザに対して表示し、教示画像は、予め定められた時間的なスケジュールで表示部に表示される。教示画像は、例えば、サンプル画像の表示タイミングに基づくタイミングで表示部3に表示される。
「表示開始位置」は、対応する形状データ(例、図5(B)の「吸」)の表示開始時における表示位置を規定する情報である。「表示開始位置」は、例えば、基準の位置を規定する情報(例、「基準の部位名」)と、基準の位置に対するオフセット量を規定する情報(例、「オフセット量」)とを含む。
例えば、図2において「吸」は、ユーザモデルUMの胸の位置に対して位置決めされる。この場合、「基準の部位名」として、「胸」を指定する情報が格納される。また、「オフセット量」には、画像上の基準の位置(例、「胸」の座標)に対するオフセット量が画像上のスケール(例、水平走査方向の画素数、垂直走査方向の画素数)で規定されている。オフセット量は、固定値でもよいし、例えば画像上のユーザモデルUMのスケールに基づいた可変値でもよい。
また、オフセット量は、検出部5の検出結果から得られるユーザUの姿勢(例、ユーザモデルUM)と、予め登録された姿勢(例、サンプル画像Saにおける姿勢)との比較結果に基づいて、設定されてもよい。例えば、第1のパーツのオフセット量が他のパーツのオフセット量に対して相対的に大きい場合、又は第1のパーツのオフセット量が所定の値より大きい場合に、第1のパーツは、第1のパーツに対応する部位の動作を大きくすることをユーザUに示してもよい。
図1の画像処理部13は、部位特定部12が特定した部位の座標に基づいて、「基準の部位名」に指定された部位の位置(例、画像上のユーザモデルUMにおける「胸」の座標)を取得する。また、画像処理部13は、「基準の部位名」に指定された部位の位置を基準の位置として、基準の位置から「オフセット量」に規定されたオフセット量だけシフトした位置を算出し、算出した位置をパーツp1の「吸」の位置として決定する(位置決めする)。
例えば、画像上のユーザモデルUMにおける「胸」の座標が(X1,Y1)で表され、オフセット量が(ΔX1,ΔY1)で表される場合、画像処理部13は、パーツp1である「吸」の位置を、(X1+ΔX1,Y1+ΔY1))に決定する。画像処理部13は、決定した位置である(X1+ΔX1,Y1+ΔY1)に、図5(B)の教示図形データD2における形状データ(form_0103.dat)に規定されたイメージImp3の「吸」を配置することで、教示画像として図2の画像Im1を生成する。このように、画像処理部13は、部位特定部12が特定したユーザの部位に対応するユーザモデルUM上の位置(例、(X1,Y1))に対して、複数のパーツのうちユーザの部位(例、「胸」)に予め関連付けられたパーツ(例、「吸」)を位置決めする。
図5(C)の「表示移動条件」は、対応する形状データ(例、図5(B)の「吸」)の移動を規定する情報である。「表示移動条件」は、例えば、水平走査方向における移動量を画素数で表した「V1x」、及び垂直走査方向における移動量を画素数で表した「V1y」を含む。画像処理部13は、教示画像として次回のフレームの画像を生成する際に、パーツp1である「吸」の位置を、次回のフレームの画像における位置から「表示移動条件」に規定された移動量だけシフトさせる。例えば、画像処理部13は、教示画像として図2の画像Im1の次のフレームの画像を生成する際に、パーツp1である「吸」の位置を(X1+ΔX1+V1x,Y1+ΔY1+V1y)に決定する。なお、移動させないパーツである場合、例えば移動量が「0」に設定される。
「表示終了条件」は、対応する形状データ(例、図5(B)の「吸」)の表示を終了する条件(例、タイミング、トリガー)を規定する情報である。図1の画像処理部13は、各パーツについて、「表示終了条件」を満たすと判定した場合に、このパーツの表示を終了させる。例えば、パーツp1である「吸」の表示終了条件は、このパーツに対応するポーズ(例、図2の戦士のポーズ)のサンプル画像Saの表示開始から時間T2が経過した時点と規定されている。画像処理部13は、パーツp1である「吸」について「表示終了条件」を満たすと判定した場合に、例えば、パーツp1を含まない画像を生成する。この画像のデータが表示部3に供給されることで、パーツp1である「吸」が表示部3に非表示となる。
図1の表示制御部7は、画像処理部13が生成したパーツを含む教示画像(例、教示図形、コメント、動作の時間(例、ポーズを維持する残り時間)など)を表示部3に表示させる。例えば、表示制御部7は、画像処理部13が生成した教示画像のデータを表示部3に供給することによって、表示部3に教示画像を表示させる。教示画像のデータは、記憶部8に記憶されてもよく、表示制御部7は、記憶部8に記憶された教示画像のデータを表示部3に供給してもよい。
図6および図7は、それぞれ、第1実施形態に係る教示画像を示す図である。図6および図7において、ユーザはヨガの「三角のポーズ」を行うものとする。図6(A)に示す教示画像Im11は、サンプル画像SaおよびユーザモデルUMを含み、教示図形を含まない。実施形態において、図1の画像処理部13が生成する複数の教示画像は、その少なくとも一部が教示図形を含めばよく、一部の教示画像が教示図形を含まなくてもよい。なお、教示画像は、サンプル画像Saを含まなくてもよい。
図6(B)において、教示画像Im12は、ユーザモデルUMおよび教示図形Fを含む。教示図形Fは、複数のパーツ(パーツp11、パーツp12、パーツp13、パーツp14、及びパーツp15)を含む。パーツp11は、ユーザモデルUMの右足に位置決めされた三角形である。パーツp12は、ユーザモデルUMの左足に位置決めされた三角形である。パーツp13は、パーツp11とパーツp12とを結ぶ線分である。パーツp14およびパーツp15は、それぞれ、「50」という文字(文字列)である。パーツp14およびパーツp15は、例えば、右足と左足とにかける体重の比率として推奨される値を表す。例えば、パーツp14は右足に体重の50%をかけることを表し、パーツp15は左足に体重の50%をかけることを表す。例えば、ユーザは、左足と右足とに、それぞれ体重の50%をかけるイメージをもつことで、目的のポーズに近づけることが容易になる。図6(B)における教示図形Fの「50」という文字によって、ユーザUは体重のかける割合を把握し人体の重心をイメージすることができ、目的のポーズに近づけることが容易になる。
図6(C)において、教示画像Im13は、ユーザモデルUMおよび教示図形Fを含む。教示図形Fは、複数のパーツ(パーツp11、パーツp12、及びパーツp16)を含む。パーツp16は、例えば、右足と左足との姿勢(相対位置)を表す三角形である。パーツp16は、例えば、パーツp11(右足の位置)およびパーツp12(左足の位置)に対して位置決めされる。パーツp16の底辺は、例えば水平方向と平行に配置される。パーツp16の2つの斜辺は、それぞれ、目標となる左右の足の傾きのイメージを表す。ユーザは、左足の傾きと右足の傾きとをパーツp16に合わせるようにイメージすることで、目的のポーズに近づけることが容易になる。
図7(A)において、教示画像Im14は、ユーザモデルUMおよび教示図形Fを含む。教示図形Fは、複数のパーツ(パーツp17及びパーツp18)を含む。パーツp17は、例えば、頭部と右足先と腰中央との位置関係のイメージを表す三角形である。パーツp17は、例えば、右手先と左手先との位置関係のイメージを表す三角形である。ユーザは、体の各部の位置関係をパーツp17およびパーツp18に合わせるようにイメージすることで、目的のポーズに近づけることが容易になる。
図7(B)において、教示画像Im15は、ユーザモデルUMおよび教示図形Fを含む。教示図形は、複数のパーツ(パーツp21からパーツp30)を含む。パーツp21は、頂点が下向きの三角形であり、右手を下方に伸ばすイメージを表す。パーツp22は、頂点が上向きの三角形であり、左手を上方に伸ばすイメージを表す。パーツp23は、パーツp21およびパーツp22を結ぶ線分である。
パーツp24は、頭部に対して位置決めされる三角形である。パーツp24は、頂点が上向きの三角形であり、顔を上方に向けるイメージを表す。パーツp25は、腰に対して位置決めされ、頂点が下向きの三角形である。パーツp26は、パーツp24およびパーツp25を結ぶ線分である。パーツp26は、水平方向と平行に配置され、頭と腰とを結ぶ線が水平になるイメージを表す。
パーツp27からパーツp30は、それぞれ、「脇」という漢字の一部である。この「脇」という漢字は、ユーザモデルUMの左脇に対して位置決めされる。三角のポーズにおいては、左脇を伸ばすとよいとされる。パーツp27は、「脇」の一部(へん)である「月」であり、パーツp28からパーツp30は、それぞれ、「脇」の一部(つくりの一部)である「力」である。パーツp30は、ユーザモデルUMの左脇(左腰)に沿うように位置決めされ、「脇」という漢字は、ユーザモデルUMの左脇(左腰)に沿うように変形している。
図7(C)において、教示画像Im15は、ユーザモデルUMおよび教示図形Fを含む。教示図形Fは、複数のパーツ(パーツp31からパーツp37)を含む。パーツp31からパーツp37は、それぞれ、「s」、「t」、「r」、「e」、「t」、「c」、「h」のアルファベット(表音文字)である。パーツp31からパーツp37は、一組で「stretch」という単語を表す。パーツp31からパーツp37は、それぞれ、ユーザモデルUMの左脇に対して位置決めされ、「stretch」はユーザモデルUMの左脇に沿うように変形している。このように、教示図形は、変形させた単語を含み、複数のパーツの少なくとも1つは、変形させた単語を構成する表音文字を含んでもよい。
教示図形に文字を用いる場合、図7(B)のように教示図形が漢字(例、脇)を含んでもよいし、図7(C)のようにアルファベット(例、「stretch」)を含んでもよい。また、教示図形に文字を用いる場合、教示図形は、「わき」などのひらがなと、「ワキ」などのカタカナとの一方または双方を含んでもよい。教示図形は、表音文字の文字列からなる単語(例、「わき」)を含む場合、単語を構成する各文字(例、「わ」、「き」)が教示図形のパーツでもよい。また、表音文字の文字列(例、「わき」)が教示図形の全体または1つのパーツでもよい。また、教示図形に文字を用いる場合、その言語は任意であり、例えば、教示図形は、韓国語で用いられる文字(例、ハングル)、人為的に作られた文字(例、フォント)などを含んでもよい。
次に、図8から図15を参照して、上述の実施形態に係る検出システム1の動作について説明する。図8から図15は、それぞれ、実施形態に係る検出システムの動作を示す図である。図8から図15のそれぞれには、表示部3に表示される教示画像を示した。図8から図11は「戦士のポーズ」に対応し、図12および図13は「三角のポーズ」に対応し、図14および図15は、「木のポーズ」に対応する。
ヨガの一連の動作において各ポーズを行うスケジュール(タイミング、順番、時間)は、例えば、図1の記憶部8に予め記憶される姿勢定義データD1に定められている。例えば、姿勢定義データD1には、まず「戦士のポーズ」を行い、次いで「三角のポーズ」行った後、「木のポーズ」を行うことが定められている。この場合、行うポーズの順番で各ポーズのサンプル画像が表示される。また、各ポーズを行うと想定されている期間にわたって、このポーズのサンプル画像が表示される。
図8から図15において、ユーザモデルUMは、黒のシルエットで表されている。このユーザモデルUMは、例えば、点群データに含まれる各点を黒のドットで表したものである。ユーザモデルUMは、例えば、予め設定された背景画像(例、海岸の画像、夕暮れの画像、森林の画像)等と合成されて表示されるが、図8から図15においては背景画像を省略する。また、以下の説明において、検出システム1の各部については、適宜、図1を参照する。
図8から図11において、画像処理部13(図1参照)は、「戦士のポーズ」に対応するサンプル画像Sa、検出部5(図1参照)がユーザを検出して得られるユーザモデルUM、及び教示図形Fを含む教示画像Imを生成する。表示制御部7(図1参照)は、教示画像Imのデータを表示部3(図1参照)に供給し、表示部3は、教示画像Imを表示する。
図8(A)において教示図形Fは、「吸」という漢字である。「吸」という教示図形Fは、例えば、息を吸う動作を伴う姿勢のサンプル画像Saが表示されるタイミングに基づいて、ユーザモデルUMに対して所定の位置に表示される。この場合、例えば、ユーザUがサンプル画像Saを参照して息を吸うタイミングで、「吸」という教示図形FがユーザモデルUMの胸に対して位置決めされて表示される。
図8(B)において教示図形Fは、パーツp41、パーツp42、及びパーツp43を含む。パーツp41は、例えば、背筋を伸ばすイメージを表す帯状の図形である。パーツp42は、例えば、低い位置に重心を置くイメージを表す丸印の図形である。図8(B)において、ユーザUは腰が下に落としきれおらず、ユーザモデルUMは、サンプル画像Saに比べて腰の位置が高い。ユーザUは、例えば、重心を低くするイメージを、教示図形Fのパーツp42によって直感的に得ることができる。
また、パーツp43は、「吐」という漢字である。「吐」というパーツp43は、例えば、息を吐く動作を伴う姿勢のサンプル画像Saが表示されるタイミングに基づいて、ユーザモデルUMに対して所定の位置に表示される。この場合、例えば、ユーザUがサンプル画像Saを参照して息を吐くタイミングで、「吐」という教示図形FがユーザモデルUMの胸に対して位置決めされて表示される。
図8(C)において教示図形Fは、パーツp43およびパーツp44を含む。パーツp43は、図8(B)と同様に「吐」という漢字であるが、図8(B)に比べてユーザモデルUMから離れた位置に表示される。例えば、ユーザUは、吐いた息を遠くまで届かせるイメージを、パーツp43から直感的に得ることで、息を深く吐く動作を直感的に行うことができる。パーツp44は、図8(B)のパーツp41を折れ線状に変形させた図形である。パーツp44は、背筋を伸ばすとともに膝を垂直に曲げるイメージを表す。
図9(A)において教示図形Fは、パーツp45、パーツp46、及びパーツp47を含む。パーツp45からパーツp47は、それぞれ、三角形の図形(例、矢印の先端部の形状)である。パーツp45は、ユーザモデルUMの頭部に対して位置決めされる。パーツp45は、例えば、ユーザの頭部を向ける方向のイメージを表す。パーツp46は、ユーザモデルUMの右足に対して位置決めされる。パーツp46は、例えば、ユーザの右足を向ける方向のイメージを表す。パーツp47は、ユーザモデルUMの左足に対して位置決めされる。パーツp47は、例えば、ユーザの左足を向ける方向のイメージを表す。
図9(B)において教示図形Fは、パーツp48、パーツp49、パーツp50、及びパーツp51を含む。パーツp48は、例えば、ユーザモデルUMの右肩と左肩との中心に対して位置決めされる。パーツp48は、水平方向に延びる棒状の図形である。パーツp48は、例えば、右腕および左腕を水平方向に伸ばすイメージを表す。パーツp49は、折れ線状の図形であり、ユーザモデルUMの脚部に対して位置決めされる。パーツp49は、例えば、脚部を足首と膝とで曲げるイメージを表す。パーツp50およびパーツp51は、それぞれ、正方形状の図形である。パーツp49は、例えば、ユーザモデルUMの足首に対して位置決めされ、足首を垂直に曲げるイメージを表す。パーツp50は、例えば、ユーザモデルUMの膝に対して位置決めされ、膝を垂直に曲げるイメージを表す。
図9(C)において教示図形Fは、パーツp52、パーツp53、及びパーツp54を含む。パーツp52は、例えば、ユーザモデルUMの右足と左足とに対して位置決めされる。パーツp52は、水平方向に延びる棒状の図形であり、その両端に体重をかける位置を表す三角形を含む。パーツp53は「70」という数字であり、右足にかける体重の割合が70%であるイメージを表す。パーツp54は「30」という数字であり、左足にかける体重の割合が30%であるイメージを表す。
図10(A)において教示図形Fは、外形が長方形の枠状の図形である。教示図形Fは、例えば、ユーザモデルUMの胸に対して位置決めされ、胸の外形が長方形状になるように胸を張るイメージを表す。図10(B)において教示図形Fは、「吸」という漢字である。「吸」という教示図形Fは、例えば、ユーザモデルUMの胸に対して位置決めされ、息を吸うイメージを表す。
図10(C)において教示図形Fは、パーツp55およびパーツp56を含む。パーツp55は、1つの頂点が上方を向いた3つの三角形である。パーツp55は、例えば、ユーザモデルUMの右腕に対して位置決めされ、右腕を上方に伸ばすイメージを表す。パーツp56は、「吐」という漢字である。「吐」というパーツp56は、例えば、ユーザモデルUMの胸に対して位置決めされ、息を吐くイメージを表す。
図11(A)は、図10(C)と連続する動作に対応する。図11(A)において教示図形Fは、パーツp55およびパーツp56を含む。パーツ「吐」というパーツp56は、例えば、図10(C)に比べて、ユーザモデルUMから離れた位置に位置決めされている。図11(B)において、教示図形Fは、円弧状に並ぶ複数の丸印の図形である。この教示図形Fは、例えば、右脇を湾曲させて伸ばすイメージを表す。
図12および図13において、画像処理部13(図1参照)は、「三角のポーズ」に対応するサンプル画像Sa、検出部5(図1参照)がユーザを検出して得られるユーザモデルUM、及び教示図形Fを含む教示画像Imを生成する。表示制御部7(図1参照)は、教示画像Imのデータを表示部3(図1参照)に供給し、表示部3は、教示画像Imを表示する。
図12(A)において教示図形Fは、「吐」という漢字である。図12(B)において教示図形Fは、パーツp57、パーツp58、及びパーツp59を含む。パーツp57は、例えば、ユーザモデルUMの右足と左足とに対して位置決めされる。パーツp57は、水平方向に延びる棒状の図形であり、その両端に体重をかける位置を表す三角形を含む。パーツp58は「50」という数字であり、右足にかける体重の割合が50%であるイメージを表す。パーツp59は「50」という数字であり、左足にかける体重の割合が50であるイメージを表す。
図13(A)において教示図形Fは、パーツp57、パーツp58、パーツp59、パーツp60、及びパーツp61を含む。パーツp60は、例えば、右足と左足との姿勢(相対位置)のイメージを表す三角形である。パーツp60は、例えば、ユーザモデルUMの右足および左足に対して位置決めされる。パーツp60の底辺は、例えば水平方向と平行に配置される。パーツp60の2つの斜辺は、それぞれ、目標となる左右の足の傾きのイメージを表す。ユーザUは、左足の傾きと右足の傾きとをパーツp60に合わせるようにイメージすることで、目的のポーズに近づけることが容易になる。パーツp61は、1つの頂点が上向きの三角形(上向きの矢印の先端部)である。パーツp61は、例えば、ユーザモデルUMの頭部に対して位置決めされ、顔を向ける方向のイメージを表す。
図13(B)において、教示図形Fは、パーツp62及びパーツp63を含む。パーツp62は、例えば、頭部と右足先と腰中央との位置関係のイメージを表す。パーツp63は、例えば、右手先と左手先との位置関係のイメージを表す。ユーザUは、体の各部の位置関係を教示図形に合わせるようにイメージすることで、目的のポーズに近づけることが容易になる。
図14および図15において、画像処理部13(図1参照)は、「木のポーズ」に対応するサンプル画像Sa、検出部5(図1参照)がユーザを検出して得られるユーザモデルUM、及び教示図形Fを含む教示画像Imを生成する。表示制御部7(図1参照)は、教示画像Imのデータを表示部3(図1参照)に供給し、表示部3は、教示画像Imを表示する。
図14(A)において、教示図形Fは、パーツp65及びパーツp66を含む。パーツp65は、例えば、右足と左足との位置関係のイメージを表す折れ線である。パーツp66は、右足と左足の脛とを垂直にするイメージを示す正方形である。図14(B)において、教示図形Fは、「吸」という漢字である。図14(C)は、図14(B)と連続する動作に対応する。図14(C)において、教示図形Fの「吸」は、例えば背筋を伸ばしながら息を吸うイメージを与えるように、図14(B)に比べて上方に移動している。
図15(A)において、教示図形Fは、パーツp67及びパーツp68を含む。パーツp67は、垂直方向に延びる棒状の図形である。パーツp68は、頂点が上向きの三角形(矢印の先端状の図形)である。パーツp67及びパーツp68は、例えば、右足、背骨、頭を一直線にして上方に伸ばすイメージを表す。図15(B)および図15(C)において、教示図形Fは、パーツp69およびパーツp70を含む。パーツp69は「呼」という漢字であり、パーツp70は「吸」という漢字である。パーツp69の「呼」は、ユーザモデルUMの左側に位置決めされ、パーツp70はユーザモデルUMの右側に位置決めされる。パーツp69およびパーツp70は、一組で「呼吸」という単語を表す。
図15(B)および図15(C)のそれぞれにおいて、「呼」と「吸」とのうち相対的にコントラストが高い方を実線で表し、「呼」と「吸」とのうち相対的にコントラストが低い方を点線で表した。図15(B)はユーザが息を吐く動作に対応しており、パーツp69の「呼」は、パーツp70の「吸」よりも高いコントラストで表示される。また、図15(C)はユーザUが息を吸う動作に対応しており、パーツp70の「吸」は、パーツp69の「吐」よりも高いコントラストで表示される。このように、画像処理部13は、教示画像として、複数のパーツのうちの第1パーツ(例、パーツp69)を第2パーツ(例、パーツp70)と異なる表示で表した画像を生成してよい。本実施形態において、「異なる表示」は、表示の要素(例、色、色相、明度、彩度、周囲に対するコントラスト)の少なくとも1つが異なることを含む。
次に、上述のような検出システムの構成に基づいて、実施形態に係る検出方法について説明する。図16は、第1実施形態に係る検出システムの動作を示すフローチャートである。検出システムの各部については、適宜、図1を参照する。
ステップS1において、検出装置2(例、検出部5)は、ユーザUの検出を開始する。ステップS2において、検出装置(例、モデル生成部11)はステップS1の検出結果に基づいて、ユーザUのモデルを生成する。ステップS3において、検出装置(例、表示制御部7)は、ユーザUのモデルの表示を開始させる指令(表示開始指令)を表示部3に送信する。例えば、表示制御部7は、ステップS2で生成されたユーザUのモデルに対応する画像(例、図2のユーザモデルUMを含む画像)の画像データを、表示開始指令として表示部3に供給する。表示部3は、ステップS4において、検出装置から供給されたデータに基づいてユーザUのモデルの表示を開始する。
検出装置は、ステップS5において、対象のポーズを設定する。行うポーズの種類、順番、及びポーズを行う時間として設定された時間は、例えば、図5(A)に示した姿勢定義データD1に定められる。以下の説明において、適宜、ポーズを行う順番として設定された順番をポーズの設定順番と称する。また、以下の説明において、適宜、ポーズを行う時間(例、15秒、30秒)として設定された時間をポーズの設定時間という。図5(A)では、例えば、最初に行うポーズとして「戦士のポーズ」が予め設定され、その後に行うポーズとして「三角のポーズ」が設定される。ここでは、対象のポーズとして「戦士のポーズ」が設定されるものとする。対象のポーズが設定されてから、設定されたポーズの設定時間が経過した際に、対象のポーズは、後述するステップS15の処理を経てポーズの設定順番に基づいて次にポーズに変更される。
ステップS6において、検出装置(例、表示制御部7)は、ステップS5で設定されたポーズのサンプル画像の表示を開始させる指令(表示開始指令)を表示部3に送信する。例えば、画像処理部13は、図5(A)の姿勢定義データD1に基づいて「戦士のポーズ」のサンプル画像Saのデータを取得し、サンプル画像SaとユーザモデルUMとを含む画像のデータを生成する。表示制御部7は、サンプル画像の表示開始指令として、画像処理部13が生成したサンプル画像SaとユーザモデルUMとを含む画像のデータを表示部3に供給する。表示部3は、ステップS7において、検出装置から供給されたデータに基づいて、ステップS5で設定されたポーズのサンプル画像の表示を開始する。
検出装置(例、画像処理部13)は、ステップS8において、教示図形の表示開始条件を満たすか否かを判定する。画像処理部13は、例えば、図5(C)に示した表示条件データD3に基づいて、教示図形の表示開始条件を満たすか否かを判定する。例えば、画像処理部13は、ステップS5で設定されたポーズに関連付けられた教示図形のパーツごとに、表示条件データD3の「表示開始条件」に規定された条件を満たすか否かを判定する。
例えば、図5(B)に示した教示図形データにおいて、「戦士のポーズ」と関連付けられた教示図形は「教示図形識別番号」が「01」であり、画像処理部13は、「教示図形識別番号」が「01」のパーツのそれぞれについて上記の判定を行う。例えば、「教示図形識別番号」が「01」であり、「パーツ識別番号」が「03」のパーツは、パーツp1の「吸」である。図5(C)に示すように、このパーツp1「吸」の「表示開始条件」は、ポーズの表示開始から時間T1経過することである。画像処理部13は、ステップS6においてポーズのサンプル画像の表示開始指令が送信されてから時間T1が経過したと判定した場合に、教示図形の表示開始条件を満たすと判定する(ステップS8;Yes)。画像処理部13は、教示図形の表示開始条件を満たさないと判定した場合(ステップS8;No)、ステップS8の処理を繰り返す。
検出装置(例、画像処理部13)は、教示図形の表示開始条件を満たすと判定した場合(ステップS8;Yes)、ステップS9において教示画像を生成する。画像処理部13は、ステップS8において表示開始条件を満たすと判定した教示図形のパーツを、ユーザモデルUMに対して位置決めして、教示画像を生成する。教示画像を生成する処理については、後に図17を参照して説明する。
検出装置(例、表示制御部7)は、ステップS10において、教示画像の表示を開始させる指令(表示開始指令)を表示部3に送信する。例えば、表示制御部7は、教示画像の表示開始指令(信号)として、ステップS9において画像処理部13が生成した表示画像のデータを表示部3に供給する。表示制御部7は、ユーザUの人体に関連する位置(部位)に対して所定の位置関係で教示図形Fを現在の動作又は次の動作を示すガイド表示として表示部3に表示する。表示部3は、ステップS11において、検出装置から供給されたデータに基づいて表示画像を表示する。
検出装置(例、画像処理部13)は、ステップS12において、教示図形の表示終了条件を満たすか否かを判定する。画像処理部13は、例えば、図5(C)に示した表示条件データD3に基づいて、教示図形の表示終了条件を満たすか否かを判定する。例えば、画像処理部13は、ステップS5で設定されたポーズに関連付けられた教示図形のパーツごとに、表示条件データD3の「表示終了条件」に規定された条件(データ)を満たすか否かを判定する。
例えば、図5(B)に示した教示図形データにおいて、「戦士のポーズ」と関連付けられた教示図形は「教示図形識別番号」が「01」であり、画像処理部13は、「教示図形識別番号」が「01」のパーツのそれぞれについて上記の判定を行う。例えば、「教示図形識別番号」が「01」であり、「パーツ識別番号」が「03」のパーツは、パーツp1の「吸」である。
図5(C)に示すように、このパーツp1「吸」の「表示終了条件」は、ポーズの表示開始から時間T2経過することである。画像処理部13は、ステップS6においてポーズのサンプル画像の表示開始指令が送信されてから時間T2が経過したと判定した場合に、教示図形の表示終了条件を満たすと判定する(ステップS12;Yes)。画像処理部13は、教示図形の表示終了条件を満たさないと判定した場合(ステップS12;No)、ステップS12の処理を繰り返す。
検出装置(例、画像処理部13)は、教示図形の表示終了条件を満たすと判定した場合(ステップS12;Yes)、教示図形の表示を停止させる。例えば、画像処理部13は、教示図形の表示終了条件を満たすと判定した場合(ステップS12;Yes)、表示終了条件を満たすと判定したパーツを含まない教示画像を生成する。ステップS13において、表示制御部7は、パーツを含まない教示画像のデータを、表示停止指令として表示部3に供給する。表示部3は、ステップS14において、検出装置から供給されるデータに基づいて画像を表示することによって、教示図形の表示を停止する。ここでは、検出装置(例、表示制御部7)は、教示図形を含まない教示画像のデータを表示部3に供給し、表示部3は、教示図形を含まない教示画像を表示する。
検出装置は、ステップS15において、対象のポーズを変更するか否かを判定する。例えば、検出装置は、図5(A)に示した姿勢定義データD1に基づいて次の対象のポーズがあるか否かを判定する。検出装置は、次の対象のポーズがあると判定した場合に、ステップS5において設定された対象のポーズの設定時間が経過した際に、対象のポーズを変更すると判定する(ステップS15;Yes)。検出装置は、対象のポーズを変更すると判定した場合(ステップS15;Yes)、ステップS5の処理に戻り、対象のポーズを次のポーズに設定し、ステップS6以降の処理を繰り返す。また、対象のポーズを変更しないと検出装置が判定した場合(ステップS15;No)、例えば、検出装置および表示部は、待機状態となる。
検出装置2(例、処理部6、画像処理部13、表示制御部7)は、例えば、教示画像(教示図形)の表示開始指示(トリガ信号)が検出された場合、特定(複数)の表示要素(例、パーツ)を、表示画面(表示部3)における表示位置を所定方向へ移動させる表示移動処理を、表示部3に実行させる。また、検出装置2(例、処理部6、画像処理部13、表示制御部7)は、例えば、上記の表示移動処理を実行させるとともに、サンプル画像Saが切り替わる信号に基づいて、表示要素を順次更新して表示画面に表示させる表示更新処理を、表示部3に実行させる。また、検出装置2(例、処理部6、画像処理部13、表示制御部7)は、例えば表示終了指令(表示終了の指示)が検出された場合、特定の表示要素の表示位置の移動を停止させる表示停止処理を、表示部に実行させる。
なお、検出装置は、各種情報を音声で入力可能な音声入力部を備えてもよい。検出装置は、ユーザの入力(例、音声入力)に基づいて、ポーズを変更するか否かを判定してもよい。例えば、ユーザは、次の対象のポーズの種類を音声で入力してもよい。例えば、検出装置は、ユーザが発声したポーズの名称(例、「三角のポーズ))を識別してもよい。検出装置2は、識別した音声と予め関連付けられた種類のポーズを、ステップS5の処理において、次の対象のポーズの種類として設定してもよい。
次に、画像処理部13の動作に基づいて、図16のステップS9において教示画像を生成する処理について説明する。図17は、第1実施形態に係る画像処理部による処理を示すフローチャートである。なお、検出システム1の各部については、適宜、図1を参照する。また、ステップS1からステップS15の処理については、適宜、図16を参照する。
ステップS21において、画像処理部13は、モデル生成部11(図1参照)が図16のステップS2において生成したユーザのモデルを取得する。ステップS22において、画像処理部13は、教示図形のパーツを選択する。例えば、画像処理部13は、ステップS5において設定された対象のポーズについて、図5(B)に示した教示図形データD2を参照して、対象のポーズと関連付けられた教示図形に属するパーツを特定する。例えば、「対象のポーズ」として「戦士のポーズ」が設定されている場合、「戦士のポーズ」に対応する「教示図形識別番号」は「01」であり、画像処理部13は「教示図形識別番号」が「01」であるパーツを特定する。図5(B)において、「教示図形識別番号」が「01」の教示図形に属するパーツは、「パーツ識別番号」が「01」、「02」、「03」である。画像処理部13は、ステップS22において、「パーツ識別番号」を「01」、「02」、「03」から選択する。
ステップS23において、画像処理部13は、ステップS22で選択したパーツの表示開始位置を取得する。例えば、ステップS22において、図5(B)に示した「パーツ識別番号」が「03」であるパーツ(「吸」)が選択されたとする。画像処理部13は、図5(C)の表示条件データに基づいて、「教示図形識別番号」が「01」であり、かつ「パーツ識別番号」が「03」であるパーツの「表示開始位置」を取得する。「表示開始位置」は、例えば、「基準の部位名」および「オフセット量」(表示位置のオフセット)を含む。
ステップS24において、画像処理部13は、「表示開始位置」の「基準の部位名」に対応する位置を取得する。画像処理部13は、部位特定部12が特定した部位の座標に基づいて、「基準の部位名」に指定された部位の位置を取得する。例えば、「基準の部位名」が「胸」であるとする。この場合、画像処理部13は、部位特定部12が「胸」であると特定した部位の位置(例、座標)を取得する。
ステップS25において、画像処理部13は、オフセット量に基づいて、教示画像上でパーツを位置決めする。例えば、画像処理部13は、「基準の部位名」に指定された部位の位置(ステップS24参照)を基準の位置として、基準の位置から「表示開始位置」の「オフセット量」に規定された量だけシフトした位置を算出し、算出した位置を選択されたパーツである「吸」の位置に決定する(位置決めする)。画像処理部13は、決定した位置に、図5(B)の教示図形データD2における形状データ(例、「form_0103.dat))に規定されたImp3の「吸」を配置する。
ステップS26において、画像処理部13は、次のパーツがあるか否かを判定する。画像処理部13は、ステップS5で設定された対象のポーズに属するパーツの少なくとも1つについて、ステップS25の位置決め処理が完了していない場合に、次のパーツがあると判定する(ステップS26;Yes)。画像処理部13は、次のパーツがあると判定した場合(ステップS26;Yes)、ステップS22に戻って次のパーツを選択し、以降の処理を繰り返す。画像処理部13は、次のパーツがないと判定した場合(ステップS26;No)、ステップS25で位置決めされたパーツを教示図形として含む教示画像のデータを出力し、一連の処理を終了する。
[第2実施形態]
第2実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図18は、第2実施形態に係る検出システムを示す図である。本実施形態に係る検出システム1は、検出部5の検出結果に基づくタイミングで、教示図形を表示する。例えば、検出装置2は、ユーザUの姿勢を特定し、特定した姿勢に関連付けられたタイミングで教示図形を表示させる。
本実施形態に係る検出装置2は、姿勢特定部15を備える。姿勢特定部15は、例えば、処理部6に設けられる。姿勢特定部15は、検出部5から得られるユーザUの姿勢の種類を、予め登録された複数の種類から特定する。姿勢特定部15は、例えば、記憶部8に記憶された姿勢定義データD1に基づいて、ユーザUの姿勢の種類を特定する。
図19は、第2実施形態に係る姿勢特定部による処理を示す図である。図19(A)には、本実施形態に係る姿勢定義データを概念的に示した。図19(B)には、実施形態に係る姿勢特定部による処理を概念的に示した。姿勢定義データD1は、複数の種類の姿勢データ(D1a、D1b)を含む。姿勢データD1a、姿勢データD1bは、それぞれ、「姿勢名称」の情報と、「定義データ」の情報とを含む。
「姿勢名称」は、各姿勢データが定義する姿勢の種類の名称を示す情報(例、識別情報)である。例えば、姿勢データD1aは、「戦士のポーズ」の定義を示すデータであり、姿勢データD1aの「姿勢名称」には「戦士のポーズ」という情報が格納される。また、姿勢データD1bは、「三角のポーズ」の定義を示すデータであり、姿勢データD1bの「姿勢名称」には「三角のポーズ」という情報が格納される。
「定義データ」は、各姿勢の定義を示すデータである。「定義データ」は、例えば、「部位01の条件」、「部位02の条件」、・・・「部位nの条件」を含む。部位01、部位02、・・・部位nは、それぞれ、部位特定部12が特定する部位の種類の1つに対応する。部位特定部12が特定する部位の種類は、例えば、頭部、首、右肩、左肩、肩中央、右肘、右手首、右手先、左肘、左手首、左手先、背骨、右腰、左腰、腰中央、右膝、右足首、右足先、左膝、左足首、左足先などである。
「「部位01の条件」、「部位02の条件」、・・・「部位nの条件」には、それぞれの部位が満たす条件が格納される。例えば、「部位02」が「右肘」であるとする、姿勢データD1aにおける「定義データ」の「部位02の条件」には、「戦士のポーズ」をとる場合の右肘の位置(例、他の部位に対する相対位置)の条件が格納される。例えば、右肘の位置の条件は、例えば、右肘の曲がり角度の範囲を含む。右肘の曲がり角度は、例えば、右肘と右手先とを結ぶ線(前腕)と、右肘と右肩とを結ぶ線(上腕)との角度である。
姿勢特定部15は、例えば、検出部5の検出結果に基づいて部位特定部が特定した各部位の位置を取得する。そして、姿勢特定部15は、検出部5の検出結果から得られる各部位の位置関係と、「定義データ」に定義される各部位の位置関係との類似度を算出する。姿勢特定部15は、複数の種類の姿勢データのそれぞれについて上記の類似度を算出する。姿勢特定部15は、複数の種類の姿勢について上記の類似度を比較することによって、ユーザUの姿勢の種類を複数の種類から特定する。
例えば、図11(B)において、符号SDは、検出部5の検出結果から得られるユーザUの各部位の位置を示す骨格情報である。姿勢特定部15は、骨格情報SDと、「戦士のポーズ」の定義データD1aとを用いて、「戦士のポーズ」についての類似度を算出する。また、姿勢特定部15は、骨格情報SDと、「三角のポーズ」の定義データD1bとを用いて、「三角のポーズ」についての類似度を算出する。姿勢特定部15は、「戦士のポーズ」についての類似度と「三角のポーズ」についての類似度とを比較し、類似度が高い方の姿勢をユーザの姿勢として特定する。
図20は、第2実施形態に係る画像処理部による処理を示す図である。ここでは、戦士のポーズについて説明する。図20(A)において、符号Q1は部位特定部12が特定した手先であり、符号Q2は部位特定部12が特定した肘であり、符号Q3は部位特定部12が特定した肩である。また、符号αは、手先Q1と肘Q2とを結ぶ線(前腕Q4)と、肘Q2と肩Q3とを結ぶ線(上腕Q5)との角度(肘の角度)である。
本実施形態に係る検出装置2(図18参照)は、例えば、検出部5の検出結果から得られる肘の角度αに基づいて、教示図形を表示させる。例えば、検出装置2の処理部6は、肘の角度αが所定の条件を満たしたことをトリガーとして、教示図形を表示制御部7によって表示させる。例えば、戦士のポーズにおける動作には、肘が曲がっている状態ST1(実線)よりも、肘が伸びている状態ST2(二点鎖線)の方が望ましい場合がある(図2参照)。
図20(A)の符号G1は、時間に対する肘の角度αを示すグラフである。肘の角度αが増加する場合、ユーザが肘を伸ばす動作をしていると推定される。画像処理部13は、例えば、時間Δtにおける肘の角度αの変化量Δαを監視する。画像処理部13は、例えば、肘の角度の時間変化量であるΔα/Δtが閾値以上である場合に、ユーザが肘を伸ばす動作をしていると判定する。この閾値は、例えば、図5(C)に示した表示条件データD3における「表示開始条件」に格納されている。画像処理部13は、画像処理部13は、ユーザが肘を伸ばす動作をしていると判定した場合に、肘を伸ばす動作と関連付けられた教示図形(例、図2の「吸」)を表示させる。
また、図20(B)において、符号Q6は部位特定部12が特定した足首であり、符号Q7は部位特定部12が特定した膝であり、符号Q8は部位特定部12が特定した腰である。また、符号βは、足首Q6と膝Q7とを結ぶ線(すね部Q9)と、膝Q7と腰Q8とを結ぶ線(大腿部Q10)との角度(膝の角度)である。
本実施形態に係る検出装置2(図18参照)は、例えば、検出部5の検出結果から得られる膝の角度βに基づいて、教示図形を表示させる。例えば、検出装置2は、膝の角度βが所定の条件を満たしたことをトリガーとして、教示図形を表示させる。例えば、戦士のポーズにおける動作には、膝が開いた状態ST3(実線)よりも、膝が垂直に曲がった状態ST4(二点鎖線)の方が望ましい場合がある(例、図3参照)。
図20(B)の符号G2は、時間に対する膝の角度βを示すグラフである。肘の角度βが減少する場合、ユーザが膝を曲げる動作をしていると推定される。画像処理部13は、例えば、時間Δtにおける膝の角度βの変化量Δβを監視する。画像処理部13は、例えば、膝の角度の時間変化量であるΔβ/Δtが閾値以上である場合に、ユーザが膝を曲げる動作をしていると判定する。この閾値は、例えば、図5(C)に示した表示条件データD3における「表示開始条件」に格納されている。画像処理部13は、ユーザが膝を曲げる動作をしていると判定した場合に、膝を曲げる動作と関連付けられた教示図形(例、図2の「吐」)を表示させる。
次に、処理部6の動作に基づいて、本実施形態に係る教示画像を生成する処理について説明する。図21は、第2実施形態に係る処理部による処理を示すフローチャートである。検出システム1の各部については、適宜、図18を参照する。ステップS31において、姿勢特定部15は、検出から得られるユーザの姿勢の種類を特定する。例えば、図18の検出部5はユーザUを検出し、部位特定部12は、検出部5の検出結果に基づいてユーザUの各部位の位置を特定する。また、姿勢特定部15は、図19で説明したように、部位特定部12が特定しユーザの各部位の位置関係を示す情報(例、図19(B)の骨格情報SD)と、予め登録された複数の種類の姿勢の情報(例、図19(A)の姿勢定義データD1)とを比較して、ユーザの姿勢の種類を特定する。
ステップS32において、画像処理部13は、ステップS31において姿勢特定部15が特定した姿勢に関連付けられた教示図形を特定する。例えば、図5(B)で説明したように、教示図形は、予め登録された姿勢の種類(例、図5(A)の「姿勢名称」)と関連付けられている。例えば、姿勢特定部15が特定した姿勢が「戦士のポーズ」である場合、画像処理部13は、図5(B)の教示図形データD2において「教示図形識別番号」が「01」の教示図形を、「戦士のポーズ」に関連付けられた教示図形として特定する。
ステップS33において、画像処理部13は、ステップS32で特定した教示図形のパーツを選択する。例えば、画像処理部13は、図5(B)の教示図形データD2を用いて、教示図形のパーツを選択する。例えば、画像処理部13は、ステップS32において「教示図形識別番号」が「01」の教示図形を特定した場合、「教示図形識別番号」が「01」の教示図形に属する「パーツ識別番号」が「01」、「02」、「03」のいずれかのパーツを選択する。
ステップS34において、画像処理部13は、ステップS33において選択したパーツの表示条件を取得する。パーツの表示条件は、例えば、図5(C)の表示条件データD3に規定されている。例えば、図20(A)で説明したように、「戦士のポーズ」(図2参照)に関する教示図形である「吸」の表示条件は、肘の角度αの時間変化量であるΔα/Δtが閾値以上である条件を含み、この閾値は、図5(C)の表示条件データD3の「表示開始条件」に予め格納される。画像処理部13は、例えば、記憶部8に記憶された表示条件データD3から、パーツの表示条件を取得する。
ステップS35において、画像処理部13は、ステップS33において選択されたパーツが表示条件を満たすか否かを判定する。例えば、画像処理部13は、図20(A)で説明したように、部位特定部12が特定した各部位の位置に基づいて、肘の角度αの時間変化量であるΔα/Δtを算出する。また、部位特定部12は、算出したΔα/ΔtとステップS34で取得した閾値とを比較し、Δα/Δtが閾値以上である場合に、選択されたパーツが表示条件を満たすと判定する(ステップS35;Yes)。画像処理部13は、選択されたパーツが表示条件を満たすと判定した場合(ステップS35;Yes)、ステップS36において、ステップS33で選択されたパーツを表示すると決定し、図17のステップS23からステップS25の処理と同様にしてパーツを位置決めする。
画像処理部13は、選択されたパーツが表示条件を満たさないと判定した場合(ステップS35;No)、ステップS37において、ステップS33で選択されたパーツを表示しないと決定する。ステップS36の処理の終了後、又はステップS37の処理の終了後に、画像処理部13は、ステップS38において次のパーツがあるか否かを判定する。ステップS38の処理は、ステップS26の処理と同様である。
[第3実施形態]
第3実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図22は、第3実施形態に係る検出システムを示す図である。本実施形態に係る検出装置2は、図形分割部16を備える。図形分割部16は、教示図形を複数のパーツに分割する。検出装置2には、入力部17が設けられる。入力部17は、例えば、キーボード、マウス、タッチパネル、音声入力デバイスなどである。ユーザは、入力部17によって検出装置2に各種情報を入力可能である。例えば、ユーザは、入力部17を介して、教示図形を登録可能である。図形分割部16は、例えば、ユーザが入力した教示図形を複数のパーツに分割し、分割された複数のパーツの情報を記憶部8の教示図形データD2に格納する。
図23は、第3実施形態に係る図形分割部による処理を示す図である。図23(A)において、分割前の教示図形Fは、2以上の部首を含む漢字(例、「伸」)である。図形分割部16は、例えば、教示図形Fを含む領域ARを対象にして、探索木(二分探索木)を用いた経路探索によって、領域ARを分割する経路を探索する。
例えば、図形分割部16は、図23(A)の中段左図に示すように、水平方向の端を開始位置として経路R1を探索する。図形分割部16は、開始位置から、教示図形Fの線と交差せずに領域ARの端に至る経路を探索する。図形分割部16は、例えば、経路R1が領域ARの中央側を通り、経路R1の長さが最小になるように、経路R1を最適化する。
図形分割部16は、経路R1を境界として、領域ARを複数の領域(例、領域A1、領域A2)に分割する。分割された複数の領域は、それぞれ、教示図形のパーツの候補である。図形分割部16は、領域A1、領域A2のそれぞれに、教示図形Fの一部が配置されているか否かを判定する。図形分割部16は、領域A1、領域A2の少なくとも1つに教示図形Fの一部が配置されていない場合に、これら教示図形Fのパーツの候補を却下する。また、図形分割部16は、領域A1、領域A2のそれぞれが所定のサイズ以上であるか否かを判定する。図形分割部16は、領域A1、領域A2の少なくとも1つが所定のサイズ未満である場合に、これら教示図形のパーツの候補を却下する。
また、図形分割部16は、図23(A)の中段右図に示すように、垂直方向の端を開始位置として経路R2を探索する。図形分割部16は、開始位置から、教示図形Fの線と交差せずに領域ARの端に至る経路R2を探索する。図形分割部16は、例えば、経路R2が領域ARの中央側を通り、経路R2の長さが最小になるように、経路R2を最適化する。図形分割部16は、
図形分割部16は、経路R2を境界として、領域R2を複数の領域(例、領域A3、領域A4)に分割する。分割された複数の領域は、それぞれ、教示図形Fのパーツの候補である。図形分割部16は、領域A3、領域A4のそれぞれに、教示図形Fの一部が配置されているか否かを判定する。図形分割部16は、領域A3、領域A4の少なくとも1つに教示図形Fの一部が配置されていない場合に、これら教示図形のパーツの候補を却下する。また、図形分割部16は、領域A3、領域A4のそれぞれが所定のサイズ以上であるか否かを判定する。図形分割部16は、領域A3、領域A4の少なくとも1つが所定のサイズ未満である場合に、これら教示図形Fのパーツの候補を却下する。
図23(A)においては、中段左図のように開始位置が水平方向の端である経路R1と、中段右図のように開始位置が垂直方向の端である経路R2との双方で、教示図形Fのパーツの候補が有効である。このような場合、図形分割部16は、経路R1または経路R2を境界として採用する。例えば、図形分割部16は、経路R1を境界として採用し、教示図形Fのうち経路R1を境界として分割される部分paと部分pbとを、それぞれ、教示図形Fのパーツとして採用する。図形分割部16は、採用した教示図形Fのパーツの情報を、図5(B)で説明した教示図形データD2に登録する。
図23(B)は、上述のような図23(A)と異なる手法で分割するケースである。例えば、図23(B)の教示図形Fは、「首」という漢字であり、独立した部首(他の部分と不連続な部首)がない。このような場合、中段左図のように、教示図形Fを含む領域ARの端を開始位置として、教示図形Fの線と交差せずに領域ARの端に至る経路を探索すると、例えば経路R3が得られる。この経路R3を境界として、領域ARを領域A5と領域A6とに分割すると、領域A6には、教示図形Fの一部が含まれず、教示図形Fが分割されない。
このような場合、図形分割部16は、経路が教示図形Fの線と交差しないという条件を、経路が教示図形Fの線と交差し、その交差部分の経路の長さが最小となるとう条件に変更する。図形分割部16は、変更した条件で経路を探索し、中段右図のような経路R4を得る。図形分割部16は、経路R4を境界として、領域ARを領域A7と領域A8とに分割する。図形分割部16は、教示図形Fのうち領域A7に含まれる部分pcと、教示図形Fのうち領域A8に含まれる部分pdとを、それぞれ、教示図形Fのパーツとして採用する。図形分割部16は、採用した教示図形Fのパーツの情報を、図5(B)で説明した教示図形データD2に登録する。
[第4実施形態]
第4実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図24は、第4実施形態に係る検出システムを示す図である。本実施形態において、検出装置2は、過去に取得されたユーザUの姿勢に関する情報(例、図2のユーザモデルUM)を表示可能である。
本実施形態において、検出装置2は、姿勢特定部15および履歴管理部18を備える。姿勢特定部15は、図19で説明したように、検出部5の検出結果から得られるユーザUの各部位の位置関係と、記憶部8に記憶された姿勢定義データD1の「定義データ」(図19(A)参照)に定義される各部位の位置関係との類似度を算出する。姿勢特定部15は、算出した類似度に基づいてユーザの姿勢の種類を特定し、特定した姿勢の種類と、算出した類似度(例、スコア)と、姿勢の種類の特定のもとになった検出部5の検出結果から得られるユーザUのモデル(例、図2のユーザモデルUM)とを関連付けた姿勢履歴データD4を生成する。姿勢特定部15は、生成した姿勢履歴データD4を記憶部8に記憶させる。
履歴管理部18は、記憶部8に記憶された姿勢履歴データD4に基づいて、過去に取得されたユーザUの姿勢に関する情報を表示部3に表示させる。履歴管理部18は、例えば、入力部17に入力された指令(表示を要求する表示要求指令)に基づいて、ユーザUの姿勢に関する情報を表示させる。履歴管理部18は、入力部17に表示要求指令が入力された場合に、姿勢リスト画像(後に図24に示す)を生成する。姿勢リスト画像は、例えば、記憶部8に記憶されているユーザのモデルの一覧を示すユーザインターフェースの画像である。表示制御部7は、履歴管理部18が生成した姿勢リスト画像のデータを表示部3に供給し、表示部3に姿勢リスト画像を表示させる。
図25は、第4実施形態に係る履歴管理部による処理を示す図である。検出システム1の各部については、適宜、図24を参照する。図25(A)には、図24に示した履歴管理部18の処理によって表示部3に表示される姿勢リスト画像Im21を示した。姿勢リスト画像Im21において、符号D5は、表示要求指令が入力された日付である。「Teacher」の欄に表示されるサムネイル画像は、それぞれ、記憶部8に記憶された姿勢定義データD1(図5(A)参照)に含まれるサンプル画像Saである。
また、姿勢リスト画像Im21において、「Teacher」のサンプル画像Saに対して水平走査方向(以下、同じ行という)に表示される「Today」の欄のサムネイル画像Tn1は、例えば、同じ行の「Teacher」と同じ姿勢の最新のユーザモデルを示す画像である。サムネイル画像Tn1は、例えば、表示要求指令が入力された日付に取得されたユーザモデルを示す画像である。また、「Your Best」の欄のサムネイル画像Tn2は、過去に取得されたユーザモデルのうち、姿勢特定部15が算出した類似度が最も高いユーザモデルを示す画像である。サムネイル画像Tn2は、例えば、「Teacher」のサンプル画像Saを評価基準として、評価値(例、上記の類似度、スコア)が最も高いユーザモデルを示す画像である。
また、「Your Best」の隣の欄SP1は、「Today」の欄のサムネイル画像Tn1または「Your Best」の欄のサムネイル画像Tn2についての情報(例、詳細情報、コメント)を表示するスペースである。例えば、「Today」の欄のサムネイル画像Tn1または「Your Best」の欄のサムネイル画像Tn2にカーソルを重ねた際に、カーソルが重ねられた欄の画像に対応する類似度D6(例、スコア)、テキストデータD7(例、コメント)が表示される。また、「過去log」のタグTgは、表示される情報を切り替えるユーザインターフェースである。例えば、「過去log」のタグTgがクリックされると、図25(B)に示す姿勢リスト画像Im22が表示部3に表示される。
姿勢リスト画像Im22は、一つの姿勢(例、戦士のポーズ)について、過去に取得されたユーザのモデルを示すサムネイル画像Tn3の一覧を示す画像である。サムネイル画像Tn3には、それぞれ、ユーザのモデルが取得された日付D8が付されている。また、サムネイル画像Tn3をクリックすると、このサムネイル画像Tn3に関連付けられた情報(例、スコア、コメント)が表示される。例えば、履歴管理部18(又は表示制御部7)は、ユーザによってサムネイル画像Tn3がクリックして選択された信号(選択信号)を受信すると、このサムネイル画像Tn3に関連付けられた情報(例、スコア、コメント)を表示部3に表示させる。また、例えば、履歴管理部18(又は表示制御部7)は、上記選択信号を受信すると、このサムネイル画像Tn3に関連付けられた情報に加えて、サムネイル画像Tn3の3D画像(3次元で表示される画像)を表示部3に表示させることも可能である。
[第5実施形態]
第5実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図26は、第5実施形態に係るユーザインターフェースを示す図である。図26には、実施形態に係るユーザインターフェースとして、表示部3に表示される教示画像の例を図示した。
教示画像Im30aから教師画像Im30cは、時間順次で表示される。例えば、まず教示画像Im30aが表示され、次に教示画像Im30bが表示された後、教示画像Im30cが表示される。本実施形態において、教示画像Im30aから教示画像Im30cを区別しない場合、適宜、教示画像Im30と表記する。
本実施形態において、教示画像Im30は、第1領域AR1、第2領域AR2、及び第3領域AR3を含む。図26において、第1領域AR1、第2領域AR2、及び第3領域AR3は、それぞれ、表示部3上の1つの領域(例、画面、ウィンドウ、情報窓)に並んで(まとめて)表示される。図26において、第1領域AR1は、教示画像Im30における左下の領域である。また、第2領域AR2は、教示画像Im30における左上の領域(第1領域AR1の上の領域)である。第3領域AR3は、教示画像Im30において、第1領域AR1および第2領域AR2の右側の領域である。
第1領域AR1には、予め登録された複数のサンプル画像Saが表示される。複数のサンプル画像Saは、サンプル画像Sa1からサンプル画像Sa5を含む。第1領域AR1において、サンプル画像Sa1からサンプル画像Sa5は、姿勢を行うことが予定される順番で並んでいる。姿勢を行うことが予定される順番は、例えば、図5(A)に示した姿勢定義データD1に定められるポーズの設定順番である。
サンプル画像Sa1からサンプル画像Sa5は、行う姿勢の順番で左から右へ並んでいる。例えば、サンプル画像Sa1は、第1領域AR1で最も左に配置され、サンプル画像Sa1からサンプル画像Sa5のうち最初に行う姿勢に対応する。また、例えば、サンプル画像Sa2は、サンプル画像Sa1の右隣に配置され、サンプル画像Sa1の次に行う姿勢に対応する。
また、第1領域AR1には、マークMKが表示される。マークMKは、現在の姿勢に対応するサンプル画像Saに対して位置決めされる。現在の姿勢は、例えば、図16のステップS5の処理で設定されている対象のポーズである。マークMKは、周囲と識別容易な色、明るさで表される図形である。マークMKは、例えば、矩形枠状の図形であり、現在の姿勢に対応するサンプル画像Saを囲む位置に配置される。
例えば、教示画像Im30aにおいて、サンプル画像Sa1が現在の姿勢に対応し、マークMKは、サンプル画像Sa1に対して位置決めされる。第2領域AR2には、現在の姿勢に対応するサンプル画像Saを拡大したサンプル画像Sbが表示される。例えば、教示画像Im30aにおいて、第2領域AR2には、サンプル画像Sa1を拡大したサンプル画像Sbが表示される。第3領域AR3には、ユーザモデルUMおよび教示図形Fが表示される。
サンプル画像Sa1の姿勢が対象に設定されてから、このポーズの設定時間が経過すると、教示画像Im30bに示すように、サンプル画像Sa2の姿勢が次の対象に設定される。教示画像Im30bの第1領域AR1において、マークMKは、サンプル画像Sa2に対して位置決めされ、表示される。また、教示画像Im30bにおいて、第2領域ARにはサンプル画像Sa2を拡大したサンプル画像Sbが表示される。第3領域AR3には、ユーザモデルUMおよび教示図形Fが表示される。
また、サンプル画像Sa2の姿勢が対象に設定されてから、このポーズの設定時間が経過すると、教示画像Im30cに示すように、サンプル画像Sa3の姿勢が次の対象に設定される。教示画像Im30cの第1領域AR1において、マークMKは、サンプル画像Sa3に対して位置決めされ、表示される。また、教示画像Im30cにおいて、第2領域ARにはサンプル画像Sa3を拡大したサンプル画像Sbが表示される。第3領域AR3には、ユーザモデルUMおよび教示図形Fが表示される。
なお、第1領域AR1、第2領域AR2、及び第3領域AR3は、2以上の領域(例、画面、ウィンドウ、情報窓)に分かれて表示される領域でもよい。また、第1領域AR1、第2領域AR2、及び第3領域AR3の配置は、図26に示した例に限定されず、任意に設定される。また、第1領域AR1、第2領域AR2、及び第3領域AR3の配置は、ユーザが設定可能でもよいし、ユーザの指定により変更可能でもよい。
[第6実施形態]
次に、第6実施形態について説明する。本実施形態の説明において、適宜、図18、図19、図24、及び図25等を参照する。本実施形態において、画像処理部13は、検出部5の検出結果から得られるユーザの姿勢と予め登録された姿勢との比較結果に基づいて、複数のパーツの少なくとも一部の大きさと色との一方または双方を変化させる。
本実施形態に係る検出システム1(図18参照)は、検出部5の検出結果から得られるユーザUの姿勢と予め登録された姿勢との類似度を、人体の部位ごとに算出する類似度算出部を備える。本実施形態に係る検出システムは、上記の類似度算出部として図18に示した姿勢特定部15を備える。姿勢特定部15は、図24および図25で説明したように、検出部5の検出結果から得られるユーザUの各部位の位置関係と、記憶部8に記憶された姿勢定義データD1の「定義データ」(図19(A)参照)に定義される各部位の位置関係との類似度を算出する。
本実施形態において、画像処理部13(図18参照)は、姿勢特定部15が算出した各部位の類似度に基づいて、教示図形の表示を調整する。本実施形態に係る画像処理部13の処理については、後に図27、図28などでも説明するが、画像処理部13は、姿勢特定部15が算出した類似度に基づいて、複数のパーツの少なくとも一部の大きさ(サイズ)、色(例、色相、彩度、明るさ、コントラスト)、太さ(例、線の太さ)、表示位置のオフセット量、移動速度、および書体(例、文字のフォント)のうち少なくとも1つを決定する。画像処理部13は、複数のパーツのうち、類似度に対応する人体の部位と関連付けられたパーツについて、類似度に基づいて大きさ、色、太さ(例、線の太さ)、表示位置のオフセット量、移動速度、および書体(例、文字のフォント)のうち少なくとも1つを決定する。例えば、画像処理部13は、教示図形に含まれる複数のパーツのそれぞれについて、各パーツと関連付けられた部位の類似度に基づいて、各パーツの大きさ、色、太さ(例、線の太さ)、表示位置のオフセット量、移動速度、および書体(例、文字のフォント)のうち少なくとも1つを調整する(変更する)。
図27および図28は、それぞれ、本実施形態に係る画像処理部が生成する教示画像の例を示す図である。図27(A)に示す教示画像Im41は、一例として、類似度に基づいてパーツのサイズが調整されている。教示画像Im41は、ユーザモデルUMおよび教示図形Fを含む。教示図形Fは、複数のパーツ(p81、p82、p83)を含む。
パーツp81は、ユーザモデルUMの頭部と位置決めされる。パーツp81は、矢印の先端形状であり、頭部(顔)の向きのイメージを表す。パーツp82は、ユーザモデルUMの右足と位置決めされる。パーツp82は、矢印の先端形状であり、右足の向きのイメージを表す。パーツp83は、ユーザモデルUMの左足と位置決めされる。パーツp83は、矢印の先端形状であり、左足の向きのイメージを表す。
教示画像Im41において、サンプル画像SaとユーザモデルUMとを比較すると、パーツp82に関連付けられた右足の類似度が低い。このような場合、画像処理部13(図18参照)は、パーツp82と、他のパーツ(p81、p83)とで表示が異なる教示画像Im41を生成する。教示画像Im41において、パーツp81とパーツp83とは同じサイズで表示される。教示画像Im41において、パーツp82は、パーツp81およびパーツp83のいずれよりも大きいサイズで強調して表示される。
画像処理部13は、例えば、パーツごとに部位の類似度と閾値とを演算して比較し、類似度が閾値以上である場合に当該パーツを第1のサイズに設定する。また、画像処理部13は、例えば、パーツごとに部位の類似度と閾値とを比較し、類似度が閾値未満である場合に当該パーツを、第1のサイズよりも大きい第2のサイズに設定する。
なお、画像処理部13は、パーツのサイズを、当該パーツに対応する部位の類似度から変換して算出される値(例、各類似度を相対変換した相対値)に設定してもよい。例えば、画像処理部13は、パーツのサイズを、類似度に反比例するように決定してもよい。また、画像処理部13は、上記の類似度をもとに統計的処理(例、多変量解析)を用いて得られる相関度に基づいてパーツのサイズ等を変更してもよい。例、画像処理部13は、上記相関度が低いパーツを、他のパーツのサイズよりも大きいサイズに設定する。
図27(B)に示す教示画像Im41は、一例として、類似度に基づいてパーツの色が調整されている。図27(B)において、サンプル画像SaおよびユーザモデルUMは、図27(A)と同様である。図27(B)において、パーツp81、パーツp82、及びパーツp83は、同じサイズで表示される。教示画像Im41において、パーツp81とパーツp83とは同じ色で表示される。教示画像Im41において、パーツp82は、パーツp81およびパーツp83のいずれとも異なる色で強調して表示される。
画像処理部13は、例えば、パーツごとに部位の類似度と閾値とを比較し、類似度が閾値以上である場合に当該パーツを第1の色に設定する。また、画像処理部13は、例えば、パーツごとに部位の類似度と閾値とを比較し、類似度が閾値未満である場合に当該パーツを、第1の色と異なる第2の色に設定する。
なお、画像処理部13は、パーツの色(例、コントラスト、明るさ)を、当該パーツに対応する部位の類似度から算出される値(例、階調値)に設定してもよい。例えば、画像処理部13は、パーツの明るさ(コントラスト)を、類似度に反比例するように決定してもよい。また、画像処理部13は、類似度に基づいて、パーツの色およびサイズなどを変更してもよい。例えば、パーツp82は、パーツp81およびパーツp83のいずれとも異なるサイズ、かつ異なる色で強調して表示されてもよい。
図28(A)に示す教示画像Im42は、類似度に基づいてパーツのサイズが調整されている。教示画像Im42は、ユーザモデルUMおよび教示図形Fを含む。教示図形Fは、複数のパーツ(p91からp98)を含む。複数のパーツ(p91からp98)は、それぞれ、ユーザモデルUMの左の体側に位置決めされる。パーツp91、パーツp95からパーツp98は、第1のサイズで表示される。パーツp92およびパーツp94は、例えば、対応する部位の類似度が第1閾値未満である。パーツp92およびパーツp94は、第1のサイズよりも大きい第2のサイズで強調して表示される。また、パーツp93は、例えば、対応する部位の類似度が第2閾値未満である。第2閾値は、第1閾値よりも小さい。パーツp93は、第2のサイズよりも大きい第3のサイズで強調して表示される。
図28(B)に示す教示画像Im42は、類似度に基づいてパーツの色が調整されている。図28(B)において、サンプル画像SaおよびユーザモデルUMは、図28(A)と同様である。図28(B)において、パーツp91からパーツp98は、同じサイズで表示される。また、パーツp91、パーツp95からパーツp98は、第1の色で表示される。また、パーツp92からパーツp94は、第1の色と異なる第2の色で強調して表示される。
画像処理部13は、例えば、検出部5の検出結果から得られるユーザUの姿勢(例、ユーザモデルUMの形状)と予め登録された姿勢(例、姿勢データD1に定義された姿勢)との比較結果に基づいて、複数のパーツの少なくとも1つを視覚的に他のパーツと識別できるように強調させる。上記したように、本実施形態において、画像処理部13は、姿勢特定部15が算出した類似度に基づいて、複数のパーツのうち少なくとも1つを視覚的に他のパーツと識別できるように強調させて、強調させた該パーツを他のパーツと識別できる識別情報(強調情報)として他のパーツとともに表示部3に表示させる。
画像処理部13は、例えば、検出部5の検出結果から得られるユーザUの姿勢(例、ユーザモデルUMの形状)と予め登録された姿勢例、姿勢データD1に定義された姿勢)との比較結果に基づいて、複数のパーツの少なくとも一部の大きさ、色、太さ、表示位置のオフセット量、移動速度、および書体のうち少なくとも1つを変更させる
例えば、画像処理部13は、類似度に基づいて、複数のパーツの少なくとも一部の大きさ(サイズ)、色(例、色相、彩度、明るさ、コントラスト)、太さ(例、線の太さ)、表示位置のオフセット量、移動速度、および書体(例、文字のフォント)のうち少なくとも1つを他のパーツとは異なる識別情報に変更して強調する。
[第7実施形態]
第7実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図29は、第7実施形態に係る検出システムを示す図である。この検出システム1は、検出装置2、表示部3(表示装置)、記憶部8(記憶装置)、及び画像処理装置20を備える。検出装置2は、例えば、モーションキャプチャ装置を含む、検出装置2は、検出部5、モデル生成部11、及び部位特定部12を備える。検出装置2は、その検出結果として、ユーザUのモデル情報(例、ユーザモデル、骨格情報、スケルトンデータ)を出力する。
画像処理装置20は、ユーザUを検出した検出結果に基づいて生成されるユーザのモデルに対し、検出結果から得られるユーザの姿勢に基づいて、複数のパーツを含む教示図形をパーツごとに位置決めして、ユーザのモデルおよび教示図形を含む教示画像を生成する。画像処理装置20は、例えば、表示制御部7および画像処理部13を備える。画像処理装置20は、ユーザUを検出した検出結果に基づいて生成されるユーザのモデルとして、検出装置2が出力するモデル情報を用いる。画像処理装置20は、例えば、インターネット回線を介して検出装置2と通信可能に接続されるクラウドコンピュータを含んでもよい。
記憶部8は、画像処理装置20が実行する処理に使われる各種データを記憶する。記憶部8は、例えば、図5で説明した姿勢定義データD1、教示図形データD2、及び表示条件データD3を記憶する。表示部3は、画像処理装置20から供給される画像データに基づいて、画像を表示する。表示部3は、例えば、据え置き型のディスプレイでもよいし、ユーザが形態可能な端末の少なくとも一部であってもよい。上記の端末は、例えば、スマートフォン、タブレット、ヘッドマウントディスプレイ、ウェアラブル端末などを含む。
上述の実施形態において、画像処理部13(画像処理装置20)は、例えばコンピュータシステムを含む。画像処理部13は、記憶部8に記憶されている画像処理プログラムを読み出し、この画像処理プログラムに従って各種の処理を実行する。この画像処理プログラムは、コンピュータに、ユーザを検出した検出結果に基づいて生成されるユーザのモデルに対し、検出結果から得られるユーザの姿勢に基づいて、複数のパーツを含む教示図形をパーツごとに位置決めして、ユーザのモデルおよび教示図形を含む教示画像を生成することを実行させる。この画像処理プログラムは、コンピュータ読み取り可能な記憶媒体(例、非一時的な記録媒体、non-transitory tangible media)に記録されて提供されてもよい。
上述の実施形態において、検出システム1は、画像表示システムを含む。この表示システムは、画像を表示する表示部3と、表示部3に、時間的に変化するユーザのモデル(例、ユーザモデルUM)を動的に表示させる第1表示処理部(例、モデル生成部11)と、表示部3においてユーザのモデルに対して定められる位置に、ユーザのモデルの時間的な変化に基づいて選択される教示図形を、動的に表示させる第2表示処理部(例、画像処理部13)と、を含む。
上述の実施形態に係るシステム(検出システム、画像表示システム、情報提供システム)は、例えば、ヨガ、ゴルフなど身体上のスキルを向上させるレッスン(活動、練習)に広く利用可能である。例えば、レッスン設備において、インストラクタ(先生)あるいは、ユーザ自身を写す鏡が見えにくい場合に、上述の実施形態に係るシステムは、鏡の代わりに表示部(例、ディスプレイ、タブレット)を利用して、教師動画を見ながら自分の姿勢と教師の姿勢とをリアルタイムに確認することに利用可能である。また、上述の実施形態に係るシステムは、レッスン対象の動作(例、自分が苦手なポーズ)の復習、予習に利用可能である。また、時間的な制約あるいは地理的な制約によって、所望のレッスン設備において行くことが難しい場合などに、ユーザUは、自宅などで実施形態に係るシステムを利用して、レッスンを行うことができる。
なお、本発明の技術範囲は、上述の実施形態などで説明した態様に限定されるものではない。上述の実施形態などで説明した要件の1つ以上は、省略されることがある。また、上述の実施形態などで説明した要件は、適宜組み合わせることができる。また、法令で許容される限りにおいて、上述の実施形態などで引用した全ての文献の開示を援用して本文の記載の一部とする。
1・・・検出システム、2・・・検出装置、3・・・表示部、5・・・検出部、6・・・処理部、7・・・表示制御部、8・・・記憶部、11・・・モデル生成部、12・・・部位特定部、13・・・画像処理部、15・・・姿勢特定部、16・・・図形分割部、17・・・入力部、18・・・履歴管理部、F・・・教示図形、U・・・ユーザ

Claims (18)

  1. ユーザを検出する検出部と、
    前記検出部の検出結果に基づいて、前記ユーザのモデルを生成するモデル生成部と、
    前記モデル生成部が生成した前記ユーザのモデルに対し、前記検出部から得られる前記ユーザの姿勢に基づいて、複数のパーツを含む教示図形を前記パーツごとに位置決めして、前記ユーザのモデルおよび前記教示図形を含む教示画像を生成する画像処理部と、を備え、
    前記教示図形は、漢字を含み、
    前記複数のパーツの少なくとも1つは、前記漢字の部首を含む、検出装置。
  2. ユーザを検出する検出部と、
    前記検出部の検出結果に基づいて、前記ユーザのモデルを生成するモデル生成部と、
    前記モデル生成部が生成した前記ユーザのモデルに対し、前記検出部から得られる前記ユーザの姿勢に基づいて、複数のパーツを含む教示図形を前記パーツごとに位置決めして、前記ユーザのモデルおよび前記教示図形を含む教示画像を生成する画像処理部と、を備え、
    前記教示図形は、単語を含み、
    前記複数のパーツの少なくとも1つは、前記単語を構成する表音文字を含む、検出装置。
  3. ユーザを検出する検出部と、
    前記検出部の検出結果に基づいて、前記ユーザのモデルを生成するモデル生成部と、
    教示図形を複数のパーツに分割する図形分割部と、
    前記モデル生成部が生成した前記ユーザのモデルに対し、前記検出部から得られる前記ユーザの姿勢に基づいて、前記教示図形を前記パーツごとに位置決めして、前記ユーザのモデルおよび前記教示図形を含む教示画像を生成する画像処理部と、を備える検出装置。
  4. 前記教示図形は、人体の部位を表す図形と、人体の形状を表す図形と、人体の動作を表す図形との少なくとも一つを含む、請求項1から請求項3のいずれか一項に記載の検出装置。
  5. 前記教示図形は文字を含む、請求項1から請求項4のいずれか一項に記載の検出装置。
  6. 前記画像処理部は、前記検出部から得られる前記ユーザの姿勢の変化に基づいて、前記教示画像として、前記複数のパーツの相対位置が異なる複数の画像を生成する、請求項1から請求項5のいずれか一項に検出装置。
  7. 前記画像処理部は、前記教示画像として、前記複数のパーツのうちの第1パーツを第2パーツと異なる色で表した画像を生成する、請求項1から請求項6のいずれか一項に記載の検出装置。
  8. 前記画像処理部は、前記検出部の検出結果から得られる前記ユーザの姿勢と予め登録された姿勢との比較結果に基づいて、前記複数のパーツの少なくとも1つを視覚的に他の前記パーツと識別できるように強調させる、請求項1から請求項7のいずれか一項に記載の検出装置。
  9. 前記画像処理部は、前記検出部の検出結果から得られる前記ユーザの姿勢と予め登録された姿勢との比較結果に基づいて、前記複数のパーツの少なくとも一部の大きさ、色、太さ、表示位置のオフセット量、移動速度、および書体のうち少なくとも1つを変更させる、請求項1から請求項8のいずれか一項に記載の検出装置。
  10. 前記検出部の検出結果から得られる前記ユーザの姿勢と前記予め登録された姿勢との類似度を、人体の部位ごとに算出する姿勢特定部を備え、
    前記画像処理部は、前記姿勢特定部が算出した前記類似度に基づいて、前記複数のパーツの少なくとも一部の大きさ、色、太さ、表示位置のオフセット量、移動速度、および書体のうち少なくとも1つを決定する、請求項8又は請求項9に記載の検出装置。
  11. 前記画像処理部は、前記複数のパーツのうち、前記類似度に対応する前記人体の部位と関連付けられたパーツについて、前記類似度に基づいて大きさ、色、太さ、表示位置のオフセット量、移動速度、および書体のうち少なくとも1つを決定する、請求項10に記載の検出装置。
  12. 前記検出部の検出結果に基づいて、前記ユーザの部位を特定する部位特定部を備え、
    前記画像処理部は、
    前記部位特定部が特定した前記ユーザの部位に対応する前記ユーザのモデル上の位置に対して、前記複数のパーツのうち前記ユーザの部位に予め関連付けられたパーツを位置決めする、請求項1から請求項11のいずれか一項に記載の検出装置。
  13. 前記検出部から得られる前記ユーザの姿勢の種類を、予め登録された複数の種類から特定する姿勢特定部を備え、
    前記画像処理部は、前記姿勢特定部が特定した前記ユーザの姿勢の種類に基づいて、前記ユーザの姿勢の種類に予め対応付けられた前記教示図形を用いて、前記教示画像を生成する、請求項1から請求項12のいずれか一項に記載の検出装置。
  14. 前記教示画像は、予め登録された姿勢の画像を前記ユーザに対して表示する表示部に、予め定められたスケジュールで表示される、請求項1から請求項12のいずれか一項に記載の検出装置。
  15. 前記画像処理部が生成した前記教示画像を表示部に表示させる表示制御部を備える、請求項1から請求項14のいずれか一項に記載の検出装置。
  16. 請求項1から請求項15のいずれか一項に記載の検出装置と、
    前記画像処理部が生成した前記教示画像を表示する表示部と、を備える検出システム。
  17. 教示図形を複数のパーツに分割し、ユーザを検出した検出結果に基づいて生成される前記ユーザのモデルに対し、前記検出結果から得られる前記ユーザの姿勢に基づいて、前記教示図形を前記パーツごとに位置決めして、前記ユーザのモデルおよび前記教示図形を含む教示画像を生成する画像処理装置。
  18. コンピュータに、
    ユーザを検出した検出結果に基づいて生成された前記ユーザのモデルを取得させ、
    教示図形を複数のパーツに分割させ、
    前記検出結果から得られる前記ユーザの姿勢に基づいて、前記ユーザのモデルに対して前記教示図形を前記パーツごとに位置決めさせ、
    前記ユーザのモデルおよび前記教示図形を含む教示画像を生成させる、画像処理プログラム。
JP2017143771A 2017-07-25 2017-07-25 検出装置、検出システム、画像処理装置、検出方法、画像処理プログラム、画像表示方法、及び画像表示システム Active JP7126812B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017143771A JP7126812B2 (ja) 2017-07-25 2017-07-25 検出装置、検出システム、画像処理装置、検出方法、画像処理プログラム、画像表示方法、及び画像表示システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017143771A JP7126812B2 (ja) 2017-07-25 2017-07-25 検出装置、検出システム、画像処理装置、検出方法、画像処理プログラム、画像表示方法、及び画像表示システム

Publications (2)

Publication Number Publication Date
JP2019028509A JP2019028509A (ja) 2019-02-21
JP7126812B2 true JP7126812B2 (ja) 2022-08-29

Family

ID=65476223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017143771A Active JP7126812B2 (ja) 2017-07-25 2017-07-25 検出装置、検出システム、画像処理装置、検出方法、画像処理プログラム、画像表示方法、及び画像表示システム

Country Status (1)

Country Link
JP (1) JP7126812B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7337354B2 (ja) * 2019-05-08 2023-09-04 株式会社オレンジテクラボ 情報処理装置及び情報処理プログラム
CN110348524B (zh) * 2019-07-15 2022-03-04 深圳市商汤科技有限公司 一种人体关键点检测方法及装置、电子设备和存储介质
JP7023004B2 (ja) * 2019-09-04 2022-02-21 ヨクト株式会社 運動解析システム、運動解析プログラム、及び運動解析方法
US20220383653A1 (en) * 2019-10-31 2022-12-01 Nec Corporation Image processing apparatus, image processing method, and non-transitory computer readable medium storing image processing program
KR20220102009A (ko) * 2021-01-12 2022-07-19 삼성전자주식회사 전자 장치 및 전자 장치의 동작 방법
JPWO2023012915A1 (ja) * 2021-08-03 2023-02-09
WO2023233650A1 (en) * 2022-06-03 2023-12-07 Nec Corporation Pose analyzing apparatus, pose analyzing method, and non-transitory computer-readable storage medium
CN115578707B (zh) * 2022-10-25 2023-06-27 上海壁仞智能科技有限公司 目标识别方法、装置、电子设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014502178A (ja) 2010-11-05 2014-01-30 ナイキ インターナショナル リミテッド 自動化個人トレーニングのための方法およびシステム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014502178A (ja) 2010-11-05 2014-01-30 ナイキ インターナショナル リミテッド 自動化個人トレーニングのための方法およびシステム

Also Published As

Publication number Publication date
JP2019028509A (ja) 2019-02-21

Similar Documents

Publication Publication Date Title
JP7126812B2 (ja) 検出装置、検出システム、画像処理装置、検出方法、画像処理プログラム、画像表示方法、及び画像表示システム
Chen et al. Computer-assisted yoga training system
US20230351663A1 (en) System and method for generating an avatar that expresses a state of a user
JP6045139B2 (ja) 映像生成装置、映像生成方法及びプログラム
Alexiadis et al. Evaluating a dancer's performance using kinect-based skeleton tracking
JP2021524113A (ja) 画像処理方法および装置、画像機器、ならびに記憶媒体
CN111050863A (zh) 练习辅助程序、练习辅助方法以及练习辅助系统
Alabbasi et al. Human motion tracking & evaluation using Kinect V2 sensor
KR20220028654A (ko) 미러 디스플레이를 이용하여 태권도 동작 코칭 서비스를 제공하는 장치 및 방법
JP2019096113A (ja) キーポイントデータに関する加工装置、方法及びプログラム
CN104353240A (zh) 基于Kinect的跑步机系统
TWI740356B (zh) 虛擬對象的控制方法及裝置、終端、儲存媒體
CN110147737B (zh) 用于生成视频的方法、装置、设备和存储介质
US20220165012A1 (en) Personalized avatar for movement analysis and coaching
CN113409651B (zh) 直播健身方法、系统、电子设备、存储介质
CN111539245A (zh) 一种基于虚拟环境的cpr技术训练评价方法
JP2022501732A (ja) 画像処理方法及び装置、画像デバイス並びに記憶媒体
CN113947809A (zh) 一种基于标准视频的舞蹈动作可视化分析系统
CN112348942A (zh) 一种健身交互方法和系统
Oshita et al. Self-training system for tennis shots with motion feature assessment and visualization
Jan et al. Augmented Tai-Chi chuan practice tool with pose evaluation
KR102438488B1 (ko) 3d 마커리스 모션 캡처 기반 3d 아바타 생성 장치 및 방법
Cai et al. POGT: A Peking opera gesture training system using infrared sensors
US11837255B2 (en) Display method, computer-readable recording medium recording display program, and information processing apparatus
JP2005339363A (ja) 人体パーツ自動分割装置及び人体パーツ自動分割方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200612

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220719

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220817

R150 Certificate of patent or registration of utility model

Ref document number: 7126812

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150