JP6631594B2 - 情報処理装置、情報処理装置の制御方法、プログラム - Google Patents

情報処理装置、情報処理装置の制御方法、プログラム Download PDF

Info

Publication number
JP6631594B2
JP6631594B2 JP2017129217A JP2017129217A JP6631594B2 JP 6631594 B2 JP6631594 B2 JP 6631594B2 JP 2017129217 A JP2017129217 A JP 2017129217A JP 2017129217 A JP2017129217 A JP 2017129217A JP 6631594 B2 JP6631594 B2 JP 6631594B2
Authority
JP
Japan
Prior art keywords
subject
person
adjacent
information processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017129217A
Other languages
English (en)
Other versions
JP2019012453A (ja
Inventor
晃 野崎
晃 野崎
建志 入江
建志 入江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Canon IT Solutions Inc
Original Assignee
Canon Marketing Japan Inc
Canon IT Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc, Canon IT Solutions Inc filed Critical Canon Marketing Japan Inc
Priority to JP2017129217A priority Critical patent/JP6631594B2/ja
Publication of JP2019012453A publication Critical patent/JP2019012453A/ja
Application granted granted Critical
Publication of JP6631594B2 publication Critical patent/JP6631594B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、情報処理装置、情報処理装置の制御方法、プログラムに関し、撮像手段で撮像することにより得られる画像データに含まれる被験者の認識を一時的に失敗したとしても、再度認識したときに前記被験者を特定することが可能な仕組みに関する。
単方向から撮影した映像等の情報をもとに、人物の動きをデジタル的に記録するモーションキャプチャ技術がある。
モーションキャプチャ技術の方式の一つとして、赤外線センサーやステレオカメラを利用して、装置から対象の人物までの距離を測定し、測定した値をもとに、対象人物の動きを立体的に記録する方式がある。また、特殊な装置を用いずに、通常の映像に対して画像解析を行うことで、対象人物の各部位の動きを平面的に記録する方式がある。
この技術では、認識した人物が映像の中でどこにいるかという位置情報なども取得することができる。また、撮影範囲内にいる複数の人物の認識を行うとともに追跡も行い、継続して認識できている場合には同一人物であると判別することもできる。
近年では、このような技術を用いて、介護やリハビリテーションにおける効果測定も行われている。
例えば、特許文献1には、リハビリテーションの現場において、モーションキャプチャ技術を用いた仕組みについて開示されている。また、その中で対象者と介助者を区別する仕組みについて開示されている。
特開2015−061577号公報
単方向から撮影した映像等の情報から人物の認識を行う場合、複数の人物と撮影装置がほぼ一直線上に並んだ状況では、装置から遠い方の人物が映像等の情報の中でかげに隠れてしまい、正確に認識することが困難となる場合がある。
また、人体の認識技術は完全ではないため、かげに隠れていない場合でも、人物の向きや姿勢等の理由で認識に失敗してしまうことがありうる。
このような条件下において、任意の人物を対象として、認識した結果から得られる情報を用いて何らかの処理を行いたい時に、対象の人物の認識に失敗してしまった場合、追跡が正しく行われず、処理を行った結果が期待と異なるという課題がある。
特に、背景で挙げた介護やリハビリテーションにおける効果測定では、対象である被験者のすぐそばに介助や測定作業を行う人物がいる場合があり、被験者の認識に失敗してしまう可能性が高まる。
また、認識に失敗するたびに手動で対象を再設定するのでは多くの手間がかかるが、自動で再設定する場合、誤って異なる人物を対象としてしまうと、効果の測定が正しく行えないという課題がある。
そのため、対象の人物の認識に失敗してしまった場合でも、異なる人物を対象とすることなく、対象の人物を再度認識した際に、自動的に対象に再設定し、処理を継続できることが望まれる。
先の特許文献1では、動作内容などを用いて対象者と介助者を区別しているが、連続して認識できていることが前提としてあるため、特許文献1に記載の技術を用いたとしても依然として上述した課題が発生する恐れがあった。
本発明は、撮像手段で撮像することにより得られる画像データに含まれる被験者の認識を一時的に失敗したとしても、再度認識したときに前記被験者を特定することが可能な仕組みを提供することを目的とする。
本発明は、撮像手段で撮像することで順次得られる画像データに含まれる人物の関節の座標情報を取得する取得手段と、前記取得手段で座標情報を取得した人物の中から被験者を特定する第1の被験者特定手段と、前記取得手段で座標情報を取得した人物の中から被験者と隣接する人物を特定する隣接人物特定手段と、前記被験者特定手段で被験者として特定した人物の座標情報が取得できないことを条件に、前記隣接人物特定手段により特定された前記被験者と隣接する人物から所定の範囲内にいる人物を前記被験者として特定する第2の被験者特定手段とを備えることを特徴とする。
また、本発明は、撮像手段で撮像することで順次得られる画像データに含まれる人物の関節の座標情報を取得する取得手段を備える情報処理装置の制御方法であって、前記情報処理装置の第1の被験者特定手段が、前記取得手段で座標情報を取得した人物の中から被験者を特定する第1の被験者特定工程と、前記情報処理装置の隣接人物特定手段が、前記取得手段で座標情報を取得した人物の中から被験者と隣接する人物を特定する隣接人物特定工程と、前記情報処理装置の第2の被験者特定手段が、前記被験者特定工程で被験者として特定した人物の座標情報が取得できないことを条件に、前記隣接人物特定手段により特定された前記被験者と隣接する人物から所定の範囲内にいる人物を前記被験者として特定する第2の被験者特定工程とを備えることを特徴とする。
また、本発明は、撮像手段で撮像することで順次得られる画像データに含まれる人物の関節の座標情報を取得する取得手段を備える情報処理装置で読み取り実行可能なプログラムであって、前記情報処理装置を、前記取得手段で座標情報を取得した人物の中から被験者を特定する第1の被験者特定手段と、前記取得手段で座標情報を取得した人物の中から被験者と隣接する人物を特定する隣接人物特定手段と、前記被験者特定手段で被験者として特定した人物の座標情報が取得できないことを条件に、前記隣接人物特定手段により特定された前記被験者と隣接する人物から所定の範囲内にいる人物を前記被験者として特定する第2の被験者特定手段として機能させることを特徴とする。
本発明によれば、撮像手段で撮像することにより得られる画像データに含まれる被験者の認識を一時的に失敗したとしても、再度認識したときに前記被験者を特定することが可能となる。
また、本発明では、一般的に処理の負荷が高いことが多い技術を新たに追加することなく、それまでも取得していたモーション情報のみを用いた、負荷が低い処理を行うため、撮影を行いながら同時に処理する場合でも、負荷の増大を抑えながら前記の効果を達成できる。
本発明の実施形態における、情報処理装置101の機能構成の一例を示す図である。 本発明の実施形態における、情報処理装置101のハードウェア構成の一例を示す図である。 本発明の実施形態における、全体の流れの一例を示すフローチャートである。 本発明の実施形態における、認識できなくなった原因である介助者を検出する処理の一例を示すフローチャートである。 本発明の実施形態における、被験者を検出する処理の一例を示すフローチャートである。 本発明の実施形態における、対象とする状況の一例を示す図である。 本発明の実施形態における、対象とする状況の一例を示す図である。 本発明の実施形態における、対象とする状況の一例を示す図である。 本発明の実施形態における、人物情報一覧のテーブルの一例を示す図である。 本発明の実施形態における、モーション情報取得部151により取得された被験者の様子を示す図である。 本発明の実施形態における、各関節の座標情報の一例を示す図である。
以下、図面を参照して、本発明の実施形態を詳細に説明する。
図1は、情報処理装置101の機能構成の一例を示した図である。
モーション情報取得部151は、介護やリハビリが行われる空間における人物(本発明においては、被験者(介護やリハビリを受ける者))の動きを検知し、被験者のモーション情報を取得する。なお、他の実施形態として、モーション情報の取得対象は動物であっても良い。
具体的には、モーション情報取得部151は、Kinect(登録商標)として知られるセンサー群であり、RGBカメラ、深度センサー、音声センサーなどが内蔵され、被写体(本発明においては、被験者(介護やリハビリを受ける者))の位置、動き、声、顔などを認識することができる。
深度センサーは、赤外線を利用して被験者までの距離を測定する方式を用いるものとする。この方式によれば、被験者にマーカ等を付けることなくセンサーから被験者までの距離を測定することが可能である。
モーション情報取得部151で取得された各データは、動画データとして記憶部に記憶される。
モーション情報取得部151の各センサーにより取得されたモーション情報は、モーション情報解析部152に送信され、データ解析が行われる。
モーション情報解析部152では、モーション情報取得部151により取得された各データを解析し、被験者の動作を座標情報に変換する。
図10の1001は、モーション情報取得部151により取得された被験者の様子を示している。モーション情報取得部151は、被験者の動きを検知し、予め記憶された人体パターンとマッチングすることで、被験者の人体表面の座標を得る。そして、当該被験者の骨格を形成する各関節の座標を算出し、算出された座標情報に基づき、被験者の骨格を形成する。また、図10の1002は、各関節の座標情報から形成された被験者の骨格情報の一例である。各関節の座標情報の一例を図11に示す。
このようにして各関節の座標情報を算出し、各関節の座標の変化を検出することで、被験者が足を上げたり、膝を曲げたりする動作を認識することが可能となる。
測定部153は、モーション情報解析部152により解析されたモーション情報と、各種目(「開眼片足立ち」、「椅子立ち座り」、「通常歩行」、「最大1歩」、「TUG(TimedUp&Go)」等)に応じた設定に基づき、当該種目における測定を行う。
図2は、本発明の実施形態に係わる情報処理装置101のハードウェア構成の一例を示すブロック図である。
図2に示すように、情報処理装置101では、システムバス200を介してCPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203、記憶装置204、入力コントローラ205、音声入力コントローラ206、ビデオコントローラ207、メモリコントローラ208、よび通信I/Fコントローラ209が接続される。
CPU201は、システムバス200に接続される各デバイスやコントローラを統括的に制御する。
ROM202あるいは記憶装置204は、CPU201が実行する制御プログラムであるBIOS(Basic Input/Output System)やOS(Operating System)や、本情報処理方法を実現するためのコンピュータ読み取り実行可能なプログラムおよび必要な各種データ(データテーブルを含む)を保持している。
RAM203は、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をROM202あるいは記憶装置204からRAM203にロードし、ロードしたプログラムを実行することで各種動作を実現する。
入力コントローラ205は、入力装置210からの入力を制御する。入力装置210としては、キーボード、タッチパネル、マウス等のポインティングデバイス等が挙げられる。
なお、入力装置210がタッチパネルの場合、ユーザがタッチパネルに表示されたアイコンやカーソルやボタンに合わせて押下(指等でタッチ)することにより、各種の指示を行うことができることとする。
また、タッチパネルは、マルチタッチスクリーンなどの、複数の指でタッチされた位置を検出することが可能なタッチパネルであってもよい。
音声入力コントローラ206は、マイク/スピーカ211がマイク機能として動作する場合、マイク/スピーカ211からの音声入力を制御し、マイク/スピーカ211から入力された音声を認識することが可能となっている。また、音声入力コントローラ206は、マイク/スピーカ211がスピーカ機能として動作する場合、マイク/スピーカ211への音声出力を制御し、マイク/スピーカ211に対し音声を出力することが可能となっている。
ビデオコントローラ207は、ディスプレイ212などの外部出力装置への表示を制御する。ディスプレイは本体と一体になったノート型パソコンのディスプレイも含まれるものとする。なお、外部出力装置はディスプレイに限ったものははく、例えばプロジェクタであってもよい。また、前述のタッチ操作を受け付け可能な装置については、入力装置210を提供する。
なおビデオコントローラ207は、表示制御を行うためのビデオメモリ(VRAM)を制御することが可能で、ビデオメモリ領域としてRAM203の一部を利用することもできるし、別途専用のビデオメモリを設けることも可能である。
本発明では、ユーザが情報処理装置を通常使用する場合の表示に用いられる第1のビデオメモリ領域と、所定の画面が表示される場合に、第1のビデオメモリ領域の表示内容に重ねての表示に用いられる第2のビデオメモリ領域を有している。ビデオメモリ領域は2つに限ったものではなく、情報処理装置の資源が許す限り複数有することが可能なものとする。
メモリコントローラ208は、外部メモリ213へのアクセスを制御する。外部メモリとしては、ブートプログラム、各種アプリケーション、フォントデータ、ユーザファイル、編集ファイル、および各種データ等を記憶する外部記憶装置(ハードディスク)、フレキシブルディスク(FD)、或いはPCMCIAカードスロットにアダプタを介して接続されるコンパクトフラッシュ(登録商標)メモリ等を利用可能である。
通信I/Fコントローラ209は、ネットワーク214を介して外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いた通信やISDNなどの電話回線、および携帯電話の3G回線を用いた通信が可能である。
なお、記憶装置204は情報を永続的に記憶するための媒体であって、その形態をハードディスク等の記憶装置に限定するものではない。例えば、SSD(Solid State Drive)などの媒体であってもよい。
また本実施形態における通信端末で行われる各種処理時の一時的なメモリエリアとしても利用可能である。
尚、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ212上での表示を可能としている。また、CPU201は、ディスプレイ212上の不図示のマウスカーソル等でのユーザ指示を可能とする。
次に、図3〜図5を用いて、本発明の実施形態における処理について説明する。
図3のフローチャートは、情報処理装置101のCPU201が所定の制御プログラムを読み出して実行する処理であり、測定部153における本発明の全体の流れのフローチャートである。
ステップS301において、情報処理装置101は、モーション情報取得部151(本発明における、撮像手段)による撮影を開始する。
ステップS302において、情報処理装置101は、モーション情報取得部151で取得した情報をもとにモーション情報解析部152が認識した人物の情報の一覧(図9の認識人物一覧テーブル900)を取得する。ここで言う人物の情報とは、少なくとも、人物を一意に識別するためのID情報とその人物の位置情報を含むものとする。
ステップS302は、本発明における撮像手段で撮像することで順次得られる画像データに含まれる人物の関節の座標情報を取得する取得手段の一例である。
図9の認識人物一覧テーブル900は、モーション情報取得部151で取得した情報をもとにモーション情報解析部152が認識した人物の一覧を記憶するテーブルであり、人物ID901、人物位置情報902およびその他の情報からなる。人物ID901は、認識した人物を一意に識別するためのID情報が登録される。人物位置情報902は、認識した人物の位置情報が登録される。この位置情報は、二次元座標位置でも三次元座標位置でも良く、映像内の位置でもモーション情報取得部151との相対位置でもGPS(Global Positioning System)情報のような現実空間での位置でも良い。
ステップS303において、情報処理装置101は、対象の人物(本発明においては、被験者)を登録しているかどうかを判断する。ステップS303でYESだった場合、ステップS304へ移行し、ステップS303でNOだった場合、ステップS307へ移行する。なお、ステップS304でNOと判定された後に、ステップS311からステップS302に処理が戻されてステップS303の処理がなされる場合、ステップS304でNOと判定されたことで、一旦被験者の登録が解除されているため、ステップS303でNOと判定される。
被験者の登録は、測定の開始時に情報処理装置101上に、ステップS302で取得した人物の情報の一覧を表示し、いずれの人物を被験者として登録するかの選択をユーザから受け付ける方法や、最も情報処理装置に近いユーザを被験者として登録する方法が挙げられ、被験者の登録は、ステップS303の処理の実行前に行われる(本発明における前記取得手段で座標情報を取得した人物の中から被験者を特定する第1の被験者特定手段)。なお、被験者の登録がされることを条件に被験者の測定が開始され、ステップS311でNOと判定されるまで測定が行われるものとする。
また、ステップS302で取得した人物の情報の一覧に含まれる人物のうち、被験者登録時に被験者として登録されなかった人物は、除外人物の一覧(不図示)に登録する。除外人物の一覧には、除外された人物の人物ID901が登録される。
ステップS304において、情報処理装置101は、登録している被験者が、ステップS302で取得した認識人物一覧テーブル900に含まれているかを判断する。ステップS304でYESだった場合、ステップS305へ移行し、ステップS304でNOだった場合、ステップS306に移行する。
介助者が被験者に重なる等の理由により被験者を認識できなくなった場合には、ステップS304でNOと判定される。
ステップS305において、情報処理装置101は、登録している被験者の認識結果から位置情報を取得し、当該被験者の人物ID901に対応する人物位置情報902を更新する。これは、被験者を認識できなくなった時には、当然のことながら位置情報が取得できないため、人物位置情報902を随時更新しておくことで、認識できなくなった直前の被験者の位置情報を利用するためである。
ステップS306において、情報処理装置101は、認識できなくなった被験者の人物位置情報902と、認識人物一覧テーブル900から、被験者が認識できなくなった原因である可能性のある人物の検出を行う。なお、この人物について本発明においては、最も想定されるケースをもとに介助者と表記するが、実際に介助を目的とする人物である必要はなく、少なくとも被験者を認識できなくなった時に被験者の近くにいた人物であれば良い。ステップS306の処理の詳細は、図4を用いて説明する。
なお、本実施形態では、ステップS306の介助者検出処理をステップS304の後に行うとしたが、他の実施形態として、ステップS304の前に介助者検出処理を行っても良い。
ステップS307において、情報処理装置101は、人物ID901をもとに、認識人物一覧テーブル900から全ての除外人物(被験者ではないことが既知である人物)を除外する。被験者でないことが既知である人物とは、例えば、被験者登録時に認識されていた人物であって、被験者として登録されなかった人物のことである。
ステップS308において、情報処理装置101は、ステップS307で全ての除外人物を除外した認識人物一覧テーブル900の件数を確認して、一覧が空になっているのかを判定する。ステップS308がYESだった場合、ステップS311へ移行し、ステップS308でNOだった場合、ステップ309へ移行する。ステップS308でYESと判定される場合とは、被験者が撮影範囲外にいる場合等である。また、ステップS308でNOと判定された場合に認識人物一覧テーブル900に残っている人物とは、ステップS304で一旦認識ができなくなった後にステップS302で再度認識された被験者(後述する図8における人物601)や、測定中にモーション情報取得部151の撮影範囲内に入ってきた新たな人物(後述する図8の人物603)等である。
ステップS309において、情報処理装置101は、認識人物一覧テーブル900から被験者を検出し、登録を行う。ステップS309の処理の詳細については、後述する図5で説明する。
ステップS310において、情報処理装置101は、認識人物一覧テーブル900と、登録している被験者から、除外人物の一覧を更新する。ステップS309で被験者を検出した場合には、検出した被験者以外を除外人物の一覧に登録する。
ステップS311において、情報処理装置101は、モーション情報取得部151による撮影を継続するかどうかを判断する。通常、ユーザが明示的に操作を行わない場合には撮影を継続し、ステップS302へ戻る。ステップS311がNOとなるのは、ユーザがプログラムを終了する、プログラムのモードを切り替えるなどの操作を行った時で、その場合にはこのフローチャートを終了する。
次に、図4を用いて、図3のステップS306の詳細を説明する。図4のフローチャートは、介助者の検出を行うフローチャートである。
介助者の検出において、情報処理装置101は、モーション情報解析部152で認識した人物の一覧(認識人物一覧テーブル900)に含まれる全員に対して検査を行う。
ステップS401において、情報処理装置101は、被験者以外の認識人物の人物位置情報902と、被験者の認識できなくなった直前の人物位置情報902から、その二人の距離を確認する。距離の確認には、人物位置情報902からX軸の値を用いる。これは、一般的にモーション情報取得部151の映像の縦横比は横長であることが多く、人物のシルエットは縦長であるため、X軸の値さえ離れていれば、モーション情報取得部151およびモーション情報解析部152で人物を個別に認識できる場合が多いためである。ただし、モーション情報取得部151の仕様や、対象の動作の性質によっては、Y軸やZ軸の値で確認しても良いし、組み合わせて確認しても良い。
ステップS402において、情報処理装置101は、確認した距離が一定範囲内に収まるかどうかを判定する。このステップS402でNOだった場合には、この認識人物の検査を終了し、次の認識人物の検査へ移行し、ステップS402でYESだった場合、ステップS403へ移行する。
ステップS403において、情報処理装置101は、介助者の候補が既に登録されているか、登録されているならば、検査中の認識人物のほうが、既に介助者の候補として登録されている人物よりも認識にできなくなった直前の被験者の位置に近いかを判定する。
ステップ403でYESだった場合、検査中の人物を介助者の候補リスト(不図示)に登録し、人物IDと人物位置情報902を記憶する。
認識した人物一覧に登録されている全員の検査を終えたら、ループを抜け、ステップS405へ移行する。
ステップS405において、情報処理装置101は、介助者の候補が挙げられたかどうかを判断し、挙げられたならばステップS406で、介助者の候補として挙げられた人物を介助者として登録する。ステップS406は、本発明における前記取得手段で座標情報を取得した人物の中から被験者と隣接する人物を特定する隣接人物特定手段の一例である。
ステップS407において、情報処理装置101は、被験者情報および介助者候補情報を削除する。
以下、図5を用いて、ステップS309の詳細を説明する。
図5のフローチャートは、被験者の検出を行うフローチャートである。
ステップS501において、情報処理装置101は、ステップS406で介助者が登録されているかを判定する。ステップS501でYESだった場合、ステップ502へ移行し、ステップ501でNOだった場合、図3のステップS307の除外人物一覧の全ての人物の中から被験者を登録するため、ステップ504へ移行する。
ステップS502において、情報処理装置101は、認識人物一覧テーブル900の各人物と、介助者との距離をそれぞれ確認する。この距離の確認には、ステップS401と同様の方法で行う。
ステップS503において、情報処理装置101は、ステップS502で確認した距離が一定範囲内である認識人物がいるかどうかを判断する。
ステップS503でNOだった場合、被験者は登録せず、フローチャートを終了し、ステップS503でYESだった場合、一定範囲内にいる人物の中から被験者を登録するため、ステップS504へ移行する。
ステップS504において、情報処理装置101は、ステップS503の判定結果または図3のステップS307の判定結果の人物一覧の中から、ユーザが情報処理装置101のディスプレイ212上で被験者を選択することで、被験者の登録を行う。図3のステップS307の判定結果の人物一覧の中から、ユーザが情報処理装置101のディスプレイ212上で被験者を選択する場合とは、例えば、ステップS503でNOと判定された場合である。
なお、人物が複数該当する場合、特許文献1のように解析した動きを用いても良いし、異なる装置から得られる情報を用いて選定しても良いし、単純に現在の位置情報や姿勢を用いて選定しても良いし、被験者の顔画像データを用いて特徴量が一致する人物を被験者として選定しても良い。なお、顔画像データの特徴量一致は情報処理装置101の処理負荷が大きいため、通常時の被験者特定には用いないものとする。
ステップS504は、本発明における、前記被験者特定手段で被験者として特定した人物の座標情報が取得できないことを条件に、前記隣接人物特定手段により特定された前記被験者と隣接する人物から所定の範囲内にいる人物を前記被験者として特定する第2の被験者特定手段の一例である。
ステップS505において、情報処理装置101は、利用済みの介助者情報を削除する。以上で、図5の説明を終了する。
次に図6〜図8を用いて、本実施形態における代表的な状況について説明する。図6〜図8はモーション情報取得部151によって取得できる情報を情報処理装置101のディスプレイ212の画面に表示する一例であり、画面内には複数の人物が映っている。この時、図6〜図8の人物601は同一人物の情報で、対象としたい人物であり、被験者にあたる。各図の人物602は同一人物の情報であり、この人物はプログラムで対象とはしない人物であり、介助者にあたる。図8の人物603は、対象とはしない人物である。
図6は、2人の人物がともに認識できており、人物601に対する処理を行うことができる状態である。この時の位置関係は、人物601と人物602との間には、充分な距離がある。
図7は、図6の状態から被験者である人物601が測定のために移動したか、介助者である人物602が被験者の介助等のために移動したため、人物601が人物602に隠れる形となったため、人物601を認識できなくなった状態である。この時、人物601と人物602は、モーション情報取得部151から見て、重なり合うようになっているため、位置関係は非常に近接している。また、人物601が認識できなくなる直前の位置と、現在の人物601の位置も非常に近接していると推論できる。
図8は、図7の状態から更に人物601、または人物602が移動し、対象としたい人物601を再び認識できるようになった状態にある。しかし、モーション情報取得部151およびモーション情報解析部152は、人物601の認識が連続していないため、同一人物であることを判断できない。また、人物601が再び認識できるようになった時、人物601は人物602の後方から現れる形となるため、人物601が再び認識できた時の位置と、人物602の位置は近接している。また、図7までは認識していなかった人物603を認識している。
図6〜図8のように状態が遷移した時、人物601を被験者として登録し、処理の対象としたいが、図7で認識が途切れてしまっているため、図6と図8の人物601を紐づけることができない。
しかしながら、人物601が被験者であるのならば、被験者が認識できている状態から継続して認識できている人物602は、被験者ではないことが既知である。対して、図8における人物601は、モーション情報取得部151およびモーション情報解析部152からは被験者ではないことが既知ではない新たな人物であり、被験者である可能性がある。人物603も同様に、被験者ではないことが既知ではない新たな人物であり、被験者である可能性がある。
また、遮蔽物に隠れる場合、隠れる直前にはその遮蔽物の近くにいると推論でき、再び現れた直後にもその遮蔽物の近くにいると推論できる。これにより、図6で被験者としていた人物601は図4で人物602の近くで認識できなくなったため、図8で対象の人物である可能性があった人物601と人物603では、認識できなくなった原因である人物602から、離れた位置にいる人物603ではなく、近くで認識された人物601が被験者であると推論できる。
なお、被験者を認識できなくなった時に、付近に人物がいなかった場合には、モーション情報取得部151のセンサー範囲外への移動や人物以外の遮蔽物に隠れたなどの理由が考えられるが、センサー範囲外でどのように移動したかや、遮蔽物の情報(大きさや形状など)が不明であるため、再び認識された時の位置関係については考慮しない。ただし、その場合でも対象ではないことが既知である人物は対象ではないことは自明であるため、対象ではないことが既知の人物は対象としない。また、本発明ではモーション情報取得部151をKinect(対象は人体に限る)としているが、モーション情報取得部151を異なる装置で置き換えたり、Kinectから得られる情報を解析することによって、人物以外の遮蔽物の大きさ・形状・移動などが分かる場合には、人物による遮蔽と同様に扱っても良い。
以上、本発明によると、撮像手段で撮像することにより得られる画像データに含まれる被験者の認識を一時的に失敗したとしても、再度認識したときに前記被験者を特定することが可能となる。また、本発明では、一般的に処理の負荷が高いことが多い技術を新たに追加することなく、それまでも取得していたモーション情報のみを用いた、負荷が低い処理を行うため、撮影を行いながら同時に処理する場合でも、負荷の増大を抑えながら前記の効果を達成できる。
本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、1つの機器からなる装置に適用してもよい。
なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、システム或いは装置に直接、或いは遠隔から供給するものを含む。そして、そのシステム或いは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合も本発明に含まれる。
したがって、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。
プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RWなどがある。また、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などもある。
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、前記ホームページから本発明のコンピュータプログラムそのもの、若しくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。
また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、ダウンロードした鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。その他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現される。
なお、前述した実施形態は、本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
101 情報処理装置

Claims (7)

  1. 撮像手段で撮像することで順次得られる画像データに含まれる人物の関節の座標情報を取得する取得手段と、
    前記取得手段で座標情報を取得した人物の中から被験者を特定する第1の被験者特定手段と、
    前記取得手段で座標情報を取得した人物の中から被験者と隣接する人物を特定する隣接人物特定手段と、
    前記被験者特定手段で被験者として特定した人物の座標情報が取得できないことを条件に、前記隣接人物特定手段により特定された前記被験者と隣接する人物から所定の範囲内にいる人物を前記被験者として特定する第2の被験者特定手段と
    を備えることを特徴とする情報処理装置。
  2. 前記取得手段により取得した前記座標情報に基づいて、前記被験者の動作に係る測定を行う測定手段を備えることを特徴とする請求項1に記載の情報処理装置。
  3. 前記被験者の顔画像データを管理する管理手段を備え、
    前記隣接人物特定手段により特定された前記被験者と隣接する人物から所定の範囲内にいる人物が複数である場合に、前記第2の被験者特定手段は、前記管理手段で管理する前記被験者の顔画像データと最も特徴量が近い人物を被験者として特定することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記取得手段で座標情報を取得した人物の一覧を表示する第1の表示手段と、
    前記第1の特定手段は、前記第1の表示手段により一覧で表示した人物のうちユーザから指定を受け付けた人物を被験者として特定することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
  5. 記隣接人物特定手段により特定された前記被験者と隣接する人物から所定の範囲内に人物がいない場合に、前記取得手段で座標情報を取得した人物の一覧を表示する第2の表示手段を備え、
    前記第2の被験者特定手段は、前記第2の表示手段により一覧で表示した人物のうちユーザから指定を受け付けた人物を被験者として特定することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 撮像手段で撮像することで順次得られる画像データに含まれる人物の関節の座標情報を取得する取得手段を備える情報処理装置の制御方法であって、
    前記情報処理装置の第1の被験者特定手段が、前記取得手段で座標情報を取得した人物の中から被験者を特定する第1の被験者特定工程と、
    前記情報処理装置の隣接人物特定手段が、前記取得手段で座標情報を取得した人物の中から被験者と隣接する人物を特定する隣接人物特定工程と、
    前記情報処理装置の第2の被験者特定手段が、前記被験者特定工程で被験者として特定した人物の座標情報が取得できないことを条件に、前記隣接人物特定手段により特定された前記被験者と隣接する人物から所定の範囲内にいる人物を前記被験者として特定する第2の被験者特定工程と
    を備えることを特徴とする情報処理装置の制御方法。
  7. 撮像手段で撮像することで順次得られる画像データに含まれる人物の関節の座標情報を取得する取得手段を備える情報処理装置で読み取り実行可能なプログラムであって、
    前記情報処理装置を、
    前記取得手段で座標情報を取得した人物の中から被験者を特定する第1の被験者特定手段と、
    前記取得手段で座標情報を取得した人物の中から被験者と隣接する人物を特定する隣接人物特定手段と、
    前記被験者特定手段で被験者として特定した人物の座標情報が取得できないことを条件に、前記隣接人物特定手段により特定された前記被験者と隣接する人物から所定の範囲内にいる人物を前記被験者として特定する第2の被験者特定手段と
    して機能させることを特徴とするプログラム。
JP2017129217A 2017-06-30 2017-06-30 情報処理装置、情報処理装置の制御方法、プログラム Active JP6631594B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017129217A JP6631594B2 (ja) 2017-06-30 2017-06-30 情報処理装置、情報処理装置の制御方法、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017129217A JP6631594B2 (ja) 2017-06-30 2017-06-30 情報処理装置、情報処理装置の制御方法、プログラム

Publications (2)

Publication Number Publication Date
JP2019012453A JP2019012453A (ja) 2019-01-24
JP6631594B2 true JP6631594B2 (ja) 2020-01-15

Family

ID=65227476

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017129217A Active JP6631594B2 (ja) 2017-06-30 2017-06-30 情報処理装置、情報処理装置の制御方法、プログラム

Country Status (1)

Country Link
JP (1) JP6631594B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021192908A1 (ja) * 2020-03-25 2021-09-30 Necソリューションイノベータ株式会社 追跡方法
CN115153517B (zh) * 2022-07-18 2023-03-28 北京中科睿医信息科技有限公司 计时起立行走测试的测试方法、装置、设备及存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4830650B2 (ja) * 2005-07-05 2011-12-07 オムロン株式会社 追跡装置
JP2015061577A (ja) * 2013-01-18 2015-04-02 株式会社東芝 動作情報処理装置
JP6336872B2 (ja) * 2014-09-29 2018-06-06 Kddi株式会社 オブジェクト追跡方法、装置およびプログラム
WO2016135069A1 (en) * 2015-02-26 2016-09-01 Koninklijke Philips N.V. Context detection for medical monitoring

Also Published As

Publication number Publication date
JP2019012453A (ja) 2019-01-24

Similar Documents

Publication Publication Date Title
US10678329B2 (en) Line-of-sight input device, and method of line-of-sight input
US20190238755A1 (en) Method and apparatus for push interaction
JP6424601B2 (ja) 表示制御方法、情報処理プログラム、及び情報処理装置
JP6959495B2 (ja) 情報処理装置、情報処理方法、プログラム
JP6842044B2 (ja) 情報処理装置、情報処理方法、プログラム
JP2017527907A (ja) 疑似ランダムに誘導される指紋登録
KR101631011B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
JP6217437B2 (ja) 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム
JP2010237872A (ja) 人物領域検出装置、人物領域検出方法、及び人物領域検出プログラム
CN111226289B (zh) 动态图像记录系统
JP6631594B2 (ja) 情報処理装置、情報処理装置の制御方法、プログラム
JP2017080197A (ja) 情報処理装置、情報処理方法、プログラム
CN106650217B (zh) 信息处理装置以及信息处理方法
JP2015138333A (ja) 表示制御プログラム、表示制御装置及び表示制御システム
JP2015011404A (ja) 動作認識処理装置
JP2017080199A (ja) 情報処理装置、情報処理方法、プログラム
JP6803111B2 (ja) 情報処理装置、情報処理方法、プログラム
JP6855101B2 (ja) 情報処理装置、情報処理方法、プログラム
JP2016119019A (ja) 情報処理装置、情報処理方法、プログラム
KR102363435B1 (ko) 골프 스윙 동작 피드백 제공 장치 및 방법
JP2020140719A (ja) 情報処理装置、情報処理方法、プログラム
JP2007003448A (ja) 移動情報生成装置、移動情報生成方法、プログラムおよび記憶媒体
KR102629412B1 (ko) 외부 장치의 콘텐트를 편집하는 전자 장치 및 방법
JP5796596B2 (ja) 支援方法、支援システム、制御装置、画像形成装置、および支援プログラム
JP6723822B2 (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180703

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181031

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181226

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191125

R151 Written notification of patent or utility model registration

Ref document number: 6631594

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250