JP7392512B2 - 情報処理装置、情報処理方法、プログラム、および情報処理システム - Google Patents

情報処理装置、情報処理方法、プログラム、および情報処理システム Download PDF

Info

Publication number
JP7392512B2
JP7392512B2 JP2020027272A JP2020027272A JP7392512B2 JP 7392512 B2 JP7392512 B2 JP 7392512B2 JP 2020027272 A JP2020027272 A JP 2020027272A JP 2020027272 A JP2020027272 A JP 2020027272A JP 7392512 B2 JP7392512 B2 JP 7392512B2
Authority
JP
Japan
Prior art keywords
determination
guide object
shape
unit
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020027272A
Other languages
English (en)
Other versions
JP2021131764A (ja
Inventor
大明 山根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2020027272A priority Critical patent/JP7392512B2/ja
Publication of JP2021131764A publication Critical patent/JP2021131764A/ja
Application granted granted Critical
Publication of JP7392512B2 publication Critical patent/JP7392512B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、情報処理装置、情報処理方法、プログラム、および情報処理システムに関する。
従来、作業者が存在する拠点および指示者が存在する拠点の間でネットワークを介して音声および映像を送受信することで、指示者が作業者側の映像を見ながら作業者に対して作業を指示するためのシステムが提案されている。
指示者から作業者への指示は、作業者側の端末が音声または表示を出力することにより行われ得る。また、特許文献1には、作業者側で操作されるべき操作位置をレーザーポインターにより指示する装置が開示されている。
また、近年、CG(コンピューターグラフィックス)や3DCG(3次元CG)により生成された仮想空間が様々なシーンに活用されている。例えば下記特許文献2では、HMD(Head-Mounted Device)を装着したユーザの身体の動きをトラッキングし、仮想空間に表示したアバターに反映させる技術が提案されている。
特許第4089854号公報 特許第6275891号公報
しかしながら、仮想空間に表示されたユーザの身体のグラフィックスにより仮想物体(仮想空間に表示されるユーザの身体のグラフィックス以外の画像)に対して何らかのアプローチ(距離を縮める、掴む、触る、弾くなど)を行おうとした場合に、仮想物体との位置関係(特に距離)が把握し難い場合がある。
このような仮想物体との位置関係を認識し易くするためのガイド物体の表示が考えられるが、どのような形態のガイド物体を表示した方が位置関係をより認識し易くできるかは仮想物体との位置関係により異なり、ガイド物体の形態の切り替え作業が発生すると利便性を損ねる可能性がある。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、仮想空間に表示するガイド物体の利便性を向上させることが可能な、新規かつ改良された情報処理装置、情報処理方法、プログラム、および、情報処理システムを提供することにある。
上記課題を解決するために、本発明のある観点によれば、ユーザからセンシングした身体情報を取得し、所定の判定基準に基づいて前記ユーザの身体情報に対応付けられる1以上の身体形状を判定する身体形状判定部と、直近に判定された前記ユーザの過去の判定身体形状を記憶部から取得し、また、前記身体形状判定部で判定された現在の判定身体形状を前記記憶部に記憶する記憶管理部と、前記過去の判定身体形状と前記現在の判定身体形状に共通する共通判定形状を抽出する共通判定形状取得部と、前記共通判定形状取得部で抽出された共通判定形状に基づいて、仮想空間の対象物との位置関係を示す表示であるガイド物体を決定するガイド物体決定部と、を備える、情報処理装置が提供される。
前記ガイド物体は、前記ユーザからセンシングされた情報に基づいて前記ユーザの手の動きを反映するジェスチャ画像と、前記対象物である仮想物体との位置関係を示す画像であってもよい。
前記ガイド物体決定部は、前記共通判定形状に予め対応付けられた所定のガイド物体に決定してもよい。
前記所定のガイド物体は、遠方型ガイド物体、近傍型ガイド物体、または近接型ガイド物体であってもよい。
各共通判定形状に対応付けられた各所定のガイド物体は、ガイド物体により示すことが可能な奥行方向の長さが異なってもよい。
前記身体情報には、前記ユーザの腕の状態が含まれてもよい。
前記身体情報は、前記ユーザの前腕と上腕の間の角度であってもよい。
前記所定の判定基準は、1つの身体情報に2つの身体形状が対応付けられた基準を含んでもよい。
前記情報処理装置は、前記身体情報の変化に応じて、前記判定基準を変更する判定基準変更部をさらに備えてもよい。
前記情報処理装置は、前記ユーザからセンシングされた情報に基づいて生成される前記ユーザの手の動きを反映するジェスチャ画像の前記仮想空間における未検出時間に応じて、前記判定基準を変更する判定基準変更部をさらに備えてもよい。
前記情報処理装置は、前記ガイド物体決定部により決定されたガイド物体の情報を、仮想空間に関する処理を行う外部装置に出力してもよい。
前記情報処理装置は、前記ガイド物体決定部による決定に基づいて、前記ガイド物体の表示を生成するガイド物体生成部をさらに備えてもよい。
前記情報処理装置は、前記生成したガイド物体の表示を、仮想空間に関する処理を行う外部装置に出力してもよい。
前記情報処理装置は、前記生成したガイド物体を仮想空間に配置するガイド物体配置部をさらに備えてもよい。
また、前記情報処理装置は、前記ユーザからセンシングされた情報に基づいて生成される前記ユーザの手の動きを反映するジェスチャ画像と、前記ジェスチャ画像と前記対象物との位置関係を示すガイド物体が表示された仮想空間の画像を表示する表示部をさらに備えてもよい。
また、上記課題を解決するために、本発明の別の観点によれば、プロセッサが、ユーザからセンシングした身体情報を取得し、所定の判定基準に基づいて前記ユーザの身体情報に対応付けられる1以上の身体形状を判定することと、直近に判定された前記ユーザの過去の判定身体形状を記憶部から取得し、また、前記判定された現在の判定身体形状を前記記憶部に記憶することと、前記過去の判定身体形状と前記現在の判定身体形状に共通する共通判定形状を抽出することと、前記抽出された共通判定形状に基づいて、仮想空間の対象物との位置関係を示す表示であるガイド物体を決定することと、を含む、情報処理方法が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、ユーザからセンシングした身体情報を取得し、所定の判定基準に基づいて前記ユーザの身体情報に対応付けられる1以上の身体形状を判定する身体形状判定部と、直近に判定された前記ユーザの過去の判定身体形状を記憶部から取得し、また、前記身体形状判定部で判定された現在の判定身体形状を前記記憶部に記憶する記憶管理部と、前記過去の判定身体形状と前記現在の判定身体形状に共通する共通判定形状を抽出する共通判定形状取得部と、前記共通判定形状取得部で抽出された共通判定形状に基づいて、仮想空間の対象物との位置関係を示す表示であるガイド物体を決定するガイド物体決定部と、として機能させるための、プログラムが提供される。
また、上記課題を解決するために、本発明の別の観点によれば、ユーザからセンシングした身体情報を取得し、所定の判定基準に基づいて前記ユーザの身体情報に対応付けられる1以上の身体形状を判定する身体形状判定部と、直近に判定された前記ユーザの過去の判定身体形状を記憶部から取得し、また、前記身体形状判定部で判定された現在の判定身体形状を前記記憶部に記憶する記憶管理部と、前記過去の判定身体形状と前記現在の判定身体形状に共通する共通判定形状を抽出する共通判定形状取得部と、前記共通判定形状取得部で抽出された共通判定形状に基づいて、仮想空間の対象物との位置関係を示す表示であるガイド物体を決定するイド物体決定部と、前記ガイド物体決定部により決定されたガイド物体の表示を生成するガイド物体生成部と、前記生成したガイド物体を仮想空間に配置するガイド物体配置部と、を備える、情報処理システムが提供される。

以上説明したように本発明によれば、仮想空間に表示するガイド物体の利便性を向上させることを可能とする。
本発明の一実施形態による情報処理システムの全体構成の一例を示す図である。 比較例による仮想空間における仮想物体との接触ミスについて説明する図である。 本実施形態によるガイド物体の一例を示す図である。 本実施形態によるガイド物体の他の例を示す図である。 本実施形態によるガイド物体の他の例を示す図である。 本実施形態によるガイド物体決定装置の構成の一例を示すブロック図である。 本実施形態による身体情報の一例である肘角度を示す図である。 本実施形態の肘角度に基づく身体形状の判定について説明する図である。 本実施形態による情報処理システムの動作処理の全体の流れの一例を示すフローチャートである。 本実施形態に係る第1の変形例によるガイド物体決定装置の構成の一例を示すブロック図である。 本実施形態に係る第1の変形例による判定基準の変更の一例について説明する図である。 本実施形態に係る第1の変形例による動作処理の流れの一例を示すフローチャートである。 本実施形態に係る第2の変形例による情報処理システムの全体構成の一例を示すブロック図である。 本実施形態に係る第2の変形例によるガイド物体決定装置の構成の一例を示すブロック図である。 本実施形態に係る第2の変形例による動作処理の流れの一例を示すフローチャートである。 本実施形態に係る遠隔作業支援システムへの応用例について説明する図である。 本実施形態に係るガイド物体決定装置を具現する情報処理装置のハードウェア構成の一例を示すブロック図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
<1.情報処理システムの概要>
本発明の一実施形態は、仮想空間に表示された仮想物体(画像)と、ユーザの身体の一部を示す仮想物体との位置関係を認識し易くするためのガイド物体(仮想物体)を表示するシステムに関する。まず、図1を参照して、本発明の一実施形態による情報処理システムの全体構成について説明する。
図1は、本発明の一実施形態による情報処理システムの全体構成の一例を示す図である。図1に示すように、情報処理システム1は、ジェスチャ画像生成装置100、ガイド物体決定装置200、仮想空間処理装置300、および表示装置400を有する。
ジェスチャ画像生成装置100、ガイド物体決定装置200、および表示装置400は、本システムを利用するユーザの周囲に配置される。仮想空間処理装置300はネットワーク上のサーバであってもよいし、ユーザの周囲に配置されてもよいし、ユーザが装着または所持していてもよい。仮想空間処理装置300は、ジェスチャ画像生成装置100、ガイド物体決定装置200、および表示装置400と通信接続し、データの送信または受信を行うことが可能である。また、本システムは、ジェスチャ画像生成装置100、ガイド物体決定装置200、仮想空間処理装置300、および表示装置400が別体で構成される例に限られず、例えばガイド物体決定装置200および仮想空間処理装置300が1つの情報処理装置により構成される構成や、さらに表示装置400を含む構成であってもよい。
仮想空間処理装置300は、仮想空間の生成や呈示を行う情報処理装置である。仮想空間は、例えばCGまたは3DCGにより生成される。また、仮想空間の生成や呈示に用いられる仮想空間情報は、仮想空間DB301に記憶される。仮想空間処理装置300は、仮想空間DB301に記憶されている仮想空間情報に基づいて、仮想空間における所定のユーザ視点(仮想カメラの位置)から見える画像(仮想空間の画像)を生成し、表示装置400に出力する。
表示装置400には、仮想空間処理装置300から出力された仮想空間の画像が表示される。ここで、本実施形態では、表示装置400に表示される仮想物体(仮想空間に在る物体、すなわち画像)の操作を実空間でのジェスチャ(手や指の動き)により行うことが可能な場合について説明する。具体的には、まずジェスチャ画像生成装置100によりユーザのジェスチャを検出してジェスチャ画像を生成し、仮想空間処理装置300により仮想空間の画像にジェスチャ画像を重畳した重畳画像が生成され、重畳画像が表示装置400に表示される。これにより、ユーザは、実際に手を動かして仮想物体を掴む、触る、弾くといったアプローチを直感的に行うことができる。
ジェスチャ画像生成装置100は、センサ部101およびジェスチャ画像生成部102を有する情報処理装置である。センサ部101は、ユーザの手や指の動き、すなわちジェスチャを検出する。具体的には、例えばセンサ部101は、手、指、手首等の位置情報(例えば3次元位置。以下、ジェスチャに関する位置情報とも称す)を検出し得る。また、センサ部101は、1以上の赤外線センサやカメラ(距離を測れるステレオカメラなど)など、三次元位置(手、手首、手の平、指、関節の三次元位置など)を検知できるセンサにより実現されてもよい。なお、センサ部101は赤外線センサやカメラなどの光学式センサに限定されず、例えば音波式や磁気式のセンサであってもよい。また、センサ部101は、非接触計測センサに限定されず、手指にセンサを取り付けて計測する接触計測センサであってもよい。ジェスチャ画像生成部102は、センサ部101による検出結果からジェスチャ画像をCG(Computer Graphics)または3DCGなどで生成する。生成されたジェスチャ画像は、ジェスチャに関する位置情報と共に、仮想空間処理装置300に出力される。ジェスチャ画像生成装置100は、例えば小型の筐体により形成され、表示装置400の周辺に載置されてもよい。ユーザは、ジェスチャ画像生成装置100に設けられたセンサ部101の検出範囲内で手を動かし、手の動きが反映されるジェスチャ画像50(表示装置400に表示される)により、仮想空間の仮想物体(表示装置400に表示される)に対してアプローチを行うことが可能となる。
(課題の整理)
ここで、比較例による仮想空間における仮想物体との接触ミスについて図2を参照して説明する。図2では、3DCGで生成された仮想物体82、84、86と、ユーザのジェスチャに対応するジェスチャ画像80を示す。図2に示すように、仮想物体との位置関係の目安となる仮想の平面(例として、方眼付きの仮想の床が挙げられる)が配置されない状況では、ジェスチャ画像80と仮想物体82との位置関係が把握し難く、接触ミスが多発する可能性がある。例えば図2に示す例では、ジェスチャ画像80の手前に仮想物体82が位置しているためアプローチできない(触れない、掴めない等)といった接触ミスが起こっている。
また、仮想のレーザーポインターインターフェースを用いて、レーザーポインターから出力されるレーザー光の太さの変化(遠くにいくほど細くなる)や方向によって仮想物体との位置関係(特に距離)を認識させることも考えられるが、仮想物体に対してジェスチャのように直感的なアプローチは難しい。
そこで、仮想空間に表示する仮想物体とジェスチャ画像との位置関係を認識し易くするためのガイド物体(画像)をさらに表示することが考え得る。
(ガイド物体)
ガイド物体の一例を図3に示す。図3では、仮想物体61、62、63、64と、本実施形態によるガイド物体として、ジェスチャ画像50の位置から面積の小さい(例えばジェスチャ画像50以下の大きさ)仮想面を遠方に向けて多数配列するガイド物体70が示されている。ガイド物体70と仮想物体が3次元仮想空間内において接触する部分(断面)611がハイライト表示などで強調表示されることで、ガイド物体70との接触が明示され、ユーザは、仮想物体61との位置関係(距離)を把握することが可能となる。ガイド物体70は、ジェスチャ画像50に付随して表示され、ガイド物体70の方向もジェスチャ画像50の向き(例えば手の指先の方向など)に対応するよう表示される。これによりユーザは手を動かすだけで任意の方向にガイド物体70を向けることができる。
なお、ガイド物体の形態(形状)は1つに限定されない。例えば図3に示すガイド物体70は、遠方に位置する仮想物体との位置関係を認識し易くするのに適切な形態(遠方型と称する)であるが、その他、近傍に位置する仮想物体との位置関係を認識し易くするのに適切な形態等も考え得る。
図4に、本実施形態によるガイド物体の他の例を示す。図4では、仮想物体61、62、63、64と、本実施形態によるガイド物体として面積の大きい(例えばジェスチャ画像50の3つ分の大きさなど)仮想面をジェスチャ画像50の位置に1以上配置したガイド物体72が示されている。ガイド物体72は、ジェスチャ画像50の位置に対応して表示され、ジェスチャ画像50に付随して移動する。また、図4に示す例においても、ガイド物体72と仮想物体が3次元仮想空間内において接触する部分(断面)621、631がハイライト表示などで強調表示されることで、ガイド物体72との接触が明示される。これによりユーザは、仮想物体62、63が手元に位置することを直感的に把握することが可能となる。また、仮想物体64はガイド物体72とは接触していない(ハイライト表示がされていない)ため、ジェスチャ画像50の位置よりも遠くに位置していることが分かる。
なお、図4に示したように、ジェスチャ画像50においても、仮想面と接触する部分501(断面)をハイライト表示することで、仮想物体とジェスチャ画像50との位置関係を把握し易くしてもよい。
図4に示すようなガイド物体72は、手元の仮想物体との位置関係を認識し易くするのに適切な形態(近傍型と称する)と言える。
さらにガイド物体の他の例を図5に示す。図5では、仮想物体66と、ガイド物体としてジェスチャ画像50の各所から法線方向に向けて1以上の光線741を配置したガイド物体74が示されている。光線741と仮想物体66とが接触する部分742には、所定の大きさのハイライト表示が表示される。図5に示すガイド物体72は、アプローチ対象となる仮想物体が手(ジェスチャ画像50)の近くにある場合に、手の各所との位置関係が明確に示されるため、より近くの仮想物体との位置関係を認識し易くするのに適切な形態(近接型と称する)と言える。
このようにガイド物体を用いて仮想物体との位置関係を認識し易くすることで、実空間の手の動きを反映させたジェスチャ画像50で仮想物体に対してアプローチ(例えば把持など)する際の接触ミスを軽減することが可能となる。
以上説明したガイド物体の各形態は、本実施形態で用いるガイド物体の一例であって、本実施形態はこれに限定されない。上述した例では、対象物(仮想物体)との位置関係(特に距離)を示すことが可能な奥行方向が異なる遠方型、近傍型、近接型のガイド物体を示したが、例えば遠方型と近傍型の間の距離を明示するのに適切な中距離型のガイド物体があってもよい。また、ガイド物体が仮想物体に接触する部分の表現もハイライト表示に限定されず、何らかの強調表示であればよい。また、ガイド物体と接触する断面の強調表示に限定されず、仮想物体全体を強調表示してもよい。
また、仮想物体との位置関係(特に距離)によって適切なガイド物体の形態が異なるが、ガイド物体の形態の切り替え作業(ユーザによる明示的なボタン操作など)が発生すると、ガイド物体の利便性を損ねる可能性がある。
本件発明者は、上記事情を一着眼点にして本発明の一実施形態を創作するに至った。本発明の一実施形態は、仮想空間に表示する仮想物体との位置関係を認識し易くするためのガイド物体の利便性を向上させることを可能とする。
具体的には、ユーザの実空間における身体の動き(腕の曲げ伸ばし具合や、上体の屈曲度合といった身体の形状)に応じて適切なガイド物体の形態に切り替えることで、ユーザの追加操作なしに、自然な身体動作によってガイド物体の形態を切り替えることを可能とする。例えば、腕を伸ばす動作は遠くの仮想物体にアプローチしようとしていることが推定され、遠方型のガイド物体を表示することで遠くの仮想物体との位置関係を把握し易くすることが可能となる。また、腕を曲げる動作は近くの仮想物体にアプローチしようとしていることが推定され、近傍型または近接型のガイド物体を表示することで近くの仮想物体との位置関係を把握し易くすることが可能となる。
このようなガイド物体の形態の決定は、図1に示す本実施形態によるガイド物体決定装置200により行われ得る。ガイド物体決定装置200は、ユーザの身体の形状に応じてガイド物体(の形態)を決定し、ガイド物体決定情報を仮想空間処理装置300に出力する。仮想空間処理装置300のガイド物体生成部302は、ガイド物体決定装置200から取得したガイド物体決定情報に基づいてガイド物体(画像)を生成する。また、仮想空間処理装置300の仮想物体情報取得部303は、仮想空間DB301から仮想物体情報(ジェスチャ画像50を含む各仮想物体の3DCGデータや位置情報、姿勢情報など、仮想空間の生成に用いられる情報)を取得する。次いで、仮想空間処理装置300の重畳画像生成部304は、仮想空間の画像(ユーザ視点の仮想空間画像)にガイド物体を重畳した画像を生成する。ガイド物体は、ジェスチャ画像50の位置に合わせて重畳表示される。そして、表示制御部305は、重畳画像を表示装置400に出力する。
ユーザの身体の形状が変化した場合は、ガイド物体決定装置200によりガイド物体の形態の切り替えが行われる(ガイド物体決定情報の更新)。すなわち、ガイド物体決定装置200が新たにガイド物体決定情報(ガイド物体の形態の切り替え情報とも言える)を仮想空間処理装置300に送信すると、仮想空間処理装置300はガイド物体の切り替えを行い(新たなガイド物体の生成)、切り替えたガイド物体を重畳表示した画像を、表示装置400に出力する。なお、表示制御部305による仮想空間の表示制御はリアルタイムで継続的に行われ得る。これにより、ユーザがジェスチャにより仮想空間の仮想物体に対してアプローチを行った場合には、表示装置400の画面上においてリアルタイムでフィードバックされ、また、ガイド物体の切り替えもリアルタイムで行われ得る。
このように、本実施形態では、ユーザの自然な身体動作によってガイド物体の形態を切り替えることが可能となる。
以下、このような本発明の一実施形態による身体動作(具体的には、身体の形状)に応じてガイド物体の決定を行うガイド物体決定装置200の構成および動作について、順次詳細に説明する。
<2.構成例>
図2は、本実施形態によるガイド物体決定装置の構成の一例を示すブロック図である。図2に示すように、ガイド物体決定装置200は、制御部210と、通信部220と、センサ部230と、記憶部240と、を有する。
(センサ部230)
センサ部230は、ユーザの身体の形に関する情報(身体情報)を取得する機能を有する。例えばセンサ部230は、赤外線センサやカメラにより実現されてもよい。また、センサ部230は、2D情報に限定されず3D情報(深度情報)の取得が可能なセンサであってもよい。また、センサ部230は、身体の骨格や関節各部位を検出できるセンサであってもよい。また、センサ部230は、非接触計測センサであってもよいし、接触計測センサであってもよい。また、センサ部230は、表示装置400を見ているユーザの正面方向に設けられていてもよいし、ユーザの上方や横方向に設けられていてもよい。また、センサ部230は、1又は複数設けられてもよい。身体形状の取得には、既存のモーションキャプチャシステムを用いてもよい。
(制御部210)
制御部210は、例えば、CPU(Central Processing Unit)等を中心に構成されており、各種プログラムに従ってガイド物体決定装置200の各機能を制御する。特に、本実施形態による制御部210は、身体形状判定部211、記憶管理部212、共通判定形状取得部213、およびガイド物体決定部214としての機能を有する。
身体形状判定部211は、センサ部230により検出された身体情報に基づいて、ユーザの身体形状を判定する。身体情報とは、身体の形に関する情報であって、例えば腕の状態や、姿勢が挙げられる。さらに具体的には、身体情報として、例えば前腕(肘から下)と上腕(肘から上)の間の角度や、前腕と上腕の長さの合計に対する肩と手の距離の割合や、地面に対する背骨の角度(上体の屈曲度合い)などが挙げられる。また、身体形状の判定は、判定基準DB241に記憶された判定基準に基づいて行われ得る。判定基準DB241に記憶された判定基準は、例えば下記表1に示すようなデータテーブルにより生成されていてもよい。身体形状判定部211は、かかる判定基準に基づいて、検出された身体情報に対応付けられた1以上の身体形状を判定する。なお下記表1に示す例では、センサ部230により検出される身体情報の一例として前腕と上腕の角度(以下、肘角度と称する)を用いて、身体形状の判定を行っている。
Figure 0007392512000001
上記判定に用いる肘角度について図7を参照して説明する。図7は、本実施形態による身体情報の一例である肘角度を示す図である。図7では、所定部位(手2111、前腕2112、肘2113、上腕2114、肩(右肩)2115、肩(左肩)2117、および頭部2116)の形状の検出結果(骨格情報)が示されている。身体形状判定部211は、このような検出結果から、前腕2112と上腕2114の角度である肘角度2200を取得し得る。
次いで、身体形状判定部211は、上記表1に示すような判定基準を用いて身体形状の判定を行う。ここで、本実施形態では、判定基準の閾値近辺でガイド物体の切り替えが頻繁に起きてしまうことや、同じ身体情報であっても適切なガイド物体が異なる場合を考慮して、1つの判定基準に2つ以上の判定結果(判定身体形状)を含ませる基準も用意する。これにより、後述する共通判定形状取得部213により直近の過去の判定結果と共通する判定結果を共通判定形状として抽出し、かかる共通判定形状に応じたガイド物体に決定することができ(ユーザが切り替えを意図していないと推定し、直近の過去のガイド物体の形態を優先する)、閾値付近での頻繁なガイド物体の切り替えや適切でないガイド物体への切り替え(ユーザの無意識的な腕の曲げ伸ばしによる微妙な角度の変化によって生じる恐れのある切り替え)を抑制することが可能となる。
続いて、上記表1を用いた判定結果の一例について図8を参照して説明する。図8には、上記表1に示した各判定範囲1~5と、その判定身体形状が示されている。図8に示すように、例えば肘角度が120°で判定範囲4の範囲に含まれる場合、身体形状判定部211は、「形状2」および「形状3」といった、複数の身体形状を判定結果として出力する。
身体形状判定部211による判定結果(判定身体形状)は、記憶管理部212により判定結果DB242に蓄積される。
次に、共通判定形状取得部213は、直近の判定結果(過去の判定身体形状)を判定結果DB242から取得し、現在の判定結果(現在の判定身体形状)と共通する判定身体形状(共通判定形状)を抽出する。例えば、直近の肘角度が140°で判定結果が「形状3」であり、現在の判定結果が「形状2、形状3」であった場合、「形状3」が共通判定形状として抽出される。
ガイド物体決定部214は、共通判定形状取得部213により抽出(取得)された共通判定形状に応じてガイド物体を決定する。形状とガイド物体(の形態)は改め対応付けられている。例えば、ガイド物体決定部214は、形状1であれば「近接型」のガイド物体(図5参照)、形状2であれば「近傍型」のガイド物体(図4参照)、形状3であれば「遠方型」のガイド物体(図3参照)に決定する。直近の過去の判定結果と共通する形状を優先することで、閾値付近でガイド物体の切り替えが頻繁に起きることを抑制し、また、無意識的な行動によるガイド物体の切り替えも抑制することが可能となり、ガイド物体の利便性がさらに向上する。
ガイド物体決定部214による決定情報は、通信部220から仮想空間処理装置300に出力され、仮想空間処理装置300におけるガイド物体の生成に用いられる。なお、ガイド物体の生成までをガイド物体決定装置200で行い、ガイド物体決定装置200は生成したガイド物体の画像を仮想空間処理装置300に出力する構成であってもよい。
また、上記表1に示す判定範囲および各判定範囲に対応する判定身体形状は一例であって、本実施形態はこれに限定されない。例えば、下記表2に示すような判定基準を用いてもよい。
Figure 0007392512000002
上記表2に示す判定基準の場合、例えば形状1であれば「近傍型」のガイド物体が生成され、形状2であれば「遠方型」のガイド物体が生成される。
より具体的には、ユーザが腕を伸ばして肘角度が155°となった場合、身体形状判定部211は、上記表2を参照して「形状2」と判定し、記憶管理部212は判定基準DB241にその判定結果を記録する。また、表示装置400に表示される仮想空間の画像では、画像内に表示されるユーザの手の動きに追従するジェスチャ画像の傍に、遠方型のガイド物体が呈示される。
その後、ユーザの無意識的な行動により肘角度が130°になってしまった場合について説明する。身体形状判定部211は、上記表2を参照して「形状1、形状2」と判定する。共通判定形状取得部213は、判定結果DB242から過去の判定結果「形状2」を取得し、現在の判定結果「形状1、形状2」と比較して「形状2」を共通判定結果として抽出する。なお、現在の判定結果「形状1、形状2」も、記憶管理部212により判定結果DB242に記憶される。
抽出された共通判定結果は仮想空間処理装置300に出力され、仮想空間処理装置300のガイド物体生成部302は、共通判定結果「形状2」に対応する遠方型のガイド物体を生成し、重畳画像生成部304により、遠方型のガイド物体がジェスチャ画像50の傍に配置され、表示装置400で表示される。なお、形状の変化がない場合はガイド物体決定装置200から決定情報を送信しないようにしてもよい。また、仮想空間処理装置300は、ガイド物体決定装置200から送信される情報に基づいて、形状(判定結果)の変化がないと判断した場合には、ガイド物体の新たな生成は行わずに現在のガイド物体の表示を維持するようにしてもよい。
以上、本実施形態による共通判定形状の抽出と共通判定形状に応じたガイド物体の決定について具体的に説明した。
これにより、閾値周辺での頻繁な切り替わりや意図しない切り替わりを抑制することができる。例えば、ユーザが遠方の仮想物体にアプローチしようと腕を伸ばしたときに呈示される遠方型のガイド物体の方向を、任意の方向に向けようと腕を動かした際に無意識に腕を曲げて肘角度が多少(例えば155°から130°に)変化しても、ユーザの意図に反して近傍型のガイド物体等に切り替わることを抑制できる。
(通信部220)
通信部220は、外部装置と通信接続し、データの送受信を行い得る。例えば通信部220は、ネットワーク(例えば専用回線)を介して、仮想空間処理装置300と通信接続し、ガイド物体決定情報を送信したり、仮想空間の画像を受信したりしてもよい。
(記憶部240)
記憶部240は、ROM(Read Only Memory)およびRAM(Random Access Memory)等から実現され、ガイド物体決定装置200の動作を制御するための制御プログラムや各種パラメータ、データ等を格納する。例えば、記憶部240は、判定基準DB241および判定結果DB242を記憶する。
以上、本実施形態によるガイド物体決定装置200の構成について具体的に説明した。なお、図6に示すガイド物体決定装置200の構成は一例であって、本実施形態はこれに限定されない。例えば、ガイド物体決定装置200の各構成のうち、少なくとも一部が別体により構成されていてもよい。また、ガイド物体決定装置200は、図1に示すガイド物体生成部302の構成をさらに有していてもよい。
<3.動作処理>
続いて、本実施形態による情報処理システム1の動作処理(具体的には、ガイド物体決定装置200によるガイド物体決定処理)について、図9を参照して説明する。図9は、本実施形態による情報処理システム1の動作処理の全体の流れの一例を示すフローチャートである。
図9に示すように、まず、ガイド物体決定装置200は、センサ部230によりユーザの身体情報を取得する(ステップS103)。
次に、身体形状判定部211は、身体情報に基づいて、判定基準を参照し、現在の身体形状を判定する(ステップS106)。
次いで、記憶管理部212は、直近の過去の判定身体形状を記憶部(判定結果DB242)から取得し(ステップS109)、また、現在の判定身体形状を記憶部(判定結果DB242)に記憶する(ステップS112)。
次に、共通判定形状取得部213は、過去の判定身体形状と現在の判定身体形状に共通する判定身体形状を抽出する(ステップS115)。
次いで、ガイド物体決定部214は、共通判定形状に基づいて、ガイド物体(の形態)を決定する(ステップS118)。
次に、ガイド物体決定装置200は、決定されたガイド物体の情報を、仮想空間処理装置300に送信する(ステップS121)。
以上、本実施形態によるガイド物体決定処理の一例について説明した。
<4.変形例>
続いて、本実施形態による情報処理システムの変形例について説明する。
<4-1.第1の変形例>
ユーザの腕の曲げ伸ばしの変化など身体情報の時間変化(単位時間当たりの変化量)が速い場合は、無意識的な変化ではなくユーザが意識的に行っている変化である可能性が高いため、過去の判定身体形状を考慮せずに現在の判定身体形状のみに基づいてガイド物体を呈示することが好ましい。
過去の判定身体形状を考慮しないことで、処理負担の軽減も図れる。
また、過去の判定身体形状を考慮しないことで、共通する判定形状が抽出できないといった事態を回避することも可能となる(例えば肘角度が瞬時に変化し、現在の判定結果が「形状3」、直近の過去の判定結果が「形状1」となった場合など)。
過去の判定身体形状を考慮しない場合、判定基準には1の判定結果(判定身体形状)が含まれている状態とすることが望ましい。従って、本変形例では、身体形状の判定に用いる判定基準を、身体の動きの変化に応じて変更することで、ガイド物体の利便性をさらに向上させることを可能とする。
(4-1-1.構成例)
図10は、第1の変形例によるガイド物体決定装置200aの構成の一例を示すブロック図である。図10に示すように、ガイド物体決定装置200aは、制御部210a、通信部220、センサ部230、および記憶部240を有する。通信部220、センサ部230、および記憶部240は、図6を参照して説明した同符号の構成と同様であるため、ここでの説明は省略する。
制御部210aは、身体形状判定部211、記憶管理部212、共通判定形状取得部213、ガイド物体決定部214、身体情報変化算出部215、および判定基準変更部216を有する。身体情報変化算出部215は、センサ部230により検出されたユーザの身体情報の変化を算出する。例えば身体情報が肘角度の場合、身体情報変化算出部215は、肘角度の時間変化を算出する。
そして、判定基準変更部216は、身体情報変化算出部215により算出された身体情報の変化(すなわち身体の形の変化)に基づいて、身体形状判定部211で身体形状の判定が行われる際に用いられる判定基準を変更する処理を行う。
具体的には、判定基準変更部216は、身体情報の変化が所定値を越えている場合(例えば肘角度の時間変化が所定値を越えている、すなわち腕の動きが速い場合)、複数の判定結果を含む判定範囲が無い判定基準に変更する処理を行う。ここで、図11に、判定基準の変更の一例を示す。
複数の判定結果を含む判定範囲の無い判定基準に変更する場合、例えば図11右に示すように、複数の判定結果を含む判定範囲(重複範囲と称する)をnullにすると共に、重複範囲の前後の判定範囲を修正し、判定範囲に漏れがないようにする。
身体形状判定部211は、このように変更された判定基準に基づいて現在の身体形状を判定し、さらに、ガイド物体決定部214は、過去の判定結果を考慮せずに(共通判定形状取得部213による共通判定形状の抽出は行わずに)、現在の身体形状のみに基づいてガイド物体(の形態)を決定し、仮想空間処理装置300にガイド物体決定情報を送信する。
(4-1-2.動作処理例)
続いて、本変形例による判定処理について図12を参照して説明する。図12は、第1の変形例による動作処理の流れの一例を示すフローチャートである。
図12に示すように、まず、ガイド物体決定装置200aは、センサ部230によりユーザの身体情報を取得する(ステップS203)。
次に、身体情報変化算出部215は、身体情報の変化を算出する(ステップS206)。
次いで、身体情報の変化(時間変化)が所定値より大きい場合(ステップS209/Yes)、判定基準変更部216が判定基準の変更を行い、身体形状判定部211は変更された判定基準を参照して身体形状の判定を行う(ステップS212)。図12では図示していないが、変更された判定基準を参照して身体形状の判定が行われた場合、ガイド物体決定部214は、当該判定の結果(現在の判定身体形状)のみに基づいて(過去の判定の結果を参照せずに)ガイド物体の決定を行う。また、現在の判定身体形状は、判定結果DB242に記憶される。
一方、身体情報の変化(時間変化)が所定値以下の場合(ステップS209/No)、判定基準変更部216による判定基準の変更は行わず、通常通り、身体形状判定部211による身体形状の判定が行われる(ステップS215)。身体情報の時間変化が所定値以下の場合とは、すなわち身体がゆっくり変化している(例えば腕をゆっくり伸ばしたり曲げたりしている)場合であり、このような場合はユーザが仮想物体の形態の変化を望んでいないこと(仮想物体に対して何らかのアプローチを行っている最中であるなど)が予想される。したがって、閾値付近でガイド物体の切り替えが頻繁に起こらないよう、上述した実施形態と同様の処理が行われることが望ましい。ガイド物体決定部214は、上述した実施形態と同様に、共通判定形状取得部213により抽出された直近過去と共通する判定身体形状(共通判定形状)に基づいてガイド物体の決定を行う。
以上、第1の変形例について説明した。
なお、ガイド物体決定装置200は、ユーザの操作履歴を蓄積して機械学習を行い、形状1から形状3に飛びがちといったユーザの操作傾向を把握することで、共通判定形状が抽出できないといった状態を回避(補完)するようにしてもよい。
また、ガイド物体決定装置200aは、判定基準の変更が行われた場合、判定結果DB242に記憶した過去の判定身体形状を削除する処理を行ってもよい。
また、ガイド物体決定装置200aは、判定基準変更部216により変更された判定基準を、所定時間経過後、または身体情報の変化が所定値以下となった場合に、元に戻すようにしてもよい。
<4-2.第2の変形例>
ジェスチャ画像の生成を行うジェスチャ画像生成装置100のセンサ部101によるセンシングが不安定になった場合や、ユーザの手がセンサ部101のセンシング範囲から外れた場合は、ジェスチャ画像生成部102によりジェスチャ画像が生成されないため、仮想空間処理装置300において、ジェスチャ画像が未検出となる。この場合、仮想空間処理装置300は、ジェスチャ画像の位置に合わせて表示していたガイド物体も連動して非表示とするよう制御する。
かかるジェスチャ画像の未検出時間(非表示の時間)が長い場合、次にガイド物体を表示する際には、過去の判定結果を考慮せずに現在の判定身体形状に応じたガイド物体を表示することが望ましい。
過去の判定身体形状を考慮しないことで、処理負担の軽減も図れる。
また、過去の判定身体形状を考慮しないことで、共通する判定形状が抽出できないといった事態を回避することも可能となる。
(4-2-1.構成例)
図13は、第2の変形例による情報処理システム1bの全体構成の一例を示す図である。図13に示すように、情報処理システム1bは、ジェスチャ画像生成装置100、ガイド物体決定装置200b、仮想空間処理装置300b、および表示装置400を有する。ジェスチャ画像生成装置100および表示装置400は、図1を参照して説明した同符号の構成と同様であるため、ここでの説明は省略する。
仮想空間処理装置300bは、図1を参照して説明した仮想空間処理装置300の構成に加えて、ジェスチャ画像未検出時間取得部306をさらに有する。ジェスチャ画像未検出時間取得部306は、仮想空間におけるジェスチャ画像の未検出時間を取得し、(I/F部を介して)ガイド物体決定装置200bに出力する。
ガイド物体決定装置200bの構成例について図14を参照して説明する。図14は、第2の変形例によるガイド物体決定装置200bの構成の一例を示すブロック図である。図14に示すように、ガイド物体決定装置200bは、制御部210b、通信部220、センサ部230、および記憶部240を有する。通信部220、センサ部230、および記憶部240は、図6を参照して説明した同符号の構成と同様であるため、ここでの説明は省略する。
制御部210bは、身体形状判定部211、記憶管理部212、共通判定形状取得部213、ガイド物体決定部214、および判定基準変更部216bを有する。判定基準変更部216bは、通信部220を介して仮想空間処理装置300から受信したジェスチャ画像未検出時間に基づいて、身体形状判定部211で身体形状の判定が行われる際に用いられる判定基準を変更する処理を行う。
具体的には、判定基準変更部216bは、ジェスチャ画像の未検出時間が閾値を越えている場合(すなわち、ジェスチャ画像が仮想空間から消えている時間が閾値を越えている場合)、複数の判定結果を含む判定範囲が無い判定基準に変更する処理を行う。判定基準の変更例は、第1の変形例で用いた図11に示す例と同様である。判定基準変更部216bは、例えば図11右に示すように、複数の判定結果を含む判定範囲(重複範囲と称する)をnullにすると共に、重複範囲の前後の判定範囲を修正し、判定範囲に漏れがないようにする。
次いで、ジェスチャ画像が再び検出されジェスチャ画像に付随するガイド物体の表示が可能となった場合(ジェスチャ画像の検出通知が仮想空間処理装置300からガイド物体決定装置200bに対して行われてもよいし、ジェスチャ画像の検出有無に関わらずガイド物体決定装置200bからはガイド物体決定情報を送信し続けていてもよい)、身体形状判定部211は、変更された判定基準に基づいて現在の身体形状を判定する。そして、ガイド物体決定部214は、過去の判定結果を考慮せずに(共通判定形状取得部213による共通判定形状の抽出は行わずに)、現在の身体形状のみに基づいてガイド物体(の形態)を決定し、仮想空間処理装置300にガイド物体決定情報を送信する。
(4-2-2.動作処理例)
続いて、本変形例による判定基準変更処理について図15を参照して説明する。図15は、第2の変形例による動作処理の流れの一例を示すフローチャートである。
図15に示すように、まず、ガイド物体決定装置200bは、仮想空間処理装置300からジェスチャ画像の未検出時間を取得する(ステップS303)。
次に、未検出時間が閾値を越えた場合(ステップS306/Yes)、記憶管理部212は、判定結果DB242に記憶する過去の判定結果を削除する(ステップS309)。
次いで、判定基準変更部216bは、判定基準の変更(重複範囲をnullとし、重複範囲の前後の判定範囲を修正する変更)を行う(ステップS312)。
以上、第2の変形例による判定基準の変更処理について説明した。身体形状判定部211は、このように変更された判定基準に基づいて現在の身体形状を判定する。さらに、ガイド物体決定部214は、過去の判定結果を考慮せずに、現在の身体形状のみに基づいてガイド物体(の形態)を決定し、仮想空間処理装置300にガイド物体決定情報を送信する。
これにより、ジェスチャ画像の未検出時間が長い場合は過去の判定身体形状と関係なく、現在の判定身体形状のみに基づいてガイド物体を決定することが可能となる。
なお、身体形状判定部211は、共通判定形状取得部213による共通判定形状の抽出を行わないことで、過去の判定結果を考慮しないようにしてもよい。また、上記ステップS309に示すように判定結果DB242に記憶する判定結果を削除する処理を行っておくことで、共通判定形状取得部213による共通判定形状の抽出をスキップするようにしてもよい。
また、ジェスチャ画像の未検出時間が閾値以下の場合は、ガイド物体の呈示継続が望ましいため(無意図的に一瞬だけジェスチャ画像が未検出となった場合等が想定される)、判定基準の変更は行わず、上述した実施形態と同様の処理(図9参照)が行われる。
また、仮想空間処理装置300からは未検出時間の通知ではなく、ジェスチャ画像が未検出(非表示)となったことが通知され、ガイド物体決定装置200b側で未検出時間をカウントするようにしてもよい。
また、ガイド物体決定装置200bは、判定基準変更部216により変更された判定基準を、ジェスチャ画像が検出されて所定時間が経過した場合(すなわち検出時間が所定の閾値を越えた場合)に元に戻すようにしてもよい。
また、第1の変形例と組み合わせてもよい。例えば、判定基準変更部216bは、ジェスチャ画像の未検出時間と、身体情報の変化とに応じて、判定基準を変更するようにしてもよい。例えば、ジェスチャ画像の未検出時間が閾値以下かつ身体情報の変化が所定値以下の場合以外は(すなわち、ジェスチャ画像の未検出時間が閾値を超える、または、身体情報の変化が所定値を超える場合に)、判定基準の変更(重複範囲をnullとし、重複範囲の前後の判定範囲を修正する変更)を行うようにしてもよい。
<5.応用例>
以上説明した情報処理システム1は、第1のユーザである指示者が、第2のユーザである遠隔地に居る作業者に対して作業を指示する際に用いられる遠隔作業支援システムに応用することも可能である。以下、図16を参照して説明する。
図16は、本実施形態に係る遠隔作業支援システムへの応用例について説明する図である。図16には、第1のユーザとして指示者U1を示し、指示者U1から離れた遠隔地に存在する第2のユーザとして作業者U2を示している。遠隔作業支援システム10は、例えば遠隔地で何らかの作業を行っている作業者U2に対して、作業者U2の視界方向を撮像した映像(作業者U2の作業対象を含む画角の映像)に基づいて仮想空間処理装置300により生成される仮想空間の画像(例えば作業対象の部品を仮想物体で表示するなど、実空間の一部をCGなどで生成して呈示した画像)を見ながら、リアルタイムで指示者U1が作業者U2に対して作業等に関する指示を行う場合に用いられる。なお、ここでは「遠隔地」と表現したが、指示者U1と作業者U2が遠く離れた場所に存在する場合に限られず、指示者U1と作業者U2は同じ建物の別フロアに存在してもよいし、指示者U1と作業者U2は同一フロアの別部屋に存在してもよい。
図16に示したように、遠隔作業支援システム10は、ジェスチャ画像生成装置100と、マイク130と、ガイド物体決定装置200cと、仮想空間処理装置300cと、表示装置400と、作業者端末500と、カメラ510と、表示装置520(作業者に装着されるARグラスなど)と、を有する。
仮想空間処理装置300cは、ガイド物体決定装置200cおよび作業者端末500と、ネットワークを介して接続されている。ネットワークは、ネットワークに接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、ネットワークは、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワークは、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。
ここで、指示者U1側に表示される画像において、指示者U1の手の動きを反映させたジェスチャ画像が重畳表示され、さらに、ジェスチャ画像と仮想物体との位置関係を認識し易くするための、本実施形態によるガイド物体が表示される。かかるガイド物体は、上述した実施形態および各変形例と同様に、センサ部230により検出される指示者U1の身体情報(肘角度など)に基づいて適宜切り替えられる。
指示者U1は、マイク130により収音される音声と、ジェスチャ画像生成装置100により生成されるジェスチャ画像により、作業者U2に対して指示を行うことができる。具体的には、ジェスチャ画像が重畳された画像(仮想空間画像)が、作業者U2の表示装置520に表示される。また、収音された指示者U1の音声も併せて作業者U2側で出力される(例えば作業者U2が装着するヘッドホン等から)。
以上、本実施形態に係る応用例について説明した。なお、ここでは作業者U2の視界方向を撮像した映像(実空間の映像)から仮想空間処理装置300cにより仮想空間の画像を生成して(仮想物体の生成)、指示者UI側で表示する場合について説明しているが、本応用例はこれに限定されない。例えば、仮想空間処理装置300cは、作業者U2の視界方向を撮像した映像(実空間の映像)にジェスチャ画像やガイド物体を重畳表示するようにしてもよい。
<6.ハードウェア構成例>
続いて、本実施形態に係るガイド物体決定装置200(200a、200b、200c)のハードウェア構成について説明する。上記の動作は、ソフトウェアと、以下に説明するガイド物体決定装置200のハードウェアとの協働により実現される。
図17は、本実施形態に係るガイド物体決定装置200を具現する情報処理装置900のハードウェア構成の一例を示すブロック図である。情報処理装置900は、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904と、ブリッジ905と、外部バス906と、インタフェース907と、入力機器908と、出力機器909と、ストレージ機器910と、ドライブ911と、通信機器913と、を備える。
CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバス等から構成されるホストバス904により相互に接続されている。当該CPU901、ROM902およびRAM903の協働により、ガイド物体決定装置200の制御部210が実現される。
ホストバス904は、ブリッジ905を介して、PCI(Peripheral Component Interconnect/Interface)バス等の外部バス906に接続されている。なお、必ずしもホストバス904、ブリッジ905および外部バス906を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
入力機器908は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、センサ、スイッチまたはマイクロフォン等ユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路等から構成されている。情報処理装置900を操作するユーザは、この入力機器908を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。入力機器908により、ガイド物体決定装置200のセンサ部230が実現される。
出力機器909は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置、ランプ等の表示装置およびスピーカ等の音声出力装置を含む。
ストレージ機器910は、データ格納用の機器である。ストレージ機器910は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置等を含んでもよい。当該ストレージ機器910により、ガイド物体決定装置200の記憶部240が実現される。
ドライブ911は、記憶媒体用リーダライタであり、情報処理装置900に外付けされる。ドライブ911は、装着される磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体912に記録されている情報を読み出して、RAM903に出力する。また、ドライブ911は、リムーバブル記憶媒体912に情報を書き込むこともできる。
通信機器913は、通信を行うための通信デバイス等で構成された通信インタフェースである。当該通信機器913により、ガイド物体決定装置200の通信部220が実現される。
なお、情報処理装置900のハードウェア構成は、図17に示す構成に限られない。例えば、情報処理装置900は、接続されている外部の通信デバイスを介して通信を行う場合には、通信機器913を備えていなくてもよい。また、情報処理装置900は、例えば、入力機器908または出力機器909等を備えなくてもよい。また、例えば、図17に示す構成の一部または全部は、1または2以上のIC(Integrated Circuit)で実現されてもよい。
また、図17に示すハードウェア構成を、ジェスチャ画像生成装置100、仮想空間処理装置300、表示装置400、または作業者端末500に適用してもよい。ジェスチャ画像生成装置100、仮想空間処理装置300、表示装置400、または作業者端末500の動作は、ソフトウェアとハードウェアとの協働により実現され得る。
<7.まとめ>
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、応用例の一つとして、遠隔地での作業(例えば工場や倉庫などでの作業)を支援する遠隔作業支援システムへの応用について説明したが、本実施形態は作業支援への応用に限定されず、例えば、様々な分野における教育支援に用いてもよい。
また、ジェスチャ画像生成装置100、ガイド物体決定装置200、仮想空間処理装置300、表示装置400、または作業者端末500に内蔵されるCPU、ROM、およびRAM等のハードウェアに、ジェスチャ画像生成装置100、ガイド物体決定装置200、仮想空間処理装置300、表示装置400、または作業者端末500の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムが記憶されたコンピュータ読み取り可能な記憶媒体も提供される。
1 情報処理システム
100 ジェスチャ画像生成装置
101 センサ部
102 ジェスチャ画像生成部
200 ガイド物体決定装置
210 制御部
211 身体形状判定部
212 記憶管理部
213 共通判定形状取得部
214 ガイド物体決定部
215 身体情報変化算出部
216 判定基準変更部
220 通信部
230 センサ部
240 記憶部
241 判定基準DB(データベース)
242 判定結果DB(データベース)
300 仮想空間処理装置
301 仮想空間DB(データベース)
302 ガイド物体生成部
303 仮想物体情報取得部
304 重畳画像生成部
305 表示制御部
306 ジェスチャ画像未検出時間取得部
400 表示装置
500 作業者端末

Claims (18)

  1. ユーザからセンシングした身体情報を取得し、所定の判定基準に基づいて前記ユーザの身体情報に対応付けられる1以上の身体形状を判定する身体形状判定部と、
    直近に判定された前記ユーザの過去の判定身体形状を記憶部から取得し、また、前記身体形状判定部で判定された現在の判定身体形状を前記記憶部に記憶する記憶管理部と、
    前記過去の判定身体形状と前記現在の判定身体形状に共通する共通判定形状を抽出する共通判定形状取得部と、
    前記共通判定形状取得部で抽出された共通判定形状に基づいて、仮想空間の対象物との位置関係を示す表示であるガイド物体を決定するガイド物体決定部と、
    を備える、情報処理装置。
  2. 前記ガイド物体は、前記ユーザからセンシングされた情報に基づいて前記ユーザの手の動きを反映するジェスチャ画像と、前記対象物である仮想物体との位置関係を示す画像である、請求項1に記載の情報処理装置。
  3. 前記ガイド物体決定部は、前記共通判定形状に予め対応付けられた所定のガイド物体に決定する、請求項2に記載の情報処理装置。
  4. 前記所定のガイド物体は、遠方型ガイド物体、近傍型ガイド物体、または近接型ガイド物体である、請求項3に記載の情報処理装置。
  5. 各共通判定形状に対応付けられた各所定のガイド物体は、ガイド物体により示すことが可能な奥行方向の長さが異なる、請求項1~4のいずれか1項に記載の情報処理装置。
  6. 前記身体情報には、前記ユーザの腕の状態が含まれる、請求項1~5のいずれか1項に記載の情報処理装置。
  7. 前記身体情報は、前記ユーザの前腕と上腕の間の角度である、請求項6に記載の情報処理装置。
  8. 前記所定の判定基準は、1つの身体情報に2つの身体形状が対応付けられた基準を含む、請求項1~7のいずれか1項に記載の情報処理装置。
  9. 前記情報処理装置は、
    前記身体情報の変化に応じて、前記判定基準を変更する判定基準変更部をさらに備える、請求項1~8のいずれか1項に記載の情報処理装置。
  10. 前記情報処理装置は、
    前記ユーザからセンシングされた情報に基づいて生成される前記ユーザの手の動きを反映するジェスチャ画像の前記仮想空間における未検出時間に応じて、前記判定基準を変更する判定基準変更部をさらに備える、請求項1~9のいずれか1項に記載の情報処理装置。
  11. 前記情報処理装置は、
    前記ガイド物体決定部により決定されたガイド物体の情報を、仮想空間に関する処理を行う外部装置に出力する、請求項1~10のいずれか1項に記載の情報処理装置。
  12. 前記情報処理装置は、
    前記ガイド物体決定部による決定に基づいて、前記ガイド物体の表示を生成するガイド物体生成部をさらに備える、請求項1~10のいずれか1項に記載の情報処理装置。
  13. 前記情報処理装置は、
    前記生成したガイド物体の表示を、仮想空間に関する処理を行う外部装置に出力する、請求項12に記載の情報処理装置。
  14. 前記情報処理装置は、
    前記生成したガイド物体を仮想空間に配置するガイド物体配置部をさらに備える、請求項12に記載の情報処理装置。
  15. 前記情報処理装置は、
    前記ユーザからセンシングされた情報に基づいて生成される前記ユーザの手の動きを反映するジェスチャ画像と、前記ジェスチャ画像と前記対象物との位置関係を示すガイド物体が表示された仮想空間の画像を表示する表示部をさらに備える、請求項1~14のいずれか1項に記載の情報処理装置。
  16. プロセッサが、
    ユーザからセンシングした身体情報を取得し、所定の判定基準に基づいて前記ユーザの身体情報に対応付けられる1以上の身体形状を判定することと、
    直近に判定された前記ユーザの過去の判定身体形状を記憶部から取得し、また、前記判定された現在の判定身体形状を前記記憶部に記憶することと、
    前記過去の判定身体形状と前記現在の判定身体形状に共通する共通判定形状を抽出することと、
    前記抽出された共通判定形状に基づいて、仮想空間の対象物との位置関係を示す表示であるガイド物体を決定することと、
    を含む、情報処理方法。
  17. コンピュータを、
    ユーザからセンシングした身体情報を取得し、所定の判定基準に基づいて前記ユーザの身体情報に対応付けられる1以上の身体形状を判定する身体形状判定部と、
    直近に判定された前記ユーザの過去の判定身体形状を記憶部から取得し、また、前記身体形状判定部で判定された現在の判定身体形状を前記記憶部に記憶する記憶管理部と、
    前記過去の判定身体形状と前記現在の判定身体形状に共通する共通判定形状を抽出する共通判定形状取得部と、
    前記共通判定形状取得部で抽出された共通判定形状に基づいて、仮想空間の対象物との位置関係を示す表示であるガイド物体を決定するガイド物体決定部と、
    として機能させるための、プログラム。
  18. ユーザからセンシングした身体情報を取得し、所定の判定基準に基づいて前記ユーザの身体情報に対応付けられる1以上の身体形状を判定する身体形状判定部と、
    直近に判定された前記ユーザの過去の判定身体形状を記憶部から取得し、また、前記身体形状判定部で判定された現在の判定身体形状を前記記憶部に記憶する記憶管理部と、
    前記過去の判定身体形状と前記現在の判定身体形状に共通する共通判定形状を抽出する共通判定形状取得部と、
    前記共通判定形状取得部で抽出された共通判定形状に基づいて、仮想空間の対象物との位置関係を示す表示であるガイド物体を決定するイド物体決定部と、
    前記ガイド物体決定部により決定されたガイド物体の表示を生成するガイド物体生成部と、
    前記生成したガイド物体を仮想空間に配置するガイド物体配置部と、
    を備える、情報処理システム。
JP2020027272A 2020-02-20 2020-02-20 情報処理装置、情報処理方法、プログラム、および情報処理システム Active JP7392512B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020027272A JP7392512B2 (ja) 2020-02-20 2020-02-20 情報処理装置、情報処理方法、プログラム、および情報処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020027272A JP7392512B2 (ja) 2020-02-20 2020-02-20 情報処理装置、情報処理方法、プログラム、および情報処理システム

Publications (2)

Publication Number Publication Date
JP2021131764A JP2021131764A (ja) 2021-09-09
JP7392512B2 true JP7392512B2 (ja) 2023-12-06

Family

ID=77551083

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020027272A Active JP7392512B2 (ja) 2020-02-20 2020-02-20 情報処理装置、情報処理方法、プログラム、および情報処理システム

Country Status (1)

Country Link
JP (1) JP7392512B2 (ja)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000231625A (ja) 1999-02-12 2000-08-22 Sanyo Electric Co Ltd 指示情報伝達装置
JP2003325967A (ja) 2003-04-07 2003-11-18 Namco Ltd 画像生成装置及び情報記憶媒体
JP2010534895A (ja) 2007-07-27 2010-11-11 ジェスチャー テック,インコーポレイテッド 高度なカメラをベースとした入力
JP2014509429A (ja) 2011-02-25 2014-04-17 マイクロソフト コーポレーション ユーザーインターフェースの提示およびインタラクション
JP2014078073A (ja) 2012-10-09 2014-05-01 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、および画像表示方法
JP2015041325A (ja) 2013-08-23 2015-03-02 株式会社デンソーアイティーラボラトリ 指示対象物表示装置、指示対象物表示方法、および、プログラム
JP2016057947A (ja) 2014-09-11 2016-04-21 株式会社パスコ 仮想空間表示装置、仮想空間表示方法及びプログラム
US20170092004A1 (en) 2015-09-29 2017-03-30 Seiko Epson Corporation Head-mounted display device, control method for head-mounted display device, and computer program
JP2018014119A (ja) 2014-08-22 2018-01-25 株式会社ソニー・インタラクティブエンタテインメント 手袋インタフェースオブジェクト及び方法
WO2019087491A1 (ja) 2017-10-30 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2019139424A (ja) 2018-02-08 2019-08-22 株式会社バンダイナムコスタジオ シミュレーションシステム及びプログラム

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000231625A (ja) 1999-02-12 2000-08-22 Sanyo Electric Co Ltd 指示情報伝達装置
JP2003325967A (ja) 2003-04-07 2003-11-18 Namco Ltd 画像生成装置及び情報記憶媒体
JP2010534895A (ja) 2007-07-27 2010-11-11 ジェスチャー テック,インコーポレイテッド 高度なカメラをベースとした入力
JP2014509429A (ja) 2011-02-25 2014-04-17 マイクロソフト コーポレーション ユーザーインターフェースの提示およびインタラクション
JP2014078073A (ja) 2012-10-09 2014-05-01 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、および画像表示方法
JP2015041325A (ja) 2013-08-23 2015-03-02 株式会社デンソーアイティーラボラトリ 指示対象物表示装置、指示対象物表示方法、および、プログラム
JP2018014119A (ja) 2014-08-22 2018-01-25 株式会社ソニー・インタラクティブエンタテインメント 手袋インタフェースオブジェクト及び方法
JP2016057947A (ja) 2014-09-11 2016-04-21 株式会社パスコ 仮想空間表示装置、仮想空間表示方法及びプログラム
US20170092004A1 (en) 2015-09-29 2017-03-30 Seiko Epson Corporation Head-mounted display device, control method for head-mounted display device, and computer program
JP2017067876A (ja) 2015-09-29 2017-04-06 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、およびコンピュータープログラム
WO2019087491A1 (ja) 2017-10-30 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2019139424A (ja) 2018-02-08 2019-08-22 株式会社バンダイナムコスタジオ シミュレーションシステム及びプログラム

Also Published As

Publication number Publication date
JP2021131764A (ja) 2021-09-09

Similar Documents

Publication Publication Date Title
US8963963B2 (en) Video-based image control system
US10511778B2 (en) Method and apparatus for push interaction
Ren et al. 3D selection with freehand gesture
JP5765133B2 (ja) 入力装置、入力制御方法及び入力制御プログラム
US9857868B2 (en) Method and system for ergonomic touch-free interface
TWI486629B (zh) 穿透型頭部穿戴式顯示系統與互動操作方法
EP2631739A2 (en) Method and device for contact-free control by hand gesture
Prätorius et al. DigiTap: an eyes-free VR/AR symbolic input device
KR20130108643A (ko) 응시 및 제스처 인터페이스를 위한 시스템들 및 방법들
US8416189B2 (en) Manual human machine interface operation system and method thereof
CN103347437A (zh) 3d映射环境中的凝视检测
KR20200005243A (ko) Imu 센서를 이용한 손가락 동작 기반 인터페이스 제어 시스템
JP2021002290A (ja) 画像処理装置およびその制御方法
Breslauer et al. Leap motion sensor for natural user interface
JP5863984B2 (ja) ユーザインタフェース装置及びユーザインタフェース方法
JP7392512B2 (ja) 情報処理装置、情報処理方法、プログラム、および情報処理システム
US20230267667A1 (en) Immersive analysis environment for human motion data
Hammer et al. Real-time 3D gaze analysis in mobile applications
Mahdikhanlou et al. Object manipulation and deformation using hand gestures
TWI836680B (zh) 立體影像互動模擬系統與運作方法
Bierz Interaction Technologies for Large Displays-An Overview.
JP2023027577A (ja) 画像処理装置、画像処理方法、プログラムおよび画像処理システム
TW202418042A (zh) 立體影像互動模擬系統與運作方法
Maggioni Non Immersive Control of Virtual Environments

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231106

R150 Certificate of patent or registration of utility model

Ref document number: 7392512

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150