JP5694581B1 - 情報処理装置および情報処理方法 - Google Patents
情報処理装置および情報処理方法 Download PDFInfo
- Publication number
- JP5694581B1 JP5694581B1 JP2014009719A JP2014009719A JP5694581B1 JP 5694581 B1 JP5694581 B1 JP 5694581B1 JP 2014009719 A JP2014009719 A JP 2014009719A JP 2014009719 A JP2014009719 A JP 2014009719A JP 5694581 B1 JP5694581 B1 JP 5694581B1
- Authority
- JP
- Japan
- Prior art keywords
- user
- display
- information processing
- image
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】センシング装置を利用して、ユーザが自分の体のことを、アミューズメント感覚で知ることを可能にする。【解決手段】本発明の実施形態としての情報処理装置は、画像取得部と、画像処理部と、制御部とを備える。前記画像取得部は、ディスプレイに対向するように位置するユーザを撮像する距離カメラから、前記ユーザを撮像した距離画像を取得する。前記画像処理部は、前記距離画像を解析して前記距離画像内のユーザ領域を特定する。前記制御部は、前記ユーザ領域を複数のセグメントに分割し、各セグメントの相対位置関係に応じて、各セグメントに対応する3次元形状のオブジェクトをそれぞれ前記ディスプレイに表示する。【選択図】図2
Description
本発明の実施形態は、ユーザからセンシングした情報を処理する情報処理装置および情報処理方法に関する。
脈拍センサー、深度センサー、カラーカメラなど、様々なセンシング装置が存在する。
個々のセンシング装置は、それぞれ特定の固有の機能を有する。例えば脈拍センサーを使用すればユーザの脈拍を測定できる。センシング装置を利用することで、ユーザは自分の体の状態を知ることができる。
本発明の実施形態は、センシング装置を利用して、ユーザが自分の体のことを、アミューズメント感覚で知ることを可能にする情報処理装置および情報処理方法を提供する。
本発明の実施形態としての情報処理装置は、画像取得部と、画像処理部と、制御部とを備える。
前記画像取得部は、ディスプレイに対向するように位置するユーザを撮像する距離カメラから、前記ユーザを撮像した距離画像を取得する。
前記画像処理部は、前記距離画像を解析して前記距離画像内のユーザ領域を特定する。
前記制御部は、前記ユーザ領域を複数のセグメントに分割し、各セグメントの相対位置関係に応じて、各セグメントに対応する3次元形状のオブジェクトをそれぞれ前記ディスプレイに表示する。
以下、図面を参照しながら、本発明の実施形態について説明する。
図1は、本発明の実施形態に係る情報処理システムの全体概略構成を示す。図1(A)は側面図、図1(B)は平面図である。
ユーザは、エントリー装置201に設置された血流センサー301の読取面に、自身の指先を置いて血流量データを読み取らせる。またエントリー装置201のタッチパネルディスプレイ53を介して、所定の情報(性別、年齢等)を入力する。エントリー装置20は、血流センサー301から血流センサー値データを取得し、血流センサー値データから、ユーザの心拍数または脈拍数(以下、心拍数に統一)を算出する。エントリー装置20は、算出した心拍数、およびユーザ入力された性別および年齢の情報を情報処理装置11に送信する。
ユーザは、所定箇所(体験ポイント)57へ移動し、メインディスプレイ12の表示面に対して、向かい合うように立つ。体験ポイント57は、メインディスプレイ12の表示面から、その垂直な方向に、一定距離だけ離れた場所にある。体験ポイント57は、円マークなど、ユーザが分かるように、床に印を付けておいてもよい。メインディスプレイ12は、メイン装置101の筐体に取り付けられており、床に対して垂直に設置されている。メイン装置101の筐体内には、検出デバイス13、Webカメラ15、および情報処理装置11が搭載されている。検出デバイス13には、距離カメラ22および可視光カメラ21が設けられている。
情報処理装置11は、エントリー装置201からユーザ情報(心拍数、性別、年齢)を取得するとともに、検出デバイス13およびWebカメラ15を用いて、体験ポイント57に立っているユーザの各種画像を取得する。これらの取得した情報および画像に基づき、種々のアプリケーションを実行することで、メインディスプレイ12を介して、ユーザに多様なコンテンツを提供する。具体的に、情報処理装置11は、アプリケーションを実行しながらメインディスプレイ12の表示を制御し、一方、ユーザは、メインディスプレイ12の表示に従った動作を行う。ユーザに提供するコンテンツは、ユーザが楽しんで自分の体のことを知ることができるような内容になっている。ユーザとメイン装置101間でインタラクティブなやり取りを行うことで、ユーザが自分の体のことを、アミューズメント感覚で知ることができる。
図2は、図1に示した情報処理システムのブロック図である。
メイン装置101、エントリー装置201および血流センサー301が、中継装置401(ハブ)を介して相互接続されている。接続形態は、有線でも無線でもよいが、ここではイーサーネット等の有線接続を想定する。
なお、メイン装置101、エントリー装置201、血流センサー301および中継装置401のそれぞれについて、コンピュータが一般的に備える接続インターフェースや、有線または無線の通信処理(物理層、データリンク層等)を行う通信部の図示は省略する。
血流センサー301は、所定の読取面に載せられたユーザの指先の表面から、所定のサンプリング間隔で血流量を読み取る。血流センサー301は、一例として、赤外線を放射し、血管を透過する赤外線量に応じて、血流量を読み取る。血流センサー301は、読み取った値を、血流センサー値データとしてエントリー装置201に送信する。血流センサー301は、エントリー装置201から、読み取りの開始と終了のタイミングを指示した信号を受け、指示された時間の間、読取りを行う。血流センサー値データは、ユーザの心拍数を求めるのに利用する。
エントリー装置201は、液晶のタッチパネルディスプレイ53および制御装置51を備える。制御装置51は、タッチパネルディスプレイ53のタッチパネル処理および画像表示を制御する。また、制御装置51は、ネットワークを介して、血流センサー301を制御する。
制御装置51は、タッチパネルディスプレイ53に対し、画像ケーブル55と通信ケーブル54とで接続されている。画像ケーブル55は、タッチパネルディスプレイ53に画像信号を送信するケーブルであり、通信ケーブル54は、タッチパネルディスプレイ53からタッチパネル処理に関する信号を受信するケーブルである。一例として画像ケーブル55はDVIケーブル、通信ケーブル54はUSB2.0のケーブルであるが、これに限定されない。
制御装置51は、ユーザに対し、各種の画面をタッチパネルディスプレイ53に表示する。例えば、必要な情報の入力を促す画面を表示し、ユーザからタッチパネル機能で入力された情報を受信する。ユーザに入力を要求する情報の例として、年齢情報および性別情報等がある。
また、制御装置51は、血流センサー301の読取面に、人差し指など、指先面を一定時間、置くように指示するとともに、血流センサー301に一定時間、読取りを指示する。制御装置51は、血流センサー301から血流センサー値データを取得する。なお、制御装置51は、インターネットプロトコル層、トランスポート層等の上位層の通信プロトコル処理を行う機能を備える。一例として、インターネットプロトコル層としてIP、およびトランスポート層としてUDPを用いてもよい。UDPの代わりに、TCPを用いてもよい。
制御装置51の心拍数算出部52は、血流センサー値データからユーザの心拍数を計算する。例えば、血流センサー値データに含まれる一定期間の血流量データに基づき、当該一定期間に血流量のピークが何回発生したかを計算する。発生回数に基づき、単位時間当たりのピーク発生数を心拍数として取得する。単位時間は、当該一定期間と同じ長さでもよいし、あるいは1分など、別の時間でもよい。
制御装置51は、心拍数算出部52で計算した心拍数、およびユーザがタッチパネル入力した情報(性別、年齢情報)を内部のバッファ、または、アクセス可能な記憶部(図示せず)に格納する。
制御装置51は、ユーザ情報(心拍数、性別、年齢情報)を含むファイルデータを、ネットワークを介して、メイン装置101に送信する。
メイン装置101は、情報処理装置11、メインディスプレイ12、検出デバイス13、Webカメラ(RGBカメラ)15を備える。検出デバイス13は、距離カメラ22および可視光カメラ21を備える。
メインディスプレイ12は、液晶のディスプレイである。メインディスプレイ12は設置面に対して略垂直に立てられている。メインディスプレイ12の表示面は、体験スポット57に立つユーザに対向するようになっている。メインディスプレイ12は、一例として、想定するユーザの横幅および高さの最大値よりも、大きな幅および高さの表示サイズを有する。
メインディスプレイ12は情報処理装置11と、DVI等の画像ケーブル19により接続される。メインディスプレイ12は、情報処理装置11から送られてくるカラー画像信号を画面に表示する。なお、メインディスプレイ12は、ここでは液晶ディスプレイの場合を示したが、プラズマディスプレイ等、他の種類のディスプレイでもよい。
検出デバイス13は、通信ケーブル14によって情報処理装置11と接続されている。通信ケーブル14での通信の規格は任意でよいが、一例としてUSB2.0が挙げられる。
検出デバイス13は、距離カメラ22と可視光カメラ21を含む。距離カメラ22と可視光カメラ21は、左右に近接して配置され、撮像範囲は実質的に同じか、その違いが無視して問題ない程度であるとする。撮像範囲は、体験ポイント57に立つユーザの全身が収まるような範囲である。
検出デバイス13は、例えばメインディスプレイ12の下側に、設置面との間に配置される。検出デバイス13内の距離カメラ22および可視光カメラ21は、メインディスプレイ12の幅方向の略中央に沿って位置し、体験ポイント57に立つユーザに向けられる。
距離カメラ22は、光を発光部から出射し、その反射光を受光素子で計測することで、ユーザとの距離(深度)を画素毎に表す距離画像を取得する。距離画像の解像度は任意でよい。
距離カメラ22は公知のものを用いばよい。例えば赤外線方式のカメラを用いて、赤外線を出射し、反射光の波形(電圧等)を測定し、電圧値等を各画素の値とする距離画像を取得してもよい。この場合、センシング距離が、カメラから体験スポットまでの距離よりも長く、所定の上限値以下であるカメラを使用することが好ましい。上限値はユーザ以外の別の人(ユーザの後方にいる人)が誤検知されないような値にすることが望ましい。
また別の方式のカメラとして、可視光を出射してから反射光を受光するまでの往復時間に応じて距離を計測する方式のカメラを用いてもよい。この場合、往復に要した時間の値を画素値とする距離画像を取得する。この場合、事前に体験スポットに立つユーザに対する往復時間の値の範囲を取得しておくことが望ましい。
距離カメラ22および可視光カメラ21は、情報処理装置11により動作が制御される。距離カメラ22は、情報処理装置11から指示されたタイミングで距離画像を取得し、取得した距離画像を情報処理装置11に送信する。また情報処理装置11から指示に応じて、一定のフレーム間隔で距離画像を取得して、情報処理装置11に逐次送信する。
可視光カメラ21は、体験スポット57に立つユーザを撮像してRGBのカラー画像を生成する。画像の解像度は任意でよい。一例として、可視光カメラ21の解像度は、距離カメラ22の解像度と同じである。本実施形態では同じであるとする。
可視光カメラ21は、情報処理装置11から指示されたタイミングでカラー画像を取得し、取得したカラー画像を情報処理装置11に送信する。また情報処理装置11から指示に応じて、一定のフレーム間隔でカラー画像を取得して、情報処理装置11に逐次送信する。
Webカメラ15は、通信ケーブル16によって情報処理装置11と接続される。通信ケーブル16での通信の規格は任意でよいが、一例としてUSB2.0があげられる。Webカメラ15は、例えばメインディスプレイ12の下側おいて、メインディスプレイ12の幅方向の略中央に沿って配置される。図1の例では、Webカメラ15は、検出デバイス13の下側に配置されている。Webカメラ15は、体験ポイント57に立つユーザに向けられるように配置される。
Webカメラ15は、体験ポイント57に立つユーザの全身が収まるような撮像範囲を有する。Webカメラ15は、撮像によりRGBのカラー画像を生成する。画像の解像度は、任意で良いが、本実施形態では、可視光カメラ21よりも十分高いとする。Webカメラ15は、情報処理装置11により動作が制御される。Webカメラ15は、例えば情報処理装置11から指示されたタイミングで撮像を行い、撮像したカラー画像を情報処理装置11に送信する。一例として、一定のフレーム間隔でカラー画像を取得して、情報処理装置11に送信する。
情報処理装置11は、距離カメラ22、可視光カメラ21およびWebカメラ15から取得した画像情報や、エントリー装置201から取得したユーザ情報に基づき、様々なアプリケーションを実行する。これにより、ユーザに、メインディスプレイ12を介して、多様なコンテンツを提供する。情報処理装置11は、制御部31、記憶部41、ファイルサーバ42、およびスピーカ17を備える。
記憶部41は、不揮発性メモリ装置またはハードディスクなどの記憶装置である。記憶部41は、ユーザに提供するコンテンツ毎に、アプリケーションとアプリケーションで使用するデータが格納されている。図では、コンテンツ1用のアプリケーションとデータ、コンテンツ2用のアプリケーションとデータ、コンテンツ3用のアプリケーションとデータ等が格納された例が示されている。複数のコンテンツを連続してユーザに提供する場合、各コンテンツは、全体として1つのコンテンツの中での1つのシーンに相当する。記憶部41を、メイン装置101内ではなく、別のネットワークにネットワークストレージ装置として接続してもよい。この場合、中継装置401を介してネットワークストレージ装置にアクセスする。
また記憶部41には、距離カメラ22、可視光カメラ21およびWebカメラ15から取得した画像を格納してもよい。または、距離カメラ22、可視光カメラ21およびWebカメラ15から取得した画像は、記憶部41ではなく、制御部31からアクセス可能な別のメモリ装置(作業用の揮発性メモリなど)などに格納してもよい。
ファイルサーバ42は、中継装置401を介してエントリー装置201からユーザ情報(心拍数、性別、年齢情報)を取得する情報取得部を備える。ファイルサーバ42は、取得したユーザ情報を内部のバッファ、またはアクセス可能な別のメモリ装置に格納する。ファイルサーバ42は、制御部31からの要求に応じて、ユーザ情報を制御部31に提供する。なお、情報処理装置11は、インターネットプロトコル層、トランスポート層等の上位層のプロトコル処理を行う機能を備えており、ファイルサーバ42は、これらの機能を利用して、エントリー装置201と通信することで、ユーザ情報を取得する。
制御部31は、情報処理装置11全体を制御するとともに、検出デバイス13(距離カメラ22、可視光カメラ21)、Webカメラ15およびメインディスプレイ12の動作を制御する。制御部31は、ファイルサーバ42から取得したユーザ情報に基づき、記憶部41内の各コンテンツ用のアプリケーションを実行する。一例として、各コンテンツ用のアプリケーションを事前に定められた順序で、順番に実行することで全体として1つのコンテンツを提供する。
制御部31は、心拍情報処理部32、Webカメラ画像処理部34、および検出デバイス画像処理部33を備える。
検出デバイス画像処理部33は、距離カメラ22から距離画像を取得する距離画像取得部と、可視光カメラ21からカラー画像を取得するカラー画像処理部を備える。検出デバイス画像処理部33は、各画像処理部で取得した距離画像およびカラー画像を処理する。
検出デバイス画像処理部33は、距離カメラ22で取得された距離画像を解析することで、距離画像内のユーザの領域を特定する。例えば距離画像が赤外線カメラで取得され、距離画像の各画素に電圧値が格納されたものであるとする。この場合、電圧値が一定値以上の画素を特定し、特定した画素群をユーザ領域とする。図7(A)に距離画像と、特定したユーザ領域71を示す。距離画像の各画素の表記は省略している。
そして、ユーザ領域を複数のセグメントに分割(セグメント化)する。例えば距離画像を、縦方向はX画素および横方向はY画素ごとに分割することで、複数の矩形セグメントを得る。一例として、XとYは同じ値である。1つのセグメントは、複数の画素を含む。セグメント化の例を図7(B)に示す。この例では、各セグメントの縦および横のサイズは同じであり、ユーザ領域のみのセグメント、ユーザ領域と背景が混在するセグメント、背景のみのセグメントの3種類のセグメントが存在する。全部がユーザ領域のセグメント、および一部にユーザ領域を含むセグメントを特定する。当該一部にユーザ領域を含むセグメントとして、例えばセグメントに含まれるユーザ領域部分の画素数が所定値(所定値は1以上の整数)個以上のセグメントを特定する。
また、検出デバイス画像処理部33は、可視光カメラ21で取得されたカラー画像に基づき、各特定したセグメントに対し、それぞれ表示色を決定する。例えば、特定したセグメント内のユーザ領域部分に対応する各画素の色をカラー画像から特定し、最も画素の多い色を当該セグメントの表示色に決定する。カラー画像と距離画像と同じ時刻で撮像したものであるとする。また、カラー画像と距離画像は、同じ撮像範囲で撮像されたものとみなして処理を行う。この場合、カラー画像と距離画像とで、画像内のユーザ領域の位置は同じであるとみなせる。
Webカメラ画像処理部34は、Webカメラ15により取得されたカラー画像にエフェクト処理等の画像処理を行う。
心拍情報処理部32は、ファイルサーバ42から心拍数情報を受け取り、心拍数に応じたテンポでベース音を奏でるベース音データを取得する。例えば心拍数が、1分間に80回であれば、1/80分ごとにベース音がなるベース音データを取得する。つまり、ユーザの心拍数がテンポになる。
ベース音データは、例えば心拍数ごとに予め用意しておき、取得した心拍数に応じたベース音データを選択することで取得する。あるいは、心拍数に応じたテンポでベース音がなるベース音データを作成してもよい。
制御部31は、取得したベース音データを、スピーカ17を介して再生するように制御する。
制御部31は、Webカメラ15により取得されたカラー画像(例えばユーザの全身が写った画像)を、メインディスプレイ12に表示する。Webカメラ15から一定時間毎にカラー画像を取得して、リアルタイムに映像を表示してもよいし、1枚の静止画を表示してもよい。また、制御部31は、カラー画像を、Webカメラ画像処理部34でエフェクトをかけながら表示してもよい。
制御部31は、検出デバイス画像処理部33で特定された各セグメントの、距離画像内の相対位置関係に応じて、各セグメントに対応する3次元形状のオブジェクトをメインディスプレイ12にそれぞれ表示する。表示の例を図8に示す。ユーザの全身が、オブジェクト群により形作って表現されている。各オブジェクトは、それぞれ検出デバイス画像処理部33で特定された各セグメントの1つに対応し、各セグメントの相対位置関係を概ね維持した配置となっている。
オブジェクトの形状は3次元である限り、任意でよいが、例えば立方体(キューブ)、球形、直方体等がある。本実施形態ではキューブの場合を示す。キューブは、各辺にまるみを帯びさせるなど変形を加えたものを含んでもよい。セグメント化された各セグメントの大きさが異なる場合は、それに合わせてオブジェクトのサイズを変更してもよい。各オブジェクトの形状は共通であるが、対応するセグメントによって形状を異ならせることも可能である。
メインディスプレイ12に表示する各オブジェクト間には隙間を設けてもよい。また、各オブジェクトを同じ位置で回転(回転、上下に一定角度ずつ往復回転、左右に一定角度ずつ往復回転など)させたり、上下または左右に繰り返し微動させたりしてもよい。これらにより、ユーザにとって見やすい表示、および躍動感をもった表示が可能となる。図8に示した例では、各オブジェクト間には隙間が設けられている。各オブジェクトはキューブであるが、正面を向いているため、1つの面のみが表示されている。
また、メインディスプレイ12に表示する各オブジェクトを、検出デバイス画像処理部33で決定した表示色で表示してもよい。つまり、それぞれ対応するセグメントの表示色で、各オブジェクトを表示してもよい。これにより、ユーザの全身(服を着た状態)の色分布に近い表示が可能となる。変形例として、ユーザの形を表す各オブジェクトの色をすべて同一色としてもよい。
制御部31は、一定のフレーム間隔で、距離カメラ22および可視光カメラ21から、距離画像および可視光のカラー画像を取得し、上記のようにセグメント化およびオブジェクト表示することで、ユーザの動きに追従したオブジェクト表示が実現できる。つまり、体験スポット57でユーザが姿勢を変えれば、それに応じて、距離画像内のユーザ領域の位置も変動し、メインディスプレイ表示領域内のオブジェクト群の位置も変動する。例えばユーザが体験スポット57でジャンプをすれば、距離画像内でユーザ領域も上側に位置し、メインディスプレイ表示内のオブジェクト群のユーザもディスプレイの上側に配置される。これにより、ユーザには、メインディスプレイ表示内でオブジェクト群のユーザがジャンプをしたように見える。
制御部31は、上述したような画像表示機能、オブジェクト表示機能および音再生機能を元に、各種アプリケーションを実行することで、ユーザに多彩なコンテンツを提供する。
本実施形態の処理は、大きくエントリー装置201でユーザ情報を収集するエントリー処理と、メイン装置101でコンテンツをユーザに提供するメインコンテンツ処理とを有する。
図3は、エントリー装置201によるエントリー処理のフローチャートである。
エントリー装置201は、待機画面を表示して、ユーザによるタッチパネルへのタッチを待機する。例えば、タッチパネルディスプレイ53に「画面にふれて下さい」のメッセージを表示する。ユーザによりタッチパネルにタッチがされたことを検知すると、処理を開始する。
(ステップS101)制御装置51は、タッチパネルディスプレイ53に、血流センサー301の読取面に指(人差し指など)を置くよう、ユーザへの指示メッセージを表示する。血流センサー301は、読取面に指が置かれたことを検知すると、一定期間、指先面から血流量のセンシングを行う。制御装置51は、血流センサー301と通信して、一定期間分の血流センサー値のデータを取得する。心拍数算出部52は、取得した血流センサー値のデータからユーザの心拍数を計算する。制御装置51は、血流センシングが完了すると、完了のメッセージをタッチパネルディスプレイ53に表示する。
(ステップS102)制御装置51は、ユーザに性別の入力を要求する。例えば「男性」および「女性」のボタンを表示し、いずれかのボタンの押下を要求する。ユーザは、自分の性別を示すボタンを押下する。制御装置51は、押下されたボタンに応じて、ユーザの性別情報を取得する。
(ステップS103)制御装置51は、ユーザの性別情報を取得すると、次に、年齢情報の入力を要求する。例えば「10才以下」、「10才〜15才」、「16才〜20才」、「20代」、「30代」、「40代」、「50代」、「60代」、「70才以上」のボタンを表示し、いずれかのボタンの押下を要求する。ユーザは、自分の年齢が含まれる年齢範囲のボタンを押下する。制御装置51は、押下されたボタンに応じて、ユーザの年齢情報を取得する。ここでは、ユーザに自分の年齢が含まれる年齢範囲の入力を要求しているが、ユーザの実年齢の入力を要求する構成にしてもよい
(ステップS104)制御装置51は、心拍数、性別、および年齢情報を含むデータファイルを作成し、メイン装置101に送信する。また制御装置51は、ユーザに体験ポイント57への移動を促すメッセージを表示する。なお、心拍数の計算は、メイン装置101側で行うようにしてもよく、この場合、データファイルには心拍数の代わりに、血流センサー値データを含めればよい。
なお、ステップS101、S102、S103の順序はこの通りでなくともよく、ステップの位置を入れ替えても良い。
図4および図5は、メイン装置101によるメインコンテンツ処理のフローチャートである。本処理では、7つのコンテンツをユーザに順番に連続して提供することで、個々のコンテンツが、1つのシナリオにおける個々のシーンのように位置づけられる。
[コンテンツ1:ユーザのオブジェクト表示]
(図4のステップS201)メイン装置101の情報処理装置11は、メインディスプレイ12に待機画面を表示しつつ、エントリー装置201からのデータファイルの受信を待機する。情報処理装置11は、エントリー装置201からのデータファイルの受信を検知すると、受信したデータファイルを読み込み、ファイルサーバ42へ格納する。
(図4のステップS202)情報処理装置11は、Webカメラ15で、体験スポット57上のユーザを撮像する。Webカメラ15での撮像は、エントリー装置201から体験スポットへのユーザの移動時間を考慮して、データファイルの受信後、一定時間後に行ってもよい。あるいは、距離カメラ22あるいは人感センサ(図示せず)を用いて、ユーザが体験スポットに到着したのを確認してから行ってもよい。あるいは、データファイルの受信の直後から一定のフレーム間隔で継続して行ってもよい。情報処理装置11は、Webカメラ15で撮像されたカラー画像を取得してメインディスプレイ12に表示する。これにより、ユーザに自分の静止画、またはリアルタイム映像を見させる。表示の例を図6に示す。
(図4のステップS203)情報処理装置11は、Webカメラ15で取得したカラー画像を表示している間、その背後の処理として、距離カメラ22および可視光カメラ21でユーザを撮像して、距離画像およびカラー画像を取得する。赤外線方式のカメラでは、例えば、距離画像において、一定値以上の電圧値を有する画素群をユーザ領域として特定する。
(図4のステップS204)情報処理装置11は、特定したユーザ領域をセグメント化する。例えば距離画像を、縦および横方向に一定サイズごとに分割することで、セグメント化を行う。これにより、複数の正方形のセグメントを得る(図7(B)参照)。セグメントの中で、ユーザ領域のみのセグメント、および一部にユーザ領域を含むセグメントを特定する。特定したセグメントは、ユーザ領域を分割したセグメントに対応する。
また、可視光カメラ21で取得されたカラー画像に基づき、特定した各セグメントについて表示色を決定する。例えば、特定したセグメントに含まれるユーザ領域部分の各画素の色をカラー画像から特定し、最も画素が多い色を表示色に決定する。
そして、情報処理装置11は、距離画像内での各特定したセグメントの相対位置関係に応じて、各オブジェクトをメインディスプレイ12に表示する。このとき、各オブジェクトは、それぞれに対応するセグメントの表示色で表示する。
表示の例を図8に示す。この例では、各オブジェクトはキューブである。各キューブは、それぞれ1つの面が正面を向くように表示されている。各オブジェクト間は見やすいように空間が空けられている。
なお、上述のステップS202において、Webのカラー画像を表示する間、Webカメラ画像処理部34を用いてカラー画像にエフェクトをかけて、メインディスプレイ12の表示に変化をもたせてもよい。これにより、オブジェクト表示が開始されるまでの時間を、ユーザが退屈しないようにする。エフェクトとして、ユーザのオブジェクト表示開始までの時間が、直感的に分かるようなものを用いてもよい。例えばメインディスプレイ12においてユーザが写っている表示画像全体を上から順に、別の画像(例えば単色の画像)で透過的に重ねて行く。別の画像の表示が最下部にまで達した段階で、背後の処理が完了して、オブジェクト表示が開始されるように、別の画像の表示速度を制御してもよい。
[コンテンツ2:ユーザの体積計算]
(図4のステップS205)情報処理装置11は、ユーザを構成するオブジェクトを計数し、合計オブジェクト数を表すメッセージを、メインディスプレイ12の画面に表示する。この際、図9に示すように、ユーザを形作っている各オブジェクトを一旦床に崩して、その後、図10に示すように、全体として特定の形状(ここでは立方体)に近づくように、各オブジェクトを再配置してもよい。図10では、崩されているオブジェクトが1つずつ上に上昇して、床の上の空間に、立方体に近づくように組み立てられる様子が示される。図11に示すように、ユーザの合計オブジェクト数を表すメッセージを表示するとともに、比較対象として、他の生物(ぞう、犬等)の代表的な合計オブジェクト数を表示してもよい。
[コンテンツ3:ユーザのカラー判定]
(図4のステップS206)情報処理装置11は、ユーザを構成するオブジェクトを色毎にソートし、色毎にオブジェクトを並べたソート表示を行う。ソート表示の例を図12に示す。
(図4のステップS207)情報処理装置11は、個数が最も多いオブジェクト数の色を判定し、図13に示すように、最も多い色を示すメッセージを、メインディスプレイ12の画面に表示する。図12に示した例では、A色が、オブジェクト数が最も多い色である。
[コンテンツ4:ユーザの水分量判定]
(図4のステップS208)情報処理装置11は、ユーザの性別および年齢情報に基づき、ユーザの体重に占める水分の割合を推定する。情報処理装置11は、性別と年齢(または年齢範囲)に応じて、体重に占める水分の割合を表したデータ(テーブルまたは関数など)を保持している。情報処理装置11は、当該データに基づき、ユーザの性別および年齢情報から、ユーザの水分の割合を推定する。
(図4のステップS209)情報処理装置11は、推定した水分の割合に応じた個数のオブジェクトを選択する。例えば、推定した水分の割合が70%であれば、ユーザのオブジェクト群のうち70%に相当する個数のオブジェクトを選択する。
オブジェクトの選択方法として、ディスプレイの下側に表示されるもの(ユーザの足下のオブジェクト)から優先的に選択してもよい。情報処理装置11は、選択したオブジェクトを、選択されていない他のオブジェクトと識別できるように表示する。一例として、図14に示すように、ユーザの足下から順次、選択したオブジェクトを覆うように、水色の画像141を透過的に重ね合わせた画面を表示する。また、情報処理装置11は、推定した水分の割合を示すメッセージをメインディスプレイ12に表示する。表示の例を図15に示す。
[コンテンツ5:ちょびっとダイエット]
(図5のステップS210)情報処理装置11は、コンテンツ5(ちょびっとダイエット)の画面に遷移し、ユーザに体験スポット57で体を動かすことを促すメッセージを表示する。例えば「たくさんカラダを動かしてダイエットしよう!」といったメッセージを表示する。情報処理装置11は、距離カメラ22および可視光カメラ21に、一定のフレーム間隔で距離画像およびカラー画像を送信するよう指示し、一定のフレーム間隔で距離画像およびカラー画像を取得する。メインディスプレイ12には、一定のフレーム間隔もしくはこれより大きいフレーム間隔で、オブジェクトの表示を更新して、ユーザの動きに追従した表現を行う。
また、情報処理装置11は、2つの前後のフレームの距離画像に基づき、フレーム間でユーザの動き量を推定する。推定方法は、ユーザの動いた量を計測できる方法であれば、どのような方法でもよい。
例えば、時間的に前のフレームではユーザ領域が存在せず、時間的に後のフレームではユーザ領域が存在する画素を特定し、特定した画素数の合計に応じた値を動き量として推定する。情報処理装置11は、推定した動き量に応じた個数の新たなオブジェクトを、メインディスプレイ12の背景画像から出現するように表示を行う。この表示の例を図16に示す。
図16において、オブジェクト161が背景画面から手前に迫るように表示されている。オブジェクトの出現箇所は、ユーザを形作るオブジェクト間の隙間でもよい。背景からのオブジェクトの形状は、ユーザのオブジェクトと同じ形状(キューブ等)でもよいし、これとは別の形状でもよい。
なお、フレームごとに計算した動き量を累積し、累積値が一定値に達するごとに、所定数のオブジェクトを出現させてもよい。
(図5のステップS211)情報処理装置11は、背景画像から出現させたオブジェクトの個数を計数し、合計のオブジェクト数(キューブ数)を表すメッセージを、メインディスプレイ12の画面に表示する。この表示例を図17に示す。これによりユーザは、自分が行った運動量を知ることができる。
[コンテンツ6:マイサウンド]
(図5のステップS212)情報処理装置11は、コンテンツ6(マイサウンド)の画面に遷移する。情報処理装置11は、エントリー装置201から取得した心拍数に応じたテンポでベース音を奏でるベース音データを、スピーカ17を介して再生するように制御する。例えば心拍数が、1分間に80回であれば、1/80分ごとにベース音がなるベース音データを再生する。
(図5のステップS213)情報処理装置11は、それぞれ異なる楽器を表す複数のアイコンをメインディスプレイ12に表示する。表示の例を図18に示す。この例では4つのアイコン181、182、183、184が表示されている。表示箇所は、例えばユーザが手を下ろした姿勢のときに、ユーザのオブジェクト群と重ならない位置が好ましい。
情報処理装置11は、距離カメラ22および可視光カメラ21から、一定のフレーム間隔の距離画像およびカラー画像を取得する。情報処理装置11は、メインディスプレイ12に、例えば一定のフレーム間隔でオブジェクトを更新表示する。これにより、ユーザの動きに追従した表示を行う。
情報処理装置11は、距離画像内に、各楽器用の領域を仮想的に設定する。設定のイメージを図19に示す。図18のアイコン181〜184に対応して、領域191〜194が設定されている。情報処理装置11は、フレーム毎に、距離画像内のユーザ領域が、いずれかの楽器領域と重なったかを判定する(当たり判定)。
楽器用の領域を設定する位置に関し、メインディスプレイ12の表示画面内のユーザとアイコンの位置関係と、距離画像内のユーザと楽器領域の位置関係が、概ね一致していることが好ましい。これにより、メインディスプレイ12でユーザのオブジェクトがアイコンに重なったときに、そのアイコンに対応する楽器が選択されるように、ユーザに体感させることができる。
図18の例では、アイコン181がユーザの右手に対応するオブジェクトに重なっており、アイコン181に対応するトランペットが選択される場合が示される。このとき、距離画像内のユーザ領域が、トランペットの領域191に重なっている(図示せず)。
情報処理装置11は、重なった楽器領域が存在すると判定した場合は、その楽器で奏でられたサウンドデータ(メロディ)を、ベース音に重ね合わるように再生する。サウンドデータの再生が完了したら、再度、ユーザによる楽器の選択を受け付けるようにする。所定の終了条件が成立したら、本コンテンツ6(マイサウンド)の処理を終了する。終了条件として、例えば所定の起点(例えば楽器選択モードになった時点)から一定時間が経過したことがある。
[コンテンツ7:エンディング]
(図5のステップS214)情報処理装置11は、コンテンツ7の画面に遷移し、エンディングメッセージをメインディスプレイ12に表示する。この際、ユーザを形作っていたオブジェクト群を分解(さらに任意の形状に再配置)するなどの演出を行っても良い。これにより一連のコンテンツの提供を終了する。この後、図4のステップS201の待機画面に戻っても良い。
以上、本実施形態によれば、距離カメラを用いてユーザ領域情報を取得し、キューブ等のオブジェクトの集合によって、ユーザの体をメインディスプレイに表示するようにしたことにより、ユーザは、表示されたオブジェクト集合を自分のキャラクタ表現として見て、楽しむことができる。この際、キューブ間に隙間を開けたり、キューブに回転等の動きを付けたりすることで、ユーザは綺麗な表示で、飽きることなく、メインディスプレイを見ることができる。
また、ユーザを形作るオブジェクトの計数し、合計オブジェクト数を表示することにより、自分の正面面積あるいは体積の大きさを楽しみながら知ることができる。
また、ユーザを形作るオブジェクト群を一旦崩して、立方体に近づくように再配置することで、再配置後の形状の大きさから、自分の正面面積あるいは体積の大きさを楽しみながら知ることができる。
また、ユーザ情報を利用してユーザの体重に占める水分の割合を推定し、表示することにより、ユーザは自分の体の水分の割合を知ることができる。この際、足下から水分の割合に応じた長さだけ、上側に水色の画像を透過的に重ねて表示することにより、ユーザは楽しんで知ることができる。
また、ユーザを撮像したカラー画像に基づき、メインディスプレイに表示するユーザのオブジェクトに色を付けることで、自分の身体(服装)の色分布を知ることができる。また、最もオブジェクト数が多い色を求め、当該色を表すメッセージをメインディスプレイに表示することで、自分の中で最も多くを占める色を知ることができる。
また、距離画像に基づきユーザの動き量を推定し、動き量に応じた個数のオブジェクトを背景画像から出現させることで、ユーザは楽しみながら運動を行うことができる。また、背景画像から出現させたオブジェクトを計数し、合計オブジェクト数を表すメッセージをメインディスプレイに表示することで、ユーザは自分の運動量を知ることができる。
また、血流センサーで取得した血流センサー値データに基づき心拍数を求め、心拍数に応じたテンポでベース音を再生することにより、ユーザは自分の心拍数を音楽として楽しむことができる。また、ベース音に重ねて、ユーザが選択した楽器でのサウンドを再生するようにしたことにより、より音楽を楽しむことができる。
本実施形態における情報処理装置11および制御装置51は、汎用のコンピュータ装置を基本ハードウェアとして用いることでも実現することが可能である。情報処理装置11および制御装置51の各処理ブロックは、上記のコンピュータ装置に搭載されたプロセッサにプログラムを実行させることにより実現することができる。このとき情報処理装置11および制御装置51は、上記のプログラムをコンピュータ装置にあらかじめインストールすることで実現してもよいし、CD−ROMなどの記憶媒体に記憶して、あるいはネットワークを介して上記のプログラムを配布して、このプログラムをコンピュータ装置に適宜インストールすることで実現してもよい。また、情報処理装置11内の記憶部41は、上記のコンピュータ装置に内蔵あるいは外付けされたにメモリ、ハードディスク、またはCD−R、CD−RW、DVD−RAM、DVD−Rなどの記憶媒体などを適宜利用して実現することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
12:メインディスプレイ
13:検出デバイス
14、16、54:通信ケーブル
15:Webカメラ
17:スピーカ
21:可視光カメラ
22:距離カメラ
31:制御部
32:心拍情報処理部
33:検出デバイス画像処理部
34:Webカメラ画像処理部
41:記憶部
42:ファイルサーバ
51:制御装置
52:心拍数算出部
53:タッチパネルディスプレイ
55:画像ケーブル
101:メイン装置
201:エントリー装置
301:血流センサー
401:中継装置
13:検出デバイス
14、16、54:通信ケーブル
15:Webカメラ
17:スピーカ
21:可視光カメラ
22:距離カメラ
31:制御部
32:心拍情報処理部
33:検出デバイス画像処理部
34:Webカメラ画像処理部
41:記憶部
42:ファイルサーバ
51:制御装置
52:心拍数算出部
53:タッチパネルディスプレイ
55:画像ケーブル
101:メイン装置
201:エントリー装置
301:血流センサー
401:中継装置
Claims (15)
- ディスプレイに対向するように位置するユーザを撮像する距離カメラから、前記ユーザを撮像した距離画像を取得する画像取得部と、
前記距離画像を解析して前記距離画像内のユーザ領域を特定する画像処理部と、
前記ユーザ領域を複数のセグメントに分割し、各セグメントの相対位置関係に応じて、各セグメントに対応する3次元形状のオブジェクトをそれぞれ前記ディスプレイに表示する制御部と、
を備えた情報処理装置。 - 前記制御部は、前記ユーザ領域を横方向および縦方向にそれぞれ同じ間隔で分割する
請求項1に記載の情報処理装置。 - 各セグメントに対応する前記3次元形状のオブジェクトは、同じサイズの立方体である
請求項1または2に記載の情報処理装置。 - 前記制御部は、前記オブジェクトを、隣接するセグメント同士に対応するオブジェクト間に隙間を設けるように表示する
請求項1ないし3のいずれか一項に記載の情報処理装置。 - 前記制御部は、前記ディスプレイに表示されているオブジェクト群を、全体として1つの所定の立体形状を組み立てるように再配置する
請求項1ないし4のいずれか一項に記載の情報処理装置。 - 前記制御部は、前記オブジェクトの個数を計数し、合計オブジェクト数を表すメッセージを前記ディスプレイに表示する
請求項1ないし5のいずれか一項に記載の情報処理装置。 - 入力手段を介して入力される前記ユーザの年齢情報と性別情報を取得する情報取得手段を備え、
前記制御部は、前記年齢情報と前記性別情報に基づき、前記ユーザの体重に占める水分の割合を推定し、前記ディスプレイに表示されているオブジェクトのうち、推定した値に応じた個数のオブジェクトを選択し、選択したオブジェクトを、他のオブジェクトと識別可能に表示する
請求項1ないし6のいずれか一項に記載の情報処理装置。 - 前記制御部は、前記ディスプレイの表示面の下側に位置するオブジェクトから優先的に選択し、選択したオブジェクト群の全体を、前記表示面の下側から別の画像で順次覆うように制御する
請求項7に記載の情報処理装置。 - 前記制御部は、ディスプレイに対向するように位置するユーザを撮像する可視光カメラから前記ユーザのカラー画像を取得し、前記カラー画像に基づいて、各セグメントに対応するオブジェクトの表示色を決定し、決定した表示色で前記オブジェクトを表示する
請求項1ないし8のいずれか一項に記載の情報処理装置。 - 前記制御部は、前記オブジェクトの表示色の中で最もオブジェクト数が多い色を特定し、特定した色を表すメッセージを前記ディスプレイに表示する
請求項9に記載の情報処理装置。 - 前記画像取得部は、一定のフレーム間隔で前記距離画像を取得し、
前記制御部は、2つのフレーム間で前記ユーザの移動量を前記距離画像に基づき計算し、前記移動量に応じた個数のオブジェクトが前記ディスプレイの画面の背景画像から出現するように制御する
請求項1ないし10のいずれか一項に記載の情報処理装置。 - 前記制御部は、前記背景画像から出現したオブジェクトの合計数を計算し、合計オブジェクト数を表すメッセージを前記ディスプレイに表示する
請求項11に記載の情報処理装置。 - 前記ユーザの血流量をセンシングする血流センサーに基づく前記ユーザの心拍数情報を取得する情報取得手段を備え、
前記制御部は、前記ユーザの心拍数に応じたテンポでベース音を奏でるベース音データを再生する
請求項1ないし12のいずれか一項に記載の情報処理装置。 - 前記制御部は、前記ディスプレイの画面の背景画像上に、異なる楽器を表す複数のアイコンを表示し、前記アイコンの表示領域に対応して前記距離画像に各楽器用の領域を設定し、各領域に前記ユーザ領域が重なったかを判定し、前記ユーザ領域が重なった領域に対応するアイコンが表す楽器によるサウンドデータを、前記ベース音に重ねるように再生する
請求項13に記載の情報処理装置。 - ディスプレイに対向するように位置するユーザを撮像する距離カメラから、前記ユーザを撮像した距離画像を取得する取得ステップと、
前記距離画像を解析して前記距離画像内のユーザ領域を特定する画像処理ステップと、
前記ユーザ領域を複数のセグメントに分割し、各セグメントの相対位置関係に応じて、各セグメントに対応する3次元形状のオブジェクトをそれぞれ前記ディスプレイに表示する制御ステップと、
を備えた情報処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014009719A JP5694581B1 (ja) | 2014-01-22 | 2014-01-22 | 情報処理装置および情報処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014009719A JP5694581B1 (ja) | 2014-01-22 | 2014-01-22 | 情報処理装置および情報処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP5694581B1 true JP5694581B1 (ja) | 2015-04-01 |
JP2015136490A JP2015136490A (ja) | 2015-07-30 |
Family
ID=52830831
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014009719A Active JP5694581B1 (ja) | 2014-01-22 | 2014-01-22 | 情報処理装置および情報処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5694581B1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11192214A (ja) * | 1998-01-05 | 1999-07-21 | Sony Corp | 脊椎動物若しくはこれを模倣したロボットに関する数値モデルの作成方法 |
JP2010253322A (ja) * | 2010-08-20 | 2010-11-11 | Namco Bandai Games Inc | ゲーム装置及び情報記憶媒体 |
JP2011258157A (ja) * | 2010-06-11 | 2011-12-22 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び画像生成システム |
-
2014
- 2014-01-22 JP JP2014009719A patent/JP5694581B1/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11192214A (ja) * | 1998-01-05 | 1999-07-21 | Sony Corp | 脊椎動物若しくはこれを模倣したロボットに関する数値モデルの作成方法 |
JP2011258157A (ja) * | 2010-06-11 | 2011-12-22 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び画像生成システム |
JP2010253322A (ja) * | 2010-08-20 | 2010-11-11 | Namco Bandai Games Inc | ゲーム装置及び情報記憶媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP2015136490A (ja) | 2015-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI469813B (zh) | 在動作擷取系統中追踪使用者群組 | |
JP5859456B2 (ja) | プレゼンテーション用カメラ・ナビゲーション | |
JP5632693B2 (ja) | 情報処理プログラム、情報処理装置、情報処理方法および情報処理システム | |
CN105073210B (zh) | 使用深度图像的用户身体角度、曲率和平均末端位置提取 | |
TW200525410A (en) | Method and apparatus for light input device | |
US11250633B2 (en) | Image processing apparatus, display method, and non-transitory computer-readable storage medium, for displaying a virtual viewpoint image including an object at different points in time | |
CN105850109B (zh) | 信息处理装置、记录介质和信息处理方法 | |
CN109448131B (zh) | 一种基于Kinect的虚拟钢琴弹奏系统的构建方法 | |
US20150039259A1 (en) | Motion recognition method and apparatus | |
JP2019524181A (ja) | ゲーム内位置ベースのゲームプレイコンパニオンアプリケーション | |
CN105144240A (zh) | 使用深度图像的用户质心和质量分布提取 | |
JP6547032B1 (ja) | ゲームプログラム、方法、および端末装置 | |
TWI403347B (zh) | 遊戲裝置、操作評價方法、資訊記錄媒體以及程式 | |
JP2008117042A (ja) | 仮想空間提供サーバ、仮想空間提供システム及びコンピュータプログラム | |
KR101712836B1 (ko) | 가상 골프 시뮬레이션 장치, 가상 골프를 위한 영상 구현 방법 및 이를 기록한 컴퓨팅 장치에 의해 판독 가능한 기록 매체 | |
JP6513259B1 (ja) | ゲームプログラム、方法、および情報処理装置 | |
CN103752010A (zh) | 用于控制设备的增强现实覆盖 | |
KR102297582B1 (ko) | 게임 서비스를 제공하는 게임 장치, 전자 장치 | |
JP5055548B2 (ja) | 運動支援装置及びコンピュータプログラム | |
JP5694581B1 (ja) | 情報処理装置および情報処理方法 | |
JP6651091B2 (ja) | ゲームシステム及びこれに用いるコンピュータプログラム | |
KR20200079519A (ko) | 게임기, 게임 시스템, 컴퓨터 프로그램이 기억된 기억 장치, 및 제어 방법 | |
CN114344872B (zh) | 一种冰壶轨迹分析方法、装置、设备及存储介质 | |
JP6803111B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
CN110764676B (zh) | 一种信息资源显示方法、装置、电子设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150106 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150204 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5694581 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |