JP2011123349A - 情報表示処理装置 - Google Patents

情報表示処理装置 Download PDF

Info

Publication number
JP2011123349A
JP2011123349A JP2009281625A JP2009281625A JP2011123349A JP 2011123349 A JP2011123349 A JP 2011123349A JP 2009281625 A JP2009281625 A JP 2009281625A JP 2009281625 A JP2009281625 A JP 2009281625A JP 2011123349 A JP2011123349 A JP 2011123349A
Authority
JP
Japan
Prior art keywords
pedestrian
display
unit
gait
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009281625A
Other languages
English (en)
Other versions
JP5595027B2 (ja
Inventor
Toru Ishii
徹 石井
Takaaki Kase
隆明 加瀬
Ichiro Furuki
一朗 古木
Yasunori Tsubaki
泰範 椿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2009281625A priority Critical patent/JP5595027B2/ja
Publication of JP2011123349A publication Critical patent/JP2011123349A/ja
Application granted granted Critical
Publication of JP5595027B2 publication Critical patent/JP5595027B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】移動している歩行者にとって視認し易い画像を生成する。
【解決手段】信号計測部21は歩行者通路上の音響・振動センサから入力した音響・振動信号をサンプリングし、歩容計算部23は信号計測部21からの音響データに基づきターゲット歩行者の歩容データ、1表示周期先の視点位置、歩行タイミングを算出し、属性対応コンテンツ検索部24は歩容データ、1表示周期先の視点位置、歩行タイミングに基づきターゲット歩行者の属性を判断して属性に対応する提供情報を取得し、表示フレーム作成部25は歩行者の視点位置に対応した表示フレームを作成し、表示・歩行同期部27は表示フレームを歩行タイミングで出力する。
【選択図】図2

Description

この発明は、例えば設置場所や接近する人に応じて情報を提供する情報表示処理装置に関するものである。
情報表示処理装置は、従来から屋外・店頭・公共空間・交通機関などに設置され、情報としての広告を表示して宣伝する目的で利用されており、例えば特許文献1には、より宣伝効果を高めるために歩行者の動きに連動した表示を行う構成が開示されている。特許文献1によれば、歩行者を撮影して画像を出力する撮像手段を備え、画像を解析して歩行者の位置を検出し、検出した歩行者の位置が所定量移動すると、現在表示している画像と予め設定された他の画像を合成して表示することで、表示内容を変化させて歩行者の興味を惹くようにしている。
特開2002−123237号公報
しかしながら、従来の情報表示処理装置の構成は、例えば撮像手段のカメラで歩行者を撮影しており、近年のプライバシーを重視する傾向から歩行者がカメラを嫌悪して避けるという問題があった。また、従来の情報表示処理装置は、歩行者の位置が所定量移動した場合に、予め記憶した2つの画像を合成して表示するだけであり、移動している歩行者にとっては視認し難いという課題があった。
この発明は、上述した課題を解決するためになされたものであり、移動している歩行者にとって視認し易い表示フレームを生成する情報表示処理装置を提供することを目的とする。
この発明に係る情報表示処理装置は、歩行者通路上の音響・振動センサから入力した音響・振動信号をサンプリングした音響データを出力する信号計測部と、信号計測部からの音響データに基づいて歩容データを算出し、算出した歩容データに基づいて1表示周期先の歩行者の視点位置及び歩行者の歩行タイミングを算出する歩容計算部と、歩容計算部からの歩容データ、1表示周期先の歩行者の視点位置、歩行者の歩行タイミングに基づいて歩行者の属性を判断し、歩行者の属性に対応する提供情報を通信回線を介して取得する属性対応コンテンツ検索部と、歩容計算部からの歩容データ、1表示周期先の歩行者の視点位置、属性対応コンテンツ検索部からの提供情報に基づいて、歩行者の視点位置に対応した表示フレームを作成する表示フレーム作成部と、表示フレーム作成部からの表示フレームを歩行者の歩行タイミングで出力する表示・歩行同期部と、を備えたものである。
この発明に係る情報表示処理装置によれば、歩容計算部は信号計測部からの音響データに基づいてターゲットとする周波数帯域の音響データを抽出し、抽出した音響・振動信号に基づいて歩行者の歩容データ、歩行者の視点位置、歩行タイミングを算出し、属性対応コンテンツ検索部は歩行者の歩容データに基づいて歩行者の属性に対応する提供情報を取得し、表示フレーム作成部は歩容データ、歩行者の視点位置、提供情報に基づいて表示フレームを作成し、表示・歩行同期部は歩容データに基づいて歩行者の歩行タイミングで表示フレームを出力するように構成したことにより、音響・振動信号に基づいて歩行者の身体運動の状態を示す歩容データを算出し、歩容データに基づいて表示フレームを作成することができる。その結果、音響・振動信号に基づいて、移動している歩行者にとって視認し易く、高いアイキャッチ効果がある表示フレームを生成することができる。
この発明の実施の形態1による情報表示処理装置を用いた情報表示システムの構成を示す図である。 この発明の実施の形態1による情報表示処理装置の構成を示す図である。 この発明の実施の形態1による情報表示処理装置の歩容計算部の構成を示す図である。 この発明の実施の形態1による情報表示処理装置の歩容計算部の処理を示す図である。 この発明の実施の形態1による情報表示処理装置の処理動作を示すフローチャートである。 この発明の実施の形態1による情報表示処理装置が作成した表示フレームを示す図である。 この発明の実施の形態2による情報表示処理装置の構成を示す図である。 この発明の実施の形態2による情報表示処理装置が作成した表示フレームを示す図である。 この発明の実施の形態3による情報表示処理装置の構成を示す図である。 この発明の実施の形態3による情報表示処理装置が作成した表示フレームを示す図である。 この発明の実施の形態4による情報表示処理装置の歩容計算部の構成を示す図である。 この発明の実施の形態4による情報表示処理装置の処理を示すフローチャートである。
以下、この発明の実施の形態を、図面を参照しながら詳細に説明する。
実施の形態1.
図1は、情報表示処理装置を用いた情報表示システムの全体構成を示す図である。情報表示システム1は、図1に示すように音響・振動センサ10、情報表示処理装置20、表示・音響デバイス30、インターネット40で構成されており、情報表示処理装置20は音響・振動センサ10、表示・音響デバイス30、インターネット40及び図示しない管理センターと通信回線を介して接続されている。
音響・振動センサ10は、歩行者通路上に設置され、設置された空間の音響、設置された場所の床面の振動を計測して、計測位置毎に音響・振動信号を出力する。音響・振動センサ10は、例えばステレオマイク、振動板からの音響、振動を計測しており、表示・音響デバイス30から所定の距離離れた歩行者通路上に、歩行者の通行方向に沿って設置されている。
音響・振動センサ10は、音波が1/30秒で進む距離として例えば11m離して設置されている。ここで1/30秒は表示フレームの更新時間を示す最大リフレッシュレートであり、音響・振動センサ10は、音波が1/30秒で進む距離以上離して設置されることで、歩行者の足音による音響を重複して計測しないように配置されている。なお、音響・振動センサ10を一つだけ設置する場合、例えば音響・振動センサ10は表示・音響デバイス30の正面から所定の距離離れた歩行者通路上に設置される。
情報表示処理装置20は、入力した音響・振動信号に基づいて処理を行い、表示フレームと同期音を出力するよう機能する。情報表示処理装置20は、音響・振動センサ10が設置された歩行者通路上を歩行する歩行者の中からターゲットとする歩行者(以下、ターゲットと略記する)を抽出してターゲットの歩容データ、視点位置、歩行タイミングを算出する。また、情報表示処理装置20は、ターゲットの歩容データに基づいて提供情報を取得し、ターゲットの歩容データと提供情報に基づいて表示フレームを作成し、表示フレームと同じタイミングで同期音を発生して出力する。情報表示処理装置20の詳細な構成については後述する。
表示・音響デバイス30は、情報表示処理装置20から表示フレームと同期音を入力し、入力した表示フレームを画面に表示し、同期音をスピーカから出力する。
インターネット40は通信回線を介して情報表示処理装置20と接続しており、例えばインターネット40上には提供情報の配信を行う情報提供サーバが設けられている。
情報表示処理装置20の詳細な構成について説明する。図2は情報表示処理装置20の構成を示す図である。情報表示処理装置20は、図2に示すように信号計測部21、歩容計算部23、属性対応コンテンツ検索部24、表示フレーム作成部25、歩行同期音発生部26、表示・歩行同期部27で構成されている。
信号計測部21は、上述した図1の音響・振動センサ10から入力した計測位置毎の音響・振動信号にサンプリング処理を行い、音響データを出力するよう機能する。また、信号計測部21は、上述した図1の音響・振動センサ10から入力した計測位置毎の音響・振動信号の位相差を算出して出力するように機能する。
歩容計算部23は、後述する構成により、信号計測部21からの音響データに基づいて周波数スペクトルを計算し、周波数スペクトルの推移と信号の位相差に基づいてターゲットを抽出し、ターゲットの周波数帯域の音響データを抽出し、ターゲットの身体運動の状態を示す歩容データ、ターゲットの視点位置、ターゲットの歩行タイミングを算出して出力するように機能する。
ここで、歩容データは、歩行者の1分間あたりの歩数であるケーデンス、歩行者が歩いている方向、歩行者の位置、歩行者の歩幅、歩行者の身長など、ターゲットとした歩行者の身体運動の状態を示すデータである。なお、歩容計算部23は、ターゲットを抽出できない場合、その旨を属性対応コンテンツ検索部24と歩行同期音発生部26に通知する。
属性対応コンテンツ検索部24は、予めターゲットの音響データと歩容データに対応するターゲットの属性を設定して記憶すると共に、各属性に対応するキーワードを記憶しており、歩容計算部23からのターゲットの音響データと歩容データに基づいてターゲットの属性を判断して、属性に対応するキーワードを検索条件とし、インターネット40を検索して提供情報を取得する機能を有している。
属性対応コンテンツ検索部24は、例えばターゲットの音響データが所定の高音域を示し、歩容データのケーデンスの値が大きい場合、ターゲットがハイヒールを履いており、早く歩いている若い女性であると判断し、若い女性に対応するキーワードを抽出する。属性対応コンテンツ検索部24は、抽出したキーワードを検索条件としてインターネット40で検索を行い、検索結果に基づいて提供情報を取得する。
なお、属性対応コンテンツ検索部24は、歩容計算部23からターゲットにする周波数帯域の音響・振動信号を抽出できない旨の通知を入力した場合、予め設定された提供情報もしくは予め設定されたキーワードによるインターネット40検索で取得した提供情報を取得する。
表示フレーム作成部25はモーションブラー計算部25aを備えており、モーションブラー計算部25aは、歩容計算部23からの歩容データに基づいて、ターゲットの視点位置を認識し、ターゲットの視点位置の動きに応じたぶれの方向とぶれの量を計算するよう機能する。表示フレーム作成部25は、モーションブラー計算部25aの算出したぶれの方向とぶれの量と属性対応コンテンツ検索部24からの提供情報に基づいて、歩容データに対応した表示フレームを作成するよう機能する。
表示フレーム作成部25は、提供情報に基づいて表示フレームを作成し、モーションブラー計算部25aで算出したターゲットの視点のぶれの方向とぶれの量に基づいて、表示フレームを構成する表示オブジェクトを移動させて、表示オブジェクトの位置を変えた表示フレームを出力する。表示フレーム作成部25は、このような構成により、ターゲットとしての歩行者にとって見易く処理した表示フレームを作成する。
歩行同期音発生部26は、表示フレーム作成部25から表示フレームを出力するタイミングに合わせて同期音を生成して出力するよう機能する。また、歩行同期音発生部26は、歩容計算部23からターゲットを抽出できない旨の通知を入力した場合、表示フレーム作成部25から表示フレームが出力されるかを監視し、表示フレームを出力するタイミングに合わせて同期音を生成して出力する。
表示・歩行同期部27は、歩容計算部23からの歩容データに基づいて、歩行同期音発生部26からの表示フレームと同期音をターゲットの歩行タイミングに合わせて出力するよう機能する。
ここで、歩容計算部23の詳細な構成について図3を用いて説明する。歩容計算部23は、図3に示すように周波数スペクトル計算部132、ターゲット抽出部133、歩容データ算出部134、歩行者視点予測部135、歩行タイミング抽出部136で構成されている。
周波数スペクトル計算部132は、バンドパスフィルタによる処理とFFT(Fast Fourier Transform:高速フーリエ変換)処理を行うよう構成されている。周波数スペクトル計算部132は、予め代表的な靴による歩行音を計測して周波数を設定、記憶しており、バンドパスフィルタが設定された周波数の範囲に制限してノイズを低減させて音響データを出力する。周波数スペクトル計算部132は、バンドパスフィルタの処理により、公共空間に音響・振動センサ10を設置した場合でも、雑踏のノイズと大量の歩行音が含まれる音響データから振動板を踏んだ歩行音の音響データを計測するようにしている。
また、周波数スペクトル計算部132は、例えばサンプリング周波数48kHz、窓を1/30秒、1600サンプルでFFT処理を行って周波数スペクトルを算出する。この処理の際、周波数スペクトル計算部132は、複数の音響データについて時系列に連続して計算処理を行って周波数スペクトルを算出する。
ターゲット抽出部133は、異なる計測位置毎の音響・振動信号の位相差と周波数スペクトル計算部132からの周波数スペクトルに基づいてターゲットとする周波数帯域の周波数スペクトルを抽出し、抽出した周波数スペクトルに基づいてターゲットの歩行タイミングデータを出力するよう機能する。ターゲット抽出部133は、例えば、音響・振動信号の位相差と周波数スペクトルに基づいて音響の発生位置を推計して算出する。ターゲット抽出部133は、算出した音響の発生位置を表示・音響デバイスに対する各歩行者の相対位置とし、各歩行者の相対位置に基づいて最も表示・音響デバイス30に接近している歩行者をターゲットとして抽出し、ターゲットの周波数スペクトルの推移を歩行タイミングデータとして出力する。なお、ターゲット抽出部133は、ターゲットを抽出できない場合、ターゲットを抽出できない旨の通知を属性対応コンテンツ検索部24と表示フレーム作成部25へ出力する。
また、ターゲット抽出部133は、音響・振動センサ10が1つのみ設置されている場合、周波数スペクトル計算部132からの周波数スペクトルに基づいて、周波数帯域毎の音響データの強さや時系列による音響データの変化を算出して比較し、比較結果に基づいて、例えば最も強い周波数帯域の音響データの推移を歩行タイミングデータを出力するように構成しても良い。
歩容データ算出部134は、歩容データを算出する機能を有している。歩容データ算出部134は、ターゲット抽出部133からの歩行タイミングデータに基づいて、信号が1分間に何回あるかを計算し、歩行者の1分間当たりの歩数を示すケーデンスを算出する。また、歩容データ算出部134は、算出したケーデンスと計測位置毎の音響・振動信号の位相差に基づいてターゲットの方向、ターゲットの位置、歩行者の歩幅、歩行者の身長を推計して算出するように構成されている。歩容データ算出部134は、上記のように算出したケーデンス、ターゲットの方向、ターゲットの位置、歩行者の歩幅、歩行者の身長を歩容データとして出力する。
歩行者視点予測部135は、歩容データ算出部134からの歩容データに基づいて、1表示周期先のターゲットの視点位置を推計して算出するように機能する。歩行者視点予測部135は、例えば1表示周期先として1/30秒先のターゲットの視点位置又は視点方向を算出する。
歩行タイミング抽出部136は、ターゲット抽出部133からの歩行タイミングデータと歩容データ算出部134からの歩容データに基づいて、ターゲットが接地する歩行タイミングを抽出する機能を有する。歩行タイミング抽出部136は、例えば歩容データのケーデンスと歩行タイミングデータに基づいて、ターゲットが接地する歩行タイミングを抽出して出力する。
ここで、実施の形態1の情報表示処理装置20の処理動作の一例について説明する。
図4(a)は、信号計測部21が出力した音響データを示す音量・振動量−時間のグラフである。図4(b)は、周波数スペクトル計算部132の処理により得られた周波数スペクトルを示す音量・振動量−周波数のグラフである。図4(c)は、図4(b)の低音域の周波数の周期を示しており、図4(d)は、図4(b)の中音域の周波数の周期を示しており、図4(e)は、図4(b)の高音域の周波数の周期を示しており、それぞれ音量・振動量−時間のグラフである。図5は、情報表示処理装置20の処理動作を示すフローチャートである。図6は、歩行者の上下の動きに合わせて表示フレームのオブジェクトを移動させる表示を示している。
まず、周波数スペクトル及び歩容データの抽出方法について説明する。
信号計測部21は、図5に示すように音響・振動センサ10から音響・振動信号を入力し(ステップST101)、音響・振動信号をサンプリングして、例えば図4(a)に示すような波形の音響データを出力している(ステップST102)。
周波数スペクトル計算部132は、信号計測部21から入力した音響データに対して、予め設定した周波数の範囲のバンドパスフィルタで音響データの周波数帯域を制限する処理を行ってノイズを低減させる。周波数スペクトル計算部132は、続いてサンプリング周波数48kHz、窓を1/30秒、1600サンプルでFFT処理を行って図4(b)に示す周波数スペクトルを算出し、周波数スペクトルをターゲット抽出部133と歩容データ算出部134へ出力する(ステップST103)。周波数スペクトル計算部132は、複数の音響・振動データに対して時系列に連続して計算処理を行い、図4(c)、図4(d)、図4(e)に示すように所定の周波数帯域毎に周期を検出する。
ターゲット抽出部133は、信号計測部21からの計測位置毎の音響・振動信号の位相差と周波数スペクトル計算部132からの周波数スペクトルに基づいて、音響の発生位置を推計して算出する。ターゲット抽出部133は、算出した音響の発生位置を表示・音響デバイスに対する各歩行者の相対位置とし、各歩行者の相対位置に基づいて最も表示・音響デバイス30に接近している歩行者をターゲットとして抽出し、ターゲットの周波数スペクトルの推移を歩行タイミングデータとして歩容データ算出部134と歩行タイミング抽出部136へ出力する(ステップST104)。
このとき、ターゲット抽出部133は、ターゲットを抽出できたか否かを判断し(ステップST105)、ターゲットを抽出できない場合(ステップST105“NO”)、ターゲットを抽出できない旨の通知を属性対応コンテンツ検索部24と提供情報を表示フレーム作成部25へ出力して、ステップST115へ進む。また、ターゲット抽出部133は、ターゲットを抽出できた場合(ステップST105“YES”)、ステップST106へ進む。
歩容データ算出部134は、ターゲット抽出部133から歩行タイミングデータを入力すると、ターゲット抽出部133から入力した歩行タイミングデータに基づいて、信号が1分間に何回あるかを計算し、歩行者の1分間当たりの歩数を示すケーデンスを算出する。また、歩容データ算出部134は、算出したケーデンスと信号計測部21から入力した計測位置毎の音響・振動信号の位相差に基づいてターゲットの方向、ターゲットの位置、ターゲットの歩幅、ターゲットの身長を推計して算出するように構成されている。歩容データ算出部134は、算出したケーデンス、ターゲットの方向、ターゲットの位置、ターゲットの歩幅、ターゲットの身長を歩容データとして出力する(ステップST106)。
歩行者視点予測部135は、歩容データ算出部134から歩容データを入力すると、歩容データに基づいて、1表示周期先として1/30秒先の歩行者の視点位置を推計して算出する(ステップST107)。
歩行タイミング抽出部136は、ターゲット抽出部133から入力した歩行タイミングデータと歩容データ算出部134から入力した歩容データに基づいて、ターゲットが接地する歩行タイミングを抽出して出力する(ステップST108)。
次に、歩行者の属性に対応する提供情報を取得する処理動作について説明する。
属性対応コンテンツ検索部24は、歩容計算部23からターゲットの音響・振動信号、容データを入力すると、ターゲットの音響・振動信号、歩容データに予め対応させた属性からターゲットの性別、年齢などを判断する(ステップST109)。
属性対応コンテンツ検索部24は、歩行者の性別、年齢に基づいて、予め性別、年齢に対応させたキーワードを抽出し、抽出したキーワードを検索条件にしてインターネット40を検索する。属性対応コンテンツ検索部24は、検索結果に基づいて提供情報を作成し、作成した提供情報を表示フレーム作成部25へ出力する(ステップST110)。
次に、表示フレームの変換処理について説明する。
図6において、歩行者232aは表示・音響デバイス30に向かって接近している。表示・音響デバイス30には、表示オブジェクト231aが表示されている。このとき、歩行者232は図6(a)、図6(b)に示すように、視点の高さを変化させながら歩行している。
表示フレーム作成部25は、歩行計算部23から歩容データを連続して入力すると、モーションブラー計算部25aが歩容データの歩行者の視点位置に基づいて、歩行者の視点位置のぶれ方向、ぶれ量を算出する。表示フレーム作成部25は、歩行者の視点位置のぶれ方向、ぶれ量と、歩行タイミング抽出部136からの歩行タイミングに基づいて、図6(b)に示すようにターゲットの足が接地するタイミングで歩行者の視点位置が最も低くなる位置に表示オブジェクト231bを表示するよう表示フレームを作成し、歩行同期音発生部26へ出力する(ステップST111)。
ステップST111において、モーションブラー計算部25aの処理動作により、ターゲットの視点位置の動きが視点232aから視点232bへ移行する場合には、表示位置が表示オブジェクト231aから表示オブジェクト231bへ下がる。また、ターゲットの視点位置の動きが視点232bから視点232aへ移行する場合には、表示位置が表示オブジェクト231bから表示オブジェクト231aへ上がる。視点の動きが早い場合にはぶれが大きく、視点の動きが遅い場合にはぶれが少ない。モーションブラー計算部25aは、このように表示フレームを補正処理することにより、ターゲットに見易い表示フレームを表示するようにしている。
歩行同期音発生部26は、ステップST111で表示フレーム作成部25から表示フレームを入力すると同期音を生成し、表示フレームと同期音を同じタイミングで表示・歩行同期部27へ出力する(ステップST112)。
表示・歩行同期部27は、ターゲット抽出部133から歩行タイミングを入力し、歩行同期音発生部26から表示フレームと同期音を入力すると、表示フレームと同期音を歩行タイミングに合わせて表示・音響デバイス30へ出力する(ステップST113)。
表示・音響デバイス30は表示・歩行同期部27から入力した表示フレームと同期音を画面とスピーカから出力して(ステップST114)、処理を終了する(エンド)。
属性対応コンテンツ検索部24は、ステップST105“NO”の場合、ターゲット抽出部133からターゲットを抽出できない旨の通知を入力すると、予め設定された提供情報もしくは予め設定されたキーワードによるインターネット40検索で取得した提供情報を取得し、表示フレーム作成部25へ出力する(ステップST115)。
表示フレーム作成部25は、ステップST105“NO”の場合、ターゲット抽出部133からターゲットを抽出できない旨の通知を入力し、ステップST115において、属性対応コンテンツ検索部24から提供情報を入力すると、提供情報に基づいて表示フレームを作成し、歩行同期音発生部26へ出力する(ステップST116)。
歩行同期音発生部26は、ステップST116で表示フレーム作成部25から表示フレームを入力すると同期音を生成し、表示フレームと同期音を同じタイミングで表示・音響デバイス30へ出力する(ステップST117)。
表示・音響デバイス30は表示・歩行同期部27から入力した表示フレームと同期音を画面とスピーカから出力して(ステップST118)、処理を終了する(エンド)。
以上のように、実施の形態1によれば、信号計測部21は歩行者通路上の音響・振動センサ10から入力した音響・振動信号をサンプリングした音響データを出力し、歩容計算部23は信号計測部21からの音響データに基づいて歩容データを算出すると共に、算出した歩容データに基づいて1表示周期先のターゲットの視点位置及びターゲットの歩行タイミングを算出し、属性対応コンテンツ検索部24は歩容計算部23からの歩容データ、1表示周期先のターゲットの視点位置、ターゲットの歩行タイミングに基づいてターゲットの属性を判断し、ターゲットの属性に対応する提供情報を通信回線を介して取得し、表示フレーム作成部25は歩容計算部23からの歩容データ、1表示周期先のターゲットの視点位置、属性対応コンテンツ検索部24からの提供情報に基づいて、ターゲットの視点位置に対応した表示フレームを作成し、表示・歩行同期部27は表示フレーム作成部25からの表示フレームをターゲットの歩行タイミングで出力するように構成したので、ターゲットの歩行音に基づいてターゲットの身体運動の状態を示す歩容データを算出することができ、歩容データに基づいて、提供情報を取得すると共に、ターゲットの動きに連動した表示フレームを作成することができる。その結果、歩行している歩行者にとって見易い表示フレームを表示することができ、アイキャッチ効果を高くすることができ、広告効果を向上させた新しい広告用ディスプレイとして、デジタルサイネージ分野で利用することができる。
また、実施の形態1によれば、信号計測部21は歩行者通路上の複数の音響・振動センサ10から入力した音響・振動信号をサンプリングした音響データを出力し、複数の音響・振動センサ10の設置位置に振動板を配置したので、歩行者が多い場合や周囲の騒音が激しい場合でも、歩行者の発する音響・振動信号を抽出することができる。
また、実施の形態1によれば、歩容データ算出部134は複数の位置に設置された音響・振動センサ10からの音響・振動信号の位相差に基づいて、音響・振動信号の発生源を推計するよう構成したので、ターゲットの方向と位置を算出することができる。
また、実施の形態1によれば、歩行者視点予測部135は歩容データ算出部134からのケーデンス、方向、位置、歩幅、身長に基づいてターゲットの視点位置を算出し、表示フレーム作成部25は歩行者視点予測部135からのターゲットの視点位置に基づいてターゲットの視点位置の動きによるぶれの方向とぶれの量を算出して、算出したぶれの方向とぶれの量に基づいて表示フレームを作成するモーションブラー計算部25aを備えて構成したので、ターゲットが移動しながら見る表示フレームを見易くすることができる。
また、実施の形態1によれば、属性対応コンテンツ検索部24は歩容計算部23からの音響・振動信号と歩容データに基づいてターゲットの属性を判断し、属性に対応する情報を検索して取得するように構成したので、ターゲットに適した情報を提供することができる。
なお、実施の形態1における音響・振動信号の解析方法として、周波数と時間変化を局在化させる手段にWeblet変換を用いる構成にしても良い。
実施の形態2.
実施の形態1においては、ターゲットの視点位置の動きに応じて表示フレームの表示オブジェクトの表示位置を上下に移動させる構成について説明したが、実施の形態2はターゲットの焦点調節を誘引して奥行感を感じさせる表示について説明する。
図7は、実施の形態2の情報表示処理装置20の構成を示している。なお、実施の形態2の情報表示処理装置20の構成は、上述した図2の表示フレーム作成部25のモーションブラー計算部25aに替えて、アンシャープ度計算部25bで構成したものであり、表示フレーム作成部25以外の構成は上述した図2の構成と同様であるため、説明は省略する。
表示フレーム作成部25は、図7に示すようにアンシャープ度計算部25bを備えており、アンシャープ度計算部25bは、歩容計算部23からのターゲットの歩容データ、ターゲットの視点位置、ターゲットの歩行タイミングに基づいて、表示フレームを構成する表示オブジェクトのぼけ具合を示すアンシャープ度を計算するように機能している。表示フレーム作成部25は、表示オブジェクトに対して歩行タイミングに合わせて順番にフォーカスを当て、フォーカスを当てた表示オブジェクト以外の表示オブジェクトをアンシャープ度に基づいてぼかすように処理して表示フレームを作成する。
次に、実施の形態2の情報表示処理装置20の処理動作について説明する。図8は、実施の形態2の表示・音響デバイス30に表示する表示フレームの一例を示している。表示フレームは奥行方向に5層のレイヤーとして独立した表示オブジェクト231c,231d,231e,231f,231gで構成されている。なお、情報表示処理装置20の処理動作は上述した図5と略同様であるため、表示フレーム作成部25以外の処理動作の説明は省略する。
表示フレーム作成部25は、歩容計算部23からターゲットの歩容データ、ターゲットの視点位置、ターゲットの歩行タイミングを入力すると、入力した歩行タイミングに合わせて、表示オブジェクト231c,231d,231e,231f,231gに順番にフォーカスを当てる。このとき、アンシャープ度計算部25bが歩行者の視点位置に基づいてアンシャープ度を計算する。表示フレーム作成部25は、例えば、表示オブジェクト231cにフォーカスを当てた場合、フォーカスをあてた表示オブジェクト231c以外の表示オブジェクト231d,231e,231f,231gをアンシャープ度に基づいてぼかすように処理して表示フレームを作成する(上述した図5のステップST111)。
以上のように、実施の形態2によれば、アンシャープ度計算部25bは歩行タイミング抽出部136からの歩行タイミング及び歩行者視点予測部135からのターゲットの視点位置に基づいて前景と背景のぼかし具合を計算し、表示フレームを構成する表示オブジェクト231c,231d,231e,231f,231gをぼかすように構成したので、ターゲットの焦点調節を誘引して奥行感を発生させることができる。その結果、歩行している歩行者にとって見易い表示フレームを表示することができ、アイキャッチ効果を高くすることができ、広告効果を向上させた新しい広告用ディスプレイとして、デジタルサイネージ分野で利用することができる。
実施の形態3.
実施の形態2においては、表示オブジェクト231c,231d,231e,231f,231gに順番にフォーカスをあてた表示フレームを作成する構成について説明したが、実施の形態3は、ターゲットの視点位置に応じた運動視差画像の表示フレームを作成する構成について説明する。
図9は、実施の形態3の情報表示処理装置20の構成を示している。なお、実施の形態3の情報表示処理装置20の構成は、上述した図2の表示フレーム作成部25のモーションブラー計算部25aに替えて、運動視差表示用オブジェクト計算部25cで構成したものであり、表示フレーム作成部25以外の構成は上述した図2の構成と同様であるため説明は省略する。
表示フレーム作成部25は、図9に示すように運動視差表示用オブジェクト計算部25cを備えており、運動視差表示用オブジェクト計算部25cは、歩容計算部23からのターゲットの歩容データ、ターゲットの視点位置、ターゲットの歩行タイミングに基づいて、表示フレームを構成する表示オブジェクトの運動視差効果を計算するように機能している。ここで、運動視差効果とは、例えばターゲットの視空間にある各表示オブジェクトの位置が一定方向に規則的に変化して見えるようにするための表示オブジェクトの位置を示している。
次に、実施の形態2の情報表示処理装置20の処理動作について説明する。図10は、実施の形態3の表示・音響デバイス30に表示する表示フレームの一例を示している。表示フレームは上述した図10の表示フレームと同様に、奥行方向に5層のレイヤーとして、独立した表示オブジェクト231c,231d,231e,231f,231gで構成されている。なお、情報表示処理装置20の処理動作は上述した図5と略同様であるため、表示フレーム作成部25以外の処理動作の説明は省略する。
表示フレーム作成部25は、歩容計算部23からターゲットの歩容データ、ターゲットの視点位置、ターゲットの歩行タイミングを入力すると、運動視差表示用オブジェクト計算部25cが歩容データに含まれるターゲットの位置と、ターゲットの歩行タイミングに基づいて運動視差効果を計算する。表示フレーム作成部25は、運動視差効果に基づいて表示フレームを構成する表示オブジェクト231c,231d,231e,231f,231gの位置を移動させ、ターゲットの位置に対応する運動視差表示用オブジェクト231c´,231d´,231e´,231f´,231g´を生成して表示フレームを作成する(上述した図5のステップST111)。
図10(a)においては、歩行者235aが表示・音響デバイス30の右方向を移動中である。歩行者235aは表示・音響デバイス30の正面方向に進み、図10(b)においては、表示・音響デバイス30の正面に達している。図10(a)では表示・音響デバイス18の表示で鉄塔の右に満月が出ている。これに対し、表示・音響デバイス30の正面から見た図10(b)では鉄塔の左に満月が出るように表示している。このように、運動視差表示用オブジェクト計算部25cによって、ターゲットとしての歩行者が身体を移動させると,視空間にある対象相互の位置が一定方向に規則的に変化して見えるように表示フレームを処理して、歩行タイミングに合わせて奥行き感を出すようにしている。
以上のように、実施の形態3によれば、運動視差表示用オブジェクト計算部25cは、歩容データ算出部134からのターゲットの位置と、歩行タイミング抽出部136からの歩行タイミングに基づいて運動視差効果を計算し、運動視差効果に基づいて運動視差表示用オブジェクト231c´,231d´,231e´,231f´,231g´を生成して表示フレームを作成するよう構成したので、ターゲットから見る角度に応じた表示フレームを作成して奥行感を感じさせることができ、歩行者にとって見易い表示フレームにすることができる。
実施の形態4.
実施の形態1から実施の形態3においては、ターゲットの属性に対応した提供情報に基づいて表示フレームを作成する構成について説明したが、実施の形態4は異常に関する提供情報を取得して表示する構成について説明する。なお、歩容計算部23以外の構成は上述した図1、図2の構成と同様であるため、同一の符号を付して説明を省略する。
図11は、実施の形態4の歩容計算部23の構成を示している。歩容計算部23は、図11に示すように、異常検知部131、周波数スペクトル計算部132、ターゲット抽出部133、歩容データ算出部134、歩行者視点予測部135、歩行タイミング抽出部136で構成されている。
異常検知部131は、音響・振動信号に基づいて異常の有無を監視し、異常を検知した場合、図示しない管理センターへ通知すると共に、異常に関する提供情報をインターネット40から収集するよう機能する。異常検知部131は、例えば上述した図2に示す信号計測部21から入力した音響・振動信号の値を解析し、ダイナミックレンジのオーバーフローがあれば異常値と判定して地震の発生を推定し、インターネット40を介して管理センターへ通知すると共に、気象庁ホームページにアクセスして地震に関する提供情報(地震情報)を収集する。
周波数スペクトル計算部132は、バンドパスフィルタによる処理とFFT(Fast Fourier Transform:高速フーリエ変換)処理を行うよう構成されている。周波数スペクトル計算部132は、上述した図2に示す信号計測部21から入力した音響データに対してバンドパスフィルタによる処理でノイズを減らし、例えばサンプリング周波数48kHz、窓を1/30秒、1600サンプルでFFT処理を行って周波数スペクトルを算出する。なお、周波数スペクトル計算部132は、複数の音響データについて時系列に連続して計算処理を行い周波数スペクトルを算出する。
ターゲット抽出部133は、異なる計測位置毎の音響・振動信号の位相差と周波数スペクトル計算部132からの周波数スペクトルに基づいてターゲットとする周波数帯域の周波数スペクトルを抽出し、抽出した周波数スペクトルに基づいてターゲットの歩行タイミングデータを出力するよう機能する。ターゲット抽出部133は、例えば、音響・振動信号の位相差と周波数スペクトルに基づいて音響の発生位置を推計して算出する。ターゲット抽出部133は、算出した音響の発生位置を表示・音響デバイスに対する各歩行者の相対位置とし、各歩行者の相対位置に基づいて最も表示・音響デバイス30に接近している歩行者をターゲットとして抽出し、ターゲットの周波数スペクトルの推移を歩行タイミングデータとして出力する。なお、ターゲット抽出部133は、ターゲットを抽出できない場合、ターゲットを抽出できない旨の通知を属性対応コンテンツ検索部24と表示フレーム作成部25へ出力する。
また、ターゲット抽出部133は、音響・振動センサ10が1つのみ設置されている場合、周波数スペクトル計算部132からの周波数スペクトルに基づいて、周波数帯域毎の音響データの強さや時系列による音響データの変化を算出して比較し、比較結果に基づいて、例えば最も強い周波数帯域の音響データの推移を歩行タイミングデータを出力するように構成しても良い。
歩容データ算出部134は、歩容データを算出する機能を有している。歩容データ算出部134は、ターゲット抽出部133からの歩行タイミングデータに基づいて、信号が1分間に何回あるかを計算し、ターゲットの1分間当たりの歩数を示すケーデンスを算出する。また、歩容データ算出部134は、算出したケーデンスと計測位置毎の音響・振動信号の位相差に基づいてターゲットの方向、ターゲットの位置、ターゲットの歩幅、ターゲットの身長を推計して算出するように構成されている。歩容データ算出部134は、上記のように算出したケーデンス、ターゲットの方向、ターゲットの位置、ターゲットの歩幅、ターゲットの身長を歩容データとして出力する。
歩行者視点予測部135は、歩容データ算出部134からの歩容データに基づいて、1表示周期先のターゲットの視点位置を推計して算出するように機能する。歩行者視点予測部135は、例えば1表示周期先として1/30秒先のターゲットの視点位置又は視点方向を算出する。
歩行タイミング抽出部136は、ターゲット抽出部133からの歩行タイミングデータと歩容データ算出部134からの歩容データに基づいて、ターゲットが接地する歩行タイミングを抽出する機能を有する。歩行タイミング抽出部136は、例えば歩容データのケーデンスと歩行タイミングデータに基づいて、ターゲットが接地する歩行タイミングを抽出して出力する。
次に、実施の形態1の情報表示処理装置20の処理動作の一例について説明する。図12は、情報表示処理装置20の処理動作を示すフローチャートである。まず、周波数スペクトル及び歩容データの抽出方法について説明する。
信号計測部21は、図5に示すように音響・振動センサ10から音響・振動信号を入力し(ステップST201)、音響・振動信号をサンプリングして、例えば図4(a)に示すような波形の音響データを出力している(ステップST202)。
異常検知部131は、信号計測部21から音響・振動信号を入力すると、入力した音響・振動信号を解析し、音響・振動信号が異常値で無いかを監視し異常を検知したかを判定する(ステップST203)。異常検知部131は、ステップST203において異常を検知していないと判断した場合(ステップST203“NO”)、異常が無い旨を周波数スペクトル計算部132へ通知してステップST205へ進む。
異常検知部131は、ステップST203において、ダイナミックレンジ外のオーバーフローがあれば音響・振動信号を異常判定する(ステップST203“YES”)。異常検知部131は、音響・振動信号の異常値に基づいて異常の種別が例えば地震であると推定し、インターネット40を介して図示しない管理センターへ地震発生通知を送信する。
また、異常検知部131は、気象庁ホームページにアクセスして地震に関する提供情報を収集し、地震発生通知と共に地震に関する提供情報を表示フレーム作成部25へ通知する(ステップST204)。
周波数スペクトル計算部132は、信号計測部21から入力した音響データに対して、予め設定した周波数の範囲のバンドパスフィルタで音響データの周波数帯域を制限する処理を行ってノイズを低減させる。周波数スペクトル計算部132は、続いてサンプリング周波数48kHz、窓を1/30秒、1600サンプルでFFT処理を行って図4(b)に示す周波数スペクトルを算出し、周波数スペクトルをターゲット抽出部133と歩容データ算出部134へ出力する(ステップST205)。周波数スペクトル計算部132は、複数の音響・振動データに対して時系列に連続して計算処理を行い、図4(c)、図4(d)、図4(e)に示すように所定の周波数帯域毎に周期を検出する。
ターゲット抽出部133は、信号計測部21からの計測位置毎の音響・振動信号の位相差と周波数スペクトル計算部132からの周波数スペクトルに基づいて、音響の発生位置を推計して算出する。ターゲット抽出部133は、算出した音響の発生位置を表示・音響デバイスに対する各歩行者の相対位置とし、各歩行者の相対位置に基づいて最も表示・音響デバイス30に接近している歩行者をターゲットとして抽出し、ターゲットの周波数スペクトルの推移を歩行タイミングデータとして歩容データ算出部134と歩行タイミング抽出部136へ出力する(ステップST206)。
このとき、ターゲット抽出部133は、ターゲットを抽出できたか否かを判断し(ステップST207)、ターゲットを抽出できない場合(ステップST207“NO”)、ターゲットを抽出できない旨の通知を属性対応コンテンツ検索部24と提供情報を表示フレーム作成部25へ出力して、ステップST218へ進む。また、ターゲット抽出部133は、ターゲットを抽出できた場合(ステップST207“YES”)、ステップST208へ進む。
歩容データ算出部134は、ステップST206でターゲット抽出部133から歩行タイミングデータを入力すると、ターゲット抽出部133から入力した歩行タイミングデータに基づいて、信号が1分間に何回あるかを計算し、ターゲットの1分間当たりの歩数を示すケーデンスを算出する。また、歩容データ算出部134は、算出したケーデンスと信号計測部21から入力した計測位置毎の音響・振動信号の位相差に基づいてターゲットの方向、ターゲットの位置、ターゲットの歩幅、ターゲットの身長を推計して算出するように構成されている。歩容データ算出部134は、算出したケーデンス、ターゲットの方向、ターゲットの位置、ターゲットの歩幅、ターゲットの身長を歩容データとして出力する(ステップST208)。
歩行者視点予測部135は、歩容データ算出部134から歩容データを入力すると、歩容データに基づいて、1表示周期先として1/30秒先のターゲットの視点位置を推計して算出する(ステップST209)。
歩行タイミング抽出部136は、ターゲット抽出部133から入力した歩行タイミングデータと歩容データ算出部134から入力した歩容データに基づいて、ターゲットが接地する歩行タイミングを抽出して出力する(ステップST210)。
属性対応コンテンツ検索部24は、ステップST208からステップST210で歩容データ、視点位置、歩行タイミングを入力すると、異常検知部131からの地震に関する提供情報の有無を判定する(ステップST211)。属性対応コンテンツ検索部24は、ステップST211において地震に関する提供情報があると判定した場合(ステップST211“NO”)、ステップST214へ進む。
属性対応コンテンツ検索部24は、ステップST211において地震に関する提供情報がないと判定した場合(ステップST211“YES”)、歩容計算部23からターゲットの音響・振動信号、歩容データを入力すると、ターゲットの音響・振動信号、歩容データに予め対応させた属性からターゲットの性別、年齢などを判断する(ステップST212)。
属性対応コンテンツ検索部24は、ターゲットの性別、年齢に基づいて、予め性別、年齢に対応させたキーワードを抽出し、抽出したキーワードを検索条件にしてインターネット40を検索する。属性対応コンテンツ検索部24は、検索結果に基づいて提供情報を作成し、作成した提供情報を表示フレーム作成部25へ出力する(ステップST213)。
表示フレーム作成部25は、異常検知部131からの地震に関する提供情報又は属性対応コンテンツ検索部24からの提供情報に基づいて、上述した図5のステップST111と同様に表示フレームを作成する(ステップST214)。以降、ステップST215からステップST217の処理は上述した図5のステップST112からステップST114の処理と同様であるため、説明を省略する。
属性対応コンテンツ検索部24は、ステップST207“NO”において、ターゲット抽出部133からターゲットを抽出できない旨の通知を入力すると、異常検知部131からの地震に関する提供情報の有無を判定する(ステップST218)。属性対応コンテンツ検索部24は、ステップST218において地震に関する提供情報があると判定した場合(ステップST218“NO”)、ステップST220へ進む。
属性対応コンテンツ検索部24は、ステップST218において地震に関する提供情報がないと判定した場合(ステップST218“YES”)、予め設定された提供情報又は予め設定されたキーワードによるインターネット40検索で取得した提供情報を取得する(ステップST219)。
表示フレーム作成部25は、異常検知部131からの地震に関する提供情報又は属性対応コンテンツ検索部24からの提供情報に基づいて、上述した図5のステップST116と同様に表示フレームを作成する(ステップST220)。以降、ステップST221、ステップST222の処理は上述した図5のステップST117、ステップST118の処理と同様であるため、説明を省略する。
以上のように、実施の形態4によれば、異常検知部131が音響・振動信号に応じて異常を検知して、インターネット40を介して管理センターに通知することができると共に、異常に関する異常情報を取得するよう構成したので、異常が発生した際に歩行者へ異常情報を提供することができる。
なお、実施の形態1から実施の形態3においては、表示フレーム作成部25がモーションブラー計算部25a、アンシャープ度計算部25b、運動視差表示用オブジェクト計算部25cのいずれかを備える構成について説明したが、表示フレーム作成部25は、モーションブラー計算部25a、アンシャープ度計算部25b、運動視差表示用オブジェクト計算部25cで構成しており、図示しない操作部や制御部からの指示に従っていずれかを選択して情報表示処理を行うよう構成してもよい。
また、音響・振動センサ10に替えて画像センサで構成してもよい。その場合、歩容計算部23は、画像センサからの画像信号に基づいて歩容データを算出するように構成される。
1 情報表示システム、10 音響・振動センサ、20 情報表示処理装置、30 表示・音響デバイス、40 インターネット、21 信号計測部、23 歩容計算部、24 属性対応コンテンツ検索部、25 表示フレーム作成部、25a モーションブラー計算部、25b アンシャープ度計算部、25c 運動視差表示用オブジェクト計算部、26 歩行同期音発生部、27 表示・歩行同期部、131 異常検知部、132 周波数スペクトル計算部、133 ターゲット抽出部、134 歩容データ計算部、135 歩行者視点予測部、136 歩行タイミング抽出部、231a,231b,231c,231d,231e,231f,231g 画像、232,232a,232b 歩行者。

Claims (9)

  1. 歩行者通路上の音響・振動センサから入力した音響・振動信号をサンプリングした音響データを出力する信号計測部と、
    上記信号計測部からの音響データに基づいて歩容データを算出し、算出した歩容データに基づいて1表示周期先の歩行者の視点位置及び歩行者の歩行タイミングを算出する歩容計算部と、
    上記歩容計算部からの歩容データ、1表示周期先の歩行者の視点位置、歩行者の歩行タイミングに基づいて歩行者の属性を判断し、歩行者の属性に対応する提供情報を通信回線を介して取得する属性対応コンテンツ検索部と、
    上記歩容計算部からの歩容データ、1表示周期先の歩行者の視点位置、上記属性対応コンテンツ検索部からの提供情報に基づいて、歩行者の視点位置に対応した表示フレームを作成する表示フレーム作成部と、
    上記表示フレーム作成部からの表示フレームを上記歩行者の歩行タイミングで出力する表示・歩行同期部と、を備えた情報表示処理装置。
  2. 上記信号計測部は、歩行者通路上の複数の音響・振動センサから入力した音響・振動信号をサンプリングした音響データを出力し、
    上記複数の音響・振動センサの設置される位置に振動板を配置したことを特徴とする請求項1記載の情報表示処理装置。
  3. 上記信号計測部は、歩行者通路上の複数の音響・振動センサから入力した音響・振動信号をサンプリングした音響データと計測位置毎の音響・振動信号の位相差を出力し、
    上記歩容計算部は、上記音響データ、上記複数の音響・振動センサの設置位置、上記信号計測部からの音響・振動信号の位相差に基づいて、歩行者の方向及び歩行者の位置を算出することを特徴とする請求項1記載の情報表示処理装置。
  4. 上記表示フレーム作成部は、上記歩容計算部から連続して入力した歩行者の視点位置に基づいて、歩行者の視点位置のぶれの方向とぶれの量を計算して表示フレームを作成するモーションブラー計算部を備えたことを特徴とする請求項1記載の情報表示処理装置。
  5. 上記表示フレーム作成部は、上記歩容計算部からの歩行者の視点位置及び歩行タイミングに基づいて、表示フレームを構成する表示オブジェクトのぼけ具合を示すアンシャープ度を計算して表示フレームを作成するアンシャープ度計算部を備えたことを特徴とする請求項1記載の情報表示処理装置。
  6. 上記表示フレーム作成部は、上記歩容計算部からの歩行者の視点位置及び歩行タイミングに基づいて、歩行者の位置に応じて変化する表示位置を示す運動視差効果を計算して表示フレームを作成する運動視差表示用オブジェクト計算部を備えたことを特徴とする請求項1記載の情報表示処理装置。
  7. 上記信号計測部からの音響・振動信号に基づいて異常値を検知した場合、地震が発生したと判断して通信回線を介して地震に関する提供情報を取得する異常検知部を備え、
    上記表示フレーム作成部は、上記異常検知部からの提供情報に基づいて表示フレームを作成することを特徴とする請求項1から請求項6のうちのいずれか1項記載の情報表示処理装置。
  8. 上記表示フレーム作成部から表示フレームを入力するタイミングに合わせて生成した同期音と上記表示フレームを出力する歩行同期音発生部を備えたことを特徴とする請求項1から請求項7のうちのいずれか1項記載の情報表示処理装置。
  9. 歩行者通路上の画像センサから入力した画像信号をサンプリングした画像データを出力する信号計測部と、
    上記信号計測部からの画像データに基づいて歩容データを算出し、算出した歩容データに基づいて1表示周期先の歩行者の視点位置及び歩行者の歩行タイミングを算出する歩容計算部と、
    上記歩容計算部からの歩容データ、1表示周期先の歩行者の視点位置、歩行者の歩行タイミングに基づいて歩行者の属性を判断し、歩行者の属性に対応する提供情報を通信回線を介して取得する属性対応コンテンツ検索部と、
    上記歩容計算部からの歩容データ、1表示周期先の歩行者の視点位置、上記属性対応コンテンツ検索部からの提供情報に基づいて、歩行者の視点位置に対応した表示フレームを作成する表示フレーム作成部と、
    上記表示フレーム作成部からの表示フレームを上記歩行者の歩行タイミングで出力する表示・歩行同期部と、を備えた情報表示処理装置。
JP2009281625A 2009-12-11 2009-12-11 情報表示処理装置 Expired - Fee Related JP5595027B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009281625A JP5595027B2 (ja) 2009-12-11 2009-12-11 情報表示処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009281625A JP5595027B2 (ja) 2009-12-11 2009-12-11 情報表示処理装置

Publications (2)

Publication Number Publication Date
JP2011123349A true JP2011123349A (ja) 2011-06-23
JP5595027B2 JP5595027B2 (ja) 2014-09-24

Family

ID=44287276

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009281625A Expired - Fee Related JP5595027B2 (ja) 2009-12-11 2009-12-11 情報表示処理装置

Country Status (1)

Country Link
JP (1) JP5595027B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014202919A (ja) * 2013-04-04 2014-10-27 株式会社リコー 情報処理システム、情報処理方法、情報処理プログラム、および画像投影システム
JP2015111214A (ja) * 2013-12-06 2015-06-18 株式会社リコー 情報処理システム、情報処理装置、プロジェクタ、情報処理方法、及びプログラム
JP2016005055A (ja) * 2014-06-16 2016-01-12 セイコーエプソン株式会社 プロジェクター及び投写方法
JP2016066918A (ja) * 2014-09-25 2016-04-28 大日本印刷株式会社 映像表示装置、映像表示制御方法、及びプログラム
JP2019525305A (ja) * 2016-06-30 2019-09-05 株式会社ソニー・インタラクティブエンタテインメント 注視追跡のための装置及び方法
US11120837B2 (en) 2014-07-14 2021-09-14 Sony Interactive Entertainment Inc. System and method for use in playing back panorama video content

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1069266A (ja) * 1996-08-29 1998-03-10 Sanyo Electric Co Ltd 携帯型表示装置の揺れ補正方法
JP2005251170A (ja) * 2004-01-23 2005-09-15 Sony United Kingdom Ltd 表示装置
JP2006285115A (ja) * 2005-04-05 2006-10-19 Hitachi Ltd 情報提供方法および情報提供装置
JP2006525073A (ja) * 2003-04-03 2006-11-09 ユニヴァースティ オブ ヴァージニア パテント ファウンデイション 人間の歩行特性を導き出すためおよび床振動から転倒を受動的に検知するための方法およびシステム
JP2007052304A (ja) * 2005-08-19 2007-03-01 Mitsubishi Electric Corp 映像表示システム
JP2007304955A (ja) * 2006-05-12 2007-11-22 Kansai Electric Power Co Inc:The 個体特定システム及びセキュリティシステム
JP2007320399A (ja) * 2006-05-31 2007-12-13 Nissan Motor Co Ltd 車両用画像表示装置及び方法
JP2008139599A (ja) * 2006-12-01 2008-06-19 Toshiba Corp 小型端末装置
JP2008257216A (ja) * 2007-03-12 2008-10-23 Akira Tomono 公衆用情報提示装置
JP2009020266A (ja) * 2007-07-11 2009-01-29 Sharp Corp 映像表示装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1069266A (ja) * 1996-08-29 1998-03-10 Sanyo Electric Co Ltd 携帯型表示装置の揺れ補正方法
JP2006525073A (ja) * 2003-04-03 2006-11-09 ユニヴァースティ オブ ヴァージニア パテント ファウンデイション 人間の歩行特性を導き出すためおよび床振動から転倒を受動的に検知するための方法およびシステム
JP2005251170A (ja) * 2004-01-23 2005-09-15 Sony United Kingdom Ltd 表示装置
JP2006285115A (ja) * 2005-04-05 2006-10-19 Hitachi Ltd 情報提供方法および情報提供装置
JP2007052304A (ja) * 2005-08-19 2007-03-01 Mitsubishi Electric Corp 映像表示システム
JP2007304955A (ja) * 2006-05-12 2007-11-22 Kansai Electric Power Co Inc:The 個体特定システム及びセキュリティシステム
JP2007320399A (ja) * 2006-05-31 2007-12-13 Nissan Motor Co Ltd 車両用画像表示装置及び方法
JP2008139599A (ja) * 2006-12-01 2008-06-19 Toshiba Corp 小型端末装置
JP2008257216A (ja) * 2007-03-12 2008-10-23 Akira Tomono 公衆用情報提示装置
JP2009020266A (ja) * 2007-07-11 2009-01-29 Sharp Corp 映像表示装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014202919A (ja) * 2013-04-04 2014-10-27 株式会社リコー 情報処理システム、情報処理方法、情報処理プログラム、および画像投影システム
JP2015111214A (ja) * 2013-12-06 2015-06-18 株式会社リコー 情報処理システム、情報処理装置、プロジェクタ、情報処理方法、及びプログラム
JP2016005055A (ja) * 2014-06-16 2016-01-12 セイコーエプソン株式会社 プロジェクター及び投写方法
US11120837B2 (en) 2014-07-14 2021-09-14 Sony Interactive Entertainment Inc. System and method for use in playing back panorama video content
JP2016066918A (ja) * 2014-09-25 2016-04-28 大日本印刷株式会社 映像表示装置、映像表示制御方法、及びプログラム
JP2019525305A (ja) * 2016-06-30 2019-09-05 株式会社ソニー・インタラクティブエンタテインメント 注視追跡のための装置及び方法
US10805592B2 (en) 2016-06-30 2020-10-13 Sony Interactive Entertainment Inc. Apparatus and method for gaze tracking
US11089280B2 (en) 2016-06-30 2021-08-10 Sony Interactive Entertainment Inc. Apparatus and method for capturing and displaying segmented content

Also Published As

Publication number Publication date
JP5595027B2 (ja) 2014-09-24

Similar Documents

Publication Publication Date Title
JP5595027B2 (ja) 情報表示処理装置
US11564001B2 (en) Media content identification on mobile devices
US20230185862A1 (en) Scene aware searching
JP6424357B2 (ja) 視認対象効果度測定装置
JP4934861B2 (ja) 表示システム、表示方法、表示効果測定システム、及び、表示効果測定方法。
TWI505195B (zh) 眼球關注點確定方法、裝置和系統
US10986399B2 (en) Media content identification on mobile devices
JP2020532902A5 (ja)
CN111901626A (zh) 背景音频确定方法、视频剪辑方法、装置和计算机设备
US20140279341A1 (en) Method and system to utilize an intra-body area network
JP2007265125A (ja) コンテンツ表示装置
JP6867056B2 (ja) 情報処理装置、制御方法、及びプログラム
WO2016192506A1 (zh) 一种信息查询方法、终端设备、系统及计算机存储介质
JP2008146492A5 (ja)
RU2018141021A (ru) Система и способ предоставления мобильной рекламы
JP2005328236A (ja) 映像監視方法、映像監視装置、および映像監視プログラム
JPWO2021202762A5 (ja) 複数の光コードを復号するシステム及び方法
JP2019159593A5 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2012168647A (ja) 歩行音分析装置、方法、およびプログラム
US10569135B2 (en) Analysis device, recording medium, and analysis method
JP2006085257A (ja) 移動体の動線分析の方法、システム及びプログラム
JP2013131051A5 (ja)
CN113544700A (zh) 神经网络的训练方法和装置、关联对象的检测方法和装置
JP2012084056A (ja) 物体検出装置
JP2022012290A (ja) 情報処理装置、情報処理方法、及び、システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120807

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130813

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130820

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140507

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140708

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140805

R150 Certificate of patent or registration of utility model

Ref document number: 5595027

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees