JPWO2008139717A1 - 表示装置、表示方法、表示プログラム - Google Patents

表示装置、表示方法、表示プログラム Download PDF

Info

Publication number
JPWO2008139717A1
JPWO2008139717A1 JP2009514008A JP2009514008A JPWO2008139717A1 JP WO2008139717 A1 JPWO2008139717 A1 JP WO2008139717A1 JP 2009514008 A JP2009514008 A JP 2009514008A JP 2009514008 A JP2009514008 A JP 2009514008A JP WO2008139717 A1 JPWO2008139717 A1 JP WO2008139717A1
Authority
JP
Japan
Prior art keywords
display
user
group
positional relationship
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009514008A
Other languages
English (en)
Other versions
JP5236631B2 (ja
Inventor
圭司 銀杏
圭司 銀杏
正之 三崎
正之 三崎
河村 岳
岳 河村
邦昭 磯貝
邦昭 磯貝
堀井 則彰
則彰 堀井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2009514008A priority Critical patent/JP5236631B2/ja
Publication of JPWO2008139717A1 publication Critical patent/JPWO2008139717A1/ja
Application granted granted Critical
Publication of JP5236631B2 publication Critical patent/JP5236631B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K29/00Other apparatus for animal husbandry
    • A01K29/005Monitoring or measuring activity, e.g. detecting heat or mating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2310/00Command of the display device
    • G09G2310/02Addressing, scanning or driving the display screen or processing steps related thereto
    • G09G2310/0202Addressing of scan or signal lines
    • G09G2310/0221Addressing of scan or signal lines with use of split matrices
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Environmental Sciences (AREA)
  • Biophysics (AREA)
  • Animal Husbandry (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Digital Computer Display Output (AREA)

Abstract

複数のユーザ間の関係を視認し易く表示することができる表示装置を提供することを目的とする。本発明は、データセンシング部1及び位置検出部2により検出された複数ユーザ間の位置関係に関する情報に基づき、前記複数ユーザを複数のグループにグルーピングするユーザグルーピング部3と、前記ユーザグルーピング部3により抽出された複数のグループに関する情報に基づき、画面上に、グループ間の位置関係を反映して、各グループを配置して表示するユーザ関係表示部4とを備えるシステムである。

Description

本発明は、複数のユーザ同士の関係をより視認しやすい形態で表示するためのインタフェースを構築する技術に関する。
近年、位置表示技術分野において、室内もしくは地図上での人物や走行車の位置を表示する技術がある。例えば、無人走行車の車体に上方を撮影可能な赤外線撮影装置を取り付け、無人走行車が走行する領域の天井面の所定の箇所に絶対位置表示を設け、無人走行車の現走行位置を絶対位置で取得する技術がある(特許文献1参照)。また、配送に関する情報を記憶すると共に、配送情報を送信する応答回路を備える電子荷札を用いた宅配ナビゲーションシステムであって、配達先の位置を、表示装置に表示された地図上に表示する技術がある(特許文献2参照)。更に、複数のカメラのうち少なくとも1つによる撮影画像に基づき、撮影画像中に含まれる複数の人物を検出し、各カメラの撮影範囲を変更する監視システムが開示されている(特許文献3参照)。
特開平6−67726号公報 特開平6−111197号公報 特開2005−117542号公報
上記の技術は、室内もしくは地図上にユーザや走行車の絶対位置をマッピングする技術にすぎない。画面の広さには限りがあるので、複数のユーザが、離れた領域に偏在している場合、すべてのユーザの位置関係を表示しようとすると、ユーザ間の詳細な位置関係を視認し難くなる。
また、ユーザが偏在している1つの領域のみを表示すると、その領域に存在するユーザの位置関係は視認し易くなるが、他の領域に存在するユーザの位置関係は、表示できないため、全ユーザの位置関係を把握することができなくなるという問題がある。
本発明は、この問題を解決するもので、複数のユーザ間の関係を視認し易く表示することができる表示装置、表示方法、表示プログラムを提供することを目的とする。
上記の課題を解決するために、本発明は、複数の対象物間の位置関係を視覚的に表示画面に表示する表示装置であって、各対象物の位置を示す位置情報を取得する取得手段と、取得した前記位置情報に基づいて、前記複数の対象物を複数のグループに分類する分類手段と、前記位置情報を用いて1のグループと他のグループとのグループ間の位置関係を算出する算出手段と、前記表示画面を規定する基準軸に対して、算出されたグループ間の位置関係に応じた傾きを有し、前記表示画面を複数の領域に区切るしきり線を決定する決定手段と、決定したしきり線を前記表示画面に表示し、前記しきり線により区切られた各表示領域に、各グループに属する対象物の位置関係を表示する表示手段とを備えることを特徴とする。
また、本発明は、上記の表示装置において用いられる表示方法又は表示プログラムでもある。
ここで、上記の表示装置は、例えば、図36及び図37に示すような機器が該当する。また、上記の「対象物」は、下記の実施の形態及び変形例にて説明する「ユーザ」、つまり人間であってもよいし、自動車や自転車などの移動機器でもよいし、家畜又は野生動物などであってもよい。「取得手段」は、下記の実施の形態1におけるデータセンシング部1及び位置関係検出部2がその機能を担う。また、「分類手段」は、ユーザグルーピング部3がその機能を担う。「算出手段」は、基準軸設定部401、グループ情報解析部402及びグループ間関係解析部403がその機能を担う。また、「決定手段」は、画面割当比率算定部404、画面配置位置算定部405及び画面仕切算定部406がその機能を担う。「表示手段」は、割当表示算定部407及び画面表示部408がその機能を担う。
この構成によると、算出手段は、1のグループと他のグループとのグループ間の位置関係を算出し、決定手段は算出されたグループ間の位置関係に応じた傾きを有するしきり線を決定し、表示手段は、決定したしきり線を前記表示画面に表示し、前記しきり線により区切られた各表示領域に、各グループに属する対象物の位置関係を表示する。そのため、各グループに属する対象物間の位置関係を容易に視認することができる。さらに、各領域間の仕切り線は、グループ間の位置関係に応じた傾きを有するため、グループ間の位置関係も同時に視認することができるという優れた効果を奏する。
前記表示装置において、前記算出手段は、少なくとも2つのグループの位置を示すグループ位置を求め、グループ位置を結んだ直線と直交する直線と、前記基準軸とのなす前記傾きを算出し、前記決定手段は、前記基準軸に対して、算出された傾きを有する前記仕切り線を決定するとしてもよい。
この構成によると、前記しきり線は、グループ位置を結んだ直線と直交する直線と、前記基準軸とのなす前記傾きを有しているので、グループ間の位置関係を、より正確に視認することができる。
また、前記決定手段は、グループの大きさに応じた面積を、そのグループに対応する領域が有するように、前記しきり線を決定するとしてもよい。
この構成によると、各グループに割り当てられた面積から、容易に各グループの大きさを視認できる。ここで、「グループの大きさ」とは、グループに属する対象物の数であってもよいし、グループに属する対象物が現実に存在する領域の面積(例えばそのグループに属する全ての対象物を包含する最小円や最小円の半径)であってもよい。
また、前記算出手段は、1のグループと他のグループとのグループ間の距離を含む前記位置関係を算出し、前記決定手段は、算出された距離に応じた幅を有する前記しきり線を決定するとしてもよい。
この構成によると、表示されたしきり線の幅からグループ間の距離を容易に視認できる。
また、前記表示手段は、グループに属する対象物の位置関係を、グループ毎に異なる縮小率で表示し、前記表示手段は、さらに、各表示領域に、各グループの縮小率を示す情報を表示するとしてもよい。
この構成によると、表示画面上に表示された各グループの縮尺が異なる場合にも、各グループのサイズの違いを容易に視認できるという優れた効果を奏する。
また、前記分類手段は、前記位置情報から対象物間の距離を求め、求めた距離が閾値未満である2つ以上の対象物を同一のグループに分類するとしてもよい。
この構成によると、互いに近い位置に存在する複数対象物をひとつのグループに分類することができるので、離れた位置に複数の対象物が偏在する場合に、各グループを構成する対象物の位置関係を明確に表示できるという優れた効果を奏する。
また、前記取得手段は、さらに、各対象物の向きを示す向き情報を取得し、前記分類手段は、前記位置情報を用いて対象物間の距離を求め、求めた距離が閾値未満であって、前記向き情報の示す向きの延長線が交差する2つの対象物を同一のグループに分類するとしてもよい。
この構成によると、対象物間の距離のみならず、向き情報も用いて分類を行うので、相互に向き合っている会話集団などを抽出することができる。
また、前記表示装置は、さらに、各対象物の発する音声を取得する音声取得手段と、取得した音声を時間領域及び周波数領域において解析する音声情報解析手段とを備え、前記表示手段は、さらに、前記音声情報解析手段による解析結果を基に生成した画像を、前記表示画面上において、各グループに属する対象物の位置関係を表示している位置に表示するとしても良い。
この構成によると、前記表示手段は、前記音声情報解析手段による解析結果を基に生成した画像を、前記表示画面上において、各グループに属する対象物の位置関係を表示している位置に表示するので、複数のユーザによる形成されるグループの位置関係のみならず各グループの対象物の発する音声に関する情報も一目で視認することができる。
また、前記音声解析手段は、取得した音声から、各対象物の発する音声の特徴を抽出し、抽出した音声の特徴を前記解析結果として生成し、前記表示手段は、各対象物の発する音声の特徴を示す画像を、対応する対象物の前記表示画面上における位置に表示する。
この構成によると、各対象物がどのような特徴を持った音声を発声しているかを、容易に視認できる。
また、前記音声解析手段は、前記音声を用いて、各グループに属する対象物間の会話の活発さを示す会話活性度を、前記解析結果として生成し、前記表示手段は、前記会話活性度を示す画像を、対応するグループの前記表示画面上における位置に表示するとしてもよい。
この構成によると、各グループ内においてどの程度活発に会話が交わされているかを容易に視認できる。
また、前記取得手段は、さらに、各対象物の向きを示す向き情報を取得し、前記表示装置は、さらに、前記複数の対象物から、どの程度注目されているかを示す注目度の算出対象となる算出対象位置を取得する算出対象位置取得手段と、前記方向情報の示す方向と、前記位置情報の示す位置から前記算出対象位置までの距離を基に、前記注目度を算出する注目度算定手段を備え、前記表示手段は、さらに、前記算出対象位置に対応する前記表示画面上の位置を注目度に応じて強調表示することを特徴とする。
この構成によると、前記複数のユーザがどの位置にどの程度注目しているのかを合わせて視認することができる。
また、前記複数の対象物は、カメラを有しており、前記注目度算定手段は、各算出対象位置について、その算出対象位置を画角内に捉えているカメラを有している対象物を特定し、特定した各対象物と前記算出対象位置との距離が小さく、かつ、特定した対象物の有するカメラの画角の中心線と、特定した対象物と前記算出対象位置とを結んだ線分のなす角の絶対値が小さいほど大きな値となるように前記注目度を決定するとしてもよい。
対象物は、近くに存在し、視野の中心線上に存在するものにより注目していると考えられる。従って、上記の構成によると、カメラの画角の中心線を視野の中心線であると仮定すると、より正確に注目度を算出し、算出した注目度を画面上に表示することで、多くの対象物が注目している位置を容易に視認することができる。
また、前記算出対象位置取得手段は、前記複数の対象物のうち、1の対象物の位置を前記算出対象位置として取得するとしてもよい。
この構成によると、他の対象物から注目を集めている対象物を容易に視認できる。
また、前記表示手段は、算出された注目度が閾値以上である場合、前記算出対象位置に対応する表示画面上の位置を強調表示するとしてもよい。
この構成によると、前記複数の対象物から大きな注目を集めている位置を明確に表示することができる。
また、前記表示手段は、さらに、位置情報の取得、前記複数の対象物の分類、仕切り線の決定、しきり線及び各グループの位置関係の表示を、それぞれ、前記取得手段、前記分類手段、前記算出手段、前記決定手段及び前記表示手段に、繰り返させる繰返制御手段を備えるとしてもよい。
この構成によると、各グループ間の位置関係の変化、及び、グループ内での各対象物の位置関係の変化を時系列で視認することができる。
また、本発明は、複数の対象物間の位置関係を視覚的に表示画面に表示する表示装置であって、各対象物の位置を示す位置情報及び向きを示す向き情報を取得する前記取得手段と、前記複数の対象物から、どの程度注目されているかを示す注目度の算出対象となる算出対象位置を取得する算出対象位置取得手段と、前記位置情報の示す位置と前記方向情報の示す方向とを基に、前記算出対象位置における前記注目度を算出する注目度算定手段と、前記複数の対象物間の位置関係を表示し、前記算出対象位置に対応する前記表示画面上の位置を注目度に応じて強調表示する前記表示手段とを備えることを特徴とする。
この構成によると、前記複数の対象物が、どの位置にどの程度注目しているかを、容易に視認することができる。
また、前記複数の対象物は、カメラを有しており、前記注目度算定手段は、各算出対象位置について、その算出対象位置を画角内に捉えているカメラを有している対象物を特定し、特定した各対象物と前記算出対象位置との距離が小さく、かつ、特定した対象物の有するカメラの画角の中心線と、特定した対象物と前記算出対象位置とを結んだ線分のなす角の絶対値が小さいほど大きな値となるように前記注目度を決定するとしてもよい。
対象物は、近くに存在し、視野の中心線上に存在するものにより注目していると考えられる。従って、上記の構成によると、カメラの画角の中心線を視野の中心線であると仮定すると、より正確に注目度を決定することができる。
また、前記算出対象位置取得手段は、前記複数の対象物のうち、1の対象物の位置を前記算出対象位置として取得するとしてもよい。
この構成によると、複数の対象物のうち何れの対象物が他の対象物から注目を集めているかを容易に視認できるという優れた効果を奏する。
また、前記表示手段は、算出された注目度が閾値以上である場合、前記算出対象位置に対応する表示画面上の位置を強調表示するとしてもよい。
この構成によると、前記複数の対象物から大きな注目を集めている位置を明確に表示することができる。
本発明の実施の形態1におけるセンシングデータから複数ユーザ同士の位置関係を検出し、検出した位置関係に応じて位置関係を表示するシステム構成を示す機能ブロック図 位置関係検出部2により検出された複数ユーザ(a〜i)同士の位置関係の例を示す図 ユーザグルーピング部3により複数ユーザ同士の位置関係に関する情報を入力として算出されたグルーピング結果の例を示す図 位置関係表示部4の内部構成を示す機能ブロック図 位置関係表示部4にて為される処理の例を示す図 位置関係表示部4により画面に表示される表示形態の例を示す図 図6に説明のための補足線等を付け足した図 位置関係表示部4により画面に表示される、グループ間の実際のサイズに対する縮尺比率関係を把握可能にした表示形態の例を示す図 システムの動作を示すフローチャート システムの動作を示すフローチャートであって、図9から続く。 位置関係表示部4にて為される処理の例を示す図 位置関係表示部4により画面に表示される表示形態の例を示す(実際には表示されないが、説明のための補足線等も明示している)図 位置関係表示部4にて為される処理の例を示す図 位置関係表示部4により画面に表示される表示形態の例を示す(実際には表示されないが、説明のための補足線等も明示している)図 位置関係検出部2により検出された複数ユーザ(a〜i)同士の位置関係および向き関係の例を示す図 ユーザグルーピング部3により複数ユーザ同士の位置関係や向き関係等に関する情報を入力として算出されたグルーピング結果の例を示す図 位置関係表示部4により画面に表示される表示形態の例を示す図 本発明の実施の形態2において、センシングデータから複数ユーザ同士の位置関係を検出し、検出した位置関係に応じて位置関係を表示するとともに、ユーザの会話状況を視覚的に表示するシステム構成を示す機能ブロック図 音声情報解析部5の内部構成を示す機能ブロック図 本発明の実施の形態2における位置関係表示部4の内部構成を示す機能ブロック図 位置関係表示部4により画面に表示される、ユーザグルーピング部3により複数ユーザ同士の位置関係や向き関係を表示した例を示す図 位置関係表示部4により画面に表示される、音声情報解析部5によって得られた各ユーザの会話状況を視覚化して表示した例を示す図 位置関係表示部4により画面に表示される、音声情報解析部5によって得られたグループの会話活性度情報を視覚化して表示した例を示す全体俯瞰図 声の大きさを視覚的に表現する例を示す図 声の大きさを視覚的に表現する別の例を示す図 声の高さを視覚的に表現する例を示す図 各ユーザの発話状況の解析動作を示すフローチャート グループの会話活性度の解析動作を示すフローチャート 本発明の実施の形態3におけるシステムを示す機能ブロック図 (a)注目度の算出対象位置306と算出対象位置306を撮影しているユーザの位置関係を示す図 (b)1ユーザuと算出対象位置306の位置関係、及び、注目度算出に関するデータを示す図 注目度算定部6による算定結果を反映して表示される画面の一例 注目度算定部6の動作を示すフローチャート ユーザi及びjの動作を示す図 その他の変形例(1)において、表示される画面の一例 その他の変形例(2)において、表示される画面の一例 本発明のシステムを搭載した機器の一例 本発明のシステムを搭載した機器の一例
符号の説明
1 データセンシング部
2 位置関係検出部
3 ユーザグルーピング部
4 位置関係表示部
5 音声情報解析部
6 注目度算定部
7 位置関係表示部
401 基準軸設定部
402 グループ情報解析部
403 グループ間関係解析部
404 画面割当比率算定部
405 画面配置位置算定部
406 画面仕切算定部
407 割当表示算定部
408 画面表示部
501 時間領域情報解析部
502 周波数領域情報解析部
503 会話表示情報算定部
504 グループ会話活性度算定部
1000 端末装置
2001 STBデバイス
2002 TVデバイス
以下本発明の実施の形態について、図面を参照しながら説明する。
1.実施の形態1
図1は、本発明の実施の形態1において、センシングデータから複数ユーザ同士の位置関係を検出し、検出した位置関係に応じて位置関係を表示するシステム構成を示す図である。図1に示すようにこのシステムは、データセンシング部1、位置関係検出部2、ユーザグルーピング部3及び位置関係表示部4から構成される。
データセンシング部1は、ユーザが装着・搭載したセンサ(例えば、カメラ、マイクなど)もしくは環境インフラに設置されたセンサ等により、位置関係を検出するためのデータをセンシングする。位置関係検出部2は、データセンシング部1によりセンシングされたデータに基づき、複数ユーザ同士の位置関係を検出する。ユーザグルーピング部3は、位置関係検出部2により検出された複数ユーザ同士の位置関係に関する情報に基づき、前記複数ユーザをグループにグルーピングする。位置関係表示部4は、位置関係検出部2により検出された複数ユーザ同士の位置関係に関する情報とユーザグルーピング部3により抽出されたグループに関する情報に基づき、画面上に各グループを配置して表示する。
以下に各構成について詳細に説明する。
1.1 位置関係検出部2
データセンシング部1によりセンシングされたデータに基づき、複数ユーザ同士の位置関係を検出し、検出した複数ユーザ同士の位置関係に関する情報を、ユーザグルーピング部3及び位置関係表示部4へ出力する。
ここで、複数ユーザ同士の位置関係に関する情報とは、複数ユーザ同士の相対的な位置に関する情報、もしくは、一人のユーザの位置を基準とした他ユーザの相対的な位置に関する情報のことである。
図2は、位置関係検出部2により検出された複数ユーザ(a〜i)同士の位置関係に関する情報に基づいて、複数ユーザ(a〜i)同士の位置関係の例を図示したものである。
具体的には、例えば、位置関係検出部2は、図2の例におけるユーザ同士の相対的な位置(ユーザaから見たユーザbの方向と距離、ユーザbから見たユーザcの方向と距離など)を複数ユーザ同士の位置関係に関する情報として抽出してもよい。
また、別の例としては、位置関係検出部2は、図2に示されたユーザのうち1人のユーザ(例えばユーザa)の位置を原点とし、ユーザaの向いている方向をx軸、x軸を90度回転させた方向をy軸とするx−y座標平面を仮定し、x−y座標平面上の各ユーザの座標(xa,ya)、(xb,yb)、(xc,yc)・・・・(xi,yi)を算出し、各ユーザを示す識別情報と算出したこれらの座標と、仮定したx軸及びy軸に関する情報とを、複数ユーザ同士の位置関係に関する情報として出力してもよい。
また、センサの何れかが、室内の決められた位置に設置されている場合、そのセンサを基準とした、各ユーザの位置(例えばセンサからの距離と方向)を算出し、各ユーザを示す識別情報と算出した位置とを、複数ユーザ同士の位置関係に関する情報として出力してもよい。
また、各ユーザの装着しているセンサが、GPS信号受信機能を搭載していれば、各ユーザの存在する位置の緯度経度を算出し、算出した緯度経度を前記複数ユーザ同士の位置関係に関する情報として出力してもよい。
1.2 ユーザグルーピング部3
図3は、位置関係検出部2により図2に示すような複数ユーザ同士の位置関係に関する情報が検出された場合に、ユーザグルーピング部3がその情報を入力として算出したグルーピング結果の例を示す図である。点線で囲われたユーザ郡が1つのグループG(GαとGβ)を表している。ここで、前記複数ユーザのグルーピングは、前記位置関係検出部2により検出された複数ユーザ同士の位置関係に関する情報に基づき、前記ユーザのクラスタリング等の処理をすることで算出される。例えば、対象x1とx2の間の距離をD[x1,x2](例えば、ユーザu1とユーザu2の間の距離はD[x1,x2]、クラスタC1とクラスタC2の間の距離はD[C1,C2])として、以下(1)〜(3)のような階層的クラスタリングによる処理により、各グループを抽出する。
(1)まず、1人のユーザだけを含むN個(図3の例では、9個)のクラスタCがある初期状態を作る。
(2)この状態から始めて、クラスタ間の距離D[C1,C2]を計算し、最もこの距離の近い2つのクラスタを逐次的に併合する。
(3)クラスタ間の距離D[C1,C2]が所定値(もしくは、対象となる複数ユーザ間の距離D[u1,u2]の平均等に対応して設定される値、もしくは、対象となる複数ユーザ全員で占める総サイズに対応して設定される値、等々)以上になった時点で、上記(2)の処理を終了し、その時点での最終的なクラスタCをグループG(図3の例では、GαとGβ)とする。
ここで、クラスタ間の距離D[C1,C2]の算出には、下記の式1を用いる。
Figure 2008139717
(n1はクラスタC1に属するユーザ数、n2はクラスタC2に属するユーザ数)
尚、グルーピング手法は、この方法に限らない。
続いて、ユーザグルーピング部3は、抽出したグループに関する情報、具体例としては、各グループに対応する識別情報、各グループに属するユーザの識別情報(例えば、Gα={a,b,c,d,e}、Gβ={f,g,h,i}といったデータ)を位置関係表示部4へ出力する。
1.3 位置関係表示部4
図4は、位置関係表示部4の内部構成を示す図である。位置関係表示部4は、基準軸設定部401、グループ情報解析部402、グループ間関係解析部403、画面割当比率算定部404、画面配置位置算定部405、画面仕切算定部406、割当表示算定部407、画面表示部408から構成される。以下に、位置関係表示部4内の各構成にて為される処理について、図4及び図5を用いて説明する。
(1)基準軸設定部401
基準軸設定部401は、位置関係検出部2により検出された複数ユーザ同士の位置関係に関する情報に基づき、位置付けを規定するための軸を設定する。例えば図5に示すように、平面上における位置付けを規定するためのX軸Y軸を設定する。
例えば、位置関係検出部2により検出された複数ユーザ同士の位置関係に関する情報が、緯度経度と対応付けられている状態等、地図上にマッピングされた状態であった場合、東方向をX軸、北方向をY軸等といったように軸を設定してもよい。この場合、各ユーザの緯度経度をX−Y座標平面上の座標に変換する変換行列、又は、変換式生成する。
また、位置関係検出部2により検出された複数ユーザ同士の位置関係に関する情報が、室内にマッピングされた状態(例えば室内の既知の位置を基準とした各ユーザの位置)であった場合、基準軸設定部401は、X軸Y軸をその室内における位置を規定する軸に適合する形で設定してもよい(例えば、直交する2面の壁の交点を原点とし、2面の壁及び床面に並行な2軸をX軸、Y軸とする。)。この場合、基準軸設定部401は、位置関係検出部2により検出された各ユーザの位置を、X−Y座標系に変換する変換行列、又は、変換式を生成する。
また、位置関係検出部2により検出された複数ユーザ同士の位置関係に関する情報が、以上のように地図情報や室内位置情報といった位置測位の基準となる情報とマッピングされておらず、複数ユーザ同士の位置関係だけが検出されている場合は、平面上における位置付けを規定するためのX軸Y軸を任意に設定するとしてもよい。例えば、上記の1.1において例示したように、1ユーザを原点とするx−y座標平面を仮定し、各ユーザの位置をx−y座標系で表した場合、仮定したx軸及びy軸をそのままX軸及びY軸としてもよいし、x軸及びy軸に並行にX軸及びY軸を設定しても良い。この場合も、各ユーザの位置を新たに設定したX−Y座標系に変換する変換行列、又は、変換式を生成する。
続いて、基準軸設定部401は、以上のようにして生成した変換行列又は変換式を出力する。
(2)グループ情報解析部402
グループ情報解析部402は、位置関係検出部2により検出された複数ユーザ同士の位置関係に関する情報と、ユーザグルーピング部3により抽出されたグループに関する情報と、基準軸設定部401により生成された変換行列又は変換式に基づき、各グループに関する情報を解析する。
以下、複数ユーザ同士の位置関係に関する情報は、一例として、1ユーザを原点として仮定されたx−y座標系における各ユーザの座標と各ユーザを示す識別情報とする(具体的には、a(xa,ya)、b(xb,yb)・・・)。また、グループに関する情報は、一例として、各グループの識別子とそのグループに属するユーザの識別情報であるとする(具体的にはGα={a,b,c,d,e}、Gβ={f,g,h,i}であるとする)。
上記の解析の一例として、先ず、グループ情報解析部402は、各ユーザの位置を示す座標を、基準軸設定部401により生成された変換行列(又は変換式)を用いて、X−Y座標系の座標に変換する。次に、グループ情報解析部402は、基準軸設定部401により設定されたX−Y座標系において、各グループG(図5の例では、GαとGβ)に属するユーザuの位置座標から各グループGの重心c(図5の例では、cαとcβ)の座標を算出する。更に、各グループにおいて、重心cを中心としてグループに属する全てのユーザuの座標位置を包含する最小円C(図5の例では、CαとCβ)の半径r(図5の例では、rαとrβ)を、下記の式2を用いて算出する。
Figure 2008139717
また、グループ情報解析部402は、各グループGに属するユーザuの数を計数する。
(3)グループ間関係解析部403
グループ間関係解析部403は、グループ情報解析部402により解析された各グループに関する情報(図5の例では、cαとcβ、rαとrβ、各グループのユーザ数など)に基づき、グループ間の関係に関する情報を解析する。
例えば、グループG1とG2(図5の例では、GαとGβ)の中心c1とc2(図5の例では、cαとcβ)間を結ぶ線L12(図5の例では、Lαβ)の傾きΘ12(図5の例では、Θαβ)と線L12の垂線P12(図5の例では、Pαβ)の傾きΦ12(図5の例では、Φαβ)を算出する。
また、上記に限らず、グループG1とG2(図5の例では、GαとGβ)の中心c1とc2(図5の例では、cαとcβ)間を結ぶ線L12の長さなどその他のデータを解析しても良い。
(4)画面割当比率算定部404
画面割当比率算定部404は、グループ情報解析部402により解析された各グループに関する情報(図5の例では、cαとcβ、rαとrβ、各グループのユーザ数など)に基づき、位置関係検出部2により検出された複数ユーザ同士の位置関係に関する情報を画面に表示する際の、各グループに割り当てる画面領域の面積比率を算定する。例えば、画面に表示する際の各グループGに割り当てる領域の面積比率が、各グループGでの重心cを中心として属するユーザuの座標位置を包含する最小円C(図5の例では、CαとCβ)の半径r(図5の例では、rαとrβ)の比率(図5の例では、rα:rβ)、または面積の比率となるように設定する。もしくは、各グループGに属するユーザuの数の比率(図5の例では、5:4)となるように設定しても良い。
(5)画面配置位置算定部405
画面配置位置算定部405は、グループ間関係解析部403により解析されたグループ間の関係に関する情報に基づき、位置関係検出部2により検出された複数ユーザ同士の位置関係に関する情報を画面に表示する際の、各グループの画面配置位置を算定する。例えば、画面に表示する際のグループG1とG2の配置位置関係が、グループG1とG2(図5の例では、GαとGβ)の中心c1とc2(図5の例では、cαとcβ)間を結ぶ線L12(図5の例では、Lαβ)の傾きΘ12(図5の例では、Θαβ)が−45°〜45°または135°〜225°の場合は左右に並ぶように設定し、−135°〜−45°または45°〜135°の場合は上下に並ぶように設定する。図5の例では、0<Θαβ<45°であるので、画面配置位置算定部405は、画面上においてGαが左でGβが右に並ぶように設定する。
(6)画面仕切算定部406
画面仕切算定部406は、グループ間関係解析部403により解析されたグループ間の関係に関する情報と画面割当比率算定部404により算定された各グループに割り当てる画面領域の面積比率と画面配置位置算定部405により算定された各グループの画面配置位置に基づき、位置関係検出部2により検出された複数ユーザ同士の位置関係に関する情報を画面に表示する際の、各グループ間を仕切る仕切り線(以下、画面仕切と呼称)の表示位置や太さなどを決定する。
例えば、画面仕切算定部406は、画面に表示する際のグループG1とG2間の画面仕切の傾きを、グループG1とG2(図5の例では、GαとGβ)の中心c1とc2(図5の例では、cαとcβ)間を結ぶ線L12(図5の例では、Lαβ)の垂線P12(図5の例では、Pαβ)の傾きΦ12(図5の例では、Φαβ)とする。また、画面に表示する際の、画面仕切により区分けされる領域が、各グループに割り当てる画面領域の面積比率が画面割当比率算定部404により算定された面積比率一致し、かつ、各グループの画面配置位置が画面配置位置算定部405により算定された配置位置となるように画面仕切の表示位置を算出する。
また、画面仕切算定部406は、グループ間の距離に関する情報(図5の例では、グループGαとGβの中心cαとcβの間を結ぶ線分Lαβの長さ)を画面仕切の太さ等に反映してもよい。
(7)割当表示算定部407
割当表示算定部407は、位置関係検出部2により検出された複数ユーザ同士の位置関係に関する情報と基準軸設定部401により設定されたX軸Y軸と画面割当比率算定部404により算定された各グループに割り当てる画面領域の面積比率と画面配置位置算定部405により算定された各グループの画面配置位置と画面仕切算定部406により算定された画面仕切に関する情報を取得する。
これらの情報を取得すると割当表示算定部407は、ユーザ同士の位置関係を画面に表示する際、各グループに割り当てられた画面領域内に収まるように各グループの表示サイズを算定する。
例えば、各グループGの重心cを中心として属するユーザuの座標位置を包含する最小円C(図5の例では、CαとCβ)がある程度のゆとりを持って、各グループに割り当てられた画面領域内に収まるように、画面上における各グループのユーザの表示位置及び表示サイズを算出する。このとき、同一グループに属するユーザの相対的位置関係が保持されるように、各ユーザの表示位置を算出する。
(8)画面表示部408
画面表示部408は、液晶画面などの表示機構と、スピーカとを含んで構成される。
画面表示部408は、割当表示算定部407により算定された画面表示方法に基づき、各グループに属するユーザ及びグループ間の画面仕切を表示する。また、図示していないが、位置関係表示部4は、タッチパネル、各種の入力キーなど操作者の操作を受け付ける入力部を備えている。画面表示部408は、各ユーザが装着・搭載したセンサがセンシングしたデータ(画像、音声等)をリンケージしておき、画面表示部408に、グループごとに、そのグループに属するユーザの位置が表示されている状態で、入力部を介して、表示された各ユーザ位置がポイントされると各センシングデータを再生したりポップアップしたりするような視聴UIを構築する。
図6は、ユーザグルーピング部3と位置関係表示部4により図5に示すような処理が為された場合に、画面表示部408が表示する画面の一例を示す図である。例えば、各ユーザがカメラやマイク等のセンサを装着・搭載していた場合、表示された位置関係上の各ユーザ位置をポイントすれば、ポイントしたユーザが装着・搭載したセンサがセンシングしたデータ(カメラが撮影した写真や動画、マイクが収音した音声等)がメインビューやポップアップ画面等に表示されたり再生されたりする。
図7は、図6に説明のための補足線等を付け足した図である。ここで、図7に示す画面上における位置付けを規定するためのx軸y軸は、それぞれ図5に示す平面上における位置付けを規定するためのX軸Y軸と同方向としている。図7に示すように、x軸y軸に基づく画面仕切pαβは、2つの画面領域RαとRβの面積比率が、画面割当比率算定部404により算定された面積比率に等しくなり、かつ、2つの画面領域RαとRβの位置が、画面配置位置算定部405により算定された各グループの画面配置位置になるように表示されている。また、画面仕切pαβのx軸y軸に基づく傾きφαβは、画面仕切算定部406により、図5に示す線PαβのX軸Y軸に基づく傾きΦαβと同値である。更に、画面領域Rα、Rβに、それぞれ対応するグループGα、Gβに属するユーザを含む最小円(Cα、Cβ)が、ある程度のゆとりを持って収まるようサイズで表示されている。
尚、画面割当比率算定部404により算定される各グループに割り当てる画面領域の面積比率が、各グループGに属するユーザu数の比率に基づき算定された場合等に、各グループで、画面上にユーザ同士の位置関係を表示する際の実際のサイズに対する縮尺がグループ毎に異なっていてもよい。その場合には、画面表示部408は、図8の点線で示すように、各画面領域の背景にメッシュ等を表示し、グループ間の縮尺に際する比率関係が把握できるようにしてもよい。ここで、各グループにおけるメッシュにより構成される1ブロックは、実際のユーザ同士の位置関係のサイズにおいて同サイズとなるようにしている。また、図8に示すように、各ユーザの位置を示す形状のサイズにより、グループ間の縮尺に際する比率関係が把握できるようにしてもよい。ここで、各グループにおける1ユーザの位置を示す形状のサイズは、実際のユーザ同士の位置関係のサイズにおいて同サイズとなるようにしている。
グループ毎の縮尺の違いを視認できる表示であれば、図8に示すようなメッシュ状の点線に限らない。例えば、画面上に、縮尺を示すメモリを表示しても良いし、各領域内に実際のグループサイズに対する縮小率を数値で表示しても良い。
1.4 システムの動作
以下に、図11及び図12に示すフローチャートを用いて、本実施の形態のシステム全体の一連の動作について説明する。なお、ここでは、一例として、既知の位置に設置されているセンサはなく、各ユーザが装着しているセンサの検出したデータを基に画面表示を行う場合について説明する。
先ず、データセンシング部1は、各ユーザの装着しているセンサからデータを収集する(ステップS101)。収集したデータを位置関係検出部2へ出力する。
位置関係検出部2は、受け取ったデータを基に各ユーザの相対位置を検出する(ステップS102)。検出した相対位置と、各ユーザを示す識別情報とを、対応付けて、ユーザグルーピング部3と位置関係表示部4へ出力する。ここでは、一例として、ユーザaの位置を原点とした座標平面上における各ユーザの位置、a(xa,ya)、b(xb,yb)、c(xc,yc)・・・を出力する。
ユーザグルーピング部3は、位置関係検出部2から受け取った各ユーザの相対位置を基に、ユーザをグルーピングする。続いて、各グループを示す識別子と、そのグループに属するユーザを示す識別情報とを位置関係表示部4へ出力する(ステップS103)。一例として、各ユーザが図3に示す位置に存在しており、ユーザグルーピング部3は、これらのユーザをグループαとグループβにグルーピングし、グループ構成情報Gα={a,b,c,d,e,}及びGβ={f,g,h,i,j}を出力する。
位置関係表示部4内の基準軸設定部401は、位置関係検出部2によって検出された各ユーザの相対位置を受け取る。これを受け取ると、基準軸設定部401は、任意にX軸及びY軸を決定し、受け取った相対位置を決定したXY座標軸により形成されるX−Y平面状の座標に変換するための変換行列(又は変換式)を算出する(ステップS104)。次に、基準軸設定部401は、算出した変換行列をグループ情報解析部402と割当表示算定部407へ出力する。
グループ情報解析部402は、位置関係検出部2から、各ユーザの相対位置a(xa,ya)、b(xb,yb)、c(xc,yc)・・・を受け取り、ユーザグルーピング部3からグループ構成情報Gα={a,b,c,d,e,}及びGβ={f,g,h,i,j}を受け取り、基準軸設定部401から変換行列を受け取る。
これらを受け取ると、グループ情報解析部402は、先ず、変換行列を用いて、各ユーザの相対位置を、X−Y座標系の座標に変換する(ステップS106)。次に、グループ情報解析部402は、変換後の各ユーザの座標a(Xa,Ya)、b(Xb,Yb)、c(Xc,Yc)・・・と、受け取ったグループ構成情報Gα={a,b,c,d,e,}及びGβ={f,g,h,i,j}とを基に、XY座標系における、各グループの重心cαとcβとを算出する(ステップS107)。また、グループ情報解析部402は、各グループについて、重心を中心とし、そのグループに属するユーザ全てを含む最小円の半径(rα及びrβ)を算出する(ステップS109)。また、グループ情報解析部402は、各グループに属するユーザ数を計数する(ステップS111)。続いて、グループ情報解析部402は、各ユーザの識別情報と変換後の各ユーザの座標(具体的には、a(Xa,Ya)、b(Xb,Yb)、c(Xc,Yc)・・・)、算出した重心cαとcβの座標、半径rα、rβ、各グループのユーザ数、及び受け取ったグループ構成情報Gα={a,b,c,d,e,}及びGβ={f,g,h,i,j}を、グループ間関係解析部403及び画面割当比率算定部404へ出力する。
グループ間関係解析部403は、グループ情報解析部402から受け取った各グループの重心cα、cβの座標を基に、2つの重心を結んだ線分Lαβの傾き、線分Lαβの垂線の傾き及び線分Lαβの長さを算出する(ステップS112)。
続いて、グループ間関係解析部403は、算出した線分Lαβの傾き、線分Lαβの垂線の傾きを画面配置位置算定部405へ、線分Lαβの長さを画面仕切算定部406及び出力する。
画面割当比率算定部404は、グループ情報解析部402から、各ユーザの識別情報と各ユーザの座標a(Xa,Ya)、b(Xb,Yb)、c(Xc,Yc)・・・、重心cαとcβの座標、半径rα、rβ、各グループのユーザ数、及びグループ構成情報Gα={a,b,c,d,e,}及びGβ={f,g,h,i,j}を受け取る。
これらを受け取ると、画面割当比率算定部404は、画面上において各グループに割り当てられる表示領域の面積比率(Gα:Gβ)を決定し(ステップS116)、決定した面積比率を画面仕切算定部406へ出力する。また、受け取った各ユーザの識別情報と各ユーザの座標a(Xa,Ya)、b(Xb,Yb)、c(Xc,Yc)・・・、重心cαとcβの座標、半径rα、rβ、各グループのユーザ数、グループ構成情報Gα={a,b,c,d,e,}及びGβ={f,g,h,i,j}と、算出した面積比率Gα:Gβを割当表示算定部407へ出力する。
画面配置位置算定部405は、グループ間関係解析部403から、線分Lαβの傾き、線分Lαβの垂線の傾きを取得する。取得した傾きから、画面上における2つのグループの配置を算定する(ステップS117)。算定した配置を示す情報として、例えば、1ビット長のフラグを、画面仕切算定部406及び割当表示算定部407へ出力する。例えば、フラグ「0」は、2つのグループを横並びに表示することを示し、フラグ「1」は、2つのグループを上下に表示することを示す。
画面仕切算定部406は、グループ間関係解析部403から、線分Lαβの長さ及び直線Pαβの傾きを受け取り、画面割当比率算定部404から面積比率Gα:Gβを受け取り、画面配置位置算定部405から配置を示す情報を受け取る。これらを受け取ると、画面仕切算定部406は、受け取った情報を基に、画面上における画面仕切の表示位置、太さ、傾きを決定する(ステップS118)。決定した画面仕切の表示位置、太さ、傾きを割当表示算定部407へ出力する。
割当表示算定部407は、画面割当比率算定部404から、各ユーザの識別情報と各ユーザの座標a(Xa,Ya)、b(Xb,Yb)、c(Xc,Yc)・・・、重心cαとcβの座標、半径rα、rβ、グループ構成情報Gα={a,b,c,d,e,}及びGβ={f,g,h,i,j}と、各グループのユーザ数を受け取り、画面仕切算定部406から、画面上における画面仕切の表示位置、太さ傾きを受け取り、画面配置位置算定部405から、各グループの配置を示すフラグを受け取る。なお、ここでは、画面割当比率算定部404を介して、グループ情報解析部402により算出されたXY座標系における各ユーザの座標及び各グループに属するユーザ数を取得しているが、位置関係検出部2から各ユーザの相対位置を取得し、基準軸設定部401から変換行列を取得し、割当表示算定部407自身がこれらのデータを算出しても良い。
これらのデータを受け取ると、割当表示算定部407は、画面上において画面仕切により仕切られる2つの領域それぞれに、充分収まるように、各グループの表示サイズと表示位置(具体的には、各グループを構成するユーザの画面上における表示位置)を算出する。また、画面仕切の表示位置、太さ、傾きを基に画面上における場面仕切の表示領域を算出する。続いて、算出した各ユーザの画面上における表示位置と画面仕切の表示領域を画面表示部408へ出力する(ステップS119)。
画面表示部408は、割当表示算定部407から各ユーザの画面上における表示位置と画面仕切の表示領域を受け取る。受け取ったデータを基に、画面仕切により仕切られた2つの領域にそれぞれグループGαを構成するユーザ群とグループβを構成するユーザ群とを表示する画面を生成し、生成した画面をディスプレイに表示する(ステップS121)。
1.5 実施の形態1の補足及び変形例
(1)上記(図2〜3、図5〜8で示す例)においては、画面配置位置算定部405により算定された各グループの画面配置位置関係が左右(Θαβが−45°〜45°または135°〜225°)になるような例にて説明したが、例えば図11に示すように、画面配置位置算定部405により算定された各グループの画面配置位置関係が上下(Θαβが−135°〜−45°または45°〜135°)となるような場合には、位置関係表示部4により表示される表示形態の例は図12に示すようになる(実際には表示されないが、説明のための補足線等も明示している)。ここで、図12に示す画面上における位置付けを規定するためのx軸y軸は、それぞれ図11に示す平面上における位置付けを規定するためのX軸Y軸と同方向としている。図12に示す画面領域RαとRβは、x軸y軸に基づいて、画面仕切pαβにより、画面割当比率算定部404により算定された各グループに割り当てる画面領域サイズの比率と画面配置位置算定部405により算定された各グループの画面配置位置になるように設定される。また、画面仕切pαβのx軸y軸に基づく傾きφαβは、画面仕切算定部406により、図11に示す線PαβのX軸Y軸に基づく傾きΦαβと同値となるように設定される。更に、画面領域Rα、Rβに、それぞれ対応するグループGα、Gβに属するユーザ同士の位置関係に関する情報(Cα、Cβ)が、ある程度のゆとりを持って収まるようなサイズで表示される。
(2)上記においては、ユーザグルーピング部3により抽出されたグループが2つの場合の例を用いて説明したが、ユーザグルーピング部3により抽出されたグループが3つ以上の場合においても上記処理は適応できる。例えば図13に示すような、画面配置位置算定部405により算定された各グループの画面配置位置関係が、グループGαとGβについてはGαが下でGβが上、グループGβとGγについてはGβが右でGγが左、グループGγとGαについてはGγが上でGαが下となるような場合には、位置関係表示部4により表示される表示形態の例は図14に示すようになる(実際には表示されないが、説明のための補足線等も明示している)。ここで、図14に示す画面上における位置付けを規定するためのx軸y軸は、それぞれ11に示す平面上における位置付けを規定するためのX軸Y軸と同方向としている。図14に示す画面領域RαとRβとRγは、x軸y軸に基づいて、画面仕切pαβとpβγとpγαにより、画面割当比率算定部404により算定された各グループに割り当てる画面領域サイズの比率と画面配置位置算定部405により算定された各グループの画面配置位置になるように設定される。また、画面仕切pαβ、pβγ、pγαのx軸y軸に基づく傾きφαβ、φβγ、φγαはそれぞれ、画面仕切算定部406により、図13に示す線Pαβ、Pβγ、PγαのX軸Y軸に基づく傾きΦαβ、Φβγ、Φγαと同値となるように設定される。更に、画面領域Rα、Rβ、Rγに、それぞれ対応するグループGα、Gβ、Gγに属するユーザ同士の位置関係に関する情報(Cα、Cβ、Cγ)が、ある程度のゆとりを持って収まるようサイズで表示される。
(3)上記においては、ユーザグルーピング部3により為される複数ユーザのグルーピングは、複数ユーザ同士の位置関係だけを活用した例を用いて説明したが、複数ユーザ同士の向き関係や会話情報(会話のタイミング、会話相手の認識)等も活用して複数ユーザのグルーピングをしてもよい。
例えば、図15は、ユーザa〜iの位置関係と、それぞれのユーザの体の向きを示している。図中の矢印が、各ユーザの向きを示す。このような例では、複数ユーザ同士の向き関係や会話情報(会話のタイミング、会話相手の認識)等も活用すれば、複数ユーザ同士の位置関係だけからでは抽出できないグループを抽出できる。図16は、図15に示す複数のユーザを、位置関係のみならず各ユーザの向きなどを基に抽出された、コミュニケーション等のグループGαとGβを示している。グルーピングの後、図16に示すように、位置関係表示部4により上記と同様の処理を施すことで、図17に示すような表示形態で複数ユーザ同士の位置関係が画面に表示される(実際には表示されないが、説明のための補足線等も明示している)。
この場合、位置関係検出部2は、各ユーザの位置関係に関する情報に加えて、各ユーザの向きを示す情報をユーザグルーピング部3へ出力する。
ユーザグルーピング部3は、受け取った各ユーザ位置関係の情報の向きに関する情報を基に、グルーピングを行う。具体的には、上記のクラスタリングの条件として、距離が所定値以下であることに加えて、ユーザの位置を起点としユーザの向きの方向へ引いた線分が所定の閾値未満の長さで他のユーザの線分と交差することを加える。
(4)上記においては、ユーザグルーピング部3で活用された情報を位置関係表示部4により表示する例を説明したが、必ずしもユーザグルーピング部3で活用される情報全てを表示する必要はなく、また、グルーピングには用いられていない情報、例えばユーザの向き関係や発話情報等を可視化して表示するとしてもよい。
(5)上記においては、一時的な複数ユーザ同士の位置関係を表示する例を用いて説明したが、データセンシング部1により位置関係を検出するためのデータを連続的にセンシングし、位置関係検出部2により、データセンシング部1により連続的にセンシングされたデータに基づき複数ユーザ同士の位置関係を連続的に検出し、ユーザグルーピング部3により、位置関係検出部2により検出された複数ユーザ同士の位置関係に関する情報に基づき前記複数ユーザをグループに逐次的にグルーピングし、位置関係表示部4により、位置関係検出部2により連続的に検出された複数ユーザ同士の位置関係に関する情報とユーザグルーピング部3により逐次的に抽出されたグループに関する情報に基づき画面上に各グループを配置して表示する、といったように、連続的な複数ユーザ同士の位置関係を動的に表示するとしてもよい。
(6)上記においては、複数ユーザ同士の位置関係を表示する例を用いて説明したが、位置関係以外の複数ユーザ同士の関係を表示するとしてもよい。例えば、複数ユーザ同士の親密関係として、ユーザ間のメールの交換数や頻度、会議の同席数や頻度、出会った回数や頻度等をX軸Y軸として用い、その数や頻度が多い程ユーザ間の距離が近くなるようにマッピングする等により、その関係を図5のような複数ユーザ同士の位置関係と同様に表すことができる。以下、同様の処理を施すことで、図6に示すような表示形態で複数ユーザ同士の親密関係を表示することが可能となる。他の複数ユーザ同士の関係についても同様である。
2. 実施の形態2
図18は、本発明の実施の形態2のシステム構成を示す。実施の形態2に係るシステムは、実施の形態1において説明した各構成要素に加えて音声情報解析部を含む。また、各ユーザの装着しているセンサには、マイクが含まれる。装着者の音声のみをできるだけ確実に検出するため、各ユーザは、例えば指向性マイクロホンを口元に向けて装着している。また、装着者の音声以外の雑音を抑制するなどの信号処理機能を備えていても良い。
本実施の形態では、実施の形態1と同様にして、センシングデータから複数ユーザ同士の位置関係を検出し、検出した位置関係に応じて位置関係を表示するとともに、ユーザの発話状況を視覚的に表示する。位置関係検出部2及びユーザグルーピング部3は、図1に示した本発明の実施の形態1と同様の構成であるので説明を省略する。データセンシング部1は、ユーザが装着・搭載したセンサもしくは環境インフラに設置されたセンサ等により、位置関係を検出するためのデータおよび装着者の発声する音声情報をセンシングする。音声情報解析部5は、各ユーザの発声する音声情報を解析し、さらにユーザグルーピング部3により抽出された各グループの会話状況の活性度を算出する。
位置関係表示部40は、位置関係検出部2により検出された複数ユーザ同士の位置関係に関する情報とユーザグルーピング部3により抽出されたグループに関する情報に基づき、画面上に各グループを配置して表示すると同時に、音声情報解析部5により算出されたユーザの発話状況やグループの会話状況を視覚的に表示する。
以下、実施の形態2の特徴部分である音声情報解析部5を中心に、詳細に説明する。
2.1 音声情報解析部5
図19は、音声情報解析部5の内部構成を示す図である。図19に示すように、音声情報解析部5は、時間領域情報解析部501、周波数領域情報解析部502、会話表示情報算定部503、グループ会話活性度算定部504で構成される。以下に各構成要素について説明する。
データセンシング部1から得た各ユーザ音声情報は、時間領域情報解析部501と周波数領域情報解析部502で、ユーザの音声の物理的特徴量を求める。一般的に音の三要素としては、大きさ、高さ、音色がよく知られている。
(1)時間領域情報解析部501
時間領域情報解析部501は、各ユーザについて、そのユーザが発声する音声の大きさを表現するパワー情報を逐次算出すると共に、パワー情報の時系列的な変化から、発話の始端および終端の検知も同時に行う。算出したパワー情報と、発話の始端及び終端を示す情報を会話表示情報算定部503へ出力する。
また、時間領域情報解析部501は、定期的に、各ユーザの単位時間における発声数である発話頻度Ncと、単位時間あたりの発話時間率Rsを求め、さらに各ユーザの発話時間率の標準偏差Srsを算出する。算出した発話頻度Nc、発話時間率Rs、発話時間率の標準偏差Srsをグループ会話活性度算定部504へ出力する。
(2)周波数領域情報解析部502
周波数領域情報解析部502は、ユーザ毎に発話音声の声の高さを表現するピッチ周波数と、発話音声の音色と相関のあるスペクトル重心とを定期的に算出する。
ピッチ周波数は時間と共に変化して、単語のアクセントや句や節に抑揚を付与する。また性別や年齢により値の平均値が異なるため、韻律的な情報を表現していると考えられる。ピッチ周波数を算出する方法としては、周波数の調波性から推定するケプストラムを用いて算出する方法が考えられる。また、ピッチ周波数を算出する別の方法としては、自己相関関数を用いて波形の周期性から推定するアルゴリズムを使用する方法も考えられる。
一方、スペクトル重心は、音声スペクトルを分析しその調波性周波数成分の中心なる高調波の周波数成分を算出することにより求められる。
次に、周波数領域情報解析部502は、算出したピッチ周波数とスペクトル重心とを会話表示情報算定部503へ出力する。
また、周波数領域情報解析部502は、逐次的に、各ユーザの音声情報を分析することで、音声/歓声・笑い声/無音の判別を行い、単位時間あたりの歓声・笑い声区間の頻度Naを算出する。各ユーザについて算出した歓声・笑い声区間の頻度Naをグループ会話活性度算定部504へ出力する。
(3)会話表示情報算定部503
会話表示情報算定部503は、先に時間領域情報解析部501と周波数領域情報解析部502で求めた各ユーザの音声の物理的特徴量(パワー情報、発話の始端及び終端を示す情報、ピッチ周波数及びスペクトル重心)をもとに、各ユーザの発話の状態画を面上に視覚的に表示する情報を算定する。
例えば、会話表示情報算定部503は、時間領域情報解析部501で算出されたパワー情報を用いて、各ユーザの発する音声の大きさと向きを視覚的に示す情報(例えば、ユーザを示す識別情報と、以下に例示する図形を形成する画像データ)を生成する。
図24は、声の大きさを視覚的に表現する一例を示すもので、図24(i)の矢印は、ユーザaの向きを示すものであり、図24(ii)、(iii)、(iv)の扇形の図形部分は、ユーザaが発声する声の方向と大きさを表現するものである。図24において、(i)は無音状態を示している。図24の(ii)、(iii)、(iv)は、発声する音声の大きさを扇形図形のサイズにより示しており、扇形図形が大きいほど、音声が大きい。
図24の場合、会話表示情報算定部503は、時間領域情報解析部501で算出されたパワー情報と発話の始端及び終端の検知情報を元に表示する図形を決定する。まず、会話表示情報算定部503は、無音区間では図24(i)のように、扇形図形を表示せずに向きを示す矢印のみの表示するように設定する。そして音声区間の始端から終端迄の間は、会話表示情報算定部503は、パワー情報の示す音声の大きさを半径の長さに比例させた扇形図形(図24の(ii)、(iii)、(iv)に示す)を表示するように設定する。その際、会話表示情報算定部503は、扇形図形の半径の長さに、最小値と最大値を設定しておき、その間にパワー情報が写像されるようにしておき、むやみに画面表示が大きくなることを防ぐ。
図25は、声の大きさを視覚的に表現する別の例を示すもので、図25(i)の矢印は、ユーザaの向きを示す。図25(ii)、(iii)、(iv)の扇形の図形部分は、ユーザが発声する声の方向と大きさを表現するものである。図において(i)は無音状態、(ii)、(iii)、(iv)は、発声する音声の大きさを扇形図形の表示色の彩度により示している。表示色の彩度が高いほど、音声が大きいことを示す。
図25の場合、会話表示情報算定部503は、時間領域情報解析部501で算出されたパワー情報をの示す音声の大きさと彩度とが比例するように、扇形図形の表示色を設定する。この場合、図24のように扇形図形のサイズが変化しないため、ユーザが多数存在する様子を表示する際には、省スペース化という点で有利であると考えられる。
なお、ここでは、音声の大きさをパワー情報により示しているが、それ以外に例えば平均振幅値を利用してもよい。
また、別の例として、会話表示情報算定部503は、周波数領域情報解析部502で算出されたピッチ周波数を用いて、発話音声の高さを表現する情報を生成する。
図26は、声の高さを視覚的に表現した例を示す。図26の(i)、(ii)、(iii)はそれぞれ、ユーザa、b、cの発した音声のピッチ周波数を扇形図形の縞模様の間隔により表現している。ここでは、一例として、縞模様の間隔が狭いほど、ピッチ周波数が大きいことを示している。つまり、3人のユーザのうち、図26(i)に示すユーザaの音声のピッチ周波数が最も小さく、図26(iii)に示すユーザcの音声のピッチ周波数が最も大きい。
音声の音色の情報は、周波数領域情報解析部502で算出されたスペクトル重心の情報を用いて表現される。音色情報は、所定の時間長で平均化したスペクトル重心の情報を色相(赤・橙・黄・緑・青・藍・青紫)に写像することで表現する。
以上のようにして、会話表示情報算定部503は、各ユーザの発する音声の大きさ、高さ、音色といった物理的特徴量を図形および色に写像して、画面上に視覚的に表示するための画像データに変換する。
会話表示情報算定部503は、上記の変換により生成された画像データとその画像データに対応するユーザの識別情報とを位置関係表示部4へ出力する。
また、会話表示情報算定部503は、このような変換及び出力を逐次的に行うので、位置関係表示部4は、各ユーザの発話音声の時間的変化を、動的に表示することができる。
(4)グループ会話活性度算定部504
グループ会話活性度算定部504は、グループに属する各ユーザの音声の物理的特徴量とその時間的変化を鑑みて、会話への参与状況を算出し、グループとしての会話の活性度合いを推定する。
具体的には、グループ会話活性度算定部504は、グルーピング部3から各グループの構成情報(例えば、Gα={a,b,c,d,e}など)を取得し、時間領域情報解析部501により算出された各ユーザの発話頻度Ncと発話時間率Rs及び標準偏差Srs、周波数領域情報解析部502により算出された歓声・笑い声区間の頻度Naを取得する。これらの情報を基に、グループ会話活性度算定部504は、グループmのグループ会話活性度Ag(m)を例えば以下のような評価式で算出する。k0、k1、k2は正の定数とする。また、以下の式において、AVE[X]は、グループmに属するユーザにおける物理量Xを平均化することを示す。
Ag(m)=k0*AVE[Nc]+k1*(AVE[Rs]−Srs)+k2*AVE[Na]
グループ会話活性度算定部504は、このように、各ユーザの音声情報を解析して推定した会話活性度Agを、グループの会話の活性度を示す数値として算出することができる。
続いて、グループ会話活性度算定部504は、算出したグループ会話活性度Agの値に応じて、グループの会話の活性度合いを可視化して表現するためのデータ、例えば、会話活性度を色、彩度、色の濃度などに写像して生成した色情報と、Agの算出対象となったグループを示す識別子とを対応付けて、位置関係表示部4へ出力する。
2.2 位置関係表示部40
図20は、位置関係表示部40の内部構成を示しており、参照符号401、402、403、404、405、406の機能部は、図4に示す各機能部と同様の機能を備えるので、同一の参照符号を付し説明を省略する。
図4に示す位置関係表示部4と図20に示す位置関係表示部40の相違点は、割当表示算定部417、画面表示部418の処理内容である。本実施の形態では、割当表示算定部417は、音声情報解析部5の出力である発話状況の情報(各ユーザの発話の物理的情報と、グループの会話活性度情報)が与えられる。具体的には、割当表示算定部417は、上述した各ユーザの音声の物理的情報を写像した画像データと、各グループの会話の活性度合いを写像した色情報とそのグループを示す識別子とを受け取る。
割当表示算定部417は、実施の形態1の割当表示算定部407と同様にして、位置関係検出部2により検出された複数ユーザ同士の位置関係に関する情報と基準軸設定部401により設定されたX軸Y軸と画面割当比率算定部404により算定された各グループに割り当てる画面領域サイズの比率と画面配置位置算定部405により算定された各グループの画面配置位置と画面仕切算定部406により算定された画面仕切に関する情報を取得し、これらの情報を基に、各グループに割り当てられた画面領域内おける、各グループに属するユーザ同士の位置関係を表示するサイズを算定する。
例えば、具体的には、各グループGの重心cを中心として属するユーザuの座標位置を包含する最小円C(図5の例では、CαとCβ)がある程度のゆとりを持ってそのグループに割り当てられた領域に収まるように、各グループに属するユーザの表示位置と表示サイズ、各ユーザの発話状況示す画像データの表示位置及び方向(ユーザの表示位置を基点とし、体の向きと同じ方向)を算定する。
画面表示部408は、割当表示算定部407により算定された画面表示方法に基づき、複数ユーザ同士の位置関係に関する情報と、各ユーザの発話状況を視覚化する画像とを表示する。また、表示された複数ユーザ同士の位置関係において、各ユーザが装着・搭載したセンサがセンシングしたデータ(画像、音声等)をリンケージしておき、表示された位置関係上の各ユーザ位置をポイントした場合に各センシングデータを再生したりポップアップしたりするような視聴UIを構築する。
図21は、ユーザグルーピング部3と位置関係表示部4により図5に示すような処理が為された場合に、画面に表示される表示形態の例を示す図であり、ユーザa〜lには各々の向かっている向き情報を矢印で付加している。この段階では各ユーザの発話状況の視覚化した情報を反映していない。
図22は、図25に示した声の大きさを表現する様式で扇形図形を付加した例である。この扇形図形に、各ユーザの発話状況を示す物理的情報である声の大きさ、高さ、音色情報が付与される。この例において、グループGαでは、ユーザbが自分の属するグループのユーザ以外に発声し、ユーザcとユーザdが対面して会話し、ユーザa、eは自分の属するグループ以外の方向を見てしばらく発話していない状況を視覚的に表現している。一方、グループGβでは、4人のユーザf、g、h、Iがお互いに対面して会話している状況を表現している。また、グループGγは、3人のユーザがそれぞれ、自分の属するグループ以外の方向を向いて発話していない状況である。図22の表示では、3グループの各ユーザの発話状況と向き合う状況は視覚的に把握できる。
図23は、各グループの位置関係を俯瞰する形態で表示を行う例である。この場合、割当表示算定部417は、位置関係検出部、基準軸設定部及びユーザグルーピング部から出力される情報に従って、画面上に各ユーザの表示位置を算出し、画面割当比率算定部、画面仕切算定部及び画面配置位置算定部から出力される情報は加味しない。
この図では、3つのグループの相対的な位置関係は、把握できるが、各ユーザの表示サイズが小さいため、これに各ユーザの発話状況の物理的情報を視覚化する図形を入れると、図形が小さすぎるか重なり合うかになって、十分な視覚化が実現できない。そのため、この表示形態の場合には、割当表示算定部417は、各ユーザの発話状況示す画像の表示位置及び方向に代えて、各グループの会話の活性度合いを写像した色情報を出力する。
画面表示部418は、各グループに対応する色情報を基に各グループの会話活性度を比較表示する。図23では、画面表示部418は、グループ毎に最小円Cの範囲に、色情報の示す色を表示することで、各グループの会話活性度を彩度あるいは色相などにより視覚化している。
また、画面表示部418は、操作者の操作により、図22に示す画面と図23に示す画面とを切り替えて表示しても良い。
2.3 音声情報解析部5の動作
図27及び図28は、音声情報解析部5の動作を示すフローチャートである。以下に図27及び図28を用いて、音声情報解析部5の動作について説明する。
なお、説明の便宜上、図27に示す動作と図28に示す動作とを個別の図面に記載したが、これらの2つ動作は、順次実行されても良いし、同時並行的に実行されるとしてもよい。また、操作者による選択操作を契機として、何れか一方の動作を行ってもよい。
(1)各ユーザの発話状況の解析
図27は、音声情報解析部5による各ユーザの発話状況の解析の動作を示している。ここでは、1ユーザの発話状況の解析について図示しているが、音声情報解析部5は、同様の動作を、全てのユーザについて逐次的に繰返し実行する。もしくは、全てのユーザについて、同時並行に動作する。
時間領域情報解析部501は、データセンシング部1から取得した音声信号からパワー情報を算出する(ステップS201)。次に、時間領域情報解析部501はパワー情報の時系列での変化度合いに基づき、ユーザによる発話の始端及び終端を検出する(ステップS202)。
会話表示情報算定部503は、発話の始端から終端時刻までにおけるパワー値を、音声の大きさを示す尺度(例えば、扇形図形の半径の長さ、彩度)に写像変換する(ステップS204)。
一方、周波数領域情報解析部502は、データセンシング部1から取得した音声信号をFFT(Fast Fourier Transform)により分析し(ステップS211)、さらに、ケプストラム分析する(ステップS212)。次に、分析結果から、ピッチ周波数を算出し(ステップS213)、スペクトル重心を算出する(ステップS214)。
会話表示情報算定部503は、ピッチ周波数を、始端から終端時刻までにおける声の高さを示す尺度(例えば、縞模様の間隔)に写像変換する(ステップS216)。また、スペクトル重心を、始端から終端時刻までにおける音声の音色を示す尺度(例えば色相など)に写像変換する。
続いて、会話表示情報算定部503は、写像変換後の音量、声の高さ、音色を示すデータを位置関係表示部40へ出力する(ステップS218)。
(2)グループmの会話活性度の解析
図28は、音声情報解析部5による、グループmの会話活性度の解析に係る動作を示している。ここでは、1個のグループに関する動作のみを図示しているが、音声情報解析部5は、同様の動作を、全てのグループについて、定期的に実行する。
ステップS220〜ステップS233の間、時間領域情報解析部501及び周波数領域情報解析部502は、グループmに属する全てのユーザについて、ステップS221〜ステップS232の処理を繰り返す。ここでは、説明の便宜上、各ユーザについて繰り返すように記載しているが、全てのユーザについて、並行してステップS221〜ステップS232の処理を行うとしてもよい。
先ず、時間領域情報解析部501は、データセンシング部1から取得した音声データからパワー情報を逐次的に算出する(ステップS221)。続いてパワー情報の時系列的な変化度合いに基づき、ユーザによる発話の開始及び終端を検出する(ステップS222)。
次に、時間領域情報解析部501は、単位時間当たりの発声数に基づき発話頻度Ncを算出する(ステップS223)。また、単位時間当たりの発声時間に基づき、発話時間率Rs及び標準偏差Srsを算出する(ステップS224)。
周波数領域情報解析部502は、音声信号をFFTにより解析し(ステップS226)、スケプトラム分析する(ステップS227)。次に、周波数領域情報解析部502は、解析結果を基に、ピッチ周波数を算出し(ステップS228)、スペクトル重心を算出する(ステップS229)。
次に、周波数領域情報解析部502は、時間領域情報解析部501により検出された始端から終端時刻の間のスペクトル分析に基づき、音声の種別(音声/歓声及び笑い声/無音)を判定する(ステップS231)。判定結果を基に、周波数領域情報解析部502は、単位時間当たりの歓声及び笑い声区間の頻度Naを算出する(ステップS232)。
繰返しが終了すると(ステップS233)、時間領域情報解析部501は、各ユーザの発話頻度Nc及び発話時間率Rsと、Rsの標準偏差Srsとを出力する。
また、周波数領域情報解析部502は、各ユーザの単位時間当たりの歓声及び笑い声区間の頻度Naを出力する。
グループ会話活性度算定部504は、時間領域情報解析部501及び周波数領域情報解析部502から出力されたデータを基に、グループmの会話活性度Ag(m)を算出する(ステップS236)。続いて、単位時間当たりのグループmの会話活性度Ag(m)を彩度又は色相に写像変換する(ステップS237)。次に、グループ会話活性度算定部504は、変換により生成された彩度又は色相を示すデータを位置関係表示部40へ出力する(ステップS238)。
3.実施の形態3
図29は、実施の形態1と同様に各ユーザの位置、向きを基に所定の空間内に存在するグループをピックアップして表示し、さらに、ユーザ達の注目を集めている人(又は位置)、及び、注目の度合いを可視化して表示するシステムを示すブロック図である。
実施の形態3のシステムによると、ある領域(例えば1つの室内)に存在する複数のユーザをグループ化して表示すると共に、ユーザ達の注目がどこに集中しているかを一目で知ることができる。
このシステムを構成するデータセンシング部1、位置関係検出部2、ユーザグルーピング部3の構成及び動作は実施の形態1と同様であるので説明を省略し、本実施の形態の特徴部分を中心に説明する。
3.1 注目度算定部6
注目度算定部6は、予め、各ユーザが装着しているセンサ(ここでは、カメラ)の左右の画角を記憶している。
注目度算定部6は、位置関係検出部2から、定期的に、各ユーザの位置および向きを取得し、取得した各ユーザの位置及び向きを基に所定の位置にユーザ達がどの程度注目しているかを数値化した注目度を算出する。注目度算定部6が位置関係検出部2から取得する各ユーザの位置及び向きは、実施の形態1において説明した各ユーザ間の相対位置又は既知の位置に設置されているセンサに対する相対位置である。ここでは、一例として、1人のユーザの位置を原点として仮定されたx−y座標系の座標により、各ユーザの位置及び向きが表現されているものとする。また、注目度算出の対象となる位置もx−y座標系の座標により表現されているとする。
次に、算出した注目度に応じて各位置をレベル分けする。注目度算定部6は、各ユーザの位置及び方向を取得するたびに、注目度算出及びレベル分けを随時実行する。
以下に注目度算定部6による注目度算出の手順及びレベル分けの手順について説明する。
<注目度算出について>
注目度算定部6は、取得した各ユーザの位置、向き及びカメラの画角から、注目度算出の対象となる所定の位置(以下、算出対象位置)を画角内に捉えているカメラを装着しているユーザを特定する。
図30(a)は、所定の算出対象位置306と、算出対象位置306を画角内に捉えているカメラを装着している全てのユーザ(ユーザa、b、c)の位置関係を示している。図中の破線は各ユーザの装着しているカメラの撮影可能範囲を示している。破線308及び309の為す角316が、ユーザaの装着しているカメラの画角であり、破線311及び312の為す角317が、ユーザbの装着しているカメラの画角であり、破線313及び314の為す角318が、ユーザcの装着しているカメラの画角である。
図30(b)は、算出対象位置(x,y)306と、算出対象位置(x,y)306を画角内に捉えているカメラを装着している1人のユーザu 304(u=a,b,c)との位置関係を示している。破線301及び302は、ユーザu 304の装着しているカメラの撮影可能範囲を示しており、破線301及び302のなす角307カメラの画角である。破線303が画角307の中心線である。
ユーザu 304からの距離が短く、ユーザu 304の向きを示す破線303に近いほど、算出対象位置306は、ユーザu 304から注目されていると推測される。従って、ユーザu 304の算出対象位置306に対する注目度Puは、算出対象位置306とユーザu 304とを結ぶ線分305の長さと、線分305と破線303のなす角θuに依存する。
一例として、注目度Puは、下記の式3により求められる。
Figure 2008139717
上記の式3で、(xu,yu)は、時刻tにおけるユーザu 304の位置座標、a,b,cは、正の定数であり、−π<θu<πである。
ユーザa、b、cそれぞれについて、同様の演算を行い、Pa(x,y)、Pb(x,y)、Pc(x,y)の和P(x,y)を、算出対象位置(x,y) 306に対する注目度とする。
以下の式4は、注目度P(x,y)を算出する式の一例をである。
Figure 2008139717
式4において、nは、算出対象位置306を画角内に捉えているカメラを装着しているユーザの総数(図30(a)の例では3)、uは、算出対象位置306を画角内に捉えているカメラを装着しているユーザ付す番号(例えばu=1はユーザaを指す)、ωnは、nに応じて変動する変数である。
なお、算出対象位置(x,y)を撮影しているカメラが一台も存在しなければ(つまり、n=0であれば)、P(x,y)=0となる。
ここで、瞬間的なよそ見などユーザの視線の揺らぎによる画面のちらつきを緩和するために、式4に代えて、以下の式5により算出される積分値を注目度としても良い。
Figure 2008139717
上述した式3、式4及び式5は、一例であって、線分305の長さ及び角度θuの絶対値が小さいほど、注目度が増加するような式であれば、他の演算式を用いても良い。
以上において説明した手順でx−y平面上の各算出対象位置について、注目度P(x,y)を算出する。注目度算出対象となる位置、算出対象位置の総数及びその間隔は、予め定められている。例えば、原点及びx軸方向に0.2メートルおき、y軸方向に0.2メートルおきに格子状に配置される各点を、算出対象位置とする。又は、ユーザが存在する領域(例えば室内)の広さや、ユーザ総数に応じて、随時、注目度の算出対象位置、間隔、算出対象位置の総数を算出しても良い。又は、当該システムの操作者により、算出対象位置の入力を受け付けるとしても良い。
<レベル分けについて>
注目度算定部6は、予め閾値th1、th2、th3・・・(th1>th2>th3・・・>thm mは自然数)を記憶している。
注目度算定部6は、算出された注目度A(x,y)の値と、閾値th1、th2、th3・・・を比較し、A≧th1を満たす算出対象位置を第1レベル、th1>A≧th2を満たす算出対象位置を第2レベル、th2>A≧th3を満たす算出対象位置を第3レベル・・・というように、注目度により各算出対象位置をレベル分けする。続いて、各レベルを示すレベル情報とそのレベルに属する算出対象位置の座標とを対応付けて位置関係表示部7へ出力する。なお、thm>Aを満たす算出対象位置の座標は、位置関係表示部7へ出力しない。
3.2 位置関係表示部7
位置関係表示部7は、実施の形態1において図4に示す構成とほぼ同様であるので、同様である部分の説明は割愛し、図4と異なる割当表示算定部について説明する。
割当表示算定部は、実施の形態1と同様に、位置関係検出部2及び、位置関係表示部7内の各機能部から受け取った情報を基に、各グループに割り当てる画面上の領域及び各グループの表示サイズ、表示位置を算定する。
さらに、割当表示算定部は、注目度算定部6から、各レベルにつき、レベル情報とそのレベル情報の示すレベルに属する位置を示す座標とを受け取る。
これらを受け取ると、割当表示算定部は、基準軸設定部により生成された変換行列を用いて、受け取った全ての座標を、xy座標系からXY座標系に変換する。
次に、割当表示算定部は、各位置の画面上における表示位置を算出する。また、同一レベルに属する位置に対応する表示位置に同一の色を配色する。
画面表示部は、割当表示算定部が算定した表示位置に各グループのユーザ及び画面仕切を表示し、さらに、算出された表示位置に配色された色を表示する。
図31は、画面表示部により表示される画面の一例である。図31に示される画面511は、画面仕切り521、522及び523により、領域512、514及び515に仕切られている。領域515には、ユーザa、b、c、d、eにより形成されるグループが表示されている。領域512には、ユーザf、g、h及びiにより形成されるグループが表示されている。領域514には、ユーザj、k、lにより形成されるグループが表示されている。図面上の矢印は、各ユーザの視線の方向を示している。
現在、ユーザAの近傍がユーザの注目を集めており、ユーザaを含む領域526は、最も注目度の高い第1レベルの領域であり最も濃い色が表示されている。領域527は、2番目に注目度の高い第2レベルの領域であり領域526よりもやや薄い色が表示される。領域528は、3番目に注目度の高い第3レベルの領域であり、領域527よりもさらに薄い色が表示されている。
3.4 注目度算定部6の動作
図32は、注目度算定部6の動作を示すフローチャートである。注目度算定部6は、図32に示す一連の動作を定期的又は逐次的に繰り返す。以下、図32に従って、注目度算定部6の動作について説明する。
先ず、注目度算定部6は、位置関係検出部2から各ユーザの位置及び向きを示す情報を取得する(ステップS251)。
次に、ステップS252〜ステップS256の間、注目度算定部6は、全ての算出対象位置について、ステップS253〜ステップS254の処理を繰り返す。
注目度算定部6は、算出対象位置(x,y)を画角内に捉えているカメラを装着しているユーザを検出する(ステップS253)。検出した各ユーザの位置、向き、などを基に、注目度A(x,y)を算出する(ステップS254)。
全ての算出対象位置についての繰返しが終了すると(ステップS256)、注目度算定部6は、算出した注目度の値により、各算出対象位置をレベル分けする(ステップS257)。次に、注目度算定部6は、レベル毎に、レベルを示す情報と、そのレベルに属する算出対象位置の座標とを対応付けて位置関係表示部7へ出力する(ステップS258)。
3.5 実施の形態3の補足及び変形例
(1)上記の実施の形態では、所定の範囲内(例えば室内)の全面に対して、均一に注目度を算出する位置を配置しているが、これに限定されるものではない。
例えば、ユーザグルーピング部により検出されたグループの近傍を注目度算出の対象範囲としてもよい。この場合、例えば、注目度算定部6は、各グループについて、重心c’を算出し、c’を中心とし、グループに属するユーザ全てを含む最小円の半径r’を算出する。
注目度算定部6は、グループの中心c’から半径(r+n)の範囲を注目度算出の対象範囲とする(nは、任意の定数であってもよいし、半径rやそのグループに属するユーザ数に応じて増減する変数であってもよい)。
注目度算定部6は、注目度算出の対象範囲内の任意の位置を注目度の算出対象位置とする。
(2)上記の実施の形態3では、注目度算定部6は、各算出対象位置を、算出された注目度により、複数のレベルにレベル分けし、その結果画面に表示される画像は、同レベルの算出対象位置に該当する部分が同一の色で表示されている。しかし、このように、離散的にレベル分けせずに、算出された注目度の値に比例して、表示される色の濃度や色彩が変化する構成であっても良い。
(3)上記の実施の形態3では、算出対象位置を撮影しているカメラの位置と算出対象位置の位置関係のみに従って、注目度を算出した。しかし、ユーザの存在する位置に注目が集まりやすいと仮定して、以下のような手順で注目度を算出しても良い。
実施の形態3において説明したP(x,y)に、算出対象位置(x,y)の近傍に存在するユーザによる影響を示す項Q(x,y)を加えた値を注目度E(とする。
この場合、注目度算定部6は、1の算出対象位置(x,y)を、画角内に捉えているカメラを特定する。特定したカメラにより、前記算出対象位置と共に撮影されているユーザを特定する。
特定したユーザのうちの1人(ユーザu)が、算出対象位置(x,y)に与える影響Quは、例えば下記の式6により算出される。
Figure 2008139717
ここで、(xu,yu)は、ユーザuの位置を示す座標、φuは、ユーザuの向きと、ユーザuの位置から位置(x,y)への向きとの間の角度である(−π<φu<π)。また、d、e、fは正の定数である。
次に、注目度算定部6は、特定した全てのユーザが、算出対象位置(x,y)に与える影響Q(x,y)を、下記の式7により算出する。
Figure 2008139717
ここで、式7において、mは、前記算出対象位置(x,y)と共に撮影されたユーザの総数、uは、前記算出対象位置と共に撮影されているユーザを計数する変数、ωmは、mによって変動する変数である。
なおm=0の場合はQ(x,y)=0である。
次に、注目度算出部6は、上記の式により求めたP及びQから算出対象位置(x,y)における注目度E(x,y)を算出する。
E(x,y)=P(x,y)+Q(x,y)
また、瞬間的なよそ見などユーザの視線の揺らぎに起因する画像のちらつきを緩和するために、上記の式7に代えて、下記の式8により求められる積分値を、注目度E(x,y)としてもよい用いても良い。
Figure 2008139717
(4)上記の実施の形態3では、注目度算定部6は、座標平面状の各位置について注目度を算出したが、室内に存在する各ユーザが、他のユーザからどの程度注目されているかを示す値として注目度を算出しても良い。
この場合、算出対象位置は、各ユーザの位置となる。
従って、1のユーザj(算出対象ユーザ)に対する注目度E(xj,yj)は、上記の式4に算出対象ユーザjの位置座標(xj,yj)を代入すればよい。
続いて、注目度算定部6は、算出した注目度Ejと所定の閾値Thとを比較し、Eu≧Thを満たす場合、算出対象ユーザjを示すユーザ識別情報を位置関係表示部7へ出力する。
位置関係表示部7内の割当表示算定部は、注目度算定部6からユーザ識別情報を受け取る。ユーザ識別情報を受け取ると、画面上において、受け取った識別情報の示すユーザに、他のユーザとは異なる形態を割り当てる。例えば、他のユーザとは形状や大きさの異なるアイコン、他のユーザとは異なる色が割り当てられる場合などが考えられる。
(5)上記の実施の形態3及び変形例では、算出対象ユーザは所定の位置に止まっているとして、注目度を算出した。しかし、注目度は時間的に蓄積されるものと仮定して、移動する算出対象ユーザjの注目度を算出しても良い。
例えば、図33に示すように、算出対象ユーザjは、位置532から位置533を通過し、位置534へ移動している。
位置531にいるユーザiは、算出対象ユーザjに注目しており、算出対象ユーザjの移動に合わせて体の向きを方向536、方向537、方向538へと変えている。直線539及び540は、ユーザjが位置534に存在する時刻において、ユーザiの装着しているカメラの撮影可能範囲を示している。
このように、算出対象ユーザjが移動している場合、算出対象ユーザjに対するの他のユーザの注目度Ejは、一例として、下記の式9により算出される。
Figure 2008139717
式9において、変数nは算出対象ユーザjに注目している、より正確には画角内に算出対象ユーザjを捉えているカメラを装着しているユーザの総数であり、tijは撮影側のユーザiのカメラの画角内に算出対象ユーザjが入った時刻である。ωnは、変数nによって定まる任意の定数である。
このようにすることで、注目度算定部6は、算出対象ユーザjが移動していてもその算出対象ユーザjに対する他のユーザの注目度を算出することができる。
続いて、注目度算定部6は、算出した注目度E(j)と所定の閾値Thとを比較し、E(j)≧Thを満たす場合、被写体ユーザjを示すユーザ識別情報を位置関係表示部7へ出力する。
位置関係表示部7内の割当表示算定部は、注目度算定部6からユーザ識別情報を受け取る。ユーザ識別情報を受け取ると、画面上において、受け取った識別情報の示すユーザに、他のユーザとは異なる形態を割り当てる。例えば、他のユーザとはや大きさの異なるアイコン、他のユーザとは異なる色が割り当てられる場合などが考えられる。
4.その他の変形例
なお、本発明を上記の実施の形態に基づいて説明してきたが、本発明は、上記の実施の形態に限定されないのはもちろんである。以下のような場合も本発明に含まれる。
(1)上記の実施の形態1−3及びその変形例において、位置関係表示部は、以下のような機能を備えていても良い。
タッチパネル、マウス、キーボードなどの入力部を含んでおり、操作者による操作を受け付ける。例えば、画面表示部に、各グループが表示されている状態で、何れかのユーザを選択する操作がなされると、割当表示算定部は、データセンシング部から、選択されたユーザの装着しているカメラの撮影した画像を取得し、画面表示部へ出力する。画面表示部は、取得した画像を現在表示中の画面上にポップアップ表示する。
図34は、ここで表示される画面の一例を示す。画面541上には、領域546、547、548それぞれに、グループを構成するユーザが表示されている。図中の矢印は、各ユーザの向きを示している。操作者は入力部を操作して、ポインタ542を移動させ、ユーザaを選択している。ユーザaが選択されると、ユーザaの装着しているカメラの撮影した画像543が、ユーザaの近傍にポップアップ表示される。破線544及び545は、ユーザaの装着しているカメラの撮影可能範囲を示している。
(2)また、上記の変形例(1)に加えて、他のユーザの装着しているカメラにより撮影された画像のうち、操作者により選択されたユーザを捉えている画像を表示してもよい。
具体的には、割当表示算定部は、各ユーザの位置、向き、カメラの画角から、選択されたユーザを画角内に捉えているカメラを装着しているユーザを特定する。次に、割当表示算定部は、データセンシング部から特定したユーザの装着しているカメラにより撮影された画像を取得し、画面表示部へ取得した画像を出力する。 画面表示部は表示中の画面上に、取得した画像をポップアップ表示する。
図35は、ここで表示される画面551の一例を示す。図中の破線561〜599は、ユーザb、e、g及びjの装着しているカメラの撮影可能範囲を示している。破線561及び562は、ユーザbの装着しているカメラの撮影可能範囲を示しており、破線561及び562のなす角は、カメラの画角である。破線563及び564は、ユーザeの装着しているカメラの撮影可能範囲を示しており、破線566及び567は、ユーザgの装着しているカメラの撮影可能範囲を示しており、破線568及び569は、ユーザjの装着しているカメラの撮影可能範囲を示している。これにより、ユーザaが、ユーザb、e、g及びjの装着しているカメラの画角内に位置していることが分かる。
操作者は、入力部を操作してポインタ552を移動させ、ユーザaを選択している。ユーザaが選択されると、ユーザaの装着しているカメラの撮影した画像558がポップアップ表示される。続いて、ユーザb、e、g及びjの装着しているカメラの撮影した画像553、554、556及び557がポップアップ表示される。画像553、554、556及び557のいずれにも、ユーザaが表示されている。
(3)上記の変形例(1)、(2)において、選択されたユーザに関する画像をポップアップ画面に表示するとしたが、この方法に限定されるものではない。
例えば、画面表示部が、複数の表示デバイスを備えている場合や、1画面内で、分割表示が可能な場合、1つの表示デバイス(又は1つの表示領域)にグルーピングされた各ユーザの位置を表示し、他の表示デバイス(又は他の表示領域)に選択されたユーザに関する画像を表示しても良い。
(4)図36は、実施の形態1〜3及び変形例において説明したシステムを搭載した装置の一例である端末装置1000の外観を示している。
端末装置1000は、具体的には、マイクロプロセッサ、RAM、ROMを含んで構成されるコンピュータシステムであって、RAM、ROMにはコンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムに従って動作することにより、端末装置1000は、その機能の一部を達成する。
端末装置1000は、ディスプレイ1001、入力部1002及び通信部1003を備えている。
ディスプレイ1001は、画面表示部を構成する表示デバイスであり、各種の画面を表示する。
入力部1002は、操作者により操作される各種のボタンを含んで構成される。
通信部1003は、無線通信機構を備え、各ユーザの装着しているセンサからデータを収集する。通信部1003は、上記のデータセンシング部の機能を担う。
また、内部に搭載されたマイクロプロセッサ及びコンピュータプログラムにより、上記の位置関係検出部、ユーザグルーピング部、音声情報解析部、注目度算定部、位置関係表示部の機能が実現される。
なお、端末装置1000は、システムの一部の機能のみを搭載していてもよい。例えば、データセンシング部及び位置関係検出部は、別途、検出機器に搭載されており、端末装置1000は、通信部1003を介して、検出機器から、各ユーザの位置情報など、各種の情報を取得し、解析及び画面表示を行う機器であっても良い。
また、端末装置1000は、このシステムの専用機器である必要はなく、例えば、携帯電話、携帯ゲーム機、PDAなどであってもよい。
(5)また、図37は、上記の実施の形態及び変形例において説明したシステムを実現する機器構成の別の例を示している。
この例では、システムは、STB(Set Top Box)デバイス2001と、TVデバイス2002と、図示しないコントローラ、データセンシング装置から構成される。
図示していないデータセンシング装置は、データセンシング部の機能を備え、各ユーザの装着しているセンサから画像データ、音声データなどを取得する。取得したデータを有線又は無線通信により、STBデバイス2001へ出力する。
STBデバイス2001は、例えば、HDDレコーダ、DVDレコーダ、コンポ等である。STBデバイス2001は、具体的には、マイクロプロセッサ、RAM、ROMを含んで構成されるコンピュータシステムであって、RAM、ROMにはコンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムに従って動作することにより、STBデバイス2001は、その機能の一部を達成する。
STBデバイス2001は、上記の実施の形態において説明したシステム内の位置関係検出部、ユーザグルーピング部、音声情報解析部、注目度算定部、及び、位置関係表示部内の大部分の機能を備える。
TVデバイス2002は、PDP、LCD等であり、前記STBと接続ている。位置関係表示部内の画面表示部の機能を担っており、算出されたユーザ同士の位置関係や指定されたユーザが装着するカメラが撮影した画像等を表示する。
(6)上記の実施の形態及び変形例では、室内など所定の領域に存在するユーザ、つまり人間を対象としてグルーピング及び、位置関係の表示をする技術について説明してきたが、人間に限らず、自動車や自転車といった移動機器、放牧されている家畜、野生の動物などを対象としても良い。
(7)また、本発明は、複数ユーザ間の関係に関する情報に基づき、前記複数ユーザを複数グループにグルーピングするユーザグルーピング手段と、前記ユーザグルーピング手段により抽出された複数グループに関する情報に基づき、画面上に各グループを配置して表示するユーザ関係表示手段とを備えることを特徴とするユーザ関係表示装置である。
(8)上記の変形例(7)のユーザ関係表示装置は、更に、複数ユーザの位置関係を検出する位置関係検出手段とを備え、前記ユーザグルーピング手段は、前記位置関係検出手段により検出された複数ユーザの位置関係に関する情報に基づき、前記複数ユーザを複数グループにグルーピングし、前記ユーザ関係表示手段は、前記ユーザグルーピング手段により抽出された複数グループに関する情報に基づき、画面上に各グループを配置して、各グループに属するユーザの位置関係を表示するとしてもよい。
(9)上記の変形例(8)ユーザ関係表示装置を構成するユーザ関係表示手段は、前記ユーザグルーピング手段により抽出された複数グループの関係が把握できる形態で、画面上に各グループを配置して表示するとしてもよい。
(10)上記の変形例(7)又は(8)のユーザ関係表示装置において、前記ユーザ関係表示手段は、前記ユーザグルーピング手段により抽出された複数グループの関係が把握できる形態で、画面上においてグループ同士を区分けする仕切りを表示するとしてもよい。
(11)上記の変形例(7)又は(8)の前記ユーザ関係表示手段は、前記ユーザグルーピング手段により抽出された複数グループに関する情報に応じて、画面上において各グループに割り当てる領域サイズを設定することを特徴とするとしてもよい。
(12)上記の変形例(7)又は(8)のユーザ関係表示装置において、前記ユーザ関係表示手段は、前記ユーザグルーピング手段により抽出された複数グループの各グループ同士の実サイズ比較が把握できる情報を表示するとしてもよい。
(13)上記の変形例(7)の前記ユーザ関係表示装置は、更に、複数ユーザの位置関係を検出する位置関係検出手段と、複数ユーザが発声する音声情報を解析する音声情報解析手段とを備え、前記ユーザグルーピング手段は、前記位置関係検出手段により検出された複数ユーザの位置関係に関する情報に基づき、前記複数ユーザを複数グループにグルーピングし、前記ユーザ関係表示手段は、前記ユーザグルーピング手段により抽出された複数グループに関する情報に基づき、画面上に各グループを配置して、各グループに属するユーザの位置関係と、各グループにおける会話状況を視覚的に表示するとしてもよい。
(14)上記の変形例(13)のユーザ関係表示装置を構成する前記音声情報解析手段は、複数ユーザが発声する音声情報に対して、各発声の時間領域情報、周波数領域情報を分析し、さらに、これらの情報を元に各グループ毎の会話活性度を算出するとしてもよい。
(15)上記の変形例(13)又は(14)に記載のユーザ関係表示装置を構成する前記ユーザ関係表示手段は、前記ユーザグルーピング手段により抽出されたグループに属する各ユーザの会話の物理的特徴とその時間的変化状況を視覚的に把握できる形態で、画面上に表示するとしてもよい。
(16)上記の変形例(13)又は(14)に記載のユーザ関係表示装置を構成する前記ユーザ関係表示手段は、前記ユーザグルーピング手段により抽出された複数グループの大局的な会話活性度が視覚的に比較できる形態で画面上に表示するとしてもよい。
(17)上記の変形例(13)又は(14)に記載のユーザ関係表示装置を構成する前記ユーザ関係表示手段は、前記ユーザグルーピング手段により抽出された複数グループに関する情報に応じて、画面上において各グループに割り当てる領域サイズを設定し、画面上の会話状況の表示形態を選択するとしてもよい。
(18)また、本発明は、複数ユーザ間の関係に関する情報に基づき、前記複数ユーザを複数グループにグルーピングするユーザグルーピングステップと、前記ユーザグルーピングステップにより抽出された複数グループに関する情報に基づき、画面上に各グループを配置して表示するユーザ関係表示ステップとを有するユーザ関係表示方法であってもよい。
(19)また、本発明は、ユーザ関係表示装置に、ユーザ関係表示処理を行わせるためのコンピュータプログラムであって、複数ユーザ間の関係に関する情報に基づき、前記複数ユーザを複数グループにグルーピングするユーザグルーピングステップと、前記ユーザグルーピングステップにより抽出された複数グループに関する情報に基づき、画面上に各グループを配置して表示するユーザ関係表示ステップとを有する。
(20)また、本発明は、ユーザ関係表示装置に搭載される集積回路であって、複数ユーザ間の関係に関する情報に基づき、前記複数ユーザを複数グループにグルーピングするユーザグルーピング手段と、前記ユーザグルーピング手段により抽出された複数グループに関する情報に基づき、画面上に各グループを配置して表示するユーザ関係表示手段とを備える。
(21)上記の変形例(18)のユーザ関係表示方法は、更に、複数ユーザの位置関係を検出する位置関係検出ステップを有し、前記ユーザグルーピングステップにおいて、前記位置関係検出ステップにより検出された複数ユーザの位置関係に関する情報に基づき、前記複数ユーザを複数グループにグルーピングし、前記ユーザ関係表示ステップにおいて、前記ユーザグルーピングステップにより抽出された複数グループに関する情報に基づき、画面上に各グループを配置して、各グループに属するユーザの位置関係を表示するとしてもよい。
(22)上記の変形例(19)の前記コンピュータプログラムは、更に、複数ユーザの位置関係を検出する位置関係検出ステップを有し、前記ユーザグルーピングステップにおいて、前記位置関係検出ステップにより検出された複数ユーザの位置関係に関する情報に基づき、前記複数ユーザを複数グループにグルーピングし、前記ユーザ関係表示ステップにおいては、前記ユーザグルーピングステップにより抽出された複数グループに関する情報に基づき、画面上に各グループを配置して、各グループに属するユーザの位置関係を表示するとしてもよい。
(23)上記の変形例(20)の集積回路は、更に、複数ユーザの位置関係を検出する位置関係検出手段を備え、前記ユーザグルーピング手段は、前記位置関係検出手段により検出された複数ユーザの位置関係に関する情報に基づき、前記複数ユーザを複数グループにグルーピングし、前記ユーザ関係表示手段は、前記ユーザグルーピング手段により抽出された複数グループに関する情報に基づき、画面上に各グループを配置して、各グループに属するユーザの位置関係を表示するとしてもよい。
(24)上記の変形例(18)のユーザ関係表示方法は、更に、複数ユーザの位置関係を検出する位置関係検出ステップと、複数ユーザが発声する音声情報を解析する音声情報解析ステップとを有し、前記ユーザグルーピングステップにおいて、前記位置関係検出ステップにより検出された複数ユーザの位置関係に関する情報に基づき、前記複数ユーザを複数グループにグルーピングし、前記ユーザ関係表示ステップにおいては、前記ユーザグルーピングステップにより抽出された複数グループに関する情報に基づき、画面上に各グループを配置して、各グループに属するユーザの位置関係と、各グループにおける会話状況を視覚的に表示するとしてもよい。
(25)上記の変形例(19)に記載のコンピュータプログラムは、更に、複数ユーザの位置関係を検出する位置関係検出ステップと、複数ユーザが発声する音声情報を解析する音声情報解析ステップとを有し、前記ユーザグルーピングステップにおいて、前記位置関係検出ステップにより検出された複数ユーザの位置関係に関する情報に基づき、前記複数ユーザを複数グループにグルーピングし、前記ユーザ関係表示ステップにおいて、前記ユーザグルーピングステップにより抽出された複数グループに関する情報に基づき、画面上に各グループを配置して、各グループに属するユーザの位置関係と、各グループにおける会話状況を視覚的に表示するとしてもよい。
(26)上記の変形例(20)に記載の集積回路は、更に、複数ユーザの位置関係を検出する位置関係検出手段と、複数ユーザが発声する音声情報を解析する音声情報解析手段とを備え、前記ユーザグルーピング手段は、前記位置関係検出手段により検出された複数ユーザの位置関係に関する情報に基づき、前記複数ユーザを複数グループにグルーピングし、前記ユーザ関係表示手段は、前記ユーザグルーピング手段により抽出された複数グループに関する情報に基づき、画面上に各グループを配置して、各グループに属するユーザの位置関係と、各グループにおける会話状況を視覚的に表示することを特徴とするとしてもよい。
(27)上記のシステムは、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレィユニット、キーボード、マウスなどから構成されるコンピュータシステムである。前記RAM、ROM、前記ハードディスクユニットには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムに従って動作することにより、前記システムは、その機能を達成する。ここで、コンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
(28)上記のシステムを構成する構成要素の一部又は全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。前記RAMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。
これらは個別に1チップ化されても良いし、一部又は全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)やLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用しても良い。
更には、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適応などが可能性として有り得る。
(29)上記のシステムを構成する構成要素の一部又は全部は、各装置に脱着可能なICカード又は単体のモジュールから構成されているとしてもよい。前記ICカード又は前記モジュールは、マイクロプロセッサ、ROM、RAM、などから構成されるコンピュータシステムである。前記ICカード又は前記モジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、前記ICカード又は前記モジュールは、その機能を達成する。このICカード又はこのモジュールは、耐タンパ性を有するとしてもよい。
(30)本発明は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。
また、本発明は、前記コンピュータプログラム又は前記デジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD―ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray Disc)、半導体メモリなど、に記録したものとしてもよい。また、これらの記録媒体に記録されている前記コンピュータプログラム又は前記デジタル信号であるとしてもよい。
また、本発明は、前記コンピュータプログラム又は前記デジタル信号を、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
また、本発明は、マイクロプロセッサとメモリとを備えたコンピュータシステムであって、前記メモリは、上記コンピュータプログラムを記憶しており、前記マイクロプロセッサは、前記コンピュータプログラムに従って動作するとしてもよい。
また、前記プログラム又は前記デジタル信号を前記記録媒体に記録して移送することにより、又は前記プログラム又は前記デジタル信号を、前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
(31)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。
本発明にかかるユーザ関係表示装置は、複数のユーザ同士の関係を適切に表示するためのインタフェースを構築するための技術として有用である。
本発明は、複数のユーザ同士の関係をより視認しやすい形態で表示するためのインタフェースを構築する技術に関する。
近年、位置表示技術分野において、室内もしくは地図上での人物や走行車の位置を表示する技術がある。例えば、無人走行車の車体に上方を撮影可能な赤外線撮影装置を取り付け、無人走行車が走行する領域の天井面の所定の箇所に絶対位置表示を設け、無人走行車の現走行位置を絶対位置で取得する技術がある(特許文献1参照)。また、配送に関する情報を記憶すると共に、配送情報を送信する応答回路を備える電子荷札を用いた宅配ナビゲーションシステムであって、配達先の位置を、表示装置に表示された地図上に表示する技術がある(特許文献2参照)。更に、複数のカメラのうち少なくとも1つによる撮影画像に基づき、撮影画像中に含まれる複数の人物を検出し、各カメラの撮影範囲を変更する監視システムが開示されている(特許文献3参照)。
特開平6−67726号公報 特開平6−111197号公報 特開2005−117542号公報
上記の技術は、室内もしくは地図上にユーザや走行車の絶対位置をマッピングする技術にすぎない。画面の広さには限りがあるので、複数のユーザが、離れた領域に偏在している場合、すべてのユーザの位置関係を表示しようとすると、ユーザ間の詳細な位置関係を視認し難くなる。
また、ユーザが偏在している1つの領域のみを表示すると、その領域に存在するユーザの位置関係は視認し易くなるが、他の領域に存在するユーザの位置関係は、表示できないため、全ユーザの位置関係を把握することができなくなるという問題がある。
本発明は、この問題を解決するもので、複数のユーザ間の関係を視認し易く表示することができる表示装置、表示方法、表示プログラムを提供することを目的とする。
上記の課題を解決するために、本発明は、複数の対象物間の位置関係を視覚的に表示画面に表示する表示装置であって、各対象物の位置を示す位置情報を取得する取得手段と、取得した前記位置情報に基づいて、前記複数の対象物を複数のグループに分類する分類手段と、前記位置情報を用いて1のグループと他のグループとのグループ間の位置関係を算出する算出手段と、前記表示画面を規定する基準軸に対して、算出されたグループ間の位置関係に応じた傾きを有し、前記表示画面を複数の領域に区切るしきり線を決定する決定手段と、決定したしきり線を前記表示画面に表示し、前記しきり線により区切られた各表示領域に、各グループに属する対象物の位置関係を表示する表示手段とを備えることを特徴とする。
また、本発明は、上記の表示装置において用いられる表示方法又は表示プログラムでもある。
ここで、上記の表示装置は、例えば、図36及び図37に示すような機器が該当する。また、上記の「対象物」は、下記の実施の形態及び変形例にて説明する「ユーザ」、つまり人間であってもよいし、自動車や自転車などの移動機器でもよいし、家畜又は野生動物などであってもよい。「取得手段」は、下記の実施の形態1におけるデータセンシング部1及び位置関係検出部2がその機能を担う。また、「分類手段」は、ユーザグルーピング部3がその機能を担う。「算出手段」は、基準軸設定部401、グループ情報解析部402及びグループ間関係解析部403がその機能を担う。また、「決定手段」は、画面割当比率算定部404、画面配置位置算定部405及び画面仕切算定部406がその機能を担う。「表示手段」は、割当表示算定部407及び画面表示部408がその機能を担う。
この構成によると、算出手段は、1のグループと他のグループとのグループ間の位置関係を算出し、決定手段は算出されたグループ間の位置関係に応じた傾きを有するしきり線を決定し、表示手段は、決定したしきり線を前記表示画面に表示し、前記しきり線により区切られた各表示領域に、各グループに属する対象物の位置関係を表示する。そのため、各グループに属する対象物間の位置関係を容易に視認することができる。さらに、各領域間の仕切り線は、グループ間の位置関係に応じた傾きを有するため、グループ間の位置関係も同時に視認することができるという優れた効果を奏する。
前記表示装置において、前記算出手段は、少なくとも2つのグループの位置を示すグループ位置を求め、グループ位置を結んだ直線と直交する直線と、前記基準軸とのなす前記傾きを算出し、前記決定手段は、前記基準軸に対して、算出された傾きを有する前記仕切り線を決定するとしてもよい。
この構成によると、前記しきり線は、グループ位置を結んだ直線と直交する直線と、前記基準軸とのなす前記傾きを有しているので、グループ間の位置関係を、より正確に視認することができる。
また、前記決定手段は、グループの大きさに応じた面積を、そのグループに対応する領域が有するように、前記しきり線を決定するとしてもよい。
この構成によると、各グループに割り当てられた面積から、容易に各グループの大きさを視認できる。ここで、「グループの大きさ」とは、グループに属する対象物の数であってもよいし、グループに属する対象物が現実に存在する領域の面積(例えばそのグループに属する全ての対象物を包含する最小円や最小円の半径)であってもよい。
また、前記算出手段は、1のグループと他のグループとのグループ間の距離を含む前記位置関係を算出し、前記決定手段は、算出された距離に応じた幅を有する前記しきり線を決定するとしてもよい。
この構成によると、表示されたしきり線の幅からグループ間の距離を容易に視認できる。
また、前記表示手段は、グループに属する対象物の位置関係を、グループ毎に異なる縮小率で表示し、前記表示手段は、さらに、各表示領域に、各グループの縮小率を示す情報を表示するとしてもよい。
この構成によると、表示画面上に表示された各グループの縮尺が異なる場合にも、各グループのサイズの違いを容易に視認できるという優れた効果を奏する。
また、前記分類手段は、前記位置情報から対象物間の距離を求め、求めた距離が閾値未満である2つ以上の対象物を同一のグループに分類するとしてもよい。
この構成によると、互いに近い位置に存在する複数対象物をひとつのグループに分類することができるので、離れた位置に複数の対象物が偏在する場合に、各グループを構成する対象物の位置関係を明確に表示できるという優れた効果を奏する。
また、前記取得手段は、さらに、各対象物の向きを示す向き情報を取得し、前記分類手段は、前記位置情報を用いて対象物間の距離を求め、求めた距離が閾値未満であって、前記向き情報の示す向きの延長線が交差する2つの対象物を同一のグループに分類するとしてもよい。
この構成によると、対象物間の距離のみならず、向き情報も用いて分類を行うので、相互に向き合っている会話集団などを抽出することができる。
また、前記表示装置は、さらに、各対象物の発する音声を取得する音声取得手段と、取得した音声を時間領域及び周波数領域において解析する音声情報解析手段とを備え、前記表示手段は、さらに、前記音声情報解析手段による解析結果を基に生成した画像を、前記表示画面上において、各グループに属する対象物の位置関係を表示している位置に表示するとしても良い。
この構成によると、前記表示手段は、前記音声情報解析手段による解析結果を基に生成した画像を、前記表示画面上において、各グループに属する対象物の位置関係を表示している位置に表示するので、複数のユーザによる形成されるグループの位置関係のみならず各グループの対象物の発する音声に関する情報も一目で視認することができる。
また、前記音声解析手段は、取得した音声から、各対象物の発する音声の特徴を抽出し、抽出した音声の特徴を前記解析結果として生成し、前記表示手段は、各対象物の発する音声の特徴を示す画像を、対応する対象物の前記表示画面上における位置に表示する。
この構成によると、各対象物がどのような特徴を持った音声を発声しているかを、容易に視認できる。
また、前記音声解析手段は、前記音声を用いて、各グループに属する対象物間の会話の活発さを示す会話活性度を、前記解析結果として生成し、前記表示手段は、前記会話活性度を示す画像を、対応するグループの前記表示画面上における位置に表示するとしてもよい。
この構成によると、各グループ内においてどの程度活発に会話が交わされているかを容易に視認できる。
また、前記取得手段は、さらに、各対象物の向きを示す向き情報を取得し、前記表示装置は、さらに、前記複数の対象物から、どの程度注目されているかを示す注目度の算出対象となる算出対象位置を取得する算出対象位置取得手段と、前記方向情報の示す方向と、前記位置情報の示す位置から前記算出対象位置までの距離を基に、前記注目度を算出する注目度算定手段を備え、前記表示手段は、さらに、前記算出対象位置に対応する前記表示画面上の位置を注目度に応じて強調表示することを特徴とする。
この構成によると、前記複数のユーザがどの位置にどの程度注目しているのかを合わせて視認することができる。
また、前記複数の対象物は、カメラを有しており、前記注目度算定手段は、各算出対象位置について、その算出対象位置を画角内に捉えているカメラを有している対象物を特定し、特定した各対象物と前記算出対象位置との距離が小さく、かつ、特定した対象物の有するカメラの画角の中心線と、特定した対象物と前記算出対象位置とを結んだ線分のなす角の絶対値が小さいほど大きな値となるように前記注目度を決定するとしてもよい。
対象物は、近くに存在し、視野の中心線上に存在するものにより注目していると考えられる。従って、上記の構成によると、カメラの画角の中心線を視野の中心線であると仮定すると、より正確に注目度を算出し、算出した注目度を画面上に表示することで、多くの対象物が注目している位置を容易に視認することができる。
また、前記算出対象位置取得手段は、前記複数の対象物のうち、1の対象物の位置を前記算出対象位置として取得するとしてもよい。
この構成によると、他の対象物から注目を集めている対象物を容易に視認できる。
また、前記表示手段は、算出された注目度が閾値以上である場合、前記算出対象位置に対応する表示画面上の位置を強調表示するとしてもよい。
この構成によると、前記複数の対象物から大きな注目を集めている位置を明確に表示することができる。
また、前記表示手段は、さらに、位置情報の取得、前記複数の対象物の分類、仕切り線の決定、しきり線及び各グループの位置関係の表示を、それぞれ、前記取得手段、前記分類手段、前記算出手段、前記決定手段及び前記表示手段に、繰り返させる繰返制御手段を備えるとしてもよい。
この構成によると、各グループ間の位置関係の変化、及び、グループ内での各対象物の位置関係の変化を時系列で視認することができる。
また、本発明は、複数の対象物間の位置関係を視覚的に表示画面に表示する表示装置であって、各対象物の位置を示す位置情報及び向きを示す向き情報を取得する前記取得手段と、前記複数の対象物から、どの程度注目されているかを示す注目度の算出対象となる算出対象位置を取得する算出対象位置取得手段と、前記位置情報の示す位置と前記方向情報の示す方向とを基に、前記算出対象位置における前記注目度を算出する注目度算定手段と、前記複数の対象物間の位置関係を表示し、前記算出対象位置に対応する前記表示画面上の位置を注目度に応じて強調表示する前記表示手段とを備えることを特徴とする。
この構成によると、前記複数の対象物が、どの位置にどの程度注目しているかを、容易に視認することができる。
また、前記複数の対象物は、カメラを有しており、前記注目度算定手段は、各算出対象位置について、その算出対象位置を画角内に捉えているカメラを有している対象物を特定し、特定した各対象物と前記算出対象位置との距離が小さく、かつ、特定した対象物の有するカメラの画角の中心線と、特定した対象物と前記算出対象位置とを結んだ線分のなす角の絶対値が小さいほど大きな値となるように前記注目度を決定するとしてもよい。
対象物は、近くに存在し、視野の中心線上に存在するものにより注目していると考えられる。従って、上記の構成によると、カメラの画角の中心線を視野の中心線であると仮定すると、より正確に注目度を決定することができる。
また、前記算出対象位置取得手段は、前記複数の対象物のうち、1の対象物の位置を前記算出対象位置として取得するとしてもよい。
この構成によると、複数の対象物のうち何れの対象物が他の対象物から注目を集めているかを容易に視認できるという優れた効果を奏する。
また、前記表示手段は、算出された注目度が閾値以上である場合、前記算出対象位置に対応する表示画面上の位置を強調表示するとしてもよい。
この構成によると、前記複数の対象物から大きな注目を集めている位置を明確に表示することができる。
本発明の実施の形態1におけるセンシングデータから複数ユーザ同士の位置関係を検出し、検出した位置関係に応じて位置関係を表示するシステム構成を示す機能ブロック図 位置関係検出部2により検出された複数ユーザ(a〜i)同士の位置関係の例を示す図 ユーザグルーピング部3により複数ユーザ同士の位置関係に関する情報を入力として算出されたグルーピング結果の例を示す図 位置関係表示部4の内部構成を示す機能ブロック図 位置関係表示部4にて為される処理の例を示す図 位置関係表示部4により画面に表示される表示形態の例を示す図 図6に説明のための補足線等を付け足した図 位置関係表示部4により画面に表示される、グループ間の実際のサイズに対する縮尺比率関係を把握可能にした表示形態の例を示す図 システムの動作を示すフローチャート システムの動作を示すフローチャートであって、図9から続く。 位置関係表示部4にて為される処理の例を示す図 位置関係表示部4により画面に表示される表示形態の例を示す(実際には表示されないが、説明のための補足線等も明示している)図 位置関係表示部4にて為される処理の例を示す図 位置関係表示部4により画面に表示される表示形態の例を示す(実際には表示されないが、説明のための補足線等も明示している)図 位置関係検出部2により検出された複数ユーザ(a〜i)同士の位置関係および向き関係の例を示す図 ユーザグルーピング部3により複数ユーザ同士の位置関係や向き関係等に関する情報を入力として算出されたグルーピング結果の例を示す図 位置関係表示部4により画面に表示される表示形態の例を示す図 本発明の実施の形態2において、センシングデータから複数ユーザ同士の位置関係を検出し、検出した位置関係に応じて位置関係を表示するとともに、ユーザの会話状況を視覚的に表示するシステム構成を示す機能ブロック図 音声情報解析部5の内部構成を示す機能ブロック図 本発明の実施の形態2における位置関係表示部4の内部構成を示す機能ブロック図 位置関係表示部4により画面に表示される、ユーザグルーピング部3により複数ユーザ同士の位置関係や向き関係を表示した例を示す図 位置関係表示部4により画面に表示される、音声情報解析部5によって得られた各ユーザの会話状況を視覚化して表示した例を示す図 位置関係表示部4により画面に表示される、音声情報解析部5によって得られたグループの会話活性度情報を視覚化して表示した例を示す全体俯瞰図 声の大きさを視覚的に表現する例を示す図 声の大きさを視覚的に表現する別の例を示す図 声の高さを視覚的に表現する例を示す図 各ユーザの発話状況の解析動作を示すフローチャート グループの会話活性度の解析動作を示すフローチャート 本発明の実施の形態3におけるシステムを示す機能ブロック図 (a)注目度の算出対象位置306と算出対象位置306を撮影しているユーザの位置関係を示す図 (b)1ユーザuと算出対象位置306の位置関係、及び、注目度算出に関するデータを示す図 注目度算定部6による算定結果を反映して表示される画面の一例 注目度算定部6の動作を示すフローチャート ユーザi及びjの動作を示す図 その他の変形例(1)において、表示される画面の一例 その他の変形例(2)において、表示される画面の一例 本発明のシステムを搭載した機器の一例 本発明のシステムを搭載した機器の一例
以下本発明の実施の形態について、図面を参照しながら説明する。
1.実施の形態1
図1は、本発明の実施の形態1において、センシングデータから複数ユーザ同士の位置関係を検出し、検出した位置関係に応じて位置関係を表示するシステム構成を示す図である。図1に示すようにこのシステムは、データセンシング部1、位置関係検出部2、ユーザグルーピング部3及び位置関係表示部4から構成される。
データセンシング部1は、ユーザが装着・搭載したセンサ(例えば、カメラ、マイクなど)もしくは環境インフラに設置されたセンサ等により、位置関係を検出するためのデータをセンシングする。位置関係検出部2は、データセンシング部1によりセンシングされたデータに基づき、複数ユーザ同士の位置関係を検出する。ユーザグルーピング部3は、位置関係検出部2により検出された複数ユーザ同士の位置関係に関する情報に基づき、前記複数ユーザをグループにグルーピングする。位置関係表示部4は、位置関係検出部2により検出された複数ユーザ同士の位置関係に関する情報とユーザグルーピング部3により抽出されたグループに関する情報に基づき、画面上に各グループを配置して表示する。
以下に各構成について詳細に説明する。
1.1 位置関係検出部2
データセンシング部1によりセンシングされたデータに基づき、複数ユーザ同士の位置関係を検出し、検出した複数ユーザ同士の位置関係に関する情報を、ユーザグルーピング部3及び位置関係表示部4へ出力する。
ここで、複数ユーザ同士の位置関係に関する情報とは、複数ユーザ同士の相対的な位置に関する情報、もしくは、一人のユーザの位置を基準とした他ユーザの相対的な位置に関する情報のことである。
図2は、位置関係検出部2により検出された複数ユーザ(a〜i)同士の位置関係に関する情報に基づいて、複数ユーザ(a〜i)同士の位置関係の例を図示したものである。
具体的には、例えば、位置関係検出部2は、図2の例におけるユーザ同士の相対的な位置(ユーザaから見たユーザbの方向と距離、ユーザbから見たユーザcの方向と距離など)を複数ユーザ同士の位置関係に関する情報として抽出してもよい。
また、別の例としては、位置関係検出部2は、図2に示されたユーザのうち1人のユーザ(例えばユーザa)の位置を原点とし、ユーザaの向いている方向をx軸、x軸を90度回転させた方向をy軸とするx−y座標平面を仮定し、x−y座標平面上の各ユーザの座標(xa,ya)、(xb,yb)、(xc,yc)・・・・(xi,yi)を算出し、各ユーザを示す識別情報と算出したこれらの座標と、仮定したx軸及びy軸に関する情報とを、複数ユーザ同士の位置関係に関する情報として出力してもよい。
また、センサの何れかが、室内の決められた位置に設置されている場合、そのセンサを基準とした、各ユーザの位置(例えばセンサからの距離と方向)を算出し、各ユーザを示す識別情報と算出した位置とを、複数ユーザ同士の位置関係に関する情報として出力してもよい。
また、各ユーザの装着しているセンサが、GPS信号受信機能を搭載していれば、各ユーザの存在する位置の緯度経度を算出し、算出した緯度経度を前記複数ユーザ同士の位置関係に関する情報として出力してもよい。
1.2 ユーザグルーピング部3
図3は、位置関係検出部2により図2に示すような複数ユーザ同士の位置関係に関する情報が検出された場合に、ユーザグルーピング部3がその情報を入力として算出したグルーピング結果の例を示す図である。点線で囲われたユーザ郡が1つのグループG(GαとGβ)を表している。ここで、前記複数ユーザのグルーピングは、前記位置関係検出部2により検出された複数ユーザ同士の位置関係に関する情報に基づき、前記ユーザのクラスタリング等の処理をすることで算出される。例えば、対象x1とx2の間の距離をD[x1,x2](例えば、ユーザu1とユーザu2の間の距離はD[x1,x2]、クラスタC1とクラスタC2の間の距離はD[C1,C2])として、以下(1)〜(3)のような階層的クラスタリングによる処理により、各グループを抽出する。
(1)まず、1人のユーザだけを含むN個(図3の例では、9個)のクラスタCがある初期状態を作る。
(2)この状態から始めて、クラスタ間の距離D[C1,C2]を計算し、最もこの距離の近い2つのクラスタを逐次的に併合する。
(3)クラスタ間の距離D[C1,C2]が所定値(もしくは、対象となる複数ユーザ間の距離D[u1,u2]の平均等に対応して設定される値、もしくは、対象となる複数ユーザ全員で占める総サイズに対応して設定される値、等々)以上になった時点で、上記(2)の処理を終了し、その時点での最終的なクラスタCをグループG(図3の例では、GαとGβ)とする。
ここで、クラスタ間の距離D[C1,C2]の算出には、下記の式1を用いる。
Figure 2008139717
(n1はクラスタC1に属するユーザ数、n2はクラスタC2に属するユーザ数)
尚、グルーピング手法は、この方法に限らない。
続いて、ユーザグルーピング部3は、抽出したグループに関する情報、具体例としては、各グループに対応する識別情報、各グループに属するユーザの識別情報(例えば、Gα={a,b,c,d,e}、Gβ={f,g,h,i}といったデータ)を位置関係表示部4へ出力する。
1.3 位置関係表示部4
図4は、位置関係表示部4の内部構成を示す図である。位置関係表示部4は、基準軸設定部401、グループ情報解析部402、グループ間関係解析部403、画面割当比率算定部404、画面配置位置算定部405、画面仕切算定部406、割当表示算定部407、画面表示部408から構成される。以下に、位置関係表示部4内の各構成にて為される処理について、図4及び図5を用いて説明する。
(1)基準軸設定部401
基準軸設定部401は、位置関係検出部2により検出された複数ユーザ同士の位置関係に関する情報に基づき、位置付けを規定するための軸を設定する。例えば図5に示すように、平面上における位置付けを規定するためのX軸Y軸を設定する。
例えば、位置関係検出部2により検出された複数ユーザ同士の位置関係に関する情報が、緯度経度と対応付けられている状態等、地図上にマッピングされた状態であった場合、東方向をX軸、北方向をY軸等といったように軸を設定してもよい。この場合、各ユーザの緯度経度をX−Y座標平面上の座標に変換する変換行列、又は、変換式生成する。
また、位置関係検出部2により検出された複数ユーザ同士の位置関係に関する情報が、室内にマッピングされた状態(例えば室内の既知の位置を基準とした各ユーザの位置)であった場合、基準軸設定部401は、X軸Y軸をその室内における位置を規定する軸に適合する形で設定してもよい(例えば、直交する2面の壁の交点を原点とし、2面の壁及び床面に並行な2軸をX軸、Y軸とする。)。この場合、基準軸設定部401は、位置関係検出部2により検出された各ユーザの位置を、X−Y座標系に変換する変換行列、又は、変換式を生成する。
また、位置関係検出部2により検出された複数ユーザ同士の位置関係に関する情報が、以上のように地図情報や室内位置情報といった位置測位の基準となる情報とマッピングされておらず、複数ユーザ同士の位置関係だけが検出されている場合は、平面上における位置付けを規定するためのX軸Y軸を任意に設定するとしてもよい。例えば、上記の1.1において例示したように、1ユーザを原点とするx−y座標平面を仮定し、各ユーザの位置をx−y座標系で表した場合、仮定したx軸及びy軸をそのままX軸及びY軸としてもよいし、x軸及びy軸に並行にX軸及びY軸を設定しても良い。この場合も、各ユーザの位置を新たに設定したX−Y座標系に変換する変換行列、又は、変換式を生成する。
続いて、基準軸設定部401は、以上のようにして生成した変換行列又は変換式を出力する。
(2)グループ情報解析部402
グループ情報解析部402は、位置関係検出部2により検出された複数ユーザ同士の位置関係に関する情報と、ユーザグルーピング部3により抽出されたグループに関する情報と、基準軸設定部401により生成された変換行列又は変換式に基づき、各グループに関する情報を解析する。
以下、複数ユーザ同士の位置関係に関する情報は、一例として、1ユーザを原点として仮定されたx−y座標系における各ユーザの座標と各ユーザを示す識別情報とする(具体的には、a(xa,ya)、b(xb,yb)・・・)。また、グループに関する情報は、一例として、各グループの識別子とそのグループに属するユーザの識別情報であるとする(具体的にはGα={a,b,c,d,e}、Gβ={f,g,h,i}であるとする)。
上記の解析の一例として、先ず、グループ情報解析部402は、各ユーザの位置を示す座標を、基準軸設定部401により生成された変換行列(又は変換式)を用いて、X−Y座標系の座標に変換する。次に、グループ情報解析部402は、基準軸設定部401により設定されたX−Y座標系において、各グループG(図5の例では、GαとGβ)に属するユーザuの位置座標から各グループGの重心c(図5の例では、cαとcβ)の座標を算出する。更に、各グループにおいて、重心cを中心としてグループに属する全てのユーザuの座標位置を包含する最小円C(図5の例では、CαとCβ)の半径r(図5の例では、rαとrβ)を、下記の式2を用いて算出する。
Figure 2008139717
また、グループ情報解析部402は、各グループGに属するユーザuの数を計数する。
(3)グループ間関係解析部403
グループ間関係解析部403は、グループ情報解析部402により解析された各グループに関する情報(図5の例では、cαとcβ、rαとrβ、各グループのユーザ数など)に基づき、グループ間の関係に関する情報を解析する。
例えば、グループG1とG2(図5の例では、GαとGβ)の中心c1とc2(図5の例では、cαとcβ)間を結ぶ線L12(図5の例では、Lαβ)の傾きΘ12(図5の例では、Θαβ)と線L12の垂線P12(図5の例では、Pαβ)の傾きΦ12(図5の例では、Φαβ)を算出する。
また、上記に限らず、グループG1とG2(図5の例では、GαとGβ)の中心c1とc2(図5の例では、cαとcβ)間を結ぶ線L12の長さなどその他のデータを解析しても良い。
(4)画面割当比率算定部404
画面割当比率算定部404は、グループ情報解析部402により解析された各グループに関する情報(図5の例では、cαとcβ、rαとrβ、各グループのユーザ数など)に基づき、位置関係検出部2により検出された複数ユーザ同士の位置関係に関する情報を画面に表示する際の、各グループに割り当てる画面領域の面積比率を算定する。例えば、画面に表示する際の各グループGに割り当てる領域の面積比率が、各グループGでの重心cを中心として属するユーザuの座標位置を包含する最小円C(図5の例では、CαとCβ)の半径r(図5の例では、rαとrβ)の比率(図5の例では、rα:rβ)、または面積の比率となるように設定する。もしくは、各グループGに属するユーザuの数の比率(図5の例では、5:4)となるように設定しても良い。
(5)画面配置位置算定部405
画面配置位置算定部405は、グループ間関係解析部403により解析されたグループ間の関係に関する情報に基づき、位置関係検出部2により検出された複数ユーザ同士の位置関係に関する情報を画面に表示する際の、各グループの画面配置位置を算定する。例えば、画面に表示する際のグループG1とG2の配置位置関係が、グループG1とG2(図5の例では、GαとGβ)の中心c1とc2(図5の例では、cαとcβ)間を結ぶ線L12(図5の例では、Lαβ)の傾きΘ12(図5の例では、Θαβ)が−45°〜45°または135°〜225°の場合は左右に並ぶように設定し、−135°〜−45°または45°〜135°の場合は上下に並ぶように設定する。図5の例では、0<Θαβ<45°であるので、画面配置位置算定部405は、画面上においてGαが左でGβが右に並ぶように設定する。
(6)画面仕切算定部406
画面仕切算定部406は、グループ間関係解析部403により解析されたグループ間の関係に関する情報と画面割当比率算定部404により算定された各グループに割り当てる画面領域の面積比率と画面配置位置算定部405により算定された各グループの画面配置位置に基づき、位置関係検出部2により検出された複数ユーザ同士の位置関係に関する情報を画面に表示する際の、各グループ間を仕切る仕切り線(以下、画面仕切と呼称)の表示位置や太さなどを決定する。
例えば、画面仕切算定部406は、画面に表示する際のグループG1とG2間の画面仕切の傾きを、グループG1とG2(図5の例では、GαとGβ)の中心c1とc2(図5の例では、cαとcβ)間を結ぶ線L12(図5の例では、Lαβ)の垂線P12(図5の例では、Pαβ)の傾きΦ12(図5の例では、Φαβ)とする。また、画面に表示する際の、画面仕切により区分けされる領域が、各グループに割り当てる画面領域の面積比率が画面割当比率算定部404により算定された面積比率一致し、かつ、各グループの画面配置位置が画面配置位置算定部405により算定された配置位置となるように画面仕切の表示位置を算出する。
また、画面仕切算定部406は、グループ間の距離に関する情報(図5の例では、グループGαとGβの中心cαとcβの間を結ぶ線分Lαβの長さ)を画面仕切の太さ等に反映してもよい。
(7)割当表示算定部407
割当表示算定部407は、位置関係検出部2により検出された複数ユーザ同士の位置関係に関する情報と基準軸設定部401により設定されたX軸Y軸と画面割当比率算定部404により算定された各グループに割り当てる画面領域の面積比率と画面配置位置算定部405により算定された各グループの画面配置位置と画面仕切算定部406により算定された画面仕切に関する情報を取得する。
これらの情報を取得すると割当表示算定部407は、ユーザ同士の位置関係を画面に表示する際、各グループに割り当てられた画面領域内に収まるように各グループの表示サイズを算定する。
例えば、各グループGの重心cを中心として属するユーザuの座標位置を包含する最小円C(図5の例では、CαとCβ)がある程度のゆとりを持って、各グループに割り当てられた画面領域内に収まるように、画面上における各グループのユーザの表示位置及び表示サイズを算出する。このとき、同一グループに属するユーザの相対的位置関係が保持されるように、各ユーザの表示位置を算出する。
(8)画面表示部408
画面表示部408は、液晶画面などの表示機構と、スピーカとを含んで構成される。
画面表示部408は、割当表示算定部407により算定された画面表示方法に基づき、各グループに属するユーザ及びグループ間の画面仕切を表示する。また、図示していないが、位置関係表示部4は、タッチパネル、各種の入力キーなど操作者の操作を受け付ける入力部を備えている。画面表示部408は、各ユーザが装着・搭載したセンサがセンシングしたデータ(画像、音声等)をリンケージしておき、画面表示部408に、グループごとに、そのグループに属するユーザの位置が表示されている状態で、入力部を介して、表示された各ユーザ位置がポイントされると各センシングデータを再生したりポップアップしたりするような視聴UIを構築する。
図6は、ユーザグルーピング部3と位置関係表示部4により図5に示すような処理が為された場合に、画面表示部408が表示する画面の一例を示す図である。例えば、各ユーザがカメラやマイク等のセンサを装着・搭載していた場合、表示された位置関係上の各ユーザ位置をポイントすれば、ポイントしたユーザが装着・搭載したセンサがセンシングしたデータ(カメラが撮影した写真や動画、マイクが収音した音声等)がメインビューやポップアップ画面等に表示されたり再生されたりする。
図7は、図6に説明のための補足線等を付け足した図である。ここで、図7に示す画面上における位置付けを規定するためのx軸y軸は、それぞれ図5に示す平面上における位置付けを規定するためのX軸Y軸と同方向としている。図7に示すように、x軸y軸に基づく画面仕切pαβは、2つの画面領域RαとRβの面積比率が、画面割当比率算定部404により算定された面積比率に等しくなり、かつ、2つの画面領域RαとRβの位置が、画面配置位置算定部405により算定された各グループの画面配置位置になるように表示されている。また、画面仕切pαβのx軸y軸に基づく傾きφαβは、画面仕切算定部406により、図5に示す線PαβのX軸Y軸に基づく傾きΦαβと同値である。更に、画面領域Rα、Rβに、それぞれ対応するグループGα、Gβに属するユーザを含む最小円(Cα、Cβ)が、ある程度のゆとりを持って収まるようサイズで表示されている。
尚、画面割当比率算定部404により算定される各グループに割り当てる画面領域の面積比率が、各グループGに属するユーザu数の比率に基づき算定された場合等に、各グループで、画面上にユーザ同士の位置関係を表示する際の実際のサイズに対する縮尺がグループ毎に異なっていてもよい。その場合には、画面表示部408は、図8の点線で示すように、各画面領域の背景にメッシュ等を表示し、グループ間の縮尺に際する比率関係が把握できるようにしてもよい。ここで、各グループにおけるメッシュにより構成される1ブロックは、実際のユーザ同士の位置関係のサイズにおいて同サイズとなるようにしている。また、図8に示すように、各ユーザの位置を示す形状のサイズにより、グループ間の縮尺に際する比率関係が把握できるようにしてもよい。ここで、各グループにおける1ユーザの位置を示す形状のサイズは、実際のユーザ同士の位置関係のサイズにおいて同サイズとなるようにしている。
グループ毎の縮尺の違いを視認できる表示であれば、図8に示すようなメッシュ状の点線に限らない。例えば、画面上に、縮尺を示すメモリを表示しても良いし、各領域内に実際のグループサイズに対する縮小率を数値で表示しても良い。
1.4 システムの動作
以下に、図11及び図12に示すフローチャートを用いて、本実施の形態のシステム全体の一連の動作について説明する。なお、ここでは、一例として、既知の位置に設置されているセンサはなく、各ユーザが装着しているセンサの検出したデータを基に画面表示を行う場合について説明する。
先ず、データセンシング部1は、各ユーザの装着しているセンサからデータを収集する(ステップS101)。収集したデータを位置関係検出部2へ出力する。
位置関係検出部2は、受け取ったデータを基に各ユーザの相対位置を検出する(ステップS102)。検出した相対位置と、各ユーザを示す識別情報とを、対応付けて、ユーザグルーピング部3と位置関係表示部4へ出力する。ここでは、一例として、ユーザaの位置を原点とした座標平面上における各ユーザの位置、a(xa,ya)、b(xb,yb)、c(xc,yc)・・・を出力する。
ユーザグルーピング部3は、位置関係検出部2から受け取った各ユーザの相対位置を基に、ユーザをグルーピングする。続いて、各グループを示す識別子と、そのグループに属するユーザを示す識別情報とを位置関係表示部4へ出力する(ステップS103)。一例として、各ユーザが図3に示す位置に存在しており、ユーザグルーピング部3は、これらのユーザをグループαとグループβにグルーピングし、グループ構成情報Gα={a,b,c,d,e,}及びGβ={f,g,h,i,j}を出力する。
位置関係表示部4内の基準軸設定部401は、位置関係検出部2によって検出された各ユーザの相対位置を受け取る。これを受け取ると、基準軸設定部401は、任意にX軸及びY軸を決定し、受け取った相対位置を決定したXY座標軸により形成されるX−Y平面状の座標に変換するための変換行列(又は変換式)を算出する(ステップS104)。次に、基準軸設定部401は、算出した変換行列をグループ情報解析部402と割当表示算定部407へ出力する。
グループ情報解析部402は、位置関係検出部2から、各ユーザの相対位置a(xa,ya)、b(xb,yb)、c(xc,yc)・・・を受け取り、ユーザグルーピング部3からグループ構成情報Gα={a,b,c,d,e,}及びGβ={f,g,h,i,j}を受け取り、基準軸設定部401から変換行列を受け取る。
これらを受け取ると、グループ情報解析部402は、先ず、変換行列を用いて、各ユーザの相対位置を、X−Y座標系の座標に変換する(ステップS106)。次に、グループ情報解析部402は、変換後の各ユーザの座標a(Xa,Ya)、b(Xb,Yb)、c(Xc,Yc)・・・と、受け取ったグループ構成情報Gα={a,b,c,d,e,}及びGβ={f,g,h,i,j}とを基に、XY座標系における、各グループの重心cαとcβとを算出する(ステップS107)。また、グループ情報解析部402は、各グループについて、重心を中心とし、そのグループに属するユーザ全てを含む最小円の半径(rα及びrβ)を算出する(ステップS109)。また、グループ情報解析部402は、各グループに属するユーザ数を計数する(ステップS111)。続いて、グループ情報解析部402は、各ユーザの識別情報と変換後の各ユーザの座標(具体的には、a(Xa,Ya)、b(Xb,Yb)、c(Xc,Yc)・・・)、算出した重心cαとcβの座標、半径rα、rβ、各グループのユーザ数、及び受け取ったグループ構成情報Gα={a,b,c,d,e,}及びGβ={f,g,h,i,j}を、グループ間関係解析部403及び画面割当比率算定部404へ出力する。
グループ間関係解析部403は、グループ情報解析部402から受け取った各グループの重心cα、cβの座標を基に、2つの重心を結んだ線分Lαβの傾き、線分Lαβの垂線の傾き及び線分Lαβの長さを算出する(ステップS112)。
続いて、グループ間関係解析部403は、算出した線分Lαβの傾き、線分Lαβの垂線の傾きを画面配置位置算定部405へ、線分Lαβの長さを画面仕切算定部406及び出力する。
画面割当比率算定部404は、グループ情報解析部402から、各ユーザの識別情報と各ユーザの座標a(Xa,Ya)、b(Xb,Yb)、c(Xc,Yc)・・・、重心cαとcβの座標、半径rα、rβ、各グループのユーザ数、及びグループ構成情報Gα={a,b,c,d,e,}及びGβ={f,g,h,i,j}を受け取る。
これらを受け取ると、画面割当比率算定部404は、画面上において各グループに割り当てられる表示領域の面積比率(Gα:Gβ)を決定し(ステップS116)、決定した面積比率を画面仕切算定部406へ出力する。また、受け取った各ユーザの識別情報と各ユーザの座標a(Xa,Ya)、b(Xb,Yb)、c(Xc,Yc)・・・、重心cαとcβの座標、半径rα、rβ、各グループのユーザ数、グループ構成情報Gα={a,b,c,d,e,}及びGβ={f,g,h,i,j}と、算出した面積比率Gα:Gβを割当表示算定部407へ出力する。
画面配置位置算定部405は、グループ間関係解析部403から、線分Lαβの傾き、線分Lαβの垂線の傾きを取得する。取得した傾きから、画面上における2つのグループの配置を算定する(ステップS117)。算定した配置を示す情報として、例えば、1ビット長のフラグを、画面仕切算定部406及び割当表示算定部407へ出力する。例えば、フラグ「0」は、2つのグループを横並びに表示することを示し、フラグ「1」は、2つのグループを上下に表示することを示す。
画面仕切算定部406は、グループ間関係解析部403から、線分Lαβの長さ及び直線Pαβの傾きを受け取り、画面割当比率算定部404から面積比率Gα:Gβを受け取り、画面配置位置算定部405から配置を示す情報を受け取る。これらを受け取ると、画面仕切算定部406は、受け取った情報を基に、画面上における画面仕切の表示位置、太さ、傾きを決定する(ステップS118)。決定した画面仕切の表示位置、太さ、傾きを割当表示算定部407へ出力する。
割当表示算定部407は、画面割当比率算定部404から、各ユーザの識別情報と各ユーザの座標a(Xa,Ya)、b(Xb,Yb)、c(Xc,Yc)・・・、重心cαとcβの座標、半径rα、rβ、グループ構成情報Gα={a,b,c,d,e,}及びGβ={f,g,h,i,j}と、各グループのユーザ数を受け取り、画面仕切算定部406から、画面上における画面仕切の表示位置、太さ傾きを受け取り、画面配置位置算定部405から、各グループの配置を示すフラグを受け取る。なお、ここでは、画面割当比率算定部404を介して、グループ情報解析部402により算出されたXY座標系における各ユーザの座標及び各グループに属するユーザ数を取得しているが、位置関係検出部2から各ユーザの相対位置を取得し、基準軸設定部401から変換行列を取得し、割当表示算定部407自身がこれらのデータを算出しても良い。
これらのデータを受け取ると、割当表示算定部407は、画面上において画面仕切により仕切られる2つの領域それぞれに、充分収まるように、各グループの表示サイズと表示位置(具体的には、各グループを構成するユーザの画面上における表示位置)を算出する。また、画面仕切の表示位置、太さ、傾きを基に画面上における場面仕切の表示領域を算出する。続いて、算出した各ユーザの画面上における表示位置と画面仕切の表示領域を画面表示部408へ出力する(ステップS119)。
画面表示部408は、割当表示算定部407から各ユーザの画面上における表示位置と画面仕切の表示領域を受け取る。受け取ったデータを基に、画面仕切により仕切られた2つの領域にそれぞれグループGαを構成するユーザ群とグループβを構成するユーザ群とを表示する画面を生成し、生成した画面をディスプレイに表示する(ステップS121)。
1.5 実施の形態1の補足及び変形例
(1)上記(図2〜3、図5〜8で示す例)においては、画面配置位置算定部405により算定された各グループの画面配置位置関係が左右(Θαβが−45°〜45°または135°〜225°)になるような例にて説明したが、例えば図11に示すように、画面配置位置算定部405により算定された各グループの画面配置位置関係が上下(Θαβが−135°〜−45°または45°〜135°)となるような場合には、位置関係表示部4により表示される表示形態の例は図12に示すようになる(実際には表示されないが、説明のための補足線等も明示している)。ここで、図12に示す画面上における位置付けを規定するためのx軸y軸は、それぞれ図11に示す平面上における位置付けを規定するためのX軸Y軸と同方向としている。図12に示す画面領域RαとRβは、x軸y軸に基づいて、画面仕切pαβにより、画面割当比率算定部404により算定された各グループに割り当てる画面領域サイズの比率と画面配置位置算定部405により算定された各グループの画面配置位置になるように設定される。また、画面仕切pαβのx軸y軸に基づく傾きφαβは、画面仕切算定部406により、図11に示す線PαβのX軸Y軸に基づく傾きΦαβと同値となるように設定される。更に、画面領域Rα、Rβに、それぞれ対応するグループGα、Gβに属するユーザ同士の位置関係に関する情報(Cα、Cβ)が、ある程度のゆとりを持って収まるようなサイズで表示される。
(2)上記においては、ユーザグルーピング部3により抽出されたグループが2つの場合の例を用いて説明したが、ユーザグルーピング部3により抽出されたグループが3つ以上の場合においても上記処理は適応できる。例えば図13に示すような、画面配置位置算定部405により算定された各グループの画面配置位置関係が、グループGαとGβについてはGαが下でGβが上、グループGβとGγについてはGβが右でGγが左、グループGγとGαについてはGγが上でGαが下となるような場合には、位置関係表示部4により表示される表示形態の例は図14に示すようになる(実際には表示されないが、説明のための補足線等も明示している)。ここで、図14に示す画面上における位置付けを規定するためのx軸y軸は、それぞれ11に示す平面上における位置付けを規定するためのX軸Y軸と同方向としている。図14に示す画面領域RαとRβとRγは、x軸y軸に基づいて、画面仕切pαβとpβγとpγαにより、画面割当比率算定部404により算定された各グループに割り当てる画面領域サイズの比率と画面配置位置算定部405により算定された各グループの画面配置位置になるように設定される。また、画面仕切pαβ、pβγ、pγαのx軸y軸に基づく傾きφαβ、φβγ、φγαはそれぞれ、画面仕切算定部406により、図13に示す線Pαβ、Pβγ、PγαのX軸Y軸に基づく傾きΦαβ、Φβγ、Φγαと同値となるように設定される。更に、画面領域Rα、Rβ、Rγに、それぞれ対応するグループGα、Gβ、Gγに属するユーザ同士の位置関係に関する情報(Cα、Cβ、Cγ)が、ある程度のゆとりを持って収まるようサイズで表示される。
(3)上記においては、ユーザグルーピング部3により為される複数ユーザのグルーピングは、複数ユーザ同士の位置関係だけを活用した例を用いて説明したが、複数ユーザ同士の向き関係や会話情報(会話のタイミング、会話相手の認識)等も活用して複数ユーザのグルーピングをしてもよい。
例えば、図15は、ユーザa〜iの位置関係と、それぞれのユーザの体の向きを示している。図中の矢印が、各ユーザの向きを示す。このような例では、複数ユーザ同士の向き関係や会話情報(会話のタイミング、会話相手の認識)等も活用すれば、複数ユーザ同士の位置関係だけからでは抽出できないグループを抽出できる。図16は、図15に示す複数のユーザを、位置関係のみならず各ユーザの向きなどを基に抽出された、コミュニケーション等のグループGαとGβを示している。グルーピングの後、図16に示すように、位置関係表示部4により上記と同様の処理を施すことで、図17に示すような表示形態で複数ユーザ同士の位置関係が画面に表示される(実際には表示されないが、説明のための補足線等も明示している)。
この場合、位置関係検出部2は、各ユーザの位置関係に関する情報に加えて、各ユーザの向きを示す情報をユーザグルーピング部3へ出力する。
ユーザグルーピング部3は、受け取った各ユーザ位置関係の情報の向きに関する情報を基に、グルーピングを行う。具体的には、上記のクラスタリングの条件として、距離が所定値以下であることに加えて、ユーザの位置を起点としユーザの向きの方向へ引いた線分が所定の閾値未満の長さで他のユーザの線分と交差することを加える。
(4)上記においては、ユーザグルーピング部3で活用された情報を位置関係表示部4により表示する例を説明したが、必ずしもユーザグルーピング部3で活用される情報全てを表示する必要はなく、また、グルーピングには用いられていない情報、例えばユーザの向き関係や発話情報等を可視化して表示するとしてもよい。
(5)上記においては、一時的な複数ユーザ同士の位置関係を表示する例を用いて説明したが、データセンシング部1により位置関係を検出するためのデータを連続的にセンシングし、位置関係検出部2により、データセンシング部1により連続的にセンシングされたデータに基づき複数ユーザ同士の位置関係を連続的に検出し、ユーザグルーピング部3により、位置関係検出部2により検出された複数ユーザ同士の位置関係に関する情報に基づき前記複数ユーザをグループに逐次的にグルーピングし、位置関係表示部4により、位置関係検出部2により連続的に検出された複数ユーザ同士の位置関係に関する情報とユーザグルーピング部3により逐次的に抽出されたグループに関する情報に基づき画面上に各グループを配置して表示する、といったように、連続的な複数ユーザ同士の位置関係を動的に表示するとしてもよい。
(6)上記においては、複数ユーザ同士の位置関係を表示する例を用いて説明したが、位置関係以外の複数ユーザ同士の関係を表示するとしてもよい。例えば、複数ユーザ同士の親密関係として、ユーザ間のメールの交換数や頻度、会議の同席数や頻度、出会った回数や頻度等をX軸Y軸として用い、その数や頻度が多い程ユーザ間の距離が近くなるようにマッピングする等により、その関係を図5のような複数ユーザ同士の位置関係と同様に表すことができる。以下、同様の処理を施すことで、図6に示すような表示形態で複数ユーザ同士の親密関係を表示することが可能となる。他の複数ユーザ同士の関係についても同様である。
2. 実施の形態2
図18は、本発明の実施の形態2のシステム構成を示す。実施の形態2に係るシステムは、実施の形態1において説明した各構成要素に加えて音声情報解析部を含む。また、各ユーザの装着しているセンサには、マイクが含まれる。装着者の音声のみをできるだけ確実に検出するため、各ユーザは、例えば指向性マイクロホンを口元に向けて装着している。また、装着者の音声以外の雑音を抑制するなどの信号処理機能を備えていても良い。
本実施の形態では、実施の形態1と同様にして、センシングデータから複数ユーザ同士の位置関係を検出し、検出した位置関係に応じて位置関係を表示するとともに、ユーザの発話状況を視覚的に表示する。位置関係検出部2及びユーザグルーピング部3は、図1に示した本発明の実施の形態1と同様の構成であるので説明を省略する。データセンシング部1は、ユーザが装着・搭載したセンサもしくは環境インフラに設置されたセンサ等により、位置関係を検出するためのデータおよび装着者の発声する音声情報をセンシングする。音声情報解析部5は、各ユーザの発声する音声情報を解析し、さらにユーザグルーピング部3により抽出された各グループの会話状況の活性度を算出する。
位置関係表示部40は、位置関係検出部2により検出された複数ユーザ同士の位置関係に関する情報とユーザグルーピング部3により抽出されたグループに関する情報に基づき、画面上に各グループを配置して表示すると同時に、音声情報解析部5により算出されたユーザの発話状況やグループの会話状況を視覚的に表示する。
以下、実施の形態2の特徴部分である音声情報解析部5を中心に、詳細に説明する。
2.1 音声情報解析部5
図19は、音声情報解析部5の内部構成を示す図である。図19に示すように、音声情報解析部5は、時間領域情報解析部501、周波数領域情報解析部502、会話表示情報算定部503、グループ会話活性度算定部504で構成される。以下に各構成要素について説明する。
データセンシング部1から得た各ユーザ音声情報は、時間領域情報解析部501と周波数領域情報解析部502で、ユーザの音声の物理的特徴量を求める。一般的に音の三要素としては、大きさ、高さ、音色がよく知られている。
(1)時間領域情報解析部501
時間領域情報解析部501は、各ユーザについて、そのユーザが発声する音声の大きさを表現するパワー情報を逐次算出すると共に、パワー情報の時系列的な変化から、発話の始端および終端の検知も同時に行う。算出したパワー情報と、発話の始端及び終端を示す情報を会話表示情報算定部503へ出力する。
また、時間領域情報解析部501は、定期的に、各ユーザの単位時間における発声数である発話頻度Ncと、単位時間あたりの発話時間率Rsを求め、さらに各ユーザの発話時間率の標準偏差Srsを算出する。算出した発話頻度Nc、発話時間率Rs、発話時間率の標準偏差Srsをグループ会話活性度算定部504へ出力する。
(2)周波数領域情報解析部502
周波数領域情報解析部502は、ユーザ毎に発話音声の声の高さを表現するピッチ周波数と、発話音声の音色と相関のあるスペクトル重心とを定期的に算出する。
ピッチ周波数は時間と共に変化して、単語のアクセントや句や節に抑揚を付与する。また性別や年齢により値の平均値が異なるため、韻律的な情報を表現していると考えられる。ピッチ周波数を算出する方法としては、周波数の調波性から推定するケプストラムを用いて算出する方法が考えられる。また、ピッチ周波数を算出する別の方法としては、自己相関関数を用いて波形の周期性から推定するアルゴリズムを使用する方法も考えられる。
一方、スペクトル重心は、音声スペクトルを分析しその調波性周波数成分の中心なる高調波の周波数成分を算出することにより求められる。
次に、周波数領域情報解析部502は、算出したピッチ周波数とスペクトル重心とを会話表示情報算定部503へ出力する。
また、周波数領域情報解析部502は、逐次的に、各ユーザの音声情報を分析することで、音声/歓声・笑い声/無音の判別を行い、単位時間あたりの歓声・笑い声区間の頻度Naを算出する。各ユーザについて算出した歓声・笑い声区間の頻度Naをグループ会話活性度算定部504へ出力する。
(3)会話表示情報算定部503
会話表示情報算定部503は、先に時間領域情報解析部501と周波数領域情報解析部502で求めた各ユーザの音声の物理的特徴量(パワー情報、発話の始端及び終端を示す情報、ピッチ周波数及びスペクトル重心)をもとに、各ユーザの発話の状態画を面上に視覚的に表示する情報を算定する。
例えば、会話表示情報算定部503は、時間領域情報解析部501で算出されたパワー情報を用いて、各ユーザの発する音声の大きさと向きを視覚的に示す情報(例えば、ユーザを示す識別情報と、以下に例示する図形を形成する画像データ)を生成する。
図24は、声の大きさを視覚的に表現する一例を示すもので、図24(i)の矢印は、ユーザaの向きを示すものであり、図24(ii)、(iii)、(iv)の扇形の図形部分は、ユーザaが発声する声の方向と大きさを表現するものである。図24において、(i)は無音状態を示している。図24の(ii)、(iii)、(iv)は、発声する音声の大きさを扇形図形のサイズにより示しており、扇形図形が大きいほど、音声が大きい。
図24の場合、会話表示情報算定部503は、時間領域情報解析部501で算出されたパワー情報と発話の始端及び終端の検知情報を元に表示する図形を決定する。まず、会話表示情報算定部503は、無音区間では図24(i)のように、扇形図形を表示せずに向きを示す矢印のみの表示するように設定する。そして音声区間の始端から終端迄の間は、会話表示情報算定部503は、パワー情報の示す音声の大きさを半径の長さに比例させた扇形図形(図24の(ii)、(iii)、(iv)に示す)を表示するように設定する。その際、会話表示情報算定部503は、扇形図形の半径の長さに、最小値と最大値を設定しておき、その間にパワー情報が写像されるようにしておき、むやみに画面表示が大きくなることを防ぐ。
図25は、声の大きさを視覚的に表現する別の例を示すもので、図25(i)の矢印は、ユーザaの向きを示す。図25(ii)、(iii)、(iv)の扇形の図形部分は、ユーザが発声する声の方向と大きさを表現するものである。図において(i)は無音状態、(ii)、(iii)、(iv)は、発声する音声の大きさを扇形図形の表示色の彩度により示している。表示色の彩度が高いほど、音声が大きいことを示す。
図25の場合、会話表示情報算定部503は、時間領域情報解析部501で算出されたパワー情報をの示す音声の大きさと彩度とが比例するように、扇形図形の表示色を設定する。この場合、図24のように扇形図形のサイズが変化しないため、ユーザが多数存在する様子を表示する際には、省スペース化という点で有利であると考えられる。
なお、ここでは、音声の大きさをパワー情報により示しているが、それ以外に例えば平均振幅値を利用してもよい。
また、別の例として、会話表示情報算定部503は、周波数領域情報解析部502で算出されたピッチ周波数を用いて、発話音声の高さを表現する情報を生成する。
図26は、声の高さを視覚的に表現した例を示す。図26の(i)、(ii)、(iii)はそれぞれ、ユーザa、b、cの発した音声のピッチ周波数を扇形図形の縞模様の間隔により表現している。ここでは、一例として、縞模様の間隔が狭いほど、ピッチ周波数が大きいことを示している。つまり、3人のユーザのうち、図26(i)に示すユーザaの音声のピッチ周波数が最も小さく、図26(iii)に示すユーザcの音声のピッチ周波数が最も大きい。
音声の音色の情報は、周波数領域情報解析部502で算出されたスペクトル重心の情報を用いて表現される。音色情報は、所定の時間長で平均化したスペクトル重心の情報を色相(赤・橙・黄・緑・青・藍・青紫)に写像することで表現する。
以上のようにして、会話表示情報算定部503は、各ユーザの発する音声の大きさ、高さ、音色といった物理的特徴量を図形および色に写像して、画面上に視覚的に表示するための画像データに変換する。
会話表示情報算定部503は、上記の変換により生成された画像データとその画像データに対応するユーザの識別情報とを位置関係表示部4へ出力する。
また、会話表示情報算定部503は、このような変換及び出力を逐次的に行うので、位置関係表示部4は、各ユーザの発話音声の時間的変化を、動的に表示することができる。
(4)グループ会話活性度算定部504
グループ会話活性度算定部504は、グループに属する各ユーザの音声の物理的特徴量とその時間的変化を鑑みて、会話への参与状況を算出し、グループとしての会話の活性度合いを推定する。
具体的には、グループ会話活性度算定部504は、グルーピング部3から各グループの構成情報(例えば、Gα={a,b,c,d,e}など)を取得し、時間領域情報解析部501により算出された各ユーザの発話頻度Ncと発話時間率Rs及び標準偏差Srs、周波数領域情報解析部502により算出された歓声・笑い声区間の頻度Naを取得する。これらの情報を基に、グループ会話活性度算定部504は、グループmのグループ会話活性度Ag(m)を例えば以下のような評価式で算出する。k0、k1、k2は正の定数とする。また、以下の式において、AVE[X]は、グループmに属するユーザにおける物理量Xを平均化することを示す。
Ag(m)=k0*AVE[Nc]+k1*(AVE[Rs]−Srs)+k2*AVE[Na]
グループ会話活性度算定部504は、このように、各ユーザの音声情報を解析して推定した会話活性度Agを、グループの会話の活性度を示す数値として算出することができる。
続いて、グループ会話活性度算定部504は、算出したグループ会話活性度Agの値に応じて、グループの会話の活性度合いを可視化して表現するためのデータ、例えば、会話活性度を色、彩度、色の濃度などに写像して生成した色情報と、Agの算出対象となったグループを示す識別子とを対応付けて、位置関係表示部4へ出力する。
2.2 位置関係表示部40
図20は、位置関係表示部40の内部構成を示しており、参照符号401、402、403、404、405、406の機能部は、図4に示す各機能部と同様の機能を備えるので、同一の参照符号を付し説明を省略する。
図4に示す位置関係表示部4と図20に示す位置関係表示部40の相違点は、割当表示算定部417、画面表示部418の処理内容である。本実施の形態では、割当表示算定部417は、音声情報解析部5の出力である発話状況の情報(各ユーザの発話の物理的情報と、グループの会話活性度情報)が与えられる。具体的には、割当表示算定部417は、上述した各ユーザの音声の物理的情報を写像した画像データと、各グループの会話の活性度合いを写像した色情報とそのグループを示す識別子とを受け取る。
割当表示算定部417は、実施の形態1の割当表示算定部407と同様にして、位置関係検出部2により検出された複数ユーザ同士の位置関係に関する情報と基準軸設定部401により設定されたX軸Y軸と画面割当比率算定部404により算定された各グループに割り当てる画面領域サイズの比率と画面配置位置算定部405により算定された各グループの画面配置位置と画面仕切算定部406により算定された画面仕切に関する情報を取得し、これらの情報を基に、各グループに割り当てられた画面領域内おける、各グループに属するユーザ同士の位置関係を表示するサイズを算定する。
例えば、具体的には、各グループGの重心cを中心として属するユーザuの座標位置を包含する最小円C(図5の例では、CαとCβ)がある程度のゆとりを持ってそのグループに割り当てられた領域に収まるように、各グループに属するユーザの表示位置と表示サイズ、各ユーザの発話状況示す画像データの表示位置及び方向(ユーザの表示位置を基点とし、体の向きと同じ方向)を算定する。
画面表示部408は、割当表示算定部407により算定された画面表示方法に基づき、複数ユーザ同士の位置関係に関する情報と、各ユーザの発話状況を視覚化する画像とを表示する。また、表示された複数ユーザ同士の位置関係において、各ユーザが装着・搭載したセンサがセンシングしたデータ(画像、音声等)をリンケージしておき、表示された位置関係上の各ユーザ位置をポイントした場合に各センシングデータを再生したりポップアップしたりするような視聴UIを構築する。
図21は、ユーザグルーピング部3と位置関係表示部4により図5に示すような処理が為された場合に、画面に表示される表示形態の例を示す図であり、ユーザa〜lには各々の向かっている向き情報を矢印で付加している。この段階では各ユーザの発話状況の視覚化した情報を反映していない。
図22は、図25に示した声の大きさを表現する様式で扇形図形を付加した例である。この扇形図形に、各ユーザの発話状況を示す物理的情報である声の大きさ、高さ、音色情報が付与される。この例において、グループGαでは、ユーザbが自分の属するグループのユーザ以外に発声し、ユーザcとユーザdが対面して会話し、ユーザa、eは自分の属するグループ以外の方向を見てしばらく発話していない状況を視覚的に表現している。一方、グループGβでは、4人のユーザf、g、h、Iがお互いに対面して会話している状況を表現している。また、グループGγは、3人のユーザがそれぞれ、自分の属するグループ以外の方向を向いて発話していない状況である。図22の表示では、3グループの各ユーザの発話状況と向き合う状況は視覚的に把握できる。
図23は、各グループの位置関係を俯瞰する形態で表示を行う例である。この場合、割当表示算定部417は、位置関係検出部、基準軸設定部及びユーザグルーピング部から出力される情報に従って、画面上に各ユーザの表示位置を算出し、画面割当比率算定部、画面仕切算定部及び画面配置位置算定部から出力される情報は加味しない。
この図では、3つのグループの相対的な位置関係は、把握できるが、各ユーザの表示サイズが小さいため、これに各ユーザの発話状況の物理的情報を視覚化する図形を入れると、図形が小さすぎるか重なり合うかになって、十分な視覚化が実現できない。そのため、この表示形態の場合には、割当表示算定部417は、各ユーザの発話状況示す画像の表示位置及び方向に代えて、各グループの会話の活性度合いを写像した色情報を出力する。
画面表示部418は、各グループに対応する色情報を基に各グループの会話活性度を比較表示する。図23では、画面表示部418は、グループ毎に最小円Cの範囲に、色情報の示す色を表示することで、各グループの会話活性度を彩度あるいは色相などにより視覚化している。
また、画面表示部418は、操作者の操作により、図22に示す画面と図23に示す画面とを切り替えて表示しても良い。
2.3 音声情報解析部5の動作
図27及び図28は、音声情報解析部5の動作を示すフローチャートである。以下に図27及び図28を用いて、音声情報解析部5の動作について説明する。
なお、説明の便宜上、図27に示す動作と図28に示す動作とを個別の図面に記載したが、これらの2つ動作は、順次実行されても良いし、同時並行的に実行されるとしてもよい。また、操作者による選択操作を契機として、何れか一方の動作を行ってもよい。
(1)各ユーザの発話状況の解析
図27は、音声情報解析部5による各ユーザの発話状況の解析の動作を示している。ここでは、1ユーザの発話状況の解析について図示しているが、音声情報解析部5は、同様の動作を、全てのユーザについて逐次的に繰返し実行する。もしくは、全てのユーザについて、同時並行に動作する。
時間領域情報解析部501は、データセンシング部1から取得した音声信号からパワー情報を算出する(ステップS201)。次に、時間領域情報解析部501はパワー情報の時系列での変化度合いに基づき、ユーザによる発話の始端及び終端を検出する(ステップS202)。
会話表示情報算定部503は、発話の始端から終端時刻までにおけるパワー値を、音声の大きさを示す尺度(例えば、扇形図形の半径の長さ、彩度)に写像変換する(ステップS204)。
一方、周波数領域情報解析部502は、データセンシング部1から取得した音声信号をFFT(Fast Fourier Transform)により分析し(ステップS211)、さらに、ケプストラム分析する(ステップS212)。次に、分析結果から、ピッチ周波数を算出し(ステップS213)、スペクトル重心を算出する(ステップS214)。
会話表示情報算定部503は、ピッチ周波数を、始端から終端時刻までにおける声の高さを示す尺度(例えば、縞模様の間隔)に写像変換する(ステップS216)。また、スペクトル重心を、始端から終端時刻までにおける音声の音色を示す尺度(例えば色相など)に写像変換する。
続いて、会話表示情報算定部503は、写像変換後の音量、声の高さ、音色を示すデータを位置関係表示部40へ出力する(ステップS218)。
(2)グループmの会話活性度の解析
図28は、音声情報解析部5による、グループmの会話活性度の解析に係る動作を示している。ここでは、1個のグループに関する動作のみを図示しているが、音声情報解析部5は、同様の動作を、全てのグループについて、定期的に実行する。
ステップS220〜ステップS233の間、時間領域情報解析部501及び周波数領域情報解析部502は、グループmに属する全てのユーザについて、ステップS221〜ステップS232の処理を繰り返す。ここでは、説明の便宜上、各ユーザについて繰り返すように記載しているが、全てのユーザについて、並行してステップS221〜ステップS232の処理を行うとしてもよい。
先ず、時間領域情報解析部501は、データセンシング部1から取得した音声データからパワー情報を逐次的に算出する(ステップS221)。続いてパワー情報の時系列的な変化度合いに基づき、ユーザによる発話の開始及び終端を検出する(ステップS222)。
次に、時間領域情報解析部501は、単位時間当たりの発声数に基づき発話頻度Ncを算出する(ステップS223)。また、単位時間当たりの発声時間に基づき、発話時間率Rs及び標準偏差Srsを算出する(ステップS224)。
周波数領域情報解析部502は、音声信号をFFTにより解析し(ステップS226)、スケプトラム分析する(ステップS227)。次に、周波数領域情報解析部502は、解析結果を基に、ピッチ周波数を算出し(ステップS228)、スペクトル重心を算出する(ステップS229)。
次に、周波数領域情報解析部502は、時間領域情報解析部501により検出された始端から終端時刻の間のスペクトル分析に基づき、音声の種別(音声/歓声及び笑い声/無音)を判定する(ステップS231)。判定結果を基に、周波数領域情報解析部502は、単位時間当たりの歓声及び笑い声区間の頻度Naを算出する(ステップS232)。
繰返しが終了すると(ステップS233)、時間領域情報解析部501は、各ユーザの発話頻度Nc及び発話時間率Rsと、Rsの標準偏差Srsとを出力する。
また、周波数領域情報解析部502は、各ユーザの単位時間当たりの歓声及び笑い声区間の頻度Naを出力する。
グループ会話活性度算定部504は、時間領域情報解析部501及び周波数領域情報解析部502から出力されたデータを基に、グループmの会話活性度Ag(m)を算出する(ステップS236)。続いて、単位時間当たりのグループmの会話活性度Ag(m)を彩度又は色相に写像変換する(ステップS237)。次に、グループ会話活性度算定部504は、変換により生成された彩度又は色相を示すデータを位置関係表示部40へ出力する(ステップS238)。
3.実施の形態3
図29は、実施の形態1と同様に各ユーザの位置、向きを基に所定の空間内に存在するグループをピックアップして表示し、さらに、ユーザ達の注目を集めている人(又は位置)、及び、注目の度合いを可視化して表示するシステムを示すブロック図である。
実施の形態3のシステムによると、ある領域(例えば1つの室内)に存在する複数のユーザをグループ化して表示すると共に、ユーザ達の注目がどこに集中しているかを一目で知ることができる。
このシステムを構成するデータセンシング部1、位置関係検出部2、ユーザグルーピング部3の構成及び動作は実施の形態1と同様であるので説明を省略し、本実施の形態の特徴部分を中心に説明する。
3.1 注目度算定部6
注目度算定部6は、予め、各ユーザが装着しているセンサ(ここでは、カメラ)の左右の画角を記憶している。
注目度算定部6は、位置関係検出部2から、定期的に、各ユーザの位置および向きを取得し、取得した各ユーザの位置及び向きを基に所定の位置にユーザ達がどの程度注目しているかを数値化した注目度を算出する。注目度算定部6が位置関係検出部2から取得する各ユーザの位置及び向きは、実施の形態1において説明した各ユーザ間の相対位置又は既知の位置に設置されているセンサに対する相対位置である。ここでは、一例として、1人のユーザの位置を原点として仮定されたx−y座標系の座標により、各ユーザの位置及び向きが表現されているものとする。また、注目度算出の対象となる位置もx−y座標系の座標により表現されているとする。
次に、算出した注目度に応じて各位置をレベル分けする。注目度算定部6は、各ユーザの位置及び方向を取得するたびに、注目度算出及びレベル分けを随時実行する。
以下に注目度算定部6による注目度算出の手順及びレベル分けの手順について説明する。
<注目度算出について>
注目度算定部6は、取得した各ユーザの位置、向き及びカメラの画角から、注目度算出の対象となる所定の位置(以下、算出対象位置)を画角内に捉えているカメラを装着しているユーザを特定する。
図30(a)は、所定の算出対象位置306と、算出対象位置306を画角内に捉えているカメラを装着している全てのユーザ(ユーザa、b、c)の位置関係を示している。図中の破線は各ユーザの装着しているカメラの撮影可能範囲を示している。破線308及び309の為す角316が、ユーザaの装着しているカメラの画角であり、破線311及び312の為す角317が、ユーザbの装着しているカメラの画角であり、破線313及び314の為す角318が、ユーザcの装着しているカメラの画角である。
図30(b)は、算出対象位置(x,y)306と、算出対象位置(x,y)306を画角内に捉えているカメラを装着している1人のユーザu 304(u=a,b,c)との位置関係を示している。破線301及び302は、ユーザu 304の装着しているカメラの撮影可能範囲を示しており、破線301及び302のなす角307カメラの画角である。破線303が画角307の中心線である。
ユーザu 304からの距離が短く、ユーザu 304の向きを示す破線303に近いほど、算出対象位置306は、ユーザu 304から注目されていると推測される。従って、ユーザu 304の算出対象位置306に対する注目度Puは、算出対象位置306とユーザu 304とを結ぶ線分305の長さと、線分305と破線303のなす角θuに依存する。
一例として、注目度Puは、下記の式3により求められる。
Figure 2008139717
上記の式3で、(xu,yu)は、時刻tにおけるユーザu 304の位置座標、a,b,cは、正の定数であり、−π<θu<πである。
ユーザa、b、cそれぞれについて、同様の演算を行い、Pa(x,y)、Pb(x,y)、Pc(x,y)の和P(x,y)を、算出対象位置(x,y) 306に対する注目度とする。
以下の式4は、注目度P(x,y)を算出する式の一例をである。
Figure 2008139717
式4において、nは、算出対象位置306を画角内に捉えているカメラを装着しているユーザの総数(図30(a)の例では3)、uは、算出対象位置306を画角内に捉えているカメラを装着しているユーザ付す番号(例えばu=1はユーザaを指す)、ωnは、nに応じて変動する変数である。
なお、算出対象位置(x,y)を撮影しているカメラが一台も存在しなければ(つまり、n=0であれば)、P(x,y)=0となる。
ここで、瞬間的なよそ見などユーザの視線の揺らぎによる画面のちらつきを緩和するために、式4に代えて、以下の式5により算出される積分値を注目度としても良い。
Figure 2008139717
上述した式3、式4及び式5は、一例であって、線分305の長さ及び角度θuの絶対値が小さいほど、注目度が増加するような式であれば、他の演算式を用いても良い。
以上において説明した手順でx−y平面上の各算出対象位置について、注目度P(x,y)を算出する。注目度算出対象となる位置、算出対象位置の総数及びその間隔は、予め定められている。例えば、原点及びx軸方向に0.2メートルおき、y軸方向に0.2メートルおきに格子状に配置される各点を、算出対象位置とする。又は、ユーザが存在する領域(例えば室内)の広さや、ユーザ総数に応じて、随時、注目度の算出対象位置、間隔、算出対象位置の総数を算出しても良い。又は、当該システムの操作者により、算出対象位置の入力を受け付けるとしても良い。
<レベル分けについて>
注目度算定部6は、予め閾値th1、th2、th3・・・(th1>th2>th3・・・>thm mは自然数)を記憶している。
注目度算定部6は、算出された注目度A(x,y)の値と、閾値th1、th2、th3・・・を比較し、A≧th1を満たす算出対象位置を第1レベル、th1>A≧th2を満たす算出対象位置を第2レベル、th2>A≧th3を満たす算出対象位置を第3レベル・・・というように、注目度により各算出対象位置をレベル分けする。続いて、各レベルを示すレベル情報とそのレベルに属する算出対象位置の座標とを対応付けて位置関係表示部7へ出力する。なお、thm>Aを満たす算出対象位置の座標は、位置関係表示部7へ出力しない。
3.2 位置関係表示部7
位置関係表示部7は、実施の形態1において図4に示す構成とほぼ同様であるので、同様である部分の説明は割愛し、図4と異なる割当表示算定部について説明する。
割当表示算定部は、実施の形態1と同様に、位置関係検出部2及び、位置関係表示部7内の各機能部から受け取った情報を基に、各グループに割り当てる画面上の領域及び各グループの表示サイズ、表示位置を算定する。
さらに、割当表示算定部は、注目度算定部6から、各レベルにつき、レベル情報とそのレベル情報の示すレベルに属する位置を示す座標とを受け取る。
これらを受け取ると、割当表示算定部は、基準軸設定部により生成された変換行列を用いて、受け取った全ての座標を、xy座標系からXY座標系に変換する。
次に、割当表示算定部は、各位置の画面上における表示位置を算出する。また、同一レベルに属する位置に対応する表示位置に同一の色を配色する。
画面表示部は、割当表示算定部が算定した表示位置に各グループのユーザ及び画面仕切を表示し、さらに、算出された表示位置に配色された色を表示する。
図31は、画面表示部により表示される画面の一例である。図31に示される画面511は、画面仕切り521、522及び523により、領域512、514及び515に仕切られている。領域515には、ユーザa、b、c、d、eにより形成されるグループが表示されている。領域512には、ユーザf、g、h及びiにより形成されるグループが表示されている。領域514には、ユーザj、k、lにより形成されるグループが表示されている。図面上の矢印は、各ユーザの視線の方向を示している。
現在、ユーザAの近傍がユーザの注目を集めており、ユーザaを含む領域526は、最も注目度の高い第1レベルの領域であり最も濃い色が表示されている。領域527は、2番目に注目度の高い第2レベルの領域であり領域526よりもやや薄い色が表示される。領域528は、3番目に注目度の高い第3レベルの領域であり、領域527よりもさらに薄い色が表示されている。
3.4 注目度算定部6の動作
図32は、注目度算定部6の動作を示すフローチャートである。注目度算定部6は、図32に示す一連の動作を定期的又は逐次的に繰り返す。以下、図32に従って、注目度算定部6の動作について説明する。
先ず、注目度算定部6は、位置関係検出部2から各ユーザの位置及び向きを示す情報を取得する(ステップS251)。
次に、ステップS252〜ステップS256の間、注目度算定部6は、全ての算出対象位置について、ステップS253〜ステップS254の処理を繰り返す。
注目度算定部6は、算出対象位置(x,y)を画角内に捉えているカメラを装着しているユーザを検出する(ステップS253)。検出した各ユーザの位置、向き、などを基に、注目度A(x,y)を算出する(ステップS254)。
全ての算出対象位置についての繰返しが終了すると(ステップS256)、注目度算定部6は、算出した注目度の値により、各算出対象位置をレベル分けする(ステップS257)。次に、注目度算定部6は、レベル毎に、レベルを示す情報と、そのレベルに属する算出対象位置の座標とを対応付けて位置関係表示部7へ出力する(ステップS258)。
3.5 実施の形態3の補足及び変形例
(1)上記の実施の形態では、所定の範囲内(例えば室内)の全面に対して、均一に注目度を算出する位置を配置しているが、これに限定されるものではない。
例えば、ユーザグルーピング部により検出されたグループの近傍を注目度算出の対象範囲としてもよい。この場合、例えば、注目度算定部6は、各グループについて、重心c’を算出し、c’を中心とし、グループに属するユーザ全てを含む最小円の半径r’を算出する。
注目度算定部6は、グループの中心c’から半径(r+n)の範囲を注目度算出の対象範囲とする(nは、任意の定数であってもよいし、半径rやそのグループに属するユーザ数に応じて増減する変数であってもよい)。
注目度算定部6は、注目度算出の対象範囲内の任意の位置を注目度の算出対象位置とする。
(2)上記の実施の形態3では、注目度算定部6は、各算出対象位置を、算出された注目度により、複数のレベルにレベル分けし、その結果画面に表示される画像は、同レベルの算出対象位置に該当する部分が同一の色で表示されている。しかし、このように、離散的にレベル分けせずに、算出された注目度の値に比例して、表示される色の濃度や色彩が変化する構成であっても良い。
(3)上記の実施の形態3では、算出対象位置を撮影しているカメラの位置と算出対象位置の位置関係のみに従って、注目度を算出した。しかし、ユーザの存在する位置に注目が集まりやすいと仮定して、以下のような手順で注目度を算出しても良い。
実施の形態3において説明したP(x,y)に、算出対象位置(x,y)の近傍に存在するユーザによる影響を示す項Q(x,y)を加えた値を注目度E(とする。
この場合、注目度算定部6は、1の算出対象位置(x,y)を、画角内に捉えているカメラを特定する。特定したカメラにより、前記算出対象位置と共に撮影されているユーザを特定する。
特定したユーザのうちの1人(ユーザu)が、算出対象位置(x,y)に与える影響Quは、例えば下記の式6により算出される。
Figure 2008139717
ここで、(xu,yu)は、ユーザuの位置を示す座標、φuは、ユーザuの向きと、ユーザuの位置から位置(x,y)への向きとの間の角度である(−π<φu<π)。また、d、e、fは正の定数である。
次に、注目度算定部6は、特定した全てのユーザが、算出対象位置(x,y)に与える影響Q(x,y)を、下記の式7により算出する。
Figure 2008139717
ここで、式7において、mは、前記算出対象位置(x,y)と共に撮影されたユーザの総数、uは、前記算出対象位置と共に撮影されているユーザを計数する変数、ωmは、mによって変動する変数である。
なおm=0の場合はQ(x,y)=0である。
次に、注目度算出部6は、上記の式により求めたP及びQから算出対象位置(x,y)における注目度E(x,y)を算出する。
E(x,y)=P(x,y)+Q(x,y)
また、瞬間的なよそ見などユーザの視線の揺らぎに起因する画像のちらつきを緩和するために、上記の式7に代えて、下記の式8により求められる積分値を、注目度E(x,y)としてもよい用いても良い。
Figure 2008139717
(4)上記の実施の形態3では、注目度算定部6は、座標平面状の各位置について注目度を算出したが、室内に存在する各ユーザが、他のユーザからどの程度注目されているかを示す値として注目度を算出しても良い。
この場合、算出対象位置は、各ユーザの位置となる。
従って、1のユーザj(算出対象ユーザ)に対する注目度E(xj,yj)は、上記の式4に算出対象ユーザjの位置座標(xj,yj)を代入すればよい。
続いて、注目度算定部6は、算出した注目度Ejと所定の閾値Thとを比較し、Eu≧Thを満たす場合、算出対象ユーザjを示すユーザ識別情報を位置関係表示部7へ出力する。
位置関係表示部7内の割当表示算定部は、注目度算定部6からユーザ識別情報を受け取る。ユーザ識別情報を受け取ると、画面上において、受け取った識別情報の示すユーザに、他のユーザとは異なる形態を割り当てる。例えば、他のユーザとは形状や大きさの異なるアイコン、他のユーザとは異なる色が割り当てられる場合などが考えられる。
(5)上記の実施の形態3及び変形例では、算出対象ユーザは所定の位置に止まっているとして、注目度を算出した。しかし、注目度は時間的に蓄積されるものと仮定して、移動する算出対象ユーザjの注目度を算出しても良い。
例えば、図33に示すように、算出対象ユーザjは、位置532から位置533を通過し、位置534へ移動している。
位置531にいるユーザiは、算出対象ユーザjに注目しており、算出対象ユーザjの移動に合わせて体の向きを方向536、方向537、方向538へと変えている。直線539及び540は、ユーザjが位置534に存在する時刻において、ユーザiの装着しているカメラの撮影可能範囲を示している。
このように、算出対象ユーザjが移動している場合、算出対象ユーザjに対するの他のユーザの注目度Ejは、一例として、下記の式9により算出される。
Figure 2008139717
式9において、変数nは算出対象ユーザjに注目している、より正確には画角内に算出対象ユーザjを捉えているカメラを装着しているユーザの総数であり、tijは撮影側のユーザiのカメラの画角内に算出対象ユーザjが入った時刻である。ωnは、変数nによって定まる任意の定数である。
このようにすることで、注目度算定部6は、算出対象ユーザjが移動していてもその算出対象ユーザjに対する他のユーザの注目度を算出することができる。
続いて、注目度算定部6は、算出した注目度E(j)と所定の閾値Thとを比較し、E(j)≧Thを満たす場合、被写体ユーザjを示すユーザ識別情報を位置関係表示部7へ出力する。
位置関係表示部7内の割当表示算定部は、注目度算定部6からユーザ識別情報を受け取る。ユーザ識別情報を受け取ると、画面上において、受け取った識別情報の示すユーザに、他のユーザとは異なる形態を割り当てる。例えば、他のユーザとはや大きさの異なるアイコン、他のユーザとは異なる色が割り当てられる場合などが考えられる。
4.その他の変形例
なお、本発明を上記の実施の形態に基づいて説明してきたが、本発明は、上記の実施の形態に限定されないのはもちろんである。以下のような場合も本発明に含まれる。
(1)上記の実施の形態1−3及びその変形例において、位置関係表示部は、以下のような機能を備えていても良い。
タッチパネル、マウス、キーボードなどの入力部を含んでおり、操作者による操作を受け付ける。例えば、画面表示部に、各グループが表示されている状態で、何れかのユーザを選択する操作がなされると、割当表示算定部は、データセンシング部から、選択されたユーザの装着しているカメラの撮影した画像を取得し、画面表示部へ出力する。画面表示部は、取得した画像を現在表示中の画面上にポップアップ表示する。
図34は、ここで表示される画面の一例を示す。画面541上には、領域546、547、548それぞれに、グループを構成するユーザが表示されている。図中の矢印は、各ユーザの向きを示している。操作者は入力部を操作して、ポインタ542を移動させ、ユーザaを選択している。ユーザaが選択されると、ユーザaの装着しているカメラの撮影した画像543が、ユーザaの近傍にポップアップ表示される。破線544及び545は、ユーザaの装着しているカメラの撮影可能範囲を示している。
(2)また、上記の変形例(1)に加えて、他のユーザの装着しているカメラにより撮影された画像のうち、操作者により選択されたユーザを捉えている画像を表示してもよい。
具体的には、割当表示算定部は、各ユーザの位置、向き、カメラの画角から、選択されたユーザを画角内に捉えているカメラを装着しているユーザを特定する。次に、割当表示算定部は、データセンシング部から特定したユーザの装着しているカメラにより撮影された画像を取得し、画面表示部へ取得した画像を出力する。 画面表示部は表示中の画面上に、取得した画像をポップアップ表示する。
図35は、ここで表示される画面551の一例を示す。図中の破線561〜599は、ユーザb、e、g及びjの装着しているカメラの撮影可能範囲を示している。破線561及び562は、ユーザbの装着しているカメラの撮影可能範囲を示しており、破線561及び562のなす角は、カメラの画角である。破線563及び564は、ユーザeの装着しているカメラの撮影可能範囲を示しており、破線566及び567は、ユーザgの装着しているカメラの撮影可能範囲を示しており、破線568及び569は、ユーザjの装着しているカメラの撮影可能範囲を示している。これにより、ユーザaが、ユーザb、e、g及びjの装着しているカメラの画角内に位置していることが分かる。
操作者は、入力部を操作してポインタ552を移動させ、ユーザaを選択している。ユーザaが選択されると、ユーザaの装着しているカメラの撮影した画像558がポップアップ表示される。続いて、ユーザb、e、g及びjの装着しているカメラの撮影した画像553、554、556及び557がポップアップ表示される。画像553、554、556及び557のいずれにも、ユーザaが表示されている。
(3)上記の変形例(1)、(2)において、選択されたユーザに関する画像をポップアップ画面に表示するとしたが、この方法に限定されるものではない。
例えば、画面表示部が、複数の表示デバイスを備えている場合や、1画面内で、分割表示が可能な場合、1つの表示デバイス(又は1つの表示領域)にグルーピングされた各ユーザの位置を表示し、他の表示デバイス(又は他の表示領域)に選択されたユーザに関する画像を表示しても良い。
(4)図36は、実施の形態1〜3及び変形例において説明したシステムを搭載した装置の一例である端末装置1000の外観を示している。
端末装置1000は、具体的には、マイクロプロセッサ、RAM、ROMを含んで構成されるコンピュータシステムであって、RAM、ROMにはコンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムに従って動作することにより、端末装置1000は、その機能の一部を達成する。
端末装置1000は、ディスプレイ1001、入力部1002及び通信部1003を備えている。
ディスプレイ1001は、画面表示部を構成する表示デバイスであり、各種の画面を表示する。
入力部1002は、操作者により操作される各種のボタンを含んで構成される。
通信部1003は、無線通信機構を備え、各ユーザの装着しているセンサからデータを収集する。通信部1003は、上記のデータセンシング部の機能を担う。
また、内部に搭載されたマイクロプロセッサ及びコンピュータプログラムにより、上記の位置関係検出部、ユーザグルーピング部、音声情報解析部、注目度算定部、位置関係表示部の機能が実現される。
なお、端末装置1000は、システムの一部の機能のみを搭載していてもよい。例えば、データセンシング部及び位置関係検出部は、別途、検出機器に搭載されており、端末装置1000は、通信部1003を介して、検出機器から、各ユーザの位置情報など、各種の情報を取得し、解析及び画面表示を行う機器であっても良い。
また、端末装置1000は、このシステムの専用機器である必要はなく、例えば、携帯電話、携帯ゲーム機、PDAなどであってもよい。
(5)また、図37は、上記の実施の形態及び変形例において説明したシステムを実現する機器構成の別の例を示している。
この例では、システムは、STB(Set Top Box)デバイス2001と、TVデバイス2002と、図示しないコントローラ、データセンシング装置から構成される。
図示していないデータセンシング装置は、データセンシング部の機能を備え、各ユーザの装着しているセンサから画像データ、音声データなどを取得する。取得したデータを有線又は無線通信により、STBデバイス2001へ出力する。
STBデバイス2001は、例えば、HDDレコーダ、DVDレコーダ、コンポ等である。STBデバイス2001は、具体的には、マイクロプロセッサ、RAM、ROMを含んで構成されるコンピュータシステムであって、RAM、ROMにはコンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムに従って動作することにより、STBデバイス2001は、その機能の一部を達成する。
STBデバイス2001は、上記の実施の形態において説明したシステム内の位置関係検出部、ユーザグルーピング部、音声情報解析部、注目度算定部、及び、位置関係表示部内の大部分の機能を備える。
TVデバイス2002は、PDP、LCD等であり、前記STBと接続ている。位置関係表示部内の画面表示部の機能を担っており、算出されたユーザ同士の位置関係や指定されたユーザが装着するカメラが撮影した画像等を表示する。
(6)上記の実施の形態及び変形例では、室内など所定の領域に存在するユーザ、つまり人間を対象としてグルーピング及び、位置関係の表示をする技術について説明してきたが、人間に限らず、自動車や自転車といった移動機器、放牧されている家畜、野生の動物などを対象としても良い。
(7)また、本発明は、複数ユーザ間の関係に関する情報に基づき、前記複数ユーザを複数グループにグルーピングするユーザグルーピング手段と、前記ユーザグルーピング手段により抽出された複数グループに関する情報に基づき、画面上に各グループを配置して表示するユーザ関係表示手段とを備えることを特徴とするユーザ関係表示装置である。
(8)上記の変形例(7)のユーザ関係表示装置は、更に、複数ユーザの位置関係を検出する位置関係検出手段とを備え、前記ユーザグルーピング手段は、前記位置関係検出手段により検出された複数ユーザの位置関係に関する情報に基づき、前記複数ユーザを複数グループにグルーピングし、前記ユーザ関係表示手段は、前記ユーザグルーピング手段により抽出された複数グループに関する情報に基づき、画面上に各グループを配置して、各グループに属するユーザの位置関係を表示するとしてもよい。
(9)上記の変形例(8)ユーザ関係表示装置を構成するユーザ関係表示手段は、前記ユーザグルーピング手段により抽出された複数グループの関係が把握できる形態で、画面上に各グループを配置して表示するとしてもよい。
(10)上記の変形例(7)又は(8)のユーザ関係表示装置において、前記ユーザ関係表示手段は、前記ユーザグルーピング手段により抽出された複数グループの関係が把握できる形態で、画面上においてグループ同士を区分けする仕切りを表示するとしてもよい。
(11)上記の変形例(7)又は(8)の前記ユーザ関係表示手段は、前記ユーザグルーピング手段により抽出された複数グループに関する情報に応じて、画面上において各グループに割り当てる領域サイズを設定することを特徴とするとしてもよい。
(12)上記の変形例(7)又は(8)のユーザ関係表示装置において、前記ユーザ関係表示手段は、前記ユーザグルーピング手段により抽出された複数グループの各グループ同士の実サイズ比較が把握できる情報を表示するとしてもよい。
(13)上記の変形例(7)の前記ユーザ関係表示装置は、更に、複数ユーザの位置関係を検出する位置関係検出手段と、複数ユーザが発声する音声情報を解析する音声情報解析手段とを備え、前記ユーザグルーピング手段は、前記位置関係検出手段により検出された複数ユーザの位置関係に関する情報に基づき、前記複数ユーザを複数グループにグルーピングし、前記ユーザ関係表示手段は、前記ユーザグルーピング手段により抽出された複数グループに関する情報に基づき、画面上に各グループを配置して、各グループに属するユーザの位置関係と、各グループにおける会話状況を視覚的に表示するとしてもよい。
(14)上記の変形例(13)のユーザ関係表示装置を構成する前記音声情報解析手段は、複数ユーザが発声する音声情報に対して、各発声の時間領域情報、周波数領域情報を分析し、さらに、これらの情報を元に各グループ毎の会話活性度を算出するとしてもよい。
(15)上記の変形例(13)又は(14)に記載のユーザ関係表示装置を構成する前記ユーザ関係表示手段は、前記ユーザグルーピング手段により抽出されたグループに属する各ユーザの会話の物理的特徴とその時間的変化状況を視覚的に把握できる形態で、画面上に表示するとしてもよい。
(16)上記の変形例(13)又は(14)に記載のユーザ関係表示装置を構成する前記ユーザ関係表示手段は、前記ユーザグルーピング手段により抽出された複数グループの大局的な会話活性度が視覚的に比較できる形態で画面上に表示するとしてもよい。
(17)上記の変形例(13)又は(14)に記載のユーザ関係表示装置を構成する前記ユーザ関係表示手段は、前記ユーザグルーピング手段により抽出された複数グループに関する情報に応じて、画面上において各グループに割り当てる領域サイズを設定し、画面上の会話状況の表示形態を選択するとしてもよい。
(18)また、本発明は、複数ユーザ間の関係に関する情報に基づき、前記複数ユーザを複数グループにグルーピングするユーザグルーピングステップと、前記ユーザグルーピングステップにより抽出された複数グループに関する情報に基づき、画面上に各グループを配置して表示するユーザ関係表示ステップとを有するユーザ関係表示方法であってもよい。
(19)また、本発明は、ユーザ関係表示装置に、ユーザ関係表示処理を行わせるためのコンピュータプログラムであって、複数ユーザ間の関係に関する情報に基づき、前記複数ユーザを複数グループにグルーピングするユーザグルーピングステップと、前記ユーザグルーピングステップにより抽出された複数グループに関する情報に基づき、画面上に各グループを配置して表示するユーザ関係表示ステップとを有する。
(20)また、本発明は、ユーザ関係表示装置に搭載される集積回路であって、複数ユーザ間の関係に関する情報に基づき、前記複数ユーザを複数グループにグルーピングするユーザグルーピング手段と、前記ユーザグルーピング手段により抽出された複数グループに関する情報に基づき、画面上に各グループを配置して表示するユーザ関係表示手段とを備える。
(21)上記の変形例(18)のユーザ関係表示方法は、更に、複数ユーザの位置関係を検出する位置関係検出ステップを有し、前記ユーザグルーピングステップにおいて、前記位置関係検出ステップにより検出された複数ユーザの位置関係に関する情報に基づき、前記複数ユーザを複数グループにグルーピングし、前記ユーザ関係表示ステップにおいて、前記ユーザグルーピングステップにより抽出された複数グループに関する情報に基づき、画面上に各グループを配置して、各グループに属するユーザの位置関係を表示するとしてもよい。
(22)上記の変形例(19)の前記コンピュータプログラムは、更に、複数ユーザの位置関係を検出する位置関係検出ステップを有し、前記ユーザグルーピングステップにおいて、前記位置関係検出ステップにより検出された複数ユーザの位置関係に関する情報に基づき、前記複数ユーザを複数グループにグルーピングし、前記ユーザ関係表示ステップにおいては、前記ユーザグルーピングステップにより抽出された複数グループに関する情報に基づき、画面上に各グループを配置して、各グループに属するユーザの位置関係を表示するとしてもよい。
(23)上記の変形例(20)の集積回路は、更に、複数ユーザの位置関係を検出する位置関係検出手段を備え、前記ユーザグルーピング手段は、前記位置関係検出手段により検出された複数ユーザの位置関係に関する情報に基づき、前記複数ユーザを複数グループにグルーピングし、前記ユーザ関係表示手段は、前記ユーザグルーピング手段により抽出された複数グループに関する情報に基づき、画面上に各グループを配置して、各グループに属するユーザの位置関係を表示するとしてもよい。
(24)上記の変形例(18)のユーザ関係表示方法は、更に、複数ユーザの位置関係を検出する位置関係検出ステップと、複数ユーザが発声する音声情報を解析する音声情報解析ステップとを有し、前記ユーザグルーピングステップにおいて、前記位置関係検出ステップにより検出された複数ユーザの位置関係に関する情報に基づき、前記複数ユーザを複数グループにグルーピングし、前記ユーザ関係表示ステップにおいては、前記ユーザグルーピングステップにより抽出された複数グループに関する情報に基づき、画面上に各グループを配置して、各グループに属するユーザの位置関係と、各グループにおける会話状況を視覚的に表示するとしてもよい。
(25)上記の変形例(19)に記載のコンピュータプログラムは、更に、複数ユーザの位置関係を検出する位置関係検出ステップと、複数ユーザが発声する音声情報を解析する音声情報解析ステップとを有し、前記ユーザグルーピングステップにおいて、前記位置関係検出ステップにより検出された複数ユーザの位置関係に関する情報に基づき、前記複数ユーザを複数グループにグルーピングし、前記ユーザ関係表示ステップにおいて、前記ユーザグルーピングステップにより抽出された複数グループに関する情報に基づき、画面上に各グループを配置して、各グループに属するユーザの位置関係と、各グループにおける会話状況を視覚的に表示するとしてもよい。
(26)上記の変形例(20)に記載の集積回路は、更に、複数ユーザの位置関係を検出する位置関係検出手段と、複数ユーザが発声する音声情報を解析する音声情報解析手段とを備え、前記ユーザグルーピング手段は、前記位置関係検出手段により検出された複数ユーザの位置関係に関する情報に基づき、前記複数ユーザを複数グループにグルーピングし、前記ユーザ関係表示手段は、前記ユーザグルーピング手段により抽出された複数グループに関する情報に基づき、画面上に各グループを配置して、各グループに属するユーザの位置関係と、各グループにおける会話状況を視覚的に表示することを特徴とするとしてもよい。
(27)上記のシステムは、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレィユニット、キーボード、マウスなどから構成されるコンピュータシステムである。前記RAM、ROM、前記ハードディスクユニットには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムに従って動作することにより、前記システムは、その機能を達成する。ここで、コンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
(28)上記のシステムを構成する構成要素の一部又は全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。前記RAMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。
これらは個別に1チップ化されても良いし、一部又は全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(FieldProgrammable Gate Array)やLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用しても良い。
更には、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適応などが可能性として有り得る。
(29)上記のシステムを構成する構成要素の一部又は全部は、各装置に脱着可能なICカード又は単体のモジュールから構成されているとしてもよい。前記ICカード又は前記モジュールは、マイクロプロセッサ、ROM、RAM、などから構成されるコンピュータシステムである。前記ICカード又は前記モジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、前記ICカード又は前記モジュールは、その機能を達成する。このICカード又はこのモジュールは、耐タンパ性を有するとしてもよい。
(30)本発明は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。
また、本発明は、前記コンピュータプログラム又は前記デジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD―ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray Disc)、半導体メモリなど、に記録したものとしてもよい。また、これらの記録媒体に記録されている前記コンピュータプログラム又は前記デジタル信号であるとしてもよい。
また、本発明は、前記コンピュータプログラム又は前記デジタル信号を、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
また、本発明は、マイクロプロセッサとメモリとを備えたコンピュータシステムであって、前記メモリは、上記コンピュータプログラムを記憶しており、前記マイクロプロセッサは、前記コンピュータプログラムに従って動作するとしてもよい。
また、前記プログラム又は前記デジタル信号を前記記録媒体に記録して移送することにより、又は前記プログラム又は前記デジタル信号を、前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
(31)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。
本発明にかかるユーザ関係表示装置は、複数のユーザ同士の関係を適切に表示するためのインタフェースを構築するための技術として有用である。
1 データセンシング部
2 位置関係検出部
3 ユーザグルーピング部
4 位置関係表示部
5 音声情報解析部
6 注目度算定部
7 位置関係表示部
401 基準軸設定部
402 グループ情報解析部
403 グループ間関係解析部
404 画面割当比率算定部
405 画面配置位置算定部
406 画面仕切算定部
407 割当表示算定部
408 画面表示部
501 時間領域情報解析部
502 周波数領域情報解析部
503 会話表示情報算定部
504 グループ会話活性度算定部
1000 端末装置
2001 STBデバイス
2002 TVデバイス

Claims (21)

  1. 複数の対象物間の位置関係を視覚的に表示画面に表示する表示装置であって、
    各対象物の位置を示す位置情報を取得する取得手段と、
    取得した前記位置情報に基づいて、前記複数の対象物を複数のグループに分類する分類手段と、
    前記位置情報を用いて1のグループと他のグループとのグループ間の位置関係を算出する算出手段と、
    前記表示画面を規定する基準軸に対して、算出されたグループ間の位置関係に応じた傾きを有し、前記表示画面を複数の領域に区切るしきり線を決定する決定手段と、
    決定したしきり線を前記表示画面に表示し、前記しきり線により区切られた各表示領域に、各グループに属する対象物の位置関係を表示する表示手段と
    を備えることを特徴とする表示装置。
  2. 前記算出手段は、少なくとも2つのグループの位置を示すグループ位置を求め、グループ位置を結んだ直線と直交する直線と、前記基準軸とのなす前記傾きを算出し、
    前記決定手段は、前記基準軸に対して、算出された傾きを有する前記仕切り線を決定する
    ことを特徴とする請求項1に記載の表示装置。
  3. 前記決定手段は、グループの大きさに応じた面積を、そのグループに対応する領域が有するように、前記しきり線を決定する
    ことを特徴とする請求項1に記載の表示装置。
  4. 前記算出手段は、1のグループと他のグループとのグループ間の距離を含む前記位置関係を算出し、
    前記決定手段は、算出された距離に応じた幅を有する前記しきり線を決定する
    ことを特徴とする請求項3に記載の表示装置。
  5. 前記表示手段は、グループに属する対象物の位置関係を、グループ毎に異なる縮小率で表示し、
    前記表示手段は、さらに、各表示領域に、各グループの縮小率を示す情報を表示する
    ことを特徴とする請求項3に記載の表示装置。
  6. 前記分類手段は、前記位置情報を用いて対象物間の距離を求め、求めた距離が閾値未満である2つ以上の対象物を同一のグループに分類する
    ことを特徴とする請求項1に記載の表示装置。
  7. 前記取得手段は、さらに、各対象物の向きを示す向き情報を取得し、
    前記分類手段は、前記位置情報を用いて対象物間の距離を求め、求めた距離が閾値未満であって、前記向き情報の示す向きの延長線が交差する2つの対象物を同一のグループに分類する
    ことを特徴とする請求項1に記載の表示装置。
  8. 前記表示装置は、さらに、
    各対象物の発する音声を取得する音声取得手段と、
    取得した音声を時間領域及び周波数領域において解析する音声情報解析手段とを備え、
    前記表示手段は、さらに、前記音声情報解析手段による解析結果を基に生成した画像を、前記表示画面上において、各グループに属する対象物の位置関係を表示している位置に表示する
    ことを特徴とする請求項1に記載の表示装置。
  9. 前記音声解析手段は、取得した音声から、各対象物の発する音声の特徴を抽出し、抽出した音声の特徴を前記解析結果として生成し、
    前記表示手段は、各対象物の発する音声の特徴を示す画像を、対応する対象物の前記表示画面上における位置に表示する
    ことを特徴とする請求項8に記載の表示装置。
  10. 前記音声解析手段は、前記音声を用いて、各グループに属する対象物間の会話の活発さを示す会話活性度を、前記解析結果として生成し、
    前記表示手段は、前記会話活性度を示す画像を、対応するグループの前記表示画面上における位置に表示する
    ことを特徴とする請求項8に記載の表示装置。
  11. 前記取得手段は、さらに、各対象物の向きを示す向き情報を取得し、
    前記表示装置は、さらに、
    前記複数の対象物から、どの程度注目されているかを示す注目度の算出対象となる算出対象位置を取得する算出対象位置取得手段と、
    前記方向情報の示す向きと、前記位置情報の示す位置から前記算出対象位置までの距離を基に、前記注目度を算出する注目度算定手段を備え、
    前記表示手段は、さらに、前記算出対象位置に対応する前記表示画面上の位置を注目度に応じて強調表示する
    ことを特徴とする請求項1に記載の表示装置。
  12. 前記複数の対象物は、カメラを有しており、
    前記注目度算定手段は、各算出対象位置について、その算出対象位置を画角内に捉えているカメラを有している対象物を特定し、特定した各対象物と前記算出対象位置との距離が小さく、かつ、
    特定した対象物の有するカメラの画角の中心線と、特定した対象物と前記算出対象位置とを結んだ線分のなす角の絶対値が小さいほど
    大きな値となるように前記注目度を決定する
    ことを特徴とする請求項11に記載の表示装置。
  13. 前記算出対象位置取得手段は、前記複数の対象物のうち、1の対象物の位置を前記算出対象位置として取得する
    ことを特徴とする請求項11に記載の表示装置。
  14. 前記表示手段は、算出された注目度が閾値以上である場合、前記算出対象位置に対応する画面上の位置を強調表示する
    ことを特徴とする請求項11に記載の表示装置。
  15. 前記表示手段は、さらに、
    位置情報の取得、前記複数の対象物の分類、仕切り線の決定、しきり線及び各グループの位置関係の表示を、それぞれ、前記取得手段、前記分類手段、前記算出手段、前記決定手段及び前記表示手段に、繰り返させる繰返制御手段を備える
    ことを特徴とする請求項1に記載の表示装置。
  16. 複数の対象物間の位置関係を視覚的に表示画面に表示する表示装置において用いられる表示方法であって、
    各対象物の位置を示す位置情報を取得する取得ステップと、
    取得した前記位置情報に基づいて、前記複数の対象物を複数のグループに分類する分類ステップと、
    前記位置情報を用いて1のグループと他のグループとのグループ間の位置関係を算出する算出ステップと、
    前記表示画面の一辺に平行な基準軸に対して、算出されたグループ間の位置関係に応じた傾きを有し、前記表示画面を複数の領域に区切るしきり線を決定する決定ステップと、
    決定したしきり線を前記表示画面に表示し、前記しきり線により区切られた各表示領域に、各グループに属する対象物の位置関係を表示する表示ステップと
    を含むことを特徴とする表示方法。
  17. 複数の対象物間の位置関係を視覚的に表示画面に表示する表示装置において用いられる表示プログラムであって、
    各対象物の位置を示す位置情報を取得する取得ステップと、
    取得した前記位置情報に基づいて、前記複数の対象物を複数のグループに分類する分類ステップと、
    前記位置情報を用いて1のグループと他のグループとのグループ間の位置関係を算出する算出ステップと、
    前記表示画面の一辺に平行な基準軸に対して、算出されたグループ間の位置関係に応じた傾きを有し、前記表示画面を複数の領域に区切るしきり線を決定する決定ステップと、
    決定したしきり線を前記表示画面に表示し、前記しきり線により区切られた各表示領域に、各グループに属する対象物の位置関係を表示する表示ステップと
    を含むことを特徴とする表示プログラム。
  18. 複数の対象物間の位置関係を視覚的に表示画面に表示する表示装置であって、
    各対象物の位置を示す位置情報及び向きを示す向き情報を取得する前記取得手段と、
    前記複数の対象物から、どの程度注目されているかを示す注目度の算出対象となる算出対象位置を取得する算出対象位置取得手段と、
    前記位置情報の示す位置と前記方向情報の示す向きとを基に、前記算出対象位置における前記注目度を算出する注目度算定手段と、
    前記複数の対象物間の位置関係を表示し、前記算出対象位置に対応する前記表示画面上の位置を注目度に応じて強調表示する前記表示手段と
    を備えることを特徴とする表示装置。
  19. 前記複数の対象物は、カメラを有しており、
    前記注目度算定手段は、各算出対象位置について、その算出対象位置を画角内に捉えているカメラを有している対象物を特定し、特定した各対象物と前記算出対象位置との距離が小さく、かつ、
    特定した対象物の有するカメラの画角の中心線と、特定した対象物と前記算出対象位置とを結んだ線分のなす角の絶対値が小さいほど
    大きな値となるように前記注目度を決定する
    ことを特徴とする請求項18に記載の表示装置。
  20. 前記算出対象位置取得手段は、前記複数の対象物のうち、1の対象物の位置を前記算出対象位置として取得する
    ことを特徴とする請求項18に記載の表示装置。
  21. 前記表示手段は、算出された注目度が閾値以上である場合、前記算出対象位置に対応する表示画面上の位置を強調表示する
    ことを特徴とする請求項18に記載の表示装置。
JP2009514008A 2007-05-09 2008-04-30 表示装置、表示方法、表示プログラム Active JP5236631B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009514008A JP5236631B2 (ja) 2007-05-09 2008-04-30 表示装置、表示方法、表示プログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2007124219 2007-05-09
JP2007124219 2007-05-09
JP2009514008A JP5236631B2 (ja) 2007-05-09 2008-04-30 表示装置、表示方法、表示プログラム
PCT/JP2008/001120 WO2008139717A1 (ja) 2007-05-09 2008-04-30 表示装置、表示方法、表示プログラム

Publications (2)

Publication Number Publication Date
JPWO2008139717A1 true JPWO2008139717A1 (ja) 2010-07-29
JP5236631B2 JP5236631B2 (ja) 2013-07-17

Family

ID=40001942

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009514008A Active JP5236631B2 (ja) 2007-05-09 2008-04-30 表示装置、表示方法、表示プログラム

Country Status (4)

Country Link
US (1) US8144196B2 (ja)
JP (1) JP5236631B2 (ja)
CN (1) CN101681244B (ja)
WO (1) WO2008139717A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120254142A1 (en) * 2011-03-31 2012-10-04 Smart Technologies Ulc Information display method and system employing same
EP2723069B1 (en) * 2011-06-16 2017-10-18 Aisin Seiki Kabushiki Kaisha Vehicle periphery monitoring device
JP5865735B2 (ja) * 2012-03-01 2016-02-17 三菱電機株式会社 表示データ生成装置及び表示データ生成方法
US10235768B2 (en) * 2014-12-10 2019-03-19 Mitsubishi Electric Corporation Image processing device, in-vehicle display system, display device, image processing method, and computer readable medium
EP3409109A4 (en) * 2016-01-29 2019-01-09 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING SYSTEM AND INFORMATION PROCESSING METHOD
JP7080590B2 (ja) * 2016-07-19 2022-06-06 キヤノンメディカルシステムズ株式会社 医用処理装置、超音波診断装置、および医用処理プログラム
US10713940B2 (en) 2017-10-31 2020-07-14 Waymo Llc Detecting and responding to traffic redirection for autonomous vehicles
US10401862B2 (en) * 2017-10-31 2019-09-03 Waymo Llc Semantic object clustering for autonomous vehicle decision making
EP3739573B1 (en) * 2018-01-12 2023-06-28 Sony Group Corporation Information processing device, information processing method, and program
TWI658449B (zh) * 2018-05-11 2019-05-01 友達光電股份有限公司 顯示裝置及其驅動方法
JP7389070B2 (ja) * 2021-01-25 2023-11-29 トヨタ自動車株式会社 情報処理装置、情報処理方法、およびプログラム
US11881904B2 (en) * 2022-03-31 2024-01-23 Dell Products, L.P. Power detection in the time domain on a periodic basis with statistical counters

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH096432A (ja) * 1995-06-14 1997-01-10 Mitsubishi Electric Corp 制御システムの異常検知装置
JP2001184493A (ja) * 1999-12-27 2001-07-06 Nitto Seiko Co Ltd 画像処理装置
JP2003150639A (ja) * 2001-11-14 2003-05-23 Canon Inc メディア検索装置及び記憶媒体
JP2006065447A (ja) * 2004-08-25 2006-03-09 Nippon Telegr & Teleph Corp <Ntt> 識別器設定装置、注目度計測装置、識別器設定方法、注目度計測方法、およびプログラム
WO2006028154A1 (ja) * 2004-09-09 2006-03-16 Kyoto University 情報管理システム、情報管理方法、情報管理プログラムおよびその記録媒体
JP2006085558A (ja) * 2004-09-17 2006-03-30 Toyota Motor Corp 商品属性マップ表示装置と表示方法とそのためのプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU662901B2 (en) 1991-05-07 1995-09-21 Nippondenso Co. Ltd. Electronic tag
JPH0667726A (ja) 1992-08-13 1994-03-11 Nippon Yusoki Co Ltd 無人走行車の絶対位置取得方法
EP0587115B1 (en) 1992-09-07 1999-02-10 Denso Corporation Communication system
JP3067419B2 (ja) 1992-09-28 2000-07-17 株式会社デンソー 宅配ナビゲーションシステム
WO1995035139A1 (fr) * 1994-06-17 1995-12-28 Namco Ltd. Simulateur 3d et procede de generation d'image
JP3989339B2 (ja) * 2002-09-05 2007-10-10 インターナショナル・ビジネス・マシーンズ・コーポレーション 情報表示システム、情報表示方法、該情報表示方法を実行させるためのプログラム、該プログラムを記録したコンピュータ可読な記憶媒体、サーバ制御方法、該サーバ制御方法を実行させるためのプログラム、該プログラムを記録したコンピュータ可読な記憶媒体および情報表示のためのグラフィカル・ユーザ・インタフェイス・システム
JP3800217B2 (ja) 2003-10-10 2006-07-26 コニカミノルタホールディングス株式会社 監視システム
US7451407B2 (en) * 2005-11-30 2008-11-11 Microsoft Corporation Presentation of groups of items
US7889244B2 (en) * 2005-12-27 2011-02-15 Panasonic Corporation Image processing apparatus
JP4458158B2 (ja) * 2007-12-07 2010-04-28 ソニー株式会社 表示装置、表示方法、及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH096432A (ja) * 1995-06-14 1997-01-10 Mitsubishi Electric Corp 制御システムの異常検知装置
JP2001184493A (ja) * 1999-12-27 2001-07-06 Nitto Seiko Co Ltd 画像処理装置
JP2003150639A (ja) * 2001-11-14 2003-05-23 Canon Inc メディア検索装置及び記憶媒体
JP2006065447A (ja) * 2004-08-25 2006-03-09 Nippon Telegr & Teleph Corp <Ntt> 識別器設定装置、注目度計測装置、識別器設定方法、注目度計測方法、およびプログラム
WO2006028154A1 (ja) * 2004-09-09 2006-03-16 Kyoto University 情報管理システム、情報管理方法、情報管理プログラムおよびその記録媒体
JP2006085558A (ja) * 2004-09-17 2006-03-30 Toyota Motor Corp 商品属性マップ表示装置と表示方法とそのためのプログラム

Also Published As

Publication number Publication date
US20100134626A1 (en) 2010-06-03
WO2008139717A1 (ja) 2008-11-20
US8144196B2 (en) 2012-03-27
CN101681244A (zh) 2010-03-24
JP5236631B2 (ja) 2013-07-17
CN101681244B (zh) 2012-02-29

Similar Documents

Publication Publication Date Title
JP5236631B2 (ja) 表示装置、表示方法、表示プログラム
US10453443B2 (en) Providing an indication of the suitability of speech recognition
US11763580B2 (en) Information processing apparatus, information processing method, and program
Kern et al. Context-aware notification for wearable computing
CN110288987A (zh) 用于处理声音数据的系统和控制该系统的方法
US20180232571A1 (en) Intelligent assistant device communicating non-verbal cues
CN111722186B (zh) 基于声源定位的拍摄方法、装置、电子设备及存储介质
JP2019516080A (ja) 物理的位置の自律的な意味的ラベル付け
US10614693B2 (en) Dangerous situation notification apparatus and method
CN104737523A (zh) 通过指派用于数据群集的情境标签来管理移动装置中的情境模型
JP2009116510A (ja) 注目度算出装置、注目度算出方法、注目度算出プログラム、情報提供システム、及び、情報提供装置
CN111126697B (zh) 人员情况预测方法、装置、设备及存储介质
JPWO2011122521A1 (ja) 情報表示システム、情報表示方法及びプログラム
JP2012000211A (ja) 行動内容可視化装置および行動内容解析装置
CN109671430A (zh) 一种语音处理方法及装置
US9602589B1 (en) Systems and methods for determining room types for regions of a map
US20220189200A1 (en) Information processing system and information processing method
US10726270B2 (en) Selecting media from mass social monitoring devices
WO2023210052A1 (ja) 音声分析装置、音声分析方法及び音声分析プログラム
JP2020034657A (ja) 収音データ表示システム
WO2017130537A1 (ja) 情報処理装置、情報処理方法、およびプログラム
Feng Recognition of activities of daily living
JP2023106865A (ja) 情報処理装置、情報処理システム、及びプログラム
CN117334207A (zh) 一种声音处理方法及电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130327

R150 Certificate of patent or registration of utility model

Ref document number: 5236631

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160405

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350