JP2006018551A - 情報処理装置および方法、並びにプログラム - Google Patents

情報処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP2006018551A
JP2006018551A JP2004195219A JP2004195219A JP2006018551A JP 2006018551 A JP2006018551 A JP 2006018551A JP 2004195219 A JP2004195219 A JP 2004195219A JP 2004195219 A JP2004195219 A JP 2004195219A JP 2006018551 A JP2006018551 A JP 2006018551A
Authority
JP
Japan
Prior art keywords
information
user
unit
content file
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004195219A
Other languages
English (en)
Inventor
Katsuhiro Takematsu
克浩 竹松
Tomohiko Goto
智彦 後藤
Sachihiro Yamaguchi
祥弘 山口
Tamaki Kojima
環 児嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004195219A priority Critical patent/JP2006018551A/ja
Priority to US11/170,327 priority patent/US7697731B2/en
Publication of JP2006018551A publication Critical patent/JP2006018551A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】 ユーザの現在の状況に応じたコンテンツファイルを検索できるようにする。
【解決手段】 環境監視部16は、ユーザの周囲の状況を示すデータであるセンシングデータを生成する。認識部71は、センシングデータを基に、ユーザの周囲の状況を認識する。メタ情報生成部109は、1または複数のセンシングデータと、認識部71によって認識された結果を示す認識情報とを基に、メタ情報を生成する。要求部72は、メタ情報を基に、ユーザの周囲の状況が変化したか否かを判定する。検索要求部111は、ユーザの周囲の状況が変化したと判定された場合、現在のユーザの周囲の状況に類似した、過去のユーザの周囲の状況を記録したコンテンツファイルを検索する旨のコンテンツファイル検索要求を生成する。検索部75は、コンテンツ検索要求を基に、コンテンツファイルを検索する。本発明は、パーソナルコンピュータ、携帯型の端末装置などに適用できる。
【選択図】 図2

Description

本発明は情報処理装置および方法、並びにプログラムに関し、特に、ユーザの周囲の状況に応じたコンテンツを提示することができるようにした情報処理装置および方法、並びにプログラムに関する。
テキストファイル、静止画像ファイル、動画像ファイル、音声ファイルなどの表示または再生を行うためのデータ(以下、適宜、コンテンツファイルと称する)が記憶されているデータベースを利用したデータの検索が広く普及している。データベースを利用したデータの検索においては、ユーザは、検索するデータに関係するキーワードを入力することによって、所望のデータを検索する。
従来、このようなデータの検索を行う情報処理装置は、コンテンツファイルとしての画像データの属性情報から画像データの取得時のコンテキスト(文脈)を推定して、画像データの分類を行っている(例えば、特許文献1参照)。この装置においては、ルールベース推論エンジンが、日付情報、屋内/屋外判定結果、家族情報データベースに記憶されているデータ、および季節行事・社会習慣知識ベースに記憶されているデータを利用して、画像データに関する可能性の高いコンテキストを推定する。
また、ユーザによって指定された動画像において、注目するオブジェクトのメタデータとメタデータベースに記憶されているメタデータとを比較することによって、類似した動画像を検索するものもある(例えば、特許文献2参照)。
さらに、動画像データを生成する装置として、ビデオカメラの映像に対応する動画像データおよびセンサのデータによって、異常状態が検知されると、その異常状態の検知前後の映像に対応する動画像データおよび対応データを遠隔センタに送信するものもある(例えば、特許文献3参照)。
特開2002−10178号公報
特開2001−134589号公報
特開平8−195825号公報
しかしながら、上述した特許文献1乃至3に開示されている技術においては、ユーザがキーワードを入力することによって、コンテンツファイルを検索することはできるが、ユーザが検索を指示していない場合においても、情報処理装置がユーザの周囲の状況の変化に応じてコンテンツファイルを検索し、検索したコンテンツファイルに対応するコンテンツをユーザに提示することはできなかった。
したがって、ユーザは、ユーザ自身の記憶があいまいなものについては、キーワードが分からない場合、コンテンツファイルを検索することができないという課題があった。
本発明は、このような状況に鑑みてなされたものであり、ユーザの周囲の状況の変化に応じて、ユーザの現在の周囲の状況に応じたコンテンツファイルを検索することができるようにするものである。
本発明の情報処理装置は、ユーザの周囲の状況を検出し、ユーザの周囲の状況を示すデータであるセンシングデータを生成する検出手段と、センシングデータを基に、ユーザの周囲の状況を認識する認識手段と、1または複数のセンシングデータと、認識手段によって認識された結果を示す認識情報とを基に、ユーザの周囲の状況の変化を検知するための構造化されている情報であるメタ情報を生成するメタ情報生成手段とを備えることを特徴とする。
情報処理装置は、センシングデータに対応するデータであって、ユーザの周囲の状況を記録したデータであるコンテンツデータを一時的に記憶するコンテンツデータ記憶手段と、認識情報を基に、ユーザの周囲の状況が変化したか否かを判定する判定手段と、ユーザの周囲の状況が変化したと判定された場合、記憶しているコンテンツデータを基に、ユーザの周囲の状況を記録した静止画像、動画像、または音声を表示または再生させるためのコンテンツファイルを生成するコンテンツファイル生成手段とをさらに設けることができる。
情報処理装置は、コンテンツファイルおよびメタ情報を関係付けて記録するコンテンツファイル記録手段をさらに設けることができる。
メタ情報生成手段は、1または複数のセンシングデータと、認識手段によって認識された結果を示す認識情報とを基に、認識情報の確からしさを示す情報である確信度情報を含む、ユーザの周囲の状況の変化を検知するための構造化されている情報であるメタ情報を生成するようにすることができる。
情報処理装置は、メタ情報に含まれる、認識情報を基に、ユーザの周囲の状況が変化したか否かを判定する判定手段と、確信度情報を基に、認識情報の優先度を示す重みを算出する重み算出手段と、ユーザの周囲の状況が変化したと判定された場合、認識情報および認識情報の重みを基に、ユーザの周囲の状況を記録した静止画像、動画像、または音声を表示または再生させるためのコンテンツファイルであって、現在の前記ユーザの周囲の状況に類似した、過去の前記ユーザの周囲の状況を記録したコンテンツファイルを重み付け検索する検索手段とをさらに設けることができる。
判定手段は、第1のメタ情報に含まれる認識情報と、第1のメタ情報の1つ前に生成された第2のメタ情報に含まれる認識情報とを比較し、第1のメタ情報に含まれる認識情報の変化を基に、ユーザの周囲の状況が変化したか否かを判定し、重み算出手段は、確信度情報および認識情報の変化の度合いを基に、認識情報の優先度を示す重みを算出するようにすることができる。
情報処理装置は、検出されたコンテンツファイルを基に、コンテンツファイルに対応する静止画像または動画像を表示する表示手段をさらに設け、検索手段は、表示手段に表示されている静止画像または動画像が、ユーザによって選択された場合、選択された静止画像または動画像に対応するコンテンツファイルを基に、選択された静止画像または動画像に対応するコンテンツファイルに、コンテンツファイルに関係付けられたメタ情報が類似したコンテンツファイルをさらに検索するようにすることができる。
情報処理装置は、コンテンツファイルの重みを基に定められる所定の順番で、検索されたコンテンツファイルに対応する静止画像または動画像を表示する表示手段をさらに設け、検索手段は、検索結果を基に、検索されたコンテンツファイルの優先度を示す重みをさらに算出するようにすることができる。
本発明の情報処理方法は、ユーザの周囲の状況を検出し、ユーザの周囲の状況を示すデータであるセンシングデータの生成を制御する検出ステップと、センシングデータを基に、ユーザの周囲の状況を認識する認識ステップと、1または複数のセンシングデータと、認識手段によって認識された結果を示す認識情報とを基に、ユーザの周囲の状況の変化を検知するための構造化されている情報であるメタ情報を生成するメタ情報生成ステップとを含むことを特徴とする。
本発明のプログラムは、ユーザの周囲の状況を検出し、ユーザの周囲の状況を示すデータであるセンシングデータの生成を制御する検出ステップと、センシングデータを基に、ユーザの周囲の状況を認識する認識ステップと、1または複数のセンシングデータと、認識手段によって認識された結果を示す認識情報とを基に、ユーザの周囲の状況の変化を検知するための構造化されている情報であるメタ情報を生成するメタ情報生成ステップとをコンピュータに実行させることを特徴とする。
本発明の情報処理装置および方法、並びにプログラムにおいては、ユーザの周囲の状況が検出され、ユーザの周囲の状況を示すデータであるセンシングデータが生成され、センシングデータを基に、ユーザの周囲の状況が認識される。そして、1または複数のセンシングデータと、認識手段によって認識された結果を示す認識情報とを基に、ユーザの周囲の状況の変化を検知するための構造化されている情報であるメタ情報が生成される。
本発明によれば、ユーザの周囲の状況の変化に応じて、コンテンツファイルを検索し、ユーザの現在の周囲の状況に応じたコンテンツを提示することができる。
以下に本発明の実施の形態を説明するが、本明細書に記載の発明と、発明の実施の形態との対応関係を例示すると、次のようになる。この記載は、本明細書に記載されている発明をサポートする実施の形態が本明細書に記載されていることを確認するためのものである。従って、発明の実施の形態中には記載されているが、発明に対応するものとして、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その発明に対応するものではないことを意味するものではない。逆に、実施の形態が発明に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その発明以外の発明には対応しないものであることを意味するものでもない。
さらに、この記載は、本明細書に記載されている発明の全てを意味するものではない。換言すれば、この記載は、本明細書に記載されている発明であって、この出願では請求されていない発明の存在、すなわち、将来、分割出願されたり、補正により出現、追加される発明の存在を否定するものではない。
請求項1に記載の情報処理装置は、ユーザの周囲の状況を検出し、ユーザの周囲の状況を示すデータであるセンシングデータを生成する検出手段(例えば、図2の環境監視部16および入力部17)と、センシングデータを基に、ユーザの周囲の状況を認識する認識手段(例えば、図2の顔認識部106、場所認識部107、および音声認識部108)と、1または複数のセンシングデータと、認識手段によって認識された結果を示す認識情報とを基に、ユーザの周囲の状況の変化を検知するための構造化されている情報であるメタ情報を生成するメタ情報生成手段(例えば、図2のメタ情報生成部109)とを備えることを特徴とする。
請求項2に記載の情報処理装置は、センシングデータに対応するデータであって、ユーザの周囲の状況を記録したデータであるコンテンツデータを一時的に記憶するコンテンツデータ記憶手段(例えば、図2のバッファ113)と、認識情報を基に、ユーザの周囲の状況が変化したか否かを判定する判定手段(例えば、図2の要求部72)と、ユーザの周囲の状況が変化したと判定された場合、記憶しているコンテンツデータを基に、ユーザの周囲の状況を記録した静止画像、動画像、または音声を表示または再生させるためのコンテンツファイルを生成するコンテンツファイル生成手段(例えば、図2のコンテンツ生成部73)とをさらに備えることを特徴とする。
請求項3に記載の情報処理装置は、コンテンツファイルおよびメタ情報を関係付けて記録するコンテンツファイル記録手段(例えば、図2のメタ情報/コンテンツデータベース74)をさらに備えることを特徴とする。
請求項4に記載の情報処理装置は、メタ情報生成手段(例えば、図2のメタ情報生成部109)は、1または複数のセンシングデータと、認識手段(例えば、図2の顔認識部106、場所認識部107、および音声認識部108)によって認識された結果を示す認識情報とを基に、認識情報の確からしさを示す情報である確信度情報を含む、ユーザの周囲の状況の変化を検知するための構造化されている情報であるメタ情報を生成することを特徴とする。
請求項5に記載の情報処理装置は、メタ情報に含まれる、認識情報を基に、ユーザの周囲の状況が変化したか否かを判定する判定手段(例えば、図2の要求部72)と、確信度情報を基に、認識情報の優先度を示す重みを算出する重み算出手段(例えば、図2の重み算出部112)と、ユーザの周囲の状況が変化したと判定された場合、認識情報および認識情報の重みを基に、ユーザの周囲の状況を記録した静止画像、動画像、または音声を表示または再生させるためのコンテンツファイルであって、現在の前記ユーザの周囲の状況に類似した、過去の前記ユーザの周囲の状況を記録したコンテンツファイルを重み付け検索する検索手段(例えば、図2の検索部75)とをさらに備えることを特徴とする。
請求項6に記載の情報処理装置は、判定手段(例えば、図2の要求部72)は、第1のメタ情報に含まれる認識情報と、第1のメタ情報の1つ前に生成された第2のメタ情報に含まれる認識情報とを比較し、第1のメタ情報に含まれる認識情報の変化を基に、ユーザの周囲の状況が変化したか否かを判定し、重み算出手段(例えば、図2の重み算出部112)は、確信度情報および認識情報の変化の度合いを基に、認識情報の優先度を示す重みを算出することを特徴とする。
請求項7に記載の情報処理装置は、検出されたコンテンツファイルを基に、コンテンツファイルに対応する静止画像または動画像を表示する表示手段(例えば、図2の出力部18)をさらに備え、検索手段(例えば、図2の検索部75)は、表示手段に表示されている静止画像または動画像が、ユーザによって選択された場合、選択された静止画像または動画像に対応するコンテンツファイルを基に、選択された静止画像または動画像に対応するコンテンツファイルに、コンテンツファイルに関係付けられたメタ情報が類似したコンテンツファイルをさらに検索することを特徴とする。
請求項8に記載の情報処理装置は、コンテンツファイルの重みを基に定められる所定の順番で、検索されたコンテンツファイルに対応する静止画像または動画像を表示する表示手段(例えば、図2の出力部18)をさらに備え、検索手段(例えば、図2の検索部75)は、検索結果を基に、検索されたコンテンツファイルの優先度を示す重みをさらに算出することを特徴とする。
請求項9に記載の情報処理方法は、ユーザの周囲の状況を検出し、ユーザの周囲の状況を示すデータであるセンシングデータの生成を制御する検出ステップ(例えば、図3のステップS11の処理)と、センシングデータを基に、ユーザの周囲の状況を認識する認識ステップ(例えば、図3のステップS12の処理)と、1または複数のセンシングデータと、認識手段(例えば、図2の顔認識部106、場所認識部107、および音声認識部108)によって認識された結果を示す認識情報とを基に、ユーザの周囲の状況の変化を検知するための構造化されている情報であるメタ情報を生成するメタ情報生成ステップ(例えば、図3のステップS13の処理)とを含むことを特徴とする。
なお、請求項10に記載のプログラムも、上述した請求項9に記載の情報処理方法と基本的に同様の処理であるため、繰り返しになるのでその説明は省略する。
本発明は、パーソナルコンピュータ、PDA(Personal Digital Assistance)、携帯型の端末装置などに適用できる。
図1は、本発明に係る情報処理装置の構成の例を示すブロック図である。
CPU(Central Processing Unit)11は、ROM(Read Only Memory)12、または記録部19に記録されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)13には、CPU11が実行するプログラムやデータなどが適宜記憶される。これらのCPU11、ROM12、およびRAM13は、バス14により相互に接続されている。
CPU11にはまた、バス14を介して入出力インタフェース15が接続されている。入出力インタフェース15には、ビデオカメラ、マイクロフォン、GPS(Global Positioning System)受信装置、時計、などよりなる環境監視部16、キーボード、マウス、スイッチ、カメラなどよりなる入力部17、ディスプレイ、スピーカ、ランプなどによる出力部18が接続されている。CPU11は、環境監視部16からの入力、または入力部17から入力される指令に対応して各種の処理を実行する。
入出力インタフェース15に接続されている記録部19は、例えばハードディスクなどで構成され、CPU11が実行するプログラムや各種のデータを記録する。通信部20は、インターネット、その他のネットワークなどの通信網を介して、外部装置と通信する。
また、通信部20は、通信網を介してプログラムを取得し、記録部19に記録させるようにしてもよい。
入出力インタフェース15に接続されているドライブ21は、磁気ディスク41、光ディスク42、光磁気ディスク43、或いは半導体メモリ44などが装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記録部19に転送され、記録される。
図2は、情報処理装置の機能の構成を示すブロック図である。
情報処理装置は、環境監視部16、入力部17、出力部18、認識部71、要求部72、コンテンツ生成部73、メタ情報/コンテンツデータベース74、検索部75、出力制御部76、PIM(Personal Information Manager)データ記録部77、および入力制御部78を含むように構成される。
環境監視部16は、現在時刻、ユーザの現在位置、ユーザが発話しているか否かなどのユーザの周囲の環境(状況)を監視し、ユーザの周囲の状況を検出し、ユーザの周囲の状況を示すデータであるセンシングデータを生成する。環境監視部16は、生成したセンシングデータを認識部71に供給する。
また、環境監視部16は、ユーザの周囲の状況を示すコンテンツデータを生成し、生成したコンテンツデータをコンテンツ生成部73に供給する。ここで、コンテンツデータとは、センシングデータと同様のデータであり、例えば、センシングデータより品質の高いデータである。例えば、環境監視部16が、センシングデータとして静止画像データを生成した場合、環境監視部16は、センシングデータに対応するコンテンツデータとして、解像度および画質がセンシングデータより高い静止画像データを生成する。換言すれば、コンテンツデータは、例えば、センシングデータを基に表示される静止画像の内容と同じ内容の静止画像を表示させるための静止画像データであって、センシングデータを基に表示される静止画像より解像度および画質が高い静止画像を表示させるための静止画像データである。なお、センシングデータと同一のデータをコンテンツデータとして、用いるようにしてもよい。
また、センシングデータは、ユーザの周囲の状況を認識できる程度の品質のデータであればよいので、例えば、動画像データであるコンテンツデータのフレームを間引くことにより、動画像データであるセンシングデータを生成するようにしてもよい。また、例えば、静止画像データであるコンテンツデータの画素を間引くことにより、静止画像データであるセンシングデータを生成するようにしてもよい。
環境監視部16は、ビデオカメラ101、マイクロフォン102、GPS受信装置103、および時計104を備えている。
環境監視部16のビデオカメラ101は、情報処理装置の周囲の環境(状況)、すなわちユーザの周囲の状況を撮像し、撮像した動画像に対応する動画像データを生成する。環境監視部16は、環境監視部16のビデオカメラ101が生成した動画像データを基に、センシングデータを生成し、生成したセンシングデータを認識部71に供給する。例えば、環境監視部16は、環境監視部16のビデオカメラ101が生成した動画像データを基に、静止画像データであるセンシングデータを生成し、生成したセンシングデータを認識部71に供給する。
また、環境監視部16は、環境監視部16のビデオカメラ101が生成した動画像データを基に、コンテンツデータを生成し、生成したコンテンツデータをコンテンツ生成部73に供給する。例えば、環境監視部16は、環境監視部16のビデオカメラ101が生成した動画像データを基に、静止画像データであるコンテンツデータを生成し、生成したコンテンツデータをコンテンツ生成部73に供給する。
また、例えば、環境監視部16は、環境監視部16のビデオカメラ101が生成した動画像データを基に、動画像データであるコンテンツデータを生成し、生成したコンテンツデータをコンテンツ生成部73に供給する。
環境監視部16のマイクロフォン102は、情報処理装置の周囲、すなわちユーザの周囲において発話された音声を取得し、取得した音声を電気信号としての音声データに変換する。環境監視部16は、環境監視部16のマイクロフォン102が電気信号に変換した音声データを基に、センシングデータを生成し、生成したセンシングデータを認識部71に供給する。例えば、環境監視部16は、環境監視部16のマイクロフォン102が電気信号に変換した音声データを基に、音声データであるセンシングデータを生成し、生成したセンシングデータを認識部71に供給する。
また、環境監視部16は、環境監視部16のマイクロフォン102が電気信号に変換した音声データを基に、コンテンツデータを生成し、生成したコンテンツデータをコンテンツ生成部73に供給する。例えば、環境監視部16は、環境監視部16のマイクロフォン102が電気信号に変換した音声データを基に、音声データであるコンテンツデータを生成し、生成したコンテンツデータをコンテンツ生成部73に供給する。
環境監視部16のGPS受信装置103は、GPSの人工衛星から送信されてきた、人工衛星の位置を示す情報および送信した時刻を示す情報を受信し、受信した人工衛星の位置を示す情報および送信した時刻を示す情報を基に、情報処理装置の現在位置を計測する。環境監視部16は、環境監視部16のGPS受信装置103が計測した情報処理装置の現在位置を基に、情報処理装置の現在位置を示すセンシングデータを生成し、生成したセンシングデータを認識部71に供給する。例えば、環境監視部16は、環境監視部16のGPS受信装置103が計測した情報処理装置の現在位置を基に、緯度および経度により表される情報処理装置の現在位置を示すセンシングデータを生成し、生成したセンシングデータを認識部71に供給する。
環境監視部16の時計104は、時間を計測し(計時し)、現在の日付および時刻を示すデータ(以下、時刻データと称する)を保持している。環境監視部16の時計104は、例えば、RTC(Real Time Clock)である。環境監視部16は、環境監視部16の時計104が保持している時刻データを基に、現在の日付および時刻を示すセンシングデータを生成し、生成したセンシングデータを認識部71に供給する。
入力部17は、ユーザが入力した指令を基に、センシングデータを生成し、生成したセンシングデータを認識部71に供給する。入力部17は、シャッタボタン105を備えている。
入力部17のシャッタボタン105は、例えば、静止画像または動画像の撮像を指示するシャッタボタンである。入力部17は、ユーザによって、入力部17のシャッタボタン105が押圧されると、シャッタボタン105が押圧された旨の信号を生成し、生成したシャッタボタン105が押圧された旨の信号をセンシングデータとして認識部71に供給する。
なお、シャッタボタン105の詳細は、後述するが、入力部17のシャッタボタン105が押圧されると、入力部17は、シャッタボタン105が押圧された旨の信号を生成し、生成したシャッタボタン105が押圧された旨の信号をセンシングデータとして、認識部71に供給する。
なお、詳細は、後述するが、シャッタボタン105が押圧された旨の信号が供給された認識部71は、シャッタボタン105が押圧された旨を示すメタ情報を生成し、生成したメタ情報をコンテンツ生成部73に供給する。このメタ情報が供給されたコンテンツ生成部73は、ビデオカメラ101から供給されたコンテンツデータから、静止画像データを抽出したコンテンツファイルを生成する。従って、シャッタボタン105が押圧されると、静止画像データを格納したコンテンツファイルが生成される。同様に、シャッタボタン105が押圧された場合、動画像データを格納したコンテンツファイルを生成するようにしてもよい。
入力部17は、ユーザが入力部17を操作することによって、PIMデータ記録部77に記録されているアドレスデータ、スケジュールデータ、学習データなどの更新を指示した場合、その指示に応じた入力信号を生成し、生成した入力信号をPIMデータ記録部77に供給する。ここで、アドレスデータとは、ユーザの名前、住所、電話番号などが含まれるデータであり、スケジュールデータとは、ユーザのスケジュール(予定)が含まれるデータであり、学習データとは、認識部71がユーザの周囲の環境を認識する場合に用いられるデータである。以下、アドレスデータ、スケジュールデータ、学習データなどのPIMデータ記録部77が記録しているデータを、適宜、PIMデータと称する。
認識部71は、環境監視部16および入力部17から供給されたセンシングデータを基に、ユーザの周囲の環境を認識する。認識部71は、認識の結果を基に、メタ情報を生成する。ここで、メタ情報とは、ユーザの周囲の環境を示す情報であり、認識の結果を基に生成される情報である。なお、メタ情報の詳細は、後述する。
また、この場合における、ユーザの周囲の環境とは、例えば、ユーザが誰といるのか、ユーザがどこにいるのか、ユーザの周囲において、どのような会話がなされているのかなど、ユーザがおかれている環境(状況)をいう。
認識部71は、顔認識部106、場所認識部107、音声認識部108、およびメタ情報生成部109を備えている。
認識部71の顔認識部106は、環境監視部16から供給された動画像データまたは静止画像データであるセンシングデータおよびPIMデータ記録部77から供給された学習データを基に、顔認識処理を行う。すなわち、認識部71の顔認識部106は、動画像データまたは静止画像データであるセンシングデータから人の顔の画像を認識し、認識された人を特定する顔認識処理を行うことによって、情報処理装置の周囲に誰がいるのかを特定する。
ここで、学習データには、ユーザ、ユーザの友人、ユーザの家族などを特定するためのユーザID(Identification)、ユーザIDに関係付けられた、顔認識処理に用いられるデータ(例えば、両目の間隔と目と鼻との間隔の比率を示すデータなど)、場所の名前を示すデータ、場所の名前を示すデータに関係付けられた、場所を特定するための画像認識処理に用いられるデータ、ユーザIDに関係付けられた、音声認識処理に用いられるデータなどが含まれる。認識部71の顔認識部106は、顔認識処理の結果を示すデータを生成する。なお、顔認識処理の結果を示すデータには、顔認識処理によって認識されたユーザ、ユーザの友人、ユーザの家族などを特定するためのユーザIDおよび顔認識処理の結果の確からしさを示すスコアが含まれている。
したがって、例えば、認識部71の顔認識部106は、環境監視部16から静止画像データであるセンシングデータが供給され、PIMデータ記録部77から学習データが供給された場合、顔認識処理を行う。そして、例えば、顔認識処理の結果、センシングデータからユーザAの顔が認識された場合、認識部71の顔認識部106は、センシングデータから認識された顔がユーザAの顔である確からしさを示すスコアを含む、センシングデータからユーザAの顔が認識された旨の顔認識処理の結果を示すデータを生成する。
認識部71の場所認識部107は、環境監視部16から供給されたセンシングデータおよびPIMデータ記録部77から供給された学習データを基に、場所を特定するための画像認識処理を行う。すなわち、認識部71の場所認識部107は、場所を特定するための画像認識処理を行うことによって、情報処理装置(すなわち、ユーザ)の現在位置を特定する。
認識部71の場所認識部107は、画像認識処理の結果を示すデータを生成する。なお、画像認識処理の結果を示すデータには、画像認識処理の結果の確からしさを示すスコアが含まれている。
したがって、例えば、認識部71の場所認識部107は、環境監視部16から静止画像データであるセンシングデータが供給され、PIMデータ記録部77から学習データが供給された場合、画像認識処理を行う。そして、例えば、画像認識処理の結果、センシングデータから場所Cが認識された場合、認識部71の場所認識部107は、センシングデータを基に、認識された場所が場所Cである確からしさを示すスコアを含む、センシングデータから場所Cが認識された旨の画像認識処理の結果を示すデータを生成する。
ここで、学習用データには、例えば、ユーザの自宅、職場などの静止画像を表示させるための静止画像データと、所定の領域に分割された静止画像データの各領域の画素の輝度、色度情報などの特徴量とが含まれている。認識部71の場所認識部107は、例えば、静止画像データであるセンシングデータの特徴量を求め、求めた特徴量と、学習用データに含まれる静止画像の特徴量とを比較することによって、画像認識処理を行う。
認識部71の音声認識部108は、環境監視部16から供給されたセンシングデータおよびPIMデータ記録部77から供給された学習データを基に、音声認識処理を行う。すなわち、認識部71の音声認識部108は、音声認識処理を行うことによって、情報処理装置(すなわち、ユーザ)の周囲において、発話された音声に含まれる単語を特定(検出)する。認識部71の音声認識部108は、音声認識処理の結果を示すデータを生成する。なお、音声認識処理の結果を示すデータには、音声認識処理の結果の確からしさを示すスコアが含まれている。
したがって、例えば、認識部71の音声認識部108は、環境監視部16から音声データであるセンシングデータが供給され、PIMデータ記録部77から学習データが供給された場合、音声認識処理を行う。そして、例えば、音声認識処理の結果、センシングデータから単語(キーワード)が認識された場合、認識部71の音声認識部108は、認識された単語と、認識された単語が音声に含まれる確からしさを示すスコアとを含む、センシングデータから単語が認識された旨の音声認識処理の結果を示すデータを生成する。
認識部71のメタ情報生成部109は、環境監視部16から供給されたセンシングデータ、入力部17から供給されたセンシングデータ、認識部71の顔認識部106が生成した顔認識処理の結果を示すデータ、認識部71の場所認識部107が生成した画像認識処理の結果を示すデータ、および認識部71の音声認識部108が生成した音声認識処理の結果を示すデータを基に、メタ情報を生成し、生成したメタ情報を要求部72およびコンテンツ生成部73に供給する。
なお、メタ情報には、人に関係する情報、場所に関係する情報、発話に関係する情報、および時刻を示す情報が含まれる。ここで、人に関係する情報とは、認識部71が顔認識処理によって認識したユーザのユーザIDおよび認識部71による顔認識処理におけるそのユーザの認識の確からしさを示すスコアを含む情報である。同様に、場所に関係する情報とは、認識部71が認識した場所および認識部71による画像認識処理におけるその場所の認識の確からしさを示すスコアを含む情報であり、発話に関係する情報とは、認識部71が音声認識処理によって認識した単語および認識部71による音声認識処理におけるその単語の認識の確からしさのスコアを含む情報である。
要求部72は、認識部71から供給されたメタ情報を基に、ユーザの周囲の状況が変化したか否かを判定する。要求部72は、ユーザの周囲の状況が変化したと判定された場合、コンテンツファイルの生成を要求する旨のコンテンツファイル生成要求を生成し、生成したコンテンツファイル生成要求をコンテンツ生成部73に供給する。
ここで、コンテンツファイルとは、コンテンツ生成部73がコンテンツデータを基に生成するデータであり、ユーザの周囲の状況を撮像した動画像または静止画像、ユーザの周囲において、発話された音声など(以下、コンテンツと称する)を表示または再生させるためのデータである。また、例えば、コンテンツファイルは、“フォト”に分類される静止画像データであるコンテンツファイル、“サウンド”に分類される音声データであるコンテンツファイル、および“ムービー”に分類される動画像データであるコンテンツファイルに分類される。例えば、コンテンツは、コンテンツファイルを基に、ディスプレイである出力部18に表示される。
なお、より詳細には、コンテンツファイルが“サウンド”に分類されるコンテンツファイルである場合は、ユーザにコンテンツを提示するとき、例えば、コンテンツファイルの名前、コンテンツファイルが生成された時刻におけるユーザの周囲の静止画像などをディスプレイである出力部18に表示するか、音声データであるコンテンツファイルを再生する。音声データであるコンテンツファイルを再生する場合、コンテンツファイルの一部を再生するようにしてもよく、フェードインおよびフェードアウトするようにしてもよい。また、コンテンツファイルが“ムービー”に分類されるコンテンツファイルである場合は、ユーザにコンテンツを提示するとき、例えば、コンテンツファイルに対応する動画像をそのまま、または、動画像を代表する静止画像などをディスプレイである出力部18に表示する。
また、要求部72は、ユーザの周囲の状況が変化したと判定された場合、コンテンツファイルを検索する旨のコンテンツファイル検索要求を生成し、生成したコンテンツファイル検索要求を検索部75に供給する。コンテンツファイル検索要求には検索部75がコンテンツファイルを検索する場合に検索のキーワードとして用いる検索キーと、検索キーの優先度である重みが含まれる。コンテンツファイル検索要求の詳細は後述する。
要求部72は、ユーザの周囲の状況が変化していないと判定された場合、コンテンツファイル生成要求およびコンテンツファイル検索要求を生成しない。
要求部72は、生成要求部110、検索要求部111、および重み算出部112を備えている。
要求部72の生成要求部110は、ユーザの周囲の状況が変化したと判定された場合、コンテンツファイルの生成を要求する旨のコンテンツファイル生成要求を生成する。コンテンツファイル生成要求には、メタ情報に含まれる時刻を示す情報と、生成するコンテンツファイルの分類を示す情報とが含まれる。要求部72の生成要求部110は、ユーザの周囲の状況が変化したと判定されなかった場合、コンテンツファイル生成要求を生成しない。
例えば、要求部72の生成要求部110は、メタ情報に含まれる人に関係する情報が、それまで含まれていなかったユーザIDを含むように変化した場合、ユーザIDで特定される人が現れるようにユーザの周囲の状況が変化したと判定し、コンテンツファイルの生成を要求する旨のコンテンツファイル生成要求を生成する。
要求部72の重み算出部112は、ユーザの周囲の状況が変化したと判定された場合、認識部71から供給されたメタ情報に含まれる、スコアを基に、重みを算出する。要求部72の重み算出部112は、ユーザの周囲の状況が変化したと判定されなかった場合、重みを算出しない。
要求部72の検索要求部111は、ユーザの周囲の状況が変化したと判定された場合、検索キーおよび要求部72の重み算出部112が算出した重みを含むコンテンツファイル検索要求を生成する。要求部72の検索要求部111は、メタ情報の人に関係する情報に含まれるユーザの名前、メタ情報の場所に関係する情報に含まれる場所の名前、およびメタ情報の発話に関係する情報に含まれる単語を検索キーとしてコンテンツファイル検索要求を生成する。要求部72の検索要求部111は、ユーザの周囲の状況が変化したと判定されなかった場合、コンテンツファイル検索要求を生成しない。
コンテンツ生成部73は、コンテンツファイルおよび所定の形式のメタ情報を生成する。コンテンツ生成部73は、バッファ113を備えている。
コンテンツ生成部73のバッファ113は、環境監視部16から供給されたコンテンツデータを一時的に記憶する。
コンテンツ生成部73は、要求部72からコンテンツファイル生成要求が供給された場合、コンテンツ生成部73のバッファ113に記憶されているコンテンツデータを基に、コンテンツファイル生成要求によって指定された分類のコンテンツファイルを生成する。この場合、例えば、コンテンツ生成部73は、コンテンツファイル生成要求によって指定された時刻に生成されたコンテンツデータを、コンテンツ生成部73のバッファ113から取得し、取得したコンテンツデータを基に、コンテンツファイルを生成する。コンテンツ生成部73は、要求部72からコンテンツファイル生成要求が供給されなかった場合、コンテンツファイルを生成しない。
コンテンツ生成部73は、要求部72からコンテンツファイル生成要求が供給された場合、コンテンツファイル生成要求によって指定された時刻(コンテンツファイル生成要求に含まれる現在時刻)に生成されたメタ情報を認識部71から取得し、PIMデータ記録部77に記録されているスケジュールデータを参照して、認識部71から取得したメタ情報を基に、コンテンツファイルに関係付けられた、所定の形式のメタ情報を生成する。コンテンツ生成部73は、要求部72からコンテンツファイル生成要求が供給されなかった場合、コンテンツファイルを生成しない。
コンテンツ生成部73は、生成したコンテンツファイルおよびメタ情報をメタ情報/コンテンツデータベース74に供給する。
メタ情報/コンテンツデータベース74は、コンテンツ生成部73から供給されたコンテンツファイルおよびメタ情報を関係付けて記録する。メタ情報/コンテンツデータベース74は、記録部19に含まれ、例えば、ハードディスクである記録部19のメタ情報およびコンテンツファイルを記録する所定の領域である。メタ情報/コンテンツデータベース74は、記録しているコンテンツファイルを検索部75に供給する。例えば、コンテンツファイルおよびメタ情報は、1つのフォルダに格納されることにより関係付けられるか、または、一方に他方を指すポインタが付加されることにより関係付けられる。
検索部75は、要求部72からコンテンツファイル検索要求が供給された場合、メタ情報/コンテンツデータベース74に記録されているメタ情報を参照して、コンテンツファイル検索要求に含まれる検索キーおよび検索キーの重みを基に、コンテンツファイルを重み付け検索する。検索部75は、重み付け検索されたコンテンツファイルと、検索キーとの適合度および検索キーの重みを基に、検索されたコンテンツファイルの重みを算出し、重みを表示させるためのデータを生成する。そして、検索部75は、重み付け検索されたコンテンツファイルをメタ情報/コンテンツデータベース74から取得し、取得したコンテンツファイルおよび生成した重みを表示させるためのデータを出力制御部76に供給する。
検索部75は、要求部72からコンテンツファイル検索要求が供給されなかった場合、コンテンツファイルを重み付け検索しない。
出力制御部76は、各種のデータの出力部18への出力を制御する。
出力制御部76は、検索部75から供給されたコンテンツファイルおよび重みを表示させるためのデータを基に、コンテンツおよび重みをディスプレイである出力部18に表示させる。
出力制御部76は、PIMデータ記録部77から供給されたスケジュールデータを基に、スケジュールを表示させるためのデータを生成し、生成したスケジュールを表示させるためのデータを基に、スケジュールをディスプレイである出力部18に表示させる。
PIMデータ記録部77は、アドレスデータ、スケジュールデータ、および学習データを記録している。PIMデータ記録部77は、記録部19に含まれ、例えば、ハードディスクである記録部19のアドレスデータ、スケジュールデータ、および学習データを記録する所定の領域である。PIMデータ記録部77は、記録している学習データを認識部71に供給する。PIMデータ記録部77は、スケジュールデータを出力制御部76に供給する。
PIMデータ記録部77は、入力部17から入力信号が供給された場合、供給された入力信号を基に、記録しているPIMデータを更新する。例えば、PIMデータ記録部77は、入力部17から、スケジュールデータの更新を要求する旨の入力信号が供給された場合、供給された入力信号を基に、記録しているスケジュールデータを更新する。
入力制御部78は、ユーザが入力部17を操作することによって、ディスプレイである出力部18に表示されているコンテンツを選択した場合、ユーザが選択したコンテンツに関係付けられたコンテンツファイルを再検索する旨の再検索要求を生成し、生成した再検索要求を検索部75に供給する。なお、再検索要求には、ユーザが選択したコンテンツを表示するためのコンテンツファイルを特定する情報が含まれる。
検索部75は、入力制御部78から再検索要求が供給された場合、メタ情報/コンテンツデータベース74に記録されているメタ情報を参照して、再検索要求によって指定されたコンテンツファイルに関係付けられたメタ情報に含まれる検索キーおよびスコアを基に、コンテンツファイルを重み付け検索する。この場合、検索部75は、メタ情報の人に関係する情報に含まれるユーザの名前、メタ情報の場所に関係する情報に含まれる場所の名前、およびメタ情報の発話に関係する情報に含まれる単語を検索キーとし、検索キーのスコアを重みとして重み付け検索する。検索部75は、重み付け検索されたコンテンツファイルと、検索キーとの適合度および検索キーの重みを基に、検索されたコンテンツファイルの重みを算出し、重みを表示させるためのデータを生成する。そして、検索部75は、重み付け検索されたコンテンツファイルをメタ情報/コンテンツデータベース74から取得し、取得したコンテンツファイルおよび生成した重みを表示させるためのデータを出力制御部76に供給する。
検索部75は、入力制御部78から再検索要求が供給されなかった場合、コンテンツファイルを重み付け検索しない。
出力部18は、出力制御部76から供給されたコンテンツファイルおよび重みを表示させるためのデータを基に、コンテンツおよび重みをディスプレイである出力部18に表示する。出力部18は、出力制御部76から供給されたスケジュールを表示させるためのデータを基に、スケジュールをディスプレイである出力部18に表示する。なお、出力部18には、1または複数のコンテンツが表示される。
次に、図3のフローチャートを参照して、情報処理装置によるコンテンツ表示の処理を説明する。
ステップS11において、環境監視部16は、ユーザの周囲の環境(状況)を監視し、ユーザの周囲の状況を検出し、ユーザの周囲の状況を示すデータであるセンシングデータを生成する。環境監視部16は、生成したセンシングデータを認識部71に供給する。
例えば、ステップS11において、環境監視部16は、環境監視部16のビデオカメラ101が撮像した動画像に対応する動画像データを基に、動画像のフレームを構成する静止画像に対応する静止画像データをそのままセンシングデータとするか、または静止画像データを所定の割合で間引いてセンシングデータとすることにより、静止画像データであるセンシングデータを生成し、生成したセンシングデータを認識部71に供給する。また、例えば、入力部17のシャッタボタン105が押圧されると、入力部17は、入力部17のシャッタボタン105が押圧された旨の信号を生成し、生成したシャッタボタン105が押圧された旨の信号をセンシングデータとして、認識部71に供給する。
ステップS12において、認識部71は、環境監視部16および入力部17から供給されたセンシングデータを基に、周囲の状況を認識する。
例えば、ステップS12において、認識部71の顔認識部106は、環境監視部16から供給された静止画像データであるセンシングデータおよびPIMデータ記録部77から供給された学習データを基に、顔認識処理を行う。学習データには、例えば、ユーザIDによって特定されるユーザの顔の静止画像を表示させる静止画像データ、静止画像データにおけるユーザの口、目、鼻などの端点をノードとして、ノードにより表されたユーザの顔のグラフ、隣接するノードとノードとの距離、および各ノードにおける静止画像データの特徴量が含まれている。ここで、特徴量は、例えば、静止画像データにガボールウェーブレット変換を施すことによって得られるガボール特徴量とすることができる。
認識部71の顔認識部106は、例えば、フレキシブル特徴照合法により、環境監視部16から供給された静止画像データであるセンシングデータから、口、目、鼻などの特定の部位を抽出し、抽出した部位をノードとして顔のグラフを生成する。そして、認識部71の顔認識部106は、生成した顔のグラフの隣接するノードとノードとの距離および各ノードの特徴量を求め、求めた隣接するノードとノードとの距離、および各ノードの特徴量のそれぞれと、PIMデータ記録部77から供給された学習データに含まれる、各ユーザの隣接するノードとノードとの距離、および各ノードの特徴量のそれぞれとを比較することにより、情報処理装置の周囲にいるユーザを認識する。そして、認識部71の顔認識部106は、顔認識処理の結果を示すデータを生成する。
また、例えば、ステップS12において、認識部71の場所認識部107は、環境監視部16から供給された静止画像データであるセンシングデータおよびPIMデータ記録部77から供給された学習データを基に、画像認識処理を行う。学習用データには、例えば、ユーザの自宅、職場などの静止画像を表示させるための静止画像データと、所定の領域に分割された静止画像データの各領域の画素の輝度、色度情報などの特徴量とが含まれている。認識部71の場所認識部107は、例えば、静止画像データであるセンシングデータの特徴量を求め、求めた特徴量と、学習用データに含まれる静止画像の特徴量とを比較することによって、情報処理装置の現在位置を認識する。そして、認識部71の場所認識部107は、画像認識処理の結果を示すデータを生成する。
さらに、例えば、ステップS12において、認識部71の音声認識部108は、環境監視部16から供給された音声データであるセンシングデータおよびPIMデータ記録部77から供給された学習データを基に、音声認識処理を行う。学習データには、例えば、認識の対象となる単語について、その発音に関する情報が記述された単語辞書情報、および単語辞書情報に含まれる各単語がどのように連鎖するかが記述された文法規則情報が含まれている。例えば、認識部71の音声認識部108は、環境監視部16から供給された音声データであるセンシングデータからMFCC(Mel Frequency Cepstrum Coefficient)などの特徴量を抽出し、抽出した特徴量を用いて、学習データを参照しながら連続分布HMM(Hidden Markov Model)法などに基づいて、情報処理装置の周囲において、発話された単語を認識する。そして、認識部71の音声認識部108は、音声認識処理の結果を示すデータを生成する。
ステップS13において、認識部71のメタ情報生成部109は、環境監視部16および入力部17から供給されたセンシングデータ、顔認識部106が生成した顔認識処理の結果を示すデータ、認識部71の場所認識部107が生成した画像認識処理の結果を示すデータ、並びに認識部71の音声認識部108が生成した音声認識処理の結果を示すデータを基に、メタ情報を生成し、生成したメタ情報を要求部72に供給する。
メタ情報には、例えば、図4および図5に示す情報が含まれている。
ここで、図4は、メタ情報に含まれる情報を説明するための図である。メタ情報は、“Person”、“Leitmotif”、“Location”、および“Time”の項目のそれぞれから構成され、各項目には、項目ごとに分類された情報が含まれている。すなわち、“Person”である項目には、顔認識処理によって認識されたユーザに関係する情報が含まれている。
同様に、“Leitmotif”である項目には、音声認識処理によって認識された発話に関係する情報が含まれており、“Location”である項目には、画像認識処理によって認識された場所に関係する情報が含まれている。また、“Time”である項目には、日付けおよび時刻を示す情報が含まれている。
さらに、図5に示すように、“Person”、“Leitmotif”、および“Location”である項目のそれぞれには、“Prospect”である項目が含まれる。“Prospect”である項目には、認識処理の結果として、複数の候補がある場合における、1つの候補に関係する情報である。したがって、例えば、顔認識処理の結果として、ユーザAおよびユーザBが認識された場合、“Person”である項目に含まれる1つ目の“Prospect”である項目には、ユーザAに関係する情報が含まれ、“Person”である項目に含まれる2つ目の“Prospect”である項目には、ユーザBに関係する情報が含まれる。
また、例えば、画像認識処理の結果として、現在位置が場所Fまたは場所Gであると認識された場合、“Location”である項目に含まれる1つ目の“Prospect”である項目には、場所Fに関係する情報が含まれ、“Location”である項目に含まれる2つ目の“Prospect”である項目には、場所Gに関係する情報が含まれる。
さらに、“Prospect”である項目には、“Score”である項目が含まれる。“Score”である項目には、認識処理の結果の確からしさを示すスコアが含まれる。
“Location”である項目には、“Latitude”である項目が含まれ、“Latitude”である項目には、環境監視部16のGPS受信装置103によって計測された、情報処理装置の現在位置の緯度を示す情報が含まれる。また、“Location”である項目には、“Longitude”である項目が含まれ、“Longitude”である項目には、環境監視部16のGPS受信装置103によって計測された、情報処理装置の現在位置の経度を示す情報が含まれる。
図6は、メタ情報のより具体的な一例を示す図である。メタ情報に含まれる、図中、上から2行目に示される“Person”である項目には、上から3行目の“Prospect”である項目および“Score”である項目が含まれている。上から3行目の“Prospect”である項目に含まれる“75”は、顔認識処理によって、認識されたユーザのユーザIDを示し、上から3行目の“Score”である項目に含まれる“0.4235989”は、顔認識処理によって、認識されたユーザのユーザIDが“75”である、認識の確からしさを示すスコアである。
例えば、上から3行目の“Score”である項目に含まれる“0.4235989”は、顔認識処理によって、ユーザIDが“75”であるユーザが認識された確率(確からしさ)が42.35989%であることを示す。
同様に、上から2行目に示される“Person”である項目には、上から4行目の“Prospect”である項目および“Score”である項目が含まれている。上から4行目の“Prospect”である項目に含まれる“03”は、顔認識処理によって、認識されたユーザのユーザIDを示し、上から4行目の“Score”である項目に含まれる“0.6628738”は、顔認識処理によって、認識されたユーザのユーザIDが“03”である、認識の確からしさを示すスコアである。
例えば、上から4行目の“Score”である項目に含まれる“0.6628738”は、顔認識処理によって、ユーザIDが“03”であるユーザが認識された確率(確からしさ)が66.28738%であることを示す。
上から6行目の“Leitmotif”である項目には、上から7行目の“Prospect”である項目および“Score”である項目が含まれている。上から7行目の“Prospect”である項目に含まれる“ドラゴンレーダー”は、音声認識処理によって、認識された音声に含まれる単語を示し、上から7行目の“Score”である項目に含まれる“0.44827411”は、音声認識処理によって、認識された音声に単語“ドラゴンレーダー”が含まれる、認識の確からしさを示すスコアである。
例えば、上から7行目の“Score”である項目に含まれる“0.44827411”は、音声認識処理によって、単語“ドラゴンレーダー”が音声から認識された確率(確からしさ)が、44.827411%であることを示す。
同様に、上から6行目の“Leitmotif”である項目には、上から8行目の“Prospect”である項目および“Score”である項目が含まれている。上から8行目の“Prospect”である項目に含まれる“フィラデルフィア”は、音声認識処理によって、認識された音声に含まれる単語を示し、上から8行目の“Score”である項目に含まれる“0.9987236”は、音声認識処理によって、認識された音声に単語“フィラデルフィア”が含まれる確からしさを示すスコアである。
例えば、上から8行目の“Score”である項目に含まれる“0.9987236”は、音声認識処理によって、単語“フィラデルフィア”が音声から認識された確率(確からしさ)が、99.87236%であることを示す。
上から10行目の“Location”である項目には、上から11行目の“Latitude”である項目が含まれる。上から11行目の“Latitude”である項目に含まれる“35 37 2217 N”は、環境監視部16のGPS受信装置103によって計測された、情報装置の現在位置の緯度を示す。例えば、上から11行目の“Latitude”である項目に含まれる“35 37 2217 N”は、環境監視部16のGPS受信装置103によって計測された、情報装置の現在位置の緯度が北緯35度37分22.17秒であることを示す。
また、上から10行目の“Location”である項目には、上から12行目の“Longitude”である項目が含まれる。上から12行目の“Longitude”である項目に含まれる“139 44 2383 E”は、環境監視部16のGPS受信装置103によって計測された、情報装置の現在位置の経度を示す。例えば、上から12行目の“Longitude”である項目に含まれる“139 44 2383 E”は、環境監視部16のGPS受信装置103によって計測された、情報装置の現在位置の経度が東経139度44分23.83秒であることを示す。
上から10行目の“Location”である項目には、上から13行目の“Prospect”である項目および“Score”である項目が含まれている。上から13行目の“Prospect”である項目に含まれる“二号館B9会議室”は、画像認識処理によって認識された場所(現在位置の名前)を示し、上から13行目の“Score”である項目に含まれる“0.2629673”は、画像認識処理によって認識された場所が“二号館B9会議室”である、認証の確からしさを示すスコアである。
例えば、上から13行目の“Score”である項目に含まれる“0.2629673”は、画像認識処理によって、場所“二号館B9会議室”が認識された確率(確からしさ)が、26.29673%であることを示す。
同様に、上から10行目の“Location”である項目には、上から14行目の“Prospect”である項目および“Score”である項目が含まれている。上から14行目の“Prospect”である項目に含まれる“ガンダーラ会議室”は、画像認識処理によって認識された場所(現在位置)を示し、上から14行目の“Score”である項目に含まれる“0.8659298”は、画像認識処理によって認識された場所が“ガンダーラ会議室”である確からしさを示すスコアである。
例えば、上から14行目の“Score”である項目に含まれる“0.8659298”は、画像認識処理によって、場所“ガンダーラ会議室”が認識された確率(確からしさ)が、86.59298%であることを示す。
上から16行目の“Time”である項目に含まれる“03‐08‐29‐16:47”は、日付けおよび時刻を示す。例えば、上から16行目の“Time”である項目に含まれる“03‐08‐29‐16:47”は、2003年8月29日の16時47分であることを示す。
図3のフローチャートの説明に戻り、ステップS14において、環境監視部16は、コンテンツデータを生成し、生成したコンテンツデータをコンテンツ生成部73に供給する。
例えば、ステップS14において、環境監視部16は、環境監視部16のビデオカメラ101が撮像した動画像に対応する動画像データを基に、動画像のフレームを構成する静止画像に対応する静止画像データをそのままコンテンツデータとするか、または静止画像データを所定の圧縮率で圧縮してコンテンツデータとすることにより、静止画像であるコンテンツデータを生成し、生成したコンテンツデータをコンテンツ生成部73に供給する。なお、環境監視部16は、環境監視部16のビデオカメラ101が撮像した動画像に対応する動画像データを基に、動画像データであるコンテンツデータを生成することも可能である。
ステップS15において、コンテンツ生成部73のバッファ113は、環境監視部16から供給されたコンテンツデータを一時的に記憶する。
ステップS16において、要求部72は、コンテンツファイル生成要求の生成の処理を行う。なお、コンテンツファイル生成要求の生成の処理の詳細は、後述するが、コンテンツファイル生成要求の生成の処理において、要求部72は、認識部71から供給されたメタ情報を基に、コンテンツファイル生成要求を生成し、生成したコンテンツファイル生成要求をコンテンツ生成部73に供給する。
ステップS17において、コンテンツ生成部73は、コンテンツファイルの生成の処理を行う。なお、コンテンツファイルの生成の処理の詳細は、後述するが、コンテンツファイルの生成の処理において、コンテンツ生成部73は、要求部72から供給されたコンテンツファイル生成要求を基に、コンテンツファイルを生成する。
ステップS18において、要求部72は、コンテンツファイル検索要求の生成の処理を行う。なお、コンテンツファイル検索要求の生成の処理の詳細は、後述するが、コンテンツファイル検索要求の生成の処理において、要求部72は、認識部71から供給されたメタ情報を基に、コンテンツファイル検索要求を生成し、生成したコンテンツファイル検索要求を検索部75に供給する。
ステップS19において、検索部75は、コンテンツファイルの検索の処理を行い、手続きはステップS11に戻り、上述した処理を繰り返す。なお、コンテンツファイルの検索の処理の詳細は、後述するが、コンテンツファイルの検索の処理において、検索部75は、要求部72から供給されたコンテンツファイル検索要求を基に、コンテンツファイルを検索する。そして、検索部75によって、検索されたコンテンツファイルに対応するコンテンツがディスプレイである出力部18に表示される。
このようにして、情報処理装置は、メタ情報を生成する。情報処理装置は、生成したメタ情報を基に、コンテンツファイルを生成する。また、情報処理装置は、生成したメタ情報を基に、コンテンツファイルを検索し、検索したコンテンツファイルに対応するコンテンツをディスプレイである出力部18に表示する。
このように、情報処理装置は、ユーザの指示がない場合においても、ユーザの周囲の状況が変化したとき、コンテンツファイルを生成するようにしたので、ユーザが、気付かなかった、手が離せないなどの理由により、コンテンツファイルを生成させることができなかったという事態を避けることができる。また、ユーザは、コンテンツファイルを生成させる旨の指示をすることに気をとられて、その場を楽しむことができないという事態を避けることができる。
また、情報処理装置は、ユーザの指示がない場合においても、ユーザの周囲の状況が変化したとき、ユーザの周囲の状況から連想されるコンテンツファイルを検索し、検索したコンテンツファイルに対応するコンテンツを表示(提示)するようにしたので、ユーザが忘れてしまっている、ユーザの過去の周囲の状況を記録したコンテンツが表示され、ユーザの記憶の想起を促進させることができる。
次に、図7のフローチャートを参照して、図3のステップS16の処理に対応するコンテンツファイル生成要求の生成の処理を説明する。
認識部71からメタ情報が供給されたので、ステップS41において、要求部72は、認識部71から供給されたメタ情報に含まれる、人に関係する情報が変化したか否かを判定する。例えば、ステップS41において、要求部72は、認識部71から供給されたメタ情報と、供給されたメタ情報の1つ前に認識部71から供給されたメタ情報とを比較することにより、図6に示すメタ情報の“Person”である項目に含まれる情報が変化したか否かを判定する。この場合、例えば、メタ情報の“Person”である項目にユーザAに関係する情報が追加された、ユーザAのスコアが所定の値を超えたなどの変化がおきたときに、人に関係する情報が変化したと判定される。
ステップS41において、メタ情報に含まれる、人に関係する情報が変化したと判定された場合、情報処理装置の周囲の環境において、新たなユーザが認識されたので、ステップS42に進み、要求部72の生成要求部110は、“フォト”に分類されるコンテンツファイルを生成する旨のコンテンツファイル生成要求を生成する。要求部72は、生成したコンテンツファイル生成要求をコンテンツ生成部73に供給し、処理は終了する。この場合、要求部72の生成要求部110は、例えば、図6のメタ情報の“Time”である項目に含まれる時刻を示す情報を含むコンテンツファイル生成要求を生成する。このようにすることで、コンテンツファイルの生成の処理において、処理に要する時間に影響されることなく、メタ情報がまさに変化した時点におけるコンテンツデータをコンテンツファイルとして記録することができる。
一方、ステップS41において、メタ情報に含まれる、人に関係する情報が変化したと判定されなかった場合、情報処理装置の周囲の環境において、新たなユーザが認識されなかったので、ステップS43に進み、要求部72は、認識部71から供給されたメタ情報に含まれる、場所に関係する情報が変化したか否かを判定する。例えば、ステップS43において、要求部72は、認識部71から供給されたメタ情報と、供給されたメタ情報の1つ前に認識部71から供給されたメタ情報とを比較することにより、図6に示すメタ情報の“Location”である項目に含まれる情報が変化したか否かを判定する。この場合、例えば、メタ情報の“Location”である項目に場所Bに関係する情報が追加された、場所Bのスコアが所定の値を超えたなどの変化がおきたときに、場所に関係する情報が変化したと判定される。
ステップS43において、メタ情報に含まれる、場所に関係する情報が変化したと判定された場合、情報処理装置の位置が変わった(情報処理装置が移動した)と認識されたので、ステップS44に進み、要求部72の生成要求部110は、“フォト”に分類されるコンテンツファイルを生成する旨のコンテンツファイル生成要求を生成する。要求部72は、生成したコンテンツファイル生成要求をコンテンツ生成部73に供給し、処理は終了する。この場合、要求部72の生成要求部110は、例えば、図6のメタ情報の“Time”である項目に含まれる時刻を示す情報を含むコンテンツファイル生成要求を生成する。
一方、ステップS43において、メタ情報に含まれる、場所に関係する情報が変化したと判定されなかった場合、情報処理装置の位置が移動したと認識されなかったので、ステップS45に進み、要求部72は、認識部71から供給されたメタ情報に含まれる、発話に関係する情報が変化したか否かを判定する。例えば、ステップS45において、要求部72は、認識部71から供給されたメタ情報と、供給されたメタ情報の1つ前に認識部71から供給されたメタ情報とを比較することにより、図6に示すメタ情報の“Leitmotif”である項目に含まれる情報が変化したか否かを判定する。この場合、例えば、メタ情報の“Leitmotif”である項目に単語Cに関係する情報が追加された、単語Cのスコアが所定の値を超えたなどの変化がおきたときに、発話に関係する情報が変化したと判定される。
ステップS45において、メタ情報に含まれる、発話に関係する情報が変化したと判定された場合、情報処理装置の周囲において音声が発話されたと認識されたので、ステップS46に進み、要求部72の生成要求部110は、“サウンド”に分類されるコンテンツファイルを生成する旨のコンテンツファイル生成要求を生成する。要求部72は、生成したコンテンツファイル生成要求をコンテンツ生成部73に供給し、処理は終了する。この場合、要求部72の生成要求部110は、例えば、図6のメタ情報の“Time”である項目に含まれる時刻を示す情報を含むコンテンツファイル生成要求を生成する。
一方、ステップS45において、メタ情報に含まれる、発話に関係する情報が変化したと判定されなかった場合、情報処理装置の周囲において音声が発話されたと認識されなかったので、ステップS47に進み、要求部72は、コンテンツファイルを生成してから所定の期間が経過したか否かを判定する。
ステップS47において、コンテンツファイルを生成してから所定の期間が経過したと判定された場合、ステップS48に進み、要求部72の生成要求部110は、“フォト”に分類されるコンテンツファイルを生成する旨のコンテンツファイル生成要求を生成する。要求部72は、生成したコンテンツファイル生成要求をコンテンツ生成部73に供給し、処理は終了する。この場合、要求部72の生成要求部110は、例えば、図6のメタ情報の“Time”である項目に含まれる時刻を示す情報を含むコンテンツファイル生成要求を生成する。
一方、ステップS47において、コンテンツファイルを生成してから所定の期間が経過したと判定されなかった場合、ステップS48の処理は、スキップされ、処理は終了する。
このようにして、要求部72は、認識部71から供給されたメタ情報を基に、ユーザの周囲の環境が変化したか否かを判定し、ユーザの周囲の環境が変化したと判定された場合、コンテンツファイルを生成する旨のコンテンツファイル生成要求を生成する。また、ユーザの周囲の環境が変化したと判定されなかった場合、コンテンツファイル生成要求を生成しない。
このように、情報処理装置が、ユーザの周囲の環境を監視し、ユーザの周囲の環境の変化に応じて、コンテンツファイルの生成要求を生成するようにしたので、ユーザは、情報処理装置に対して、コンテンツファイルを生成する旨の指示をする必要がない。
次に、図8のフローチャートを参照して、図3のステップS17の処理に対応するコンテンツファイルの生成の処理を説明する。
要求部72からコンテンツファイル生成要求が供給されたので、ステップS71において、コンテンツ生成部73は、要求部72から供給されたコンテンツファイル生成要求およびコンテンツ生成部73のバッファ113が一時的に記憶しているコンテンツデータを基に、コンテンツファイルを生成する。
より詳細には、ステップS71において、コンテンツ生成部73は、コンテンツ生成部73のバッファ113が一時的に記憶しているコンテンツデータであって、要求部72から供給されたコンテンツファイル生成要求に含まれる時刻に環境監視部16が生成し、環境監視部16から供給されたコンテンツデータを基に、要求部72から供給されたコンテンツファイル生成要求によって指定された分類のコンテンツファイルを生成する。
したがって、例えば、要求部72から供給されたコンテンツファイル生成要求に含まれる時刻を示す情報が、時刻t1であり、コンテンツファイル生成要求が“フォト”に分類されるコンテンツファイルを生成する旨のコンテンツファイル生成要求であった場合、コンテンツ生成部73は、コンテンツ生成部73のバッファ113が記憶しているコンテンツデータのうち、時刻t1において環境監視部16によって生成され、環境監視部16から供給された静止画像データであるコンテンツデータを基に、コンテンツファイルを生成する。
なお、要求部72からコンテンツファイル生成要求が供給された場合だけを説明したが、要求部72からコンテンツファイル生成要求が供給されなかった場合、コンテンツ生成部73は、コンテンツファイルの生成の処理を行わず、処理は終了する。
ステップS72において、コンテンツ生成部73は、要求部72から供給されたコンテンツファイル生成要求に含まれる時刻に生成されたメタ情報を認識部71から取得する。例えば、要求部72から供給されたコンテンツファイル生成要求に含まれる時刻が時刻t1であった場合、ステップS72において、コンテンツ生成部73は、時刻t1に生成されたメタ情報を認識部71から取得する。
ステップS73において、コンテンツ生成部73は、PIMデータ記録部77に記録されているスケジュールデータを参照して、認識部71から取得したメタ情報を基に、所定の形式のメタ情報を生成し、生成したメタ情報およびコンテンツファイルをメタ情報/コンテンツデータベース74に供給する。
例えば、ステップS73において、コンテンツ生成部73は、PIMデータ記録部77に記録されているスケジュールデータを参照して、認識部71から取得したメタ情報を基に、XML(Extensible Markup Language)形式のメタ情報を生成し、生成したメタ情報およびコンテンツファイルをメタ情報/コンテンツデータベース74に供給する。
この場合、例えば、コンテンツ生成部73は、認識部71から取得したメタ情報に図9に示す項目をさらに含むXML形式のメタ情報を生成する。
“Factor”である項目は、ファイルに含まれる情報を示す情報であり、メタ情報が格納されたファイルであることを示す。“Guide”である項目には、コンテンツファイルを特定するための番号が含まれている。
また、“Filepath”である項目には、コンテンツファイルが記録されるアドレスを示すパスを示す情報が含まれており、“Type”である項目には、コンテンツファイルの分類を示す情報が含まれている。さらに、“event”である項目には、スケジュールデータに含まれる情報が含まれる。
ここで、図10は、コンテンツ生成部73が生成したメタ情報のより具体的な一例を示す図である。
図10に示すメタ情報は、図6に示すメタ情報に“Factor”である項目、“Guide”である項目、“Filepath”である項目、“Type”である項目、および“event”である項目のそれぞれが新たに追加されている。なお、“Person”である項目、“Leitmotif”である項目、“Location”である項目、および“Time”である項目のそれぞれは、図6における場合と同様であり、繰り返しになるので、その説明は省略する。
図中、上から2行目の“Factor”である項目に含まれる、上から3行目乃至22行目の項目のそれぞれは、メタ情報であることを示している。
また、上から3行目の“Guide”である項目に含まれる“3090B941‐751B‐403f‐A224‐4C4966166983”は、メタ情報に対応するコンテンツファイルを特定するための番号である。上から4行目の“Filepath”である項目に含まれる上から5行目の“d:\EQ‐Data\photo002.jpg”は、メタ情報に対応するコンテンツファイルが記録されているアドレスを示すパスを示し、例えば、ファイル名が“photo002.jpg”であるコンテンツファイルがドライブ“d”のフォルダ“EQ‐Data”に記録されていることを示す。上から6行目の“Type”である項目に含まれる“Photo”は、メタ情報に対応するコンテンツファイルの分類が“フォト”であることを示している。
このように、コンテンツ生成部73が、“Guide”である項目に含まれるコンテンツファイルを特定するための番号、“Filepath”である項目に含まれるコンテンツファイルが記録されているアドレスを示すパス、および“Type”である項目に含まれるコンテンツファイルの分類のそれぞれの情報を含むようにメタ情報を生成することにより、メタ情報とコンテンツファイルとが関係付けられる。
さらに、上から21行目の“event”である項目に含まれる“2部1課8月度集会@Gandhara会議室”は、PIMデータ記録部77が記録しているスケジュールデータに含まれるユーザのスケジュールであって、上から22行目の“03‐08‐29‐16:47”で示される時刻におけるユーザのスケジュールを示している。この場合、例えば、ユーザは、2003年8月29日の16時47分に“Gandhara会議室”において、2部1課の8月度集会があることを示している。
図8のフローチャートの説明に戻り、ステップS74において、メタ情報/コンテンツデータベース74は、コンテンツ生成部73から供給されたコンテンツファイルおよびメタ情報を関係付けて記録し、処理は終了する。
このようにして、コンテンツ生成部73は、コンテンツファイルおよびメタ情報を生成する。また、メタ情報/コンテンツデータベース74は、コンテンツファイルおよびメタ情報を関係付けて記録する。このように、コンテンツファイルに対応するメタ情報を生成し、コンテンツファイルおよびメタ情報を関係付けて記録することによって、容易にコンテンツファイルを検索することができる。
図11のフローチャートを参照して、図3のステップS18の処理に対応するコンテンツファイル検索要求の生成の処理を説明する。
認識部71からメタ情報が供給されるので、ステップS101において、要求部72は、認識部71から供給されたメタ情報に含まれる情報が変化したか否かを判定する。
例えば、ステップS101において、要求部72は、認識部71から供給されたメタ情報と、供給されたメタ情報の1つ前に認識部71から供給されたメタ情報とを比較することにより、メタ情報に含まれる情報が変化したか否かを判定する。
ステップS101において、メタ情報に含まれる情報が変化したと判定された場合、ステップS102に進み、要求部72の重み算出部112は、メタ情報の人に関係する情報に含まれるスコアの総和が1になるように正規化する。
例えば、ステップS102において、メタ情報の人に関係する情報として、ユーザAに関係する情報およびユーザBに関係する情報がメタ情報に含まれている場合、要求部72の重み算出部112は、ユーザAのスコアおよびユーザBのスコアの総和が1になるように正規化する。例えば、ユーザAのスコアが0.4であり、ユーザBのスコアが0.1である場合、要求部72の重み算出部112によって正規化されたユーザAのスコアは0.8とされ、正規化されたユーザBのスコアは、0.2とされる。
ステップS103において、要求部72の重み算出部112は、メタ情報の場所に関係する情報に含まれるスコアの総和が1になるように正規化する。
例えば、ステップS103において、メタ情報の場所に関係する情報として、場所Dに関係する情報および場所Eに関係する情報がメタ情報に含まれている場合、要求部72の重み算出部112は、場所Dのスコアおよび場所Eのスコアの総和が1になるように正規化する。例えば、場所Dのスコアが0.4であり、場所Eのスコアが0.1である場合、要求部72の重み算出部112によって正規化された場所Dのスコアは0.8とされ、正規化された場所Eのスコアは、0.2とされる。
ステップS104において、要求部72の重み算出部112は、メタ情報の発話に関係する情報に含まれるスコアの総和が1になるように正規化する。
例えば、ステップS104において、メタ情報の発話に関係する情報として、単語Jに関係する情報および単語Kに関係する情報がメタ情報に含まれている場合、要求部72の重み算出部112は、単語Jのスコアおよび単語Kのスコアの総和が1になるように正規化する。例えば、単語Jのスコアが0.4であり、単語Kのスコアが0.1である場合、要求部72の重み算出部112によって正規化された単語Jのスコアは0.8とされ、正規化された単語Kのスコアは、0.2とされる。
ステップS105において、要求部72は、メタ情報の人に関係する情報が変化したか否かを判定する。例えば、ステップS105において、要求部72は、認識部71から供給されたメタ情報と、供給されたメタ情報の1つ前に認識部71から供給されたメタ情報とを比較することにより、図6に示すメタ情報の“Person”である項目に含まれる情報が変化したか否かを判定する。この場合、例えば、メタ情報の“Person”である項目にユーザAに関係する情報が追加された、ユーザAのスコアが所定の値を超えたなどの変化がおきたときに、人に関係する情報が変化したと判定される。
ステップS105において、メタ情報の人に関係する情報が変化したと判定された場合、ステップS106に進み、要求部72の重み算出部112は、人に関係する情報に含まれるスコアに重み係数を掛け合わせ、重みを計算する。
ここで、重み係数とは、予め定められた値であり、コンテンツファイルを検索する場合における、検索キーと他の検索キーとの相対的な優先度を示す値である。例えば、コンテンツファイルを検索するための検索キーとして、“ユーザA”よりも“ユーザB”を優先させたい場合、“ユーザA”の重み係数を1とし、“ユーザB”の重み係数を2とすることができる。
したがって、例えば、メタ情報の人に関係する情報に、ユーザAに関係する情報およびユーザBに関係する情報が含まれている場合、ステップS106において、要求部72の重み算出部112は、ユーザAのスコアに予め定められたユーザAの重み係数を掛け合わせることによって、ユーザAの重みを算出し、ユーザBのスコアに予め定められたユーザBの重み係数を掛け合わせることによって、ユーザBの重みを算出する。
また、重み係数は、メタ情報に含まれる情報の変化の度合いに合わせて、変化させることも可能である。例えば、認識部71から供給されたメタ情報(メタ情報Aと称する)の人に関係する情報に、ユーザAに関係する情報およびユーザBに関係する情報が含まれており、供給されたメタ情報Aの1つ前に認識部71から供給されたメタ情報(メタ情報Bと称する)の人に関係する情報に、ユーザAに関係する情報が含まれていた場合、メタ情報Aには、ユーザAに関係する情報およびユーザBに関係する情報が含まれ、メタ情報Bには、ユーザAに関係する情報しか含まれていないので、メタ情報に含まれる情報の変化の度合いは、ユーザAよりもユーザBの方が大きい。したがって、例えば、ユーザAの重み係数を1とし、ユーザBの重み係数を2とすることができる。
さらに、例えば、メタ情報に含まれる情報処理装置の場所に関係する情報が“新宿”から“渋谷”に変化した場合に、“渋谷”の重み係数を大きくするようにしてもよく、全ての重み係数を1にするようにしてもよい。
ステップS105において、メタ情報の人に関係する情報が変化していないと判定された場合、ステップS106の処理は、スキップされ、ステップS107に進む。
ステップS107において、要求部72は、メタ情報の場所に関係する情報が変化したか否かを判定する。例えば、ステップS107において、要求部72は、認識部71から供給されたメタ情報と、供給されたメタ情報の1つ前に認識部71から供給されたメタ情報とを比較することにより、図6に示すメタ情報の“Location”である項目に含まれる情報が変化したか否かを判定する。この場合、例えば、メタ情報の“Location”である項目に場所Dに関係する情報が追加された、場所Dのスコアが所定の値を超えたなどの変化がおきたときに、場所に関係する情報が変化したと判定される。
ステップS107において、メタ情報の場所に関係する情報が変化したと判定された場合、ステップS108に進み、要求部72の重み算出部112は、場所に関係する情報に含まれるスコアに重み係数を掛け合わせ、重みを計算する。
例えば、メタ情報の場所に関係する情報に、場所Dに関係する情報および場所Fに関係する情報が含まれている場合、ステップS108において、要求部72の重み算出部112は、場所Dのスコアに予め定められた場所Dの重み係数を掛け合わせることによって、場所Dの重みを算出し、場所Fのスコアに予め定められた場所Fの重み係数を掛け合わせることによって、場所Fの重みを算出する。なお、重み係数は、メタ情報に含まれる情報の変化の度合いに合わせて、変化させてもよい。
ステップS107において、メタ情報の場所に関係する情報が変化していないと判定された場合、ステップS108の処理は、スキップされ、ステップS109に進む。
ステップS109において、要求部72は、メタ情報の発話に関係する情報が変化したか否かを判定する。例えば、ステップS109において、要求部72は、認識部71から供給されたメタ情報と、供給されたメタ情報の1つ前に認識部71から供給されたメタ情報とを比較することにより、図6に示すメタ情報の“Leitmotif”である項目に含まれる情報が変化したか否かを判定する。この場合、例えば、メタ情報の“Leitmotif”である項目に単語Jに関係する情報が追加された、単語Jのスコアが所定の値を超えたなどの変化がおきたときに、発話に関係する情報が変化したと判定される。
ステップS109において、メタ情報の発話に関係する情報が変化したと判定された場合、ステップS110に進み、要求部72の重み算出部112は、発話に関係する情報に含まれるスコアに重み係数を掛け合わせ、重みを計算する。
例えば、メタ情報の発話に関係する情報に、単語Jに関係する情報および単語Kに関係する情報が含まれている場合、ステップS110において、要求部72の重み算出部112は、単語Jのスコアに予め定められた単語Jの重み係数を掛け合わせることによって、単語Jの重みを算出し、単語Kのスコアに予め定められた単語Kの重み係数を掛け合わせることによって、単語Kの重みを算出する。なお、重み係数は、メタ情報に含まれる情報の変化の度合いに合わせて、変化させてもよい。
ステップS109において、メタ情報の発話に関係する情報が変化していないと判定された場合、ステップS110の処理は、スキップされ、ステップS111に進む。
ステップS111において、要求部72の重み算出部112は、重みの総和が1になるように正規化する。例えば、ユーザAの重み、ユーザBの重み、場所Dの重み、場所Fの重み、単語Jの重み、および単語Kの重みを算出した場合、ステップS111において、要求部72の重み算出部112は、ユーザAの重み、ユーザBの重み、場所Dの重み、場所Fの重み、単語Jの重み、および単語Kの重みの総和が1になるように正規化する。
ステップS112において、要求部72の検索要求部111は、検索キーおよび要求部72の重み算出部112が算出した検索キーの重みを含むコンテンツファイル検索要求を生成する。要求部72は、生成したコンテンツファイル検索要求を検索部75に供給し、処理は終了する。ここで、要求部72の検索要求部111は、メタ情報の人に関係する情報に含まれるユーザの名前、場所に関係する情報に含まれる場所の名前、および発話に関係する情報に含まれる単語を検索キーとして、コンテンツファイル検索要求を生成する。
例えば、ステップS112において、要求部72の検索要求部111は、図12に示す検索キーおよび検索キーの重みを含むようにコンテンツファイル検索要求を生成する。そして、要求部72は、生成したコンテンツファイル検索要求を検索部75に供給する。
ここで、図12は、コンテンツファイル検索要求の例を説明する図である。
図12で示されるコンテンツファイル検索要求の例には、検索キーとして、“ユーザA”、“ユーザB”、“自宅”、および“夜”が含まれている。また、検索キー“ユーザA”、“ユーザB”、“自宅”、および“夜”のそれぞれに対して、正規化された“ユーザA”の重みは“0.4”であり、正規化された“ユーザB”の重みは“0.2”であり、正規化された“自宅”の重みは“0.2”であり、および正規化された“夜”の重みは“0.2”である。
また、ステップS101において、メタ情報に含まれる情報が変化していないと判定された場合、コンテンツファイル検索要求を生成しないので、ステップS102乃至112の処理はスキップされ、処理は終了する。
このようにして、要求部72は、コンテンツファイル検索要求を生成する。
このように、検索キーおよび検索キーの重みを含むようにコンテンツファイル検索要求を生成することによって、後段において、検索キーを基に、重み付け検索することが可能となる。
図13のフローチャートを参照して、図3のステップS19の処理に対応するコンテンツファイルの検索の処理を説明する。
要求部72からコンテンツファイル検索要求が供給されたので、ステップS141において、検索部75は、メタ情報/コンテンツデータベース74に記録されているメタ情報を参照して、要求部72から供給されたコンテンツファイル検索要求を基に、コンテンツファイルを重み付け検索する。
例えば、ステップS141において、検索部75は、メタ情報/コンテンツデータベース74に記録されているメタ情報に含まれる情報と、要求部72から供給されたコンテンツファイル検索要求に含まれる検索キーとの適合度を基に、コンテンツファイルを順位付けすることによりコンテンツファイルを重み付け検索する。
したがって、例えば、図12に示すコンテンツファイル検索要求を基に、コンテンツファイルを重み付け検索する場合、メタ情報に検索キーが含まれているとき、検索キーの重みに“1”を掛け合わせ、メタ情報に検索キーが含まれていないとき、検索キーの重みに“0”を掛け合わせる。そして、コンテンツファイル検索要求に含まれる全ての検索キーの重みに“1”または“0”を掛け合わせ、“1”または“0”を掛け合わせた検索キーの重み総和をメタ情報に関係付けられたコンテンツファイルの重みとする。
すなわち、“ユーザA”に関係する情報および“自宅”に関係する情報を含み、“ユーザB”に関係する情報および“夜”に関係する情報を含まないメタ情報に関係付けられたコンテンツファイルの重みは、0.6((0.4×1)+(0.2×0)+(0.2×1)+(0.2×0))となる。この場合、コンテンツファイルの重みの値が大きいほど、検索キーとの適合度が高く、したがって、順位の高いコンテンツファイルとなる。
なお、メタ情報に検索キーが含まれているとき、検索キーの重みに“1”を掛け合わせると説明したが、検索キーの重みに、メタ情報に含まれる検索キーのスコアを掛け合わせるようにしてもよい。
なお、検索部75は、要求部72からコンテンツファイル検索要求が供給されなかった場合、コンテンツファイルの検索の処理を行わず、処理は終了する。
ステップS142において、検索部75は、重み付け検索したコンテンツファイルの重みを表示させるデータを生成する。
ステップS143において、検索部75は、重み付け検索の結果を基に、メタ情報/コンテンツデータベース74からコンテンツファイルを取得し、取得したコンテンツファイルおよび生成したコンテンツファイルの重みを表示させるデータを出力制御部76に供給する。例えば、ステップS143において、検索部75は、重み付け検索の結果を基に、最も順位の高いコンテンツファイルから所定の順位までのコンテンツファイルをメタ情報/コンテンツデータベース74から取得し、取得したコンテンツファイルおよび生成したコンテンツファイルの重みを表示させるデータを出力制御部76に供給する。
ステップS144において、出力制御部76は、検索部75から供給されたコンテンツファイルおよびコンテンツファイルの重みを表示させるデータを基に、ディスプレイである出力部18にコンテンツおよびコンテンツファイルの重みを表示させ、処理は終了する。
なお、コンテンツをディスプレイである出力部18に表示させる場合、対応するコンテンツファイルの重みが大きいコンテンツをディスプレイの中央に表示させたり、大きく表示させたりしてもよい。
また、検索部75は、入力制御部78からコンテンツファイルを再検索する旨の再検索要求が供給された場合、メタ情報/コンテンツデータベース74に記録されているメタ情報を参照して、再検索要求によって指定されたコンテンツファイルに関係付けられたメタ情報に含まれる情報を検索キーとし、検索キーおよび検索キーのスコアを基に、コンテンツファイルを重み付け検索する。なお、検索部75による再検索の処理は、図13を参照して説明したコンテンツファイルの検索の処理と同様なので、その説明は省略する。
このようにして、検索部75は、要求部72から供給されたコンテンツファイル検索要求を基に、コンテンツファイルを検索する。そして、出力制御部76は、コンテンツファイルを基に、コンテンツをディスプレイである出力部18にコンテンツを表示させる。
このように、情報処理装置は、ユーザの周囲の状況から連想されるコンテンツファイルを重み付け検索し、検索されたコンテンツファイルを基に、コンテンツをディスプレイである出力部18に表示することで、ユーザの記憶の想起を促進させることができる。
以上のように、情報処理装置は、ユーザの周囲の状況に応じて、コンテンツファイルを検索し、ユーザの現在の周囲の状況に応じたコンテンツを提示することができる。
本発明によれば、コンテンツを表示するようにしたので、ユーザは、コンテンツを閲覧することができる。また、本発明によれば、ユーザの周囲の状況を監視し、メタ情報を生成するようにしたので、ユーザの現在の周囲の状況に応じたコンテンツファイルを検索することができる。
上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
この記録媒体は、図1に示すように、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク41(フレキシブルディスクを含む)、光ディスク42(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク43(MD(Mini-Disc)(商標)を含む)、若しくは半導体メモリ44などよりなるパッケージメディアにより構成されるだけでなく、コンピュータに予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM12や、記録部19に含まれるハードディスクなどで構成される。
なお、上述した一連の処理を実行させるプログラムは、必要に応じてルータ、モデムなどのインタフェースを介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を介してコンピュータにインストールされるようにしてもよい。
また、本明細書において、記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
本発明に係る情報処理装置の構成を示すブロック図である。 本発明に係る情報処理装置の機能の構成を示すブロック図である。 コンテンツの表示の処理を説明するフローチャートである。 メタ情報に含まれる情報を説明するための図である。 メタ情報に含まれる情報を説明するための図である。 メタ情報を説明するための図である。 コンテンツファイル生成要求の生成の処理を説明するフローチャートである。 コンテンツファイルの生成の処理を説明するフローチャートである。 メタ情報に含まれる情報を説明するための図である。 メタ情報を説明するための図である。 コンテンツファイル検索要求の生成の処理を説明するフローチャートである。 コンテンツファイル検索要求を説明するための図である。 コンテンツファイルの検索の処理を説明するフローチャートである。
符号の説明
11 CPU, 12 ROM, 13 RAM, 16 環境監視部, 17 入力部, 18 出力部, 19 記録部, 41 磁気ディスク, 42 光ディスク, 43 光磁気ディスク, 44 半導体メモリ, 71 認識部, 72 要求部, 73 コンテンツ生成部, 74 メタ情報/コンテンツデータベース, 75 検索部, 76 出力制御部, 78 入力制御部, 106 顔認識部, 107 場所認識部, 108 音声認識部, 109 メタ情報生成部, 110 生成要求部, 111 検索要求部, 112 重み算出部, 113 バッファ

Claims (10)

  1. ユーザの周囲の状況を検出し、前記ユーザの周囲の状況を示すデータであるセンシングデータを生成する検出手段と、
    前記センシングデータを基に、前記ユーザの周囲の状況を認識する認識手段と、
    1または複数の前記センシングデータと、前記認識手段によって認識された結果を示す認識情報とを基に、前記ユーザの周囲の状況の変化を検知するための構造化されている情報であるメタ情報を生成するメタ情報生成手段と
    を備えることを特徴とする情報処理装置。
  2. 前記センシングデータに対応するデータであって、前記ユーザの周囲の状況を記録したデータであるコンテンツデータを一時的に記憶するコンテンツデータ記憶手段と、
    前記認識情報を基に、前記ユーザの周囲の状況が変化したか否かを判定する判定手段と、
    前記ユーザの周囲の状況が変化したと判定された場合、記憶している前記コンテンツデータを基に、前記ユーザの周囲の状況を記録した静止画像、動画像、または音声を表示または再生させるためのコンテンツファイルを生成するコンテンツファイル生成手段と
    をさらに備えることを特徴とする請求項1に記載の情報処理装置。
  3. 前記コンテンツファイルおよび前記メタ情報を関係付けて記録するコンテンツファイル記録手段をさらに備える
    ことを特徴とする請求項2に記載の情報処理装置。
  4. 前記メタ情報生成手段は、1または複数の前記センシングデータと、前記認識手段によって認識された結果を示す認識情報とを基に、前記認識情報の確からしさを示す情報である確信度情報を含む、前記ユーザの周囲の状況の変化を検知するための構造化されている情報であるメタ情報を生成する
    ことを特徴とする請求項1に記載の情報処理装置。
  5. 前記メタ情報に含まれる、前記認識情報を基に、前記ユーザの周囲の状況が変化したか否かを判定する判定手段と、
    前記確信度情報を基に、前記認識情報の優先度を示す重みを算出する重み算出手段と、
    前記ユーザの周囲の状況が変化したと判定された場合、前記認識情報および前記認識情報の前記重みを基に、前記ユーザの周囲の状況を記録した静止画像、動画像、または音声を表示または再生させるためのコンテンツファイルであって、現在の前記ユーザの周囲の状況に類似した、過去の前記ユーザの周囲の状況を記録したコンテンツファイルを重み付け検索する検索手段と
    をさらに備えることを特徴とする請求項4に記載の情報処理装置。
  6. 前記判定手段は、第1のメタ情報に含まれる認識情報と、前記第1のメタ情報の1つ前に生成された第2のメタ情報に含まれる認識情報とを比較し、前記第1のメタ情報に含まれる認識情報の変化を基に、前記ユーザの周囲の状況が変化したか否かを判定し、
    前記重み算出手段は、前記確信度情報および前記認識情報の変化の度合いを基に、前記認識情報の優先度を示す重みを算出する
    ことを特徴とする請求項5に記載の情報処理装置。
  7. 検出された前記コンテンツファイルを基に、前記コンテンツファイルに対応する静止画像または動画像を表示する表示手段をさらに備え、
    前記検索手段は、前記表示手段に表示されている静止画像または動画像が、前記ユーザによって選択された場合、選択された前記静止画像または前記動画像に対応するコンテンツファイルを基に、選択された前記静止画像または前記動画像に対応する前記コンテンツファイルに、コンテンツファイルに関係付けられたメタ情報が類似したコンテンツファイルをさらに検索する
    ことを特徴とする請求項5に記載の情報処理装置。
  8. 前記検索手段は、検索結果を基に、検索された前記コンテンツファイルの優先度を示す重みをさらに算出し、
    前記コンテンツファイルの前記重みを基に定められる所定の順番で、検索された前記コンテンツファイルに対応する静止画像または動画像を表示する表示手段をさらに備える
    ことを特徴とする請求項5に記載の情報処理装置。
  9. ユーザの周囲の状況を検出し、前記ユーザの周囲の状況を示すデータであるセンシングデータの生成を制御する検出ステップと、
    前記センシングデータを基に、前記ユーザの周囲の状況を認識する認識ステップと、
    1または複数の前記センシングデータと、認識手段によって認識された結果を示す認識情報とを基に、前記ユーザの周囲の状況の変化を検知するための構造化されている情報であるメタ情報を生成するメタ情報生成ステップと
    を含むことを特徴とする情報処理方法。
  10. ユーザの周囲の状況を検出し、前記ユーザの周囲の状況を示すデータであるセンシングデータの生成を制御する検出ステップと、
    前記センシングデータを基に、前記ユーザの周囲の状況を認識する認識ステップと、
    1または複数の前記センシングデータと、認識手段によって認識された結果を示す認識情報とを基に、前記ユーザの周囲の状況の変化を検知するための構造化されている情報であるメタ情報を生成するメタ情報生成ステップと
    をコンピュータに実行させることを特徴とするプログラム。
JP2004195219A 2004-07-01 2004-07-01 情報処理装置および方法、並びにプログラム Pending JP2006018551A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004195219A JP2006018551A (ja) 2004-07-01 2004-07-01 情報処理装置および方法、並びにプログラム
US11/170,327 US7697731B2 (en) 2004-07-01 2005-06-29 Information-processing apparatus, information-processing methods, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004195219A JP2006018551A (ja) 2004-07-01 2004-07-01 情報処理装置および方法、並びにプログラム

Publications (1)

Publication Number Publication Date
JP2006018551A true JP2006018551A (ja) 2006-01-19

Family

ID=35792769

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004195219A Pending JP2006018551A (ja) 2004-07-01 2004-07-01 情報処理装置および方法、並びにプログラム

Country Status (2)

Country Link
US (1) US7697731B2 (ja)
JP (1) JP2006018551A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008016094A1 (fr) 2006-08-02 2008-02-07 Sony Corporation Dispositif et procédé d'enregistrement, dispositif de messagerie, dispositif et procédé de reproduction, et programme
JP2008047115A (ja) * 2006-08-15 2008-02-28 Fuji Xerox Co Ltd オブジェクト制御を支援する方法、システムおよびプログラム
CN102103628A (zh) * 2009-12-21 2011-06-22 索尼公司 接收装置、数据文件记录方法和程序

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8788588B2 (en) * 2006-05-03 2014-07-22 Samsung Electronics Co., Ltd. Method of providing service for user search, and apparatus, server, and system for the same
JP2008165424A (ja) * 2006-12-27 2008-07-17 Sony Corp 画像検索装置および方法、撮像装置、並びにプログラム
TW201039159A (en) * 2009-04-30 2010-11-01 Dvtodp Corp Method and web server of processing dynamic picture for searching purpose
US20120102066A1 (en) * 2009-06-30 2012-04-26 Nokia Corporation Method, Devices and a Service for Searching
US9471700B2 (en) * 2010-05-18 2016-10-18 Tksn Holdings, Llc System and method for monitoring changes in databases and websites
US9497249B2 (en) 2011-08-08 2016-11-15 Sony Corporation Information processing apparatus, information processing method, program, and information processing system
US9600495B2 (en) * 2011-12-29 2017-03-21 Rakuten, Inc. Image search system, image search method, image search device, program, and information recording medium
CN102682091A (zh) * 2012-04-25 2012-09-19 腾讯科技(深圳)有限公司 基于云服务的视觉搜索方法和系统
US10178301B1 (en) * 2015-06-25 2019-01-08 Amazon Technologies, Inc. User identification based on voice and face
DE202016105370U1 (de) 2016-09-27 2018-01-02 Big Dutchman International Gmbh Fütterungsvorrichtung für Geflügeltiere
US10991082B2 (en) * 2019-08-22 2021-04-27 Mikhail Dichenko Determining an optimality coefficient of an image
CN111383216B (zh) * 2020-03-10 2022-04-05 新疆大学 图像间变化的检测方法及装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5144685A (en) * 1989-03-31 1992-09-01 Honeywell Inc. Landmark recognition for autonomous mobile robots
US5893095A (en) * 1996-03-29 1999-04-06 Virage, Inc. Similarity engine for content-based retrieval of images
US5819288A (en) * 1996-10-16 1998-10-06 Microsoft Corporation Statistically based image group descriptor particularly suited for use in an image classification and retrieval system
AUPP009697A0 (en) * 1997-10-29 1997-11-20 Canon Information Systems Research Australia Pty Ltd Image interpretation method and apparatas
US6023241A (en) * 1998-11-13 2000-02-08 Intel Corporation Digital multimedia navigation player/recorder
JP2000207019A (ja) 1999-01-18 2000-07-28 Toshiba Corp プラント監視装置
AU6503800A (en) * 1999-07-30 2001-02-19 Pixlogic Llc Perceptual similarity image retrieval
US6970189B1 (en) * 2000-05-31 2005-11-29 Ipac Acquisition Subsidiary I, Llc Method and system for automatically configuring a hand-held camera using wireless communication to improve image quality
JP2002269146A (ja) 2001-03-08 2002-09-20 Fujitsu Ltd ワードスポッティング情報検索装置とワードスポッティング情報検索装置を実現するための方法及びプログラム
US20020136433A1 (en) * 2001-03-26 2002-09-26 Koninklijke Philips Electronics N.V. Adaptive facial recognition system and method
US6804684B2 (en) * 2001-05-07 2004-10-12 Eastman Kodak Company Method for associating semantic information with multiple images in an image database environment
US6526351B2 (en) * 2001-07-09 2003-02-25 Charles Lamont Whitham Interactive multimedia tour guide
US7289812B1 (en) * 2001-12-20 2007-10-30 Adobe Systems Incorporated Location-based bookmarks
JP2004021677A (ja) 2002-06-18 2004-01-22 Omron Corp 情報提供システム、情報提供方法、情報提供プログラム及び情報提供プログラムを記録したコンピュータ読み取り可能な記録媒体
WO2004019225A1 (ja) 2002-08-26 2004-03-04 Fujitsu Limited 状況付情報を処理する装置および方法
US8665325B2 (en) * 2003-10-08 2014-03-04 Qwest Communications International Inc. Systems and methods for location based image telegraphy

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008016094A1 (fr) 2006-08-02 2008-02-07 Sony Corporation Dispositif et procédé d'enregistrement, dispositif de messagerie, dispositif et procédé de reproduction, et programme
JP2008047115A (ja) * 2006-08-15 2008-02-28 Fuji Xerox Co Ltd オブジェクト制御を支援する方法、システムおよびプログラム
CN102103628A (zh) * 2009-12-21 2011-06-22 索尼公司 接收装置、数据文件记录方法和程序

Also Published As

Publication number Publication date
US7697731B2 (en) 2010-04-13
US20060039586A1 (en) 2006-02-23

Similar Documents

Publication Publication Date Title
US10819811B2 (en) Accumulation of real-time crowd sourced data for inferring metadata about entities
US7697731B2 (en) Information-processing apparatus, information-processing methods, and programs
US20220214775A1 (en) Method for extracting salient dialog usage from live data
US12033633B1 (en) Ambient device state content display
US9679257B2 (en) Method and apparatus for adapting a context model at least partially based upon a context-related search criterion
JP6730435B2 (ja) システム、方法及びプログラム
JP5042799B2 (ja) 音声チャットシステム、情報処理装置およびプログラム
TWI506982B (zh) 音訊聊天系統、資訊處理裝置、語音辨識方法、關鍵字偵測方法、及記錄媒體
EP2801091B1 (en) Method, apparatus and computer program product for joint use of speech and text-based features for sentiment detection
US20080235018A1 (en) Method and System for Determing the Topic of a Conversation and Locating and Presenting Related Content
US20220050833A1 (en) Dynamically suppressing query answers in search
JP2009540414A (ja) メディア識別
JP5359534B2 (ja) 情報処理装置および方法、並びにプログラム
JP2004533640A (ja) 人についての情報を管理する方法及び装置
CN109920409B (zh) 一种声音检索方法、装置、系统及存储介质
KR20160106075A (ko) 오디오 스트림에서 음악 작품을 식별하기 위한 방법 및 디바이스
JP2008287210A (ja) 音声チャットシステム、情報処理装置、音声認識方法およびプログラム
CN111640434A (zh) 用于控制语音设备的方法和装置
US11948564B2 (en) Information processing device and information processing method
JP2009163358A (ja) 情報処理装置、情報処理方法、プログラムおよび音声チャットシステム
CN116343771A (zh) 一种基于知识图谱的音乐点播语音指令识别方法、装置
US20230153061A1 (en) Hierarchical Context Specific Actions from Ambient Speech
US11854535B1 (en) Personalization for speech processing applications
JP6962849B2 (ja) 会議支援装置、会議支援制御方法およびプログラム
WO2019066132A1 (ko) 보안성을 강화한 사용자 문맥 기반 인증 방법, 대화형 ai 에이전트 시스템 및 컴퓨터 판독가능 기록 매체

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080708

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080815

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080924