JP2017011386A - 情報加工システム - Google Patents

情報加工システム Download PDF

Info

Publication number
JP2017011386A
JP2017011386A JP2015122615A JP2015122615A JP2017011386A JP 2017011386 A JP2017011386 A JP 2017011386A JP 2015122615 A JP2015122615 A JP 2015122615A JP 2015122615 A JP2015122615 A JP 2015122615A JP 2017011386 A JP2017011386 A JP 2017011386A
Authority
JP
Japan
Prior art keywords
event
information
user
weight
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015122615A
Other languages
English (en)
Other versions
JP6363561B2 (ja
Inventor
和彦 高河原
Kazuhiko Takagahara
和彦 高河原
雄一 樋口
Yuichi Higuchi
雄一 樋口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015122615A priority Critical patent/JP6363561B2/ja
Publication of JP2017011386A publication Critical patent/JP2017011386A/ja
Application granted granted Critical
Publication of JP6363561B2 publication Critical patent/JP6363561B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】ユーザや周辺の人の精神状態を反映するように情報を加工する。
【解決手段】情報加工システム100は、ライフイベントにおける主対象者であるユーザ110の生体情報を取得する生体情報取得部120と、ユーザ110の周辺情報を取得する周辺情報取得部140と、生体情報取得部120および周辺情報取得部140で取得された情報を入力として、これらの情報を保存する記録部150と、ユーザ110の生体情報と周辺情報のうち少なくとも一方に基づいてイベントが発生したか否かを判定するイベント判定部160と、イベント判定部160が抽出したイベントの情報に基づいて周辺情報を加工する情報加工部170とを備える。
【選択図】 図1

Description

本発明は、例えば結婚式などのライフイベントにおいて収録された画像や音声等の情報を、情報の主対象者であるユーザや周辺の人の精神状態を反映するように加工する情報加工システムに関するものである。
従来、結婚式などのライフイベントにおいて、対象とするユーザの画像や動画を記録し、適宜編集してプレゼンテーションとしてイベント中に情報を提示したり、ライフイベントの終了後にアルバムやDVDにまとめて情報を提示したりするサービスがある(特許文献1参照)。
特開2001−150834号公報
しかしながら、特許文献1に開示された技術は、ライフイベント当日に撮影された写真や動画といった情報をそのまま提供するに留まるものであり、ライフイベントの主役やイベント参加者の精神状態を反映した情報提供を行うものではなく、ライフイベント当日の感動や思いを想起させるのに充分な情報提供ができているとは言えないという問題点があった。
本発明は上記課題に鑑みてなされたものであって、その目的は、例えばライフイベントにおける主役であるユーザとイベント参加者の精神状態を反映するように情報を加工することができる情報加工システムを提供することにある。
本発明の情報加工システムは、主対象者となるユーザの生体情報と、前記ユーザとその周辺の状況を表す周辺情報とを入力として、これらの情報を保存する記録手段と、前記ユーザの生体情報と周辺情報のうち少なくとも一方に基づいてイベントが発生したか否かを判定するイベント判定手段と、このイベント判定手段が抽出したイベントの情報に基づいて前記周辺情報を加工する情報加工手段とを備えることを特徴とするものである。
また、本発明の情報加工システムの1構成例において、前記イベント判定手段は、前記ユーザの生体情報に基づいてイベントを抽出すると共にイベントの重みを決定し、さらに前記周辺情報または周辺情報取得に関する操作に基づいてイベントを抽出すると共にイベントの重みを決定し、前記情報加工手段は、前記イベントの重みに応じて、このイベントに対応する前記周辺情報を加工することを特徴とするものである。
また、本発明の情報加工システムの1構成例において、前記イベント判定手段は、前記ユーザの生体情報に基づいてイベントを抽出すると共にイベントの重みを決定し、さらに前記周辺情報または周辺情報取得に関する操作に基づいてイベントを抽出すると共にイベントの重みを決定し、前記情報加工手段は、前記ユーザの生体情報に基づいて抽出されたイベントと前記周辺情報または周辺情報取得に関する操作に基づいて抽出されたイベントの中の同一と見なせるイベントを統合する処理を行い、同一と見なせるイベントが存在しないイベントと統合したイベントのそれぞれについて、イベントの重みに応じて、イベントに対応する前記周辺情報を加工することを特徴とするものである。
また、本発明の情報加工システムの1構成例において、前記情報加工手段は、前記イベントの重みが大きくなるほど、このイベントに対応する前記周辺情報が強調されるように加工することを特徴とするものである。
また、本発明の情報加工システムの1構成例において、前記ユーザの生体情報は、心拍数、体温、血圧、血糖値のうち少なくとも1つを含み、前記イベント判定手段は、前記ユーザの生体情報の変化に基づいてイベントの発生時刻を決定すると共に、この生体情報の変化が大きいほど、イベントの重みが大きくなるように重み付けを行うことを特徴とするものである。
また、本発明の情報加工システムの1構成例において、前記ユーザの周辺情報は、前記ユーザまたはその周辺を撮影した静止画像、前記ユーザまたはその周辺を撮影した動画像、前記ユーザまたはその周辺の音声のうち少なくとも1つを含むことを特徴とするものである。
また、本発明の情報加工システムの1構成例において、前記ユーザの周辺情報は、前記ユーザまたはその周辺を撮影した静止画像を少なくとも含み、前記イベント判定手段は、単位時間あたりの前記静止画像の撮影枚数が所定の閾値を超えた時刻をイベントの発生時刻と判定すると共に、単位時間あたりの前記静止画像の撮影枚数が多いほど、イベントの重みが大きくなるように重み付けを行うことを特徴とするものである。
また、本発明の情報加工システムの1構成例において、前記ユーザの周辺情報は、前記ユーザまたはその周辺を撮影した動画像を少なくとも含み、前記イベント判定手段は、動画像撮影のズームイン操作が開始された時刻をイベントの発生時刻と判定すると共に、ズームイン操作開始からズームアウト操作開始までのズームイン継続時間が長いほど、イベントの重みが大きくなるように重み付けを行うことを特徴とするものである。
また、本発明の情報加工システムの1構成例において、前記ユーザの周辺情報は、前記ユーザまたはその周辺を撮影した静止画像、前記ユーザまたはその周辺を撮影した動画像、前記ユーザまたはその周辺の音声のうち少なくとも1つと、さらに前記ユーザ以外の人の生体情報を含み、この生体情報は、心拍数、体温、血圧、血糖値のうち少なくとも1つを含み、前記イベント判定手段は、前記ユーザ以外の人の生体情報の変化に基づいてイベントの発生時刻を決定すると共に、この生体情報の変化が大きいほど、イベントの重みが大きくなるように重み付けを行うことを特徴とするものである。
本発明によれば、主対象者となるユーザの生体情報と、ユーザとその周辺の状況を表す周辺情報とを保存し、ユーザの生体情報と周辺情報のうち少なくとも一方に基づいてイベントが発生したか否かを判定し、抽出したイベントの情報に基づいて周辺情報を加工することにより、ユーザとその周辺の人の精神状態を反映するように周辺情報を加工することができる。その結果、本発明では、従来技術と比較して、ライフイベント当日の感動や思いを想起させるのに充分な情報提供を実現することができる。
また、本発明では、イベント判定手段が、ユーザの生体情報に基づいてイベントを抽出すると共にイベントの重みを決定し、さらに周辺情報または周辺情報取得に関する操作に基づいてイベントを抽出すると共にイベントの重みを決定し、情報加工手段が、イベントの重みに応じて、このイベントに対応する周辺情報を加工することにより、例えば一連のライフイベントにおける複数の特徴的なイベントに対応する各周辺情報を、イベントの重要度に応じて加工することができる。本発明では、ユーザの生体情報に基づいて抽出したイベントの情報に基づいて周辺情報を加工すると共に、ユーザの周辺情報または周辺情報取得に関する操作に基づいて抽出したイベントの情報に基づいて周辺情報を加工することにより、ユーザの生体情報が特異的な変化を示したときと周辺情報または周辺情報取得に関する操作が特異的な変化を示したときで周辺情報を別々に加工することができ、ユーザの生体情報が特異的な変化を示したときと、周辺情報または周辺情報取得に関する操作が特異的な変化を示したときとが一致しているのか一致していないのか、という情報を提供することが可能になる。
また、本発明では、イベント判定手段が、ユーザの生体情報に基づいてイベントを抽出すると共にイベントの重みを決定し、さらに周辺情報または周辺情報取得に関する操作に基づいてイベントを抽出すると共にイベントの重みを決定し、情報加工手段が、ユーザの生体情報に基づいて抽出されたイベントと周辺情報または周辺情報取得に関する操作に基づいて抽出されたイベントの中の同一と見なせるイベントを統合する処理を行い、同一と見なせるイベントが存在しないイベントと統合したイベントのそれぞれについて、イベントの重みに応じて、イベントに対応する周辺情報を加工することにより、ユーザの生体情報に基づいて抽出されたイベントと周辺情報または周辺情報取得に関する操作に基づいて抽出されたイベントとを関連付けることができ、ユーザ本人にとって特異的なイベントに関係する周辺情報とユーザ以外の周辺の人にとって特異的なイベントに関係する周辺情報とを相互に関連付けることができる。これにより、本発明では、ユーザとその周辺の人の精神状態を反映するように周辺情報を加工することができる。
また、本発明では、イベントの重みが大きくなるほど、イベントに対応する周辺情報が強調されるように加工することにより、例えば一連のライフイベントにおける複数の特徴的なイベントに対応する各周辺情報を、イベントの重要度が明らかになるように加工することができる。
また、本発明では、ユーザの生体情報を、心拍数、体温、血圧、血糖値のうち少なくとも1つを含むものとし、イベント判定手段が、ユーザの生体情報の変化に基づいてイベントの発生時刻を決定することにより、例えば一連のライフイベントにおけるユーザの精神的な状態変化を推定することができる。また、本発明では、ユーザの生体情報の変化が大きいほど、イベントの重みが大きくなるように重み付けを行うことにより、例えば一連のライフイベント期間を通してユーザの生体情報の変化の大きいイベントを重み付けすることができ、一連のライフイベントにおける特徴的なイベントに対応する周辺情報を、ユーザの精神状態を反映するように加工することができる。
また、本発明では、ユーザの周辺情報を、ユーザまたはその周辺を撮影した静止画像、ユーザまたはその周辺を撮影した動画像、ユーザまたはその周辺の音声のうち少なくとも1つを含むものとすることにより、例えば一連のライフイベントにおける周囲の評価の変化を推定することができる。
また、本発明では、ユーザの周辺情報を、ユーザまたはその周辺を撮影した静止画像を少なくとも含むものとし、イベント判定手段が、単位時間あたりの静止画像の撮影枚数が所定の閾値を超えた時刻をイベントの発生時刻と判定することにより、例えば一連のライフイベントにおける周囲の評価の変化を推定することができ、ユーザ以外の周辺の人が静止画像を残しておくに値すると感じた特徴的なイベントを抽出することができる。また、本発明では、単位時間あたりの静止画像の撮影枚数が多いほど、イベントの重みが大きくなるように重み付けを行うことにより、例えば一連のライフイベント期間を通してユーザ以外の周辺の人が静止画像を残しておくに値すると感じたイベントを重み付けすることができ、一連のライフイベントにおける特徴的なイベントに対応する周辺情報を、ユーザ以外の周辺の人の精神状態を反映するように加工することができる。
また、本発明では、ユーザの周辺情報を、ユーザまたはその周辺を撮影した動画像を少なくとも含むものとし、イベント判定手段が、動画像撮影のズームイン操作が開始された時刻をイベントの発生時刻と判定することにより、例えば一連のライフイベントにおける周囲の評価の変化を推定することができ、ユーザ以外の周辺の人が着目するに値すると感じた特徴的なイベントを抽出することができる。また、本発明では、ズームイン操作開始からズームアウト操作開始までのズームイン継続時間が長いほど、イベントの重みが大きくなるように重み付けを行うことにより、例えば一連のライフイベント期間を通してユーザ以外の周辺の人が着目するに値すると感じた期間が長いイベントを重み付けすることができ、一連のライフイベントにおける特徴的なイベントに対応する周辺情報を、ユーザ以外の周辺の人の精神状態を反映するように加工することができる。
また、本発明では、ユーザの周辺情報を、ユーザまたはその周辺を撮影した静止画像、ユーザまたはその周辺を撮影した動画像、ユーザまたはその周辺の音声のうち少なくとも1つと、さらにユーザ以外の人の生体情報を含むものとし、この生体情報を、心拍数、体温、血圧、血糖値のうち少なくとも1つを含むものとし、イベント判定手段が、ユーザ以外の人の生体情報の変化に基づいてイベントの発生時刻を決定することにより、例えば一連のライフイベントにおけるユーザ以外の周辺の人の精神的な状態変化を推定することができる。また、本発明では、この生体情報の変化が大きいほど、イベントの重みが大きくなるように重み付けを行うことにより、例えば一連のライフイベント期間を通してユーザ以外の周辺の人の生体情報の変化の大きいイベントを重み付けすることができ、一連のライフイベントにおける特徴的なイベントに対応する周辺情報を、ユーザ以外の周辺の人の精神状態を反映するように加工することができる。
本発明の実施の形態に係る生体情報の提示システムの一つの例を説明するためのシステム構成図である。 本発明の実施の形態に係る生体情報の提示システムの動作を説明するフローチャートである。 本発明の実施の形態においてユーザの生体情報からイベントの発生時刻および重みを決定する方法を説明するフローチャートである。 ライフイベントにおけるユーザの生体情報である心拍数の時系列変化の例を示す図である。 図4の心拍数の変動をプロットした図である。 本発明の実施の形態においてユーザの周辺情報からイベントの発生時刻および重みを決定する方法を説明するフローチャートである。 ライフイベント中に静止画像が撮影された枚数を1分間毎にヒストグラム化した例を示す図である。 本発明の実施の形態においてユーザの周辺情報からイベントの発生時刻および重みを決定する他の方法を説明するフローチャートである。 ライフイベント中の動画像の撮影中にズームイン操作が継続していた時間をヒストグラム化した例を示す図である。 本発明の実施の形態におけるユーザの周辺情報の加工方法の1例を説明する図である。 本発明の実施の形態における情報加工部の動作を説明するフローチャートである。 本発明の実施の形態における情報加工部の処理の結果の1例を示す図である。 本発明の実施の形態における情報加工部の他の動作を説明するフローチャートである。
以下、好適な実施の形態について図を参照して本発明を説明するが、本発明はかかる実施形態に限定されない。
図1は本発明の実施の形態に係る情報加工システム100の一つの例を説明するためのシステム構成図である。情報加工システム100の特徴は、ライフイベントにおける主対象者(以下、ユーザ)110の生体情報を取得する生体情報取得部120と、ユーザ110の周辺情報を取得する周辺情報取得部140と、生体情報取得部120および周辺情報取得部140で取得された情報を入力として、これらの情報を保存する記録部150と、ユーザ110の生体情報と周辺情報のうち少なくとも一方に基づいてイベントが発生したか否かを判定するイベント判定部160と、イベント判定部160が抽出したイベントの情報に基づいて周辺情報を加工する情報加工部170と、情報加工部170が加工した周辺情報を出力する情報出力部180とを備えることである。
図1の例のようにライフイベントが結婚式であるとすれば、主対象者であるユーザ110は例えば新郎または新婦であり、ユーザ110以外のイベント参加者130は結婚式の出席者である。
生体情報取得部120は、ユーザ110が身に付けてライフイベントに参加することが可能なセンサであれば良く、ウェアラブルな運動量計、GPS(Global Positioning System)発信機、高度計、心拍・心電計、体温計、血圧計、血糖値計等を好適に用いることができる。
特に、心拍・心電計が取得するユーザ110の心拍数、体温計が取得するユーザ110の体温、血圧計が取得するユーザ110の血圧、血糖値計が取得するユーザ110の血糖値は、自律神経系や内分泌系の働きによって変動することが知られており、緊張/リラックスなどユーザ110の精神状態の推定に有効であり、本発明の目的に鑑みて好適に用いることができる。
周辺情報取得部140は、ユーザ110以外のイベント参加者130が身に付けるか、あるいはイベント参加者130が携行してライフイベントに参加することが可能な電子機器であればよい。この周辺情報取得部140としては、一般的なカメラ、ビデオカメラ、マイク、イベント参加者130が身に付けるウェアラブルセンサ等を用いることができる。
ここで、ユーザ110の周辺情報とは、ユーザ110とその周辺の状況を表す情報であり、ユーザ110またはその周辺を撮影した静止画像、ユーザ110またはその周辺を撮影した動画像、ユーザ110またはその周辺の音声のうち少なくとも1つを含むものである。さらに、後述のように、これらの情報とは別にイベント参加者130が身に付けるウェアラブルセンサによって測定される、イベント参加者130の生体情報を含むものであってもよい。
記録部150とイベント判定部160と情報加工部170と情報出力部180とは、CPU(Central Processing Unit)、記憶装置およびインタフェースを備えたコンピュータと、これらのハードウェア資源を制御するプログラムによって実現することができる。CPUは、記憶装置に格納されたプログラムに従って以下で説明する処理を実行し、記録部150、イベント判定部160、情報加工部170および情報出力部180として機能する。
図2は本実施の形態の情報加工システム100の動作を説明するフローチャートである。情報加工システム100は、ライフイベントにおいてユーザ110の生体情報を生体情報取得部120で取得し、かつユーザ110以外のイベント参加者130が周辺情報取得部140を用いてユーザ110の周辺情報を取得する情報取得ステップ(図2ステップS1)と、情報取得ステップで取得したユーザ110の生体情報と周辺情報とを記録部150に保存する情報記録ステップ(図2ステップS2)と、情報記録ステップで記録部150に記録された生体情報と周辺情報を基に特異なイベントの発生時刻およびイベントの重みをイベント判定部160で決定するイベント抽出ステップ(図2ステップS3)と、イベント抽出ステップで抽出したイベントの情報に基づいてユーザ110の周辺情報を加工する情報加工ステップ(図2ステップS4)と、情報加工ステップで加工した情報を出力する情報出力ステップ(図2ステップS5)とを実行する。以下、各ステップについて順次説明する。
情報取得ステップでは、ユーザ110が生体情報取得部120を身に付け、少なくとも1名以上のイベント参加者130が周辺情報取得部140を身に付けるか携行していればよく、特に生体情報や周辺情報を取得することを意識することなく、自然にライフイベントを経験すればよい。
つまり、生体情報取得部120は、ライフイベント中のユーザ110の生体情報を自動的に常時取得し、周辺情報取得部140は、ライフイベント中のユーザ110の周辺情報を自動的に常時取得する(図2ステップS1)。なおこの際、生体情報取得部120の内部時計が計時する時刻と、周辺情報取得部140の内部時計が計時する時刻とを合わせておくことが望ましい。
情報記録ステップでは、記録部150は、情報取得ステップで取得された情報を記録する(図2ステップS2)。生体情報取得部120は、取得した生体情報に測定時刻情報を付加して送信したり、測定時刻情報が付加された生体情報をメモリーカード等の記録メディアに記録したりする。周辺情報取得部140は、取得した周辺情報に測定時刻情報を付加して送信したり、測定時刻情報が付加された周辺情報を記録メディアに記録したりする。
ライフイベント中にユーザ110の周辺情報を加工して出力(例えばライフイベント中の映像再生など)する必要がある場合には、生体情報取得部120および周辺情報取得部140から生体情報や周辺情報を無線送信したり有線送信したりする必要がある。この場合、記録部150は、生体情報取得部120および周辺情報取得部140から無線送信された生体情報や周辺情報を受信する無線通信部(不図示)、あるいは生体情報取得部120および周辺情報取得部140から有線送信された情報を受信する有線通信部(不図示)を備えている。
また、ライフイベント終了後に周辺情報を加工して出力(例えばアルバムの印刷やDVDへの書き込み)する必要がある場合、記録部150は、生体情報取得部120の記録メディアに記録された情報と、周辺情報取得部140の記録メディアに記録された情報とを読み出して保存するものでもよい。この場合、記録部150は、生体情報取得部120および周辺情報取得部140の記録メディアから情報を読み出す情報読出部(不図示)を備えている。
イベント抽出ステップでは、イベント判定部160は、記録部150に保存された生体情報と周辺情報から、特異なイベントの発生時刻およびイベントの重みを決定する(図2ステップS3)。ここで、特異なイベントの発生時刻および重みの決定方法について、ユーザ110の生体情報から決定する方法と、ユーザ110の周辺情報から決定する方法を順に説明する。
図3は、生体情報取得部120が取得し記録部150に記録された、ユーザ110の生体情報に基づいてイベントの発生時刻および重みを決定する方法を説明するフローチャートである。ここでは、ユーザ110の生体情報が心拍数である場合を例に挙げて説明する。
図4に、ライフイベント(ここでは結婚式)における新郎(ユーザ110)の心拍数を記録した時系列データの例を示す。ユーザ110の心拍数は、一連のライフイベントの中でユーザ110の精神状態を反映して増減する。特に、心拍数が増加し続けたり、減少し続けたりしている時点が、ユーザ110にとって特異なイベントが生じた時刻と考えられる。
そこで、イベント判定部160は、ユーザ110の心拍数の変動(微分)が極値(極大値または極小値)をとり(図3ステップS10)、かつ心拍数の変動の極値の絶対値が所定の閾値を超えたとき(図3ステップS11)、ユーザ110にとって特異なイベントが発生したと判定し、心拍数の変動の極値の絶対値が閾値を超えた時刻をイベントの発生時刻とする(図3ステップS12)。このイベントの発生時刻として採用すべき時刻は、生体情報取得部120がユーザ110の生体情報に付加した測定時刻情報から取得すればよい。
図5に、図4に示した心拍数の一部分の変動(微分)をプロットしたものを示す。図5に示したグラフにおいて、心拍数の変動が極値をとり、かつ極値の絶対値が所定の閾値(本実施の形態では0.1)を超えた点を抽出すると、301〜305の5つの点が得られる。したがって、この5つの点301〜305の時刻をそれぞれイベントの発生時刻として決定することができる。図5の例では、点302の極大値が最も大きい。実際にこの点302の時刻に新郎が式場に入場するという、新郎にとって特異なイベントが発生していた。
イベント判定部160は、ステップS10〜S12の処理を所定の周期(例えばミリ秒単位)毎に繰り返し行い、外部から生体情報の測定終了の指示があったとき、あるいはユーザ110が生体情報の測定を止めて生体情報取得部120の電源を切ったときに(図3ステップS13においてYES)、ステップS10〜S12の処理でイベント発生と判定した極値の絶対値を、当該イベントの重みとして決定する(図3ステップS14)。イベント判定部160は、このような重みの決定をイベント毎に行う。
図5の例では、点301の極小値の絶対値A1、点302の極大値の絶対値A2、点303の極小値の絶対値A3、点304の極大値の絶対値A4、点305の極小値の絶対値A5が、それぞれ5つのイベントの重みとして決定される。つまり、イベント判定部160は、心拍数の変動の極値の絶対値が大きいほど、イベントの重みが大きくなるように決定する。
なお、図3を用いた説明では、外部から生体情報の測定終了の指示があったり、ユーザ110が生体情報の測定を止めたりした後でイベントの重みを決定している。外部からの生体情報測定終了の指示の例としては、例えばライフイベントの終了に伴って情報加工システム100の操作者(例えばイベント運営会社の係員等)が入力する指示、あるいはライフイベント中の周辺情報加工・出力のために情報加工システム100の操作者が入力する指示などがある。
ただし、イベントの重みの決定処理は、図3で説明した例に限るものではない。イベント判定部160は、心拍数の測定が継続している最中(ステップS10〜S12の処理が継続している最中)に心拍数の変動に極値が現れ、イベントが発生したと判定したときに、この心拍数の変動の極値の絶対値をイベントの重みとして即時決定することも可能である。
また、正規化の基準値(例えば極値の絶対値の予想し得る最大値)を予め設定しておけば、イベント判定部160は、心拍数の変動の極値の絶対値を正規化した値をイベントの重みとして決定することも可能である。
以上のようにして、イベント判定部160は、ユーザ110の生体情報からイベントの発生時刻および重みを決定することができる。
なお、心拍数および心拍数の変動の測定に際しては、周波数の高いノイズや揺らぎの影響を除外するため、測定した心拍数および心拍数の変動に対してローパスフィルタ処理を適用してもよい。
また、以上の説明では、ユーザ110の生体情報が心拍数の場合を例にして説明しているが、ユーザ110の生体情報が体温、血圧、血糖値等、心拍数以外の情報である場合も、心拍数の場合と同様の手法でイベントの発生時刻および重みを決定することが可能である。
この場合、ユーザ110の生体情報として、心拍数、体温、血圧、血糖値のうち1つだけが含まれ、この1つについて上記の手法でイベントの発生時刻および重みを決定してもよいし、ユーザ110の生体情報として、心拍数、体温、血圧、血糖値のうち複数が含まれ、この複数の生体情報の各々について個別に上記の手法でイベントの発生時刻および重みを決定してもよい。
次に、図6は、周辺情報取得部140が取得し記録部150に記録された、ユーザ110の周辺情報からイベントの発生時刻および重みを決定する方法を説明するフローチャートである。ここでは、ユーザ110の周辺情報が静止画像である場合を例に挙げて説明する。
図7に、ライフイベント(ここでは結婚式)中に静止画像(写真)が撮影された枚数を1分間毎にヒストグラム化した時系列データの例を示す。周辺情報取得部140(カメラ)による単位時間あたりの撮影枚数が多い時刻は、撮影者(イベント参加者130)が多くの写真を残したほうが良いと判断したことを示しており、特異なイベントが発生した時刻と考えられる。
そこで、イベント判定部160は、単位時間あたりの静止画像の撮影枚数が所定の閾値を超えたとき(図6ステップS20)、イベント参加者130にとって特異なイベントが発生したと判定し、単位時間あたりの静止画像の撮影枚数が閾値を超えた時刻をイベントの発生時刻とする(図6ステップS21)。このイベントの発生時刻として採用すべき時刻は、周辺情報取得部140がユーザ110の周辺情報に付加した測定時刻情報から取得すればよい。
図7に示した例において、単位時間(ここでは1分間)あたりの静止画像の撮影枚数が所定の閾値(本実施の形態では4枚)を超えた点を抽出すると、401〜407の7つの点が得られる。したがって、この7つの点401〜407の時刻を7つのイベントの発生時刻として決定することができる。
図7の例では、点401の時刻に新婦入場というイベントが発生し、点402の時刻に新婦父から新郎への新婦の手渡しというイベントが発生し、点403,404の時刻に新郎と新婦の指輪交換というイベントが発生し、点405の時刻に新婦のベールオープンと、新郎と新婦のウェディングキスというイベントが発生し、点406の時刻に結婚証明書へのサインというイベントが発生し、点407の時刻に新郎新婦退場というイベントが発生していた。
イベント判定部160は、ステップS20,S21の処理を単位時間毎に行い、例えば外部から静止画像の撮影終了の指示があったとき、あるいはイベント参加者130が撮影を止めて周辺情報取得部140(カメラ)の電源を切ったときに(図6ステップS22においてYES)、ステップS20,S21の処理でイベント発生と判定した静止画像の撮影枚数を、当該イベントの重みとして決定する(図6ステップS23)。イベント判定部160は、このような重みの決定をイベント毎に行う。
図7の例では、点401の撮影枚数6枚、点402の撮影枚数5枚、点403の撮影枚数7枚、点404の撮影枚数5枚、点405の撮影枚数9枚、点406の撮影枚数5枚、点407の撮影枚数6枚が、それぞれ7つのイベントの重みとして決定される。つまり、イベント判定部160は、単位時間あたりの静止画像の撮影枚数が多いほど、イベントの重みが大きくなるように決定する。
なお、図6を用いた説明では、外部から静止画像の撮影終了の指示があったり、イベント参加者130が撮影を止めたりした後でイベントの重みを決定している。外部からの撮影終了の指示としては、例えばライフイベントの終了に伴って情報加工システム100の操作者(例えばイベント運営会社の係員等)が入力する指示、あるいはライフイベント中の周辺情報加工・出力のために情報加工システム100の操作者が入力する指示などがある。
ただし、ユーザ110の生体情報の場合と同様に、イベントの重みの決定処理は図6の例に限るものではない。イベント判定部160は、静止画像の撮影が継続している最中(ステップS20,S21の処理が継続している最中)に単位時間あたりの静止画像の撮影枚数が閾値を超えて、イベントが発生したと判定したときに、この撮影枚数をイベントの重みとして即時決定することも可能である。
また、正規化の基準値(例えば撮影枚数の予想し得る最大値)を予め設定しておけば、イベント判定部160は、単位時間あたりの静止画像の撮影枚数を正規化した値をイベントの重みとして決定することも可能である。
図6を用いた説明では、ユーザ110の周辺情報が静止画像の場合を例にして説明しているが、ユーザ110の周辺情報が動画像の場合も、静止画像の場合と同様の手法でイベントの発生時刻および重みを決定することが可能である。ただし、動画像の場合には、画像そのものではなく、画像撮影に関する操作に基づいてイベントを抽出する。
図8は、周辺情報取得部140が取得し記録部150に記録された動画像からイベントの発生時刻および重みを決定する方法を説明するフローチャート、図9は、ライフイベント(ここでは結婚式)中の動画像の撮影中に被写体を大きく写すズームイン操作が継続していた時間をヒストグラム化した例を示す図である。周辺情報取得部140(ビデオカメラ)のズームイン操作がされていた時刻は、撮影者(イベント参加者130)が着目した方が良いと判断したことを示しており、イベント参加者130にとって特異なイベントが発生した時刻と考えられる。
そこで、イベント判定部160は、周辺情報取得部140に対するズームイン操作が開始されたとき(図8ステップS30)、イベント参加者130にとって特異なイベントが発生したと判定し、このズームイン操作が開始された時刻をイベントの発生時刻とする(図8ステップS31)。上記と同様に、イベントの発生時刻として採用すべき時刻は、周辺情報取得部140がユーザ110の周辺情報に付加した測定時刻情報から取得すればよい。
ただし、動画像撮影のズーム操作に基づいてイベントの発生時刻および重みを決定する方法においては、周辺情報取得部140(ビデオカメラ)から、イベント判定部160を構成するコンピュータに対して周辺情報取得部140の操作情報を無線または有線で送信することが必要である。このような操作情報の送信により、イベント判定部160は、周辺情報取得部140に対するズームイン操作またはズームアウト操作を検出することができる。
図9において、周辺情報取得部140に対するズームイン操作が開始された点を抽出すると、501〜503の3つの点が得られる。したがって、この3つの点501〜503の時刻をそれぞれ3つのイベントの発生時刻として決定することができる。図9の例では、点501の時刻に新婦入場というイベントが発生し、点502の時刻に指輪交換というイベントが発生し、点503の時刻に結婚証明書へのサインというイベントが発生していた。
イベント判定部160は、ステップS30,S31の処理を単位時間毎に行い、外部から動画像の撮影終了の指示があったとき、あるいはイベント参加者130が撮影を止めて周辺情報取得部140(ビデオカメラ)の電源を切ったときに(図8ステップS32においてYES)、ステップS30,S31の処理でイベント発生と判定したズームイン操作開始からズームアウト操作開始までのズームイン継続時間を、当該イベントの重みとして決定する(図8ステップS33)。イベント判定部160は、このような重みの決定をイベント毎に行う。
図9の例では、点501のズームイン操作開始からズームアウト操作開始までのズームイン継続時間2分、点502のズームイン操作開始からズームアウト操作開始までのズームイン継続時間2分、点503のズームイン操作開始からズームアウト操作開始までのズームイン継続時間3分が、それぞれ3つのイベントの重みとして決定される。つまり、イベント判定部160は、ズームイン継続時間が長いほど、イベントの重みが大きくなるように決定する。
なお、ユーザ110の生体情報や静止画像の場合と同様に、イベントの重みの決定処理は、図8の例に限るものではない。イベント判定部160は、動画像の撮影が継続している最中(ステップS30,S31の処理が継続している最中)にズームイン操作が開始されて、イベントが発生したと判定したときに、このズームイン操作開始からズームアウト操作開始までのズームイン継続時間をイベントの重みとして即時決定することも可能である。
また、正規化の基準値(例えばズームイン継続時間の予想し得る最大値)を予め設定しておけば、イベント判定部160は、ズームイン継続時間を正規化した値をイベントの重みとして決定することも可能である。
以上の説明では、ユーザ110の周辺情報が静止画像または動画像の場合を例にして説明しているが、ユーザ110の周辺情報が音声の場合も、イベントの発生時刻および重みを決定することが可能である。
ユーザ110の周辺情報が音声の場合、イベント判定部160は、周辺情報取得部140(マイク)が収音した音声の強度が所定の閾値を超えたとき、イベント参加者130にとって特異なイベントが発生したと判定し、音声の強度が閾値を超えた時刻をイベントの発生時刻とすればよい。また、イベント判定部160は、イベント発生と判定した音声の強度を、当該イベントの重みとして決定すればよい。また、他の情報と同様に、正規化の基準値(例えば音声の強度の予想し得る最大値)を予め設定しておけば、イベント判定部160は、音声の強度を正規化した値をイベントの重みとして決定することも可能である。
なお、ユーザ110の周辺情報として、静止画像、動画像、音声のうち1つだけが含まれ、この1つについて上記の手法でイベントの発生時刻および重みを決定してもよいし、ユーザ110の周辺情報として、静止画像、動画像、音声のうち複数が含まれ、この複数の周辺情報の各々について個別に上記の手法でイベントの発生時刻および重みを決定してもよい。
また、ユーザ110の周辺情報として、ユーザ110以外のイベント参加者130の生体情報(心拍数、体温、血圧、血糖値のうち少なくとも1つ)が含まれる場合は、図3〜図5で説明したのと同じ手法により、イベント参加者130にとって特異なイベントの発生時刻および重みを決定することができる。
ただし、本実施の形態では、後述のようにイベント判定部160の処理結果を用いてユーザ110の周辺情報を加工するので、ユーザ110の周辺情報としてイベント参加者130の生体情報を取得する場合には、このイベント参加者130の生体情報とは別に加工対象の周辺情報として静止画像、動画像、音声のうち少なくとも1つを取得する必要がある。
この場合、ユーザ110の周辺情報に含まれる、イベント参加者130の生体情報についてのみ図3〜図5で説明したのと同じ手法によりイベントの発生時刻および重みを決定してもよいし、静止画像、動画像、音声のうち少なくとも1つとイベント参加者130の生体情報の各々について個別に上記の手法でイベントの発生時刻および重みを決定してもよい。
次に、情報加工ステップでは、情報加工部170は、イベント判定部160が抽出したイベントの情報に基づいてユーザ110の周辺情報を加工する(図2ステップS4)。より具体的には、情報加工部170は、イベントの重みが大きくなるほど、このイベントに対応する周辺情報が強調されるように加工する。
図10はユーザ110の周辺情報の加工方法の1例を説明する図である。この図10の例によると、結婚式における新郎の心拍数の変動の極値の絶対値が閾値0.15を超えたことにより抽出されたイベント601〜606と、結婚式中の1分間あたりの静止画像の撮影枚数が閾値4を超えたことにより抽出されたイベント607〜612とが発生していることが分かる。
本実施の形態では、ユーザ110の生体情報に基づいて抽出したイベントとユーザ110の周辺情報に基づいて抽出したイベントの中の同一と見なせるイベントを統合して、各イベントの最終的な重みを算出する。図11は本実施の形態の情報加工部170の動作を説明するフローチャートである。
最初に、情報加工部170は、イベント判定部160がユーザ110の生体情報に基づいて抽出した各イベントの重みを正規化すると共に、イベント判定部160がユーザ110の周辺情報に基づいて抽出した各イベントの重みを正規化する(図11ステップS40)。
ユーザ110の生体情報が心拍数である場合、この心拍数の変動に基づいて抽出されたイベントの重みの正規化は、心拍数の測定開始から測定終了までに得られた心拍数の変動の極値の絶対値のうちの最大値が1となるように行われる。ユーザ110の生体情報が体温、血圧、血糖値等、心拍数以外の情報である場合も、心拍数の場合と同様の手法でイベントの重みを正規化することができる。
同様に、ユーザ110の周辺情報としてイベント参加者130の生体情報(心拍数、体温、血圧、血糖値のうちの少なくとも1つ)が含まれ、この生体情報の変動に基づいて抽出されたイベントがある場合、このイベントの重みの正規化は、生体情報の測定開始から測定終了までに得られた生体情報の変動の極値の絶対値のうちの最大値が1となるように行われる。
また、ユーザ110の周辺情報として静止画像が含まれ、単位時間あたりの静止画像の撮影枚数に基づいて抽出されたイベントがある場合、このイベントの重みの正規化は、静止画像の撮影開始から撮影終了までにカウントされた単位時間あたりの静止画像の撮影枚数のうちの最大値が1となるように行われる。
また、ユーザ110の周辺情報として動画像が含まれ、ズームイン操作の開始点に基づいて抽出されたイベントがある場合、このイベントの重みの正規化は、動画像の撮影開始から撮影終了までに計測されたズームイン継続時間のうちの最大値が1となるように行われる。
ユーザ110の周辺情報として音声が含まれ、音声の強度に基づいて抽出されたイベントがある場合、このイベントの重みの正規化は、音声の収録開始から収録終了までに計測された音声の強度のうちの最大値が1となるように行われる。
なお、情報加工部170によるイベントの重みの正規化は本発明の必須の処理ではない。上記で説明したように、イベント判定部160でイベントの重みの正規化が行われている場合には、情報加工部170のステップS40の処理でイベントの重みを正規化しなくてもよい。
次に、情報加工部170は、イベント判定部160がユーザ110の生体情報に基づいて抽出した各イベントとイベント判定部160がユーザ110の周辺情報に基づいて抽出した各イベントの中に同一と見なせるイベントが存在するかどうかを判定する(図11ステップS41)。
情報加工部170は、ユーザ110の生体情報に基づいて抽出されたイベントの発生時刻とユーザ110の周辺情報に基づいて抽出されたイベントの発生時刻とが同じ場合、これら発生時刻が同じ2つのイベントを同一のイベントと見して統合の対象とする。また、情報加工部170は、ユーザ110の生体情報に基づいて抽出されたイベントの発生時刻を中心とする所定の時間範囲内に、ユーザ110の周辺情報に基づいて抽出されたイベントの発生時刻が含まれる場合、これら発生時刻が近接した2つのイベントを同一のイベントと見なす。
情報加工部170は、ユーザ110の生体情報に基づいて抽出されたイベントとユーザ110の周辺情報に基づいて抽出されたイベントの中に同一と見なせるイベントが存在する場合(ステップS41においてYES)、同一と見なせる複数のイベントを1つのイベントとして扱うように統合する(図11ステップS42)。
このとき、情報加工部170は、統合するイベントに含まれる、ユーザ110の生体情報に基づいて抽出されたイベントの発生時刻、統合するイベントに含まれる、ユーザ110の周辺情報に基づいて抽出されたイベントの発生時刻、これら複数のイベントの発生時刻の中間値などを、統合処理後のイベントの発生時刻とする(図11ステップS43)。統合処理後のイベントの発生時刻の決定方法については、予め選択して情報加工部170に設定しておくことができる。
また、情報加工部170は、統合するイベントに含まれる、ユーザ110の生体情報に基づいて抽出されたイベントの重みと、統合するイベントに含まれる、ユーザ110の周辺情報に基づいて抽出されたイベントの重みとを加算し、加算した結果を統合処理後のイベントの重みとする(図11ステップS44)。
情報加工部170は、ユーザ110の生体情報に基づいて抽出されたイベントとユーザ110の周辺情報に基づいて抽出されたイベントの全てについてステップS41〜S44の処理を行う(図11ステップS45)。
図12は以上のステップS40〜S45の処理の結果の1例を示す図である。ここでは、図10で説明したイベント601〜612について情報加工部170で処理した結果を示している。図10で説明したとおり、イベント601〜606はユーザ110の生体情報(結婚式における新郎の心拍数)に基づいて抽出されたイベントであり、イベント607〜612はユーザ110の周辺情報(静止画像)に基づいて抽出されたイベントである。
なお、図10の例では、601の時刻に新郎入場というイベントが発生し、602,607の時刻に新婦入場というイベントが発生し、603,608の時刻に新婦父から新郎への新婦の手渡しというイベントが発生し、609の時刻に指輪交換というイベントが発生し、604,610の時刻にウェディングキスというイベントが発生し、605,611の時刻に結婚証明書へのサインというイベントが発生し、606,612の時刻に新郎新婦退場というイベントが発生していた。
図12の701の欄の「602+607」は結婚式における新郎の心拍数の変動に基づいて抽出されたイベント602と結婚式中の1分間あたりの静止画像の撮影枚数に基づいて抽出されたイベント607とが1つに統合されたことを示している。「603+608」は新郎の心拍数の変動に基づいて抽出されたイベント603と静止画像の撮影枚数に基づいて抽出されたイベント608とが1つに統合されたことを示している。また、「604+610」は新郎の心拍数の変動に基づいて抽出されたイベント604と静止画像の撮影枚数に基づいて抽出されたイベント610とが1つに統合されたことを示している。他のイベントについても同様である。
図12の702の欄は結婚式における新郎の心拍数の変動の極値の絶対値、すなわちイベント判定部160が決定したイベント601〜606の重みを表している。イベント609は結婚式中の1分間あたりの静止画像の撮影枚数に基づいて抽出されたイベントであり、新郎の心拍数の変動に基づいて抽出されたイベントではないので、702の欄に記述される重みが0となっている。
図12の703の欄は情報加工部170が正規化したイベント601〜606の重みを表している。702の欄に示したイベント601〜606の重みにおいて、重みの正規化の基準値となる最大値はイベント601の重み0.5である。したがって、情報加工部170は、イベント601の重みが1となるように、イベント601〜606の重みを正規化する。
図12の704の欄は結婚式中の1分間あたりの静止画像の撮影枚数、すなわちイベント判定部160が決定したイベント607〜612の重みを表している。イベント601は結婚式中の新郎の心拍数の変動に基づいて抽出されたイベントであり、静止画像の撮影枚数に基づいて抽出されたイベントではないので、704の欄に記述される重みが0となっている。
図12の705の欄は情報加工部170が正規化したイベント607〜612の重みを表している。704の欄に示したイベント607〜612の重みにおいて、重みの正規化の基準値となる最大値はイベント610の重み9である。したがって、情報加工部170は、イベント610の重みが1となるように、イベント607〜612の重みを正規化する。
図12の706の欄はステップS44の処理後のイベントの重みを表している。つまり、情報加工部170は、イベント602と607を統合したので、イベント602の正規化した重み0.34とイベント607の正規化した重み0.67とを加算した値1.01が統合処理後のイベントの重みとなる。また、情報加工部170は、イベント603と608を統合したので、イベント603の正規化した重み0.34とイベント608の正規化した重み0.56とを加算した値0.9が統合処理後のイベントの重みとなる。また、情報加工部170は、イベント604と610を統合したので、イベント604の正規化した重み0.34とイベント610の正規化した重み1とを加算した値1.34が統合処理後のイベントの重みとなる。605と611の統合、606と612の統合についても同様である。
結婚式中の新郎の心拍数の変動に基づいて抽出されたイベント601については、静止画像の撮影枚数に基づいて抽出されたイベントの中に同一と見なせるイベントが存在しないので、統合が行われず、正規化された重み1がそのままイベント601の最終的な重みとなる。
同様に、静止画像の撮影枚数に基づいて抽出されたイベント609についても、新郎の心拍数の変動に基づいて抽出されたイベント中に同一と見なせるイベントが存在しないので、統合が行われず、正規化された重み0.78がそのままイベント609の最終的な重みとなる。
なお、本実施の形態では、統合するイベントに含まれる、ユーザ110の生体情報に基づいて抽出されたイベントの重みAと、統合するイベントに含まれる、ユーザ110の周辺情報に基づいて抽出されたイベントの重みBとを等しい重みとして、AとBを加算した結果(A+B)を統合処理後のイベントの重みとしているが、これに限るものではなく、統合処理後のイベントの重みに占める、重みAとBの割合を変えてもよい。1例としては、例えば統合処理後のイベントの重みを(2A+B)としてもよい。これにより、ユーザ110の精神状態の特異的な変化(ユーザ110の生体情報の特異的な変化)を重視したイベントの統合を実現することができる。
次に、情報加工部170は、ユーザ110の生体情報に基づいて抽出されたイベントとユーザ110の周辺情報に基づいて抽出されたイベントの全てについてステップS41〜S44の処理を終えた後に(図11ステップS45においてYES)、各イベントに対応するユーザ110の周辺情報を、当該イベントの重みに基づいて加工する(図11ステップS46)。
情報加工部170は、加工対象の周辺情報が静止画像である場合、各静止画像の面積の比が、イベントの重みの比と等しくなるように各静止画像のサイズを加工する。イベントに対応する静止画像とは、撮影時刻がイベントの発生時刻と等しい静止画像のことをいう。静止画像の撮影時刻は、周辺情報取得部140が静止画像に付加した測定時刻情報から取得すればよい。
情報加工部170は、対応するイベントが存在しない静止画像については、正規化された重みの最大値(本実施の形態では1)よりも小さい所定値の重みを有するものとしてサイズを加工すればよい。こうして、対応するイベントの重みが大きくなるほど、静止画像のサイズが大きくなる。
同様に、情報加工部170は、加工対象の周辺情報が動画像である場合、動画像の各フレームの面積の比が、イベントの重みの比と等しくなるように動画像の各フレームのサイズを加工する。イベントに対応する動画像のフレームとは、撮影時刻がイベントの発生時刻と等しいフレームのことをいう。静止画像の場合と同様に、撮影時刻は、周辺情報取得部140が動画像の各フレームに付加した測定時刻情報から取得すればよい。
情報加工部170は、対応するイベントがない画像フレームについては、正規化された重みの最大値よりも小さい所定値の重みを有するものとしてサイズを加工すればよい。こうして、対応するイベントの重みが大きくなるほど、動画像のフレームのサイズが大きくなる。
なお、加工対象の周辺情報が静止画像または動画像の場合、加工後の画像のサイズが予め規定された最大サイズで収まるように自動的に調整される。具体的には、1枚の画像が最大サイズで収まるように調整してもよいし、最大サイズで収まるように画像の周辺領域をカットしてもよい。
また、情報加工部170は、加工対象の周辺情報が音声である場合、音声の強度の比が、イベントの重みの比と等しくなるように音声の各区間の音量を調整する。イベントに対応する音声の区間とは、収録時刻がイベントの発生時刻と等しい区間のことをいう。静止画像の場合と同様に、収録時刻は、周辺情報取得部140が音声データに付加した測定時刻情報から取得すればよい。
情報加工部170は、対応するイベントがない音声の区間については、正規化された重みの最大値よりも小さい所定値の重みを有するものとして音量を調整すればよい。こうして、対応するイベントの重みが大きくなるほど、音声が大きくなる。加工対象の周辺情報が音声の場合、加工後の音量が予め規定された最大音量で収まるように音量が自動的にリミット処理される。
以上で、情報加工部170の処理が終了する。
なお、ユーザ110の周辺情報については、イベント抽出の基となる周辺情報と加工対象の周辺情報が同一でもよいし異なっていてもよい。例えばユーザ110以外のイベント参加者130の生体情報に基づいてイベントを抽出し、静止画像、動画像、音声のうち少なくとも1つを加工する場合には、イベント抽出の基となる周辺情報と加工対象の周辺情報が異なることになる。また、静止画像の撮影枚数に基づいてイベントを抽出して、静止画像を加工する場合には、イベント抽出の基となる周辺情報と加工対象の周辺情報とが同じになる。
次に、情報出力部180は、情報加工部170が加工した周辺情報を出力する(図2ステップS5)。
情報加工部170が加工した周辺情報が静止画像である場合、周辺情報出力の形態としては、ディスプレイ表示、アルバム等の印刷、DVD等の記録メディアへの記録などがある。
情報加工部170が加工した周辺情報が動画像である場合、周辺情報出力の形態としては、ディスプレイ表示、DVD等の記録メディアへの記録などがある。
情報加工部170が加工した周辺情報が音声である場合、周辺情報出力の形態としては、スピーカ出力、DVD等の記録メディアへの記録などがある。
以上のようにして、本実施の形態では、ユーザ110の生体情報に基づいてユーザ110にとって特異なイベントを抽出する共に、ユーザ110の周辺情報に基づいてイベント参加者130にとって特異なイベントを抽出し、ユーザ110の生体情報に基づいて抽出したイベントとユーザ110の周辺情報に基づいて抽出したイベントとを統合した上で、イベントの重みに基づいてユーザ110の周辺情報を加工することにより、ユーザ110の精神状態が特異的な変化を示したときの周辺情報をイベントの重みに応じて強調すると共に、イベント参加者130の精神状態が特異的な変化を示したときの周辺情報をイベントの重みに応じて強調することができ、ユーザ110とイベント参加者130の精神状態を反映するように周辺情報を加工して出力することができる。その結果、本実施の形態では、特許文献1に開示された従来技術と比較して、ライフイベント当日の感動や思いを想起させるのに充分な情報提供を実現することができる。
本実施の形態では、ユーザ110の生体情報に基づいて抽出したイベントとユーザ110の周辺情報に基づいて抽出したイベントの中の同一と見なせるイベントを統合しているため、ユーザ110の精神状態が特異的な変化を示したとき(ユーザ110の生体情報が特異的な変化を示したとき)と、イベント参加者130の精神状態が特異的な変化を示したとき(周辺情報が特異的な変化を示したとき)とが一致していれば、統合するイベントの重みが加算されて大きくなるので、重要なイベントとして周辺情報を強調することができる。
なお、情報加工部170は、加工対象の周辺情報が静止画像または動画像の場合、周辺情報がユーザ110の精神状態(ユーザ110の生体情報に基づいて抽出したイベント)を反映して加工されたものなのか、周辺情報がイベント参加者130の精神状態(ユーザ110の周辺情報に基づいて抽出したイベント)を反映して加工されたものなのか、周辺情報がユーザ110とイベント参加者130の両者の精神状態を反映して加工されたものなのかが分かるように、加工する静止画像または動画像に、加工の理由を説明する文字情報を加えてもよい。
これにより、情報加工部170から出力された周辺情報を見た人は、ユーザ110の精神状態が特異的な変化を示したとき(ユーザ110の生体情報が特異的な変化を示したとき)と、イベント参加者130の精神状態が特異的な変化を示したとき(周辺情報が特異的な変化を示したとき)とが一致しているのか一致していないのかを認識することができる。
例えば図10、図12の例では、イベント602は新郎の心拍数の変動に基づいて抽出されたイベントであり、イベント607は静止画像の撮影枚数に基づいて抽出されたイベントであり、これらイベント602と607とが統合されたとき、統合されたイベントに対応する静止画像または動画像には、ユーザ110とイベント参加者130の精神状態を反映して加工されたことを説明する文字情報が加えられる。
したがって、情報加工部170から出力された周辺情報を見た人は、新婦の入場に際して、ユーザ110の精神状態とイベント参加者130の精神状態が特異的な変化を示しており、ユーザ110とイベント参加者130の感じ方が一致していることを認識できる。
また図10、図12の例では、イベント609は静止画像の撮影枚数に基づいて抽出されたイベントであり、新郎の心拍数の変動に基づいて抽出されたイベントではないので、イベント609に対応する静止画像または動画像には、イベント参加者130の精神状態を反映して加工されたことを説明する文字情報が加えられる。
したがって、情報加工部170から出力された周辺情報を見た人は、指輪の交換が行われたときに、ユーザ110の精神状態については大きく変化しておらず、イベント参加者130の精神状態が特異的な変化を示しており、ユーザ110とイベント参加者130の感じ方が違うことを認識できる。
なお、イベントの統合は本発明の必須の処理ではない。つまり、情報加工部170は、図11のステップS41〜S45の処理を実施しなくてもよい。この場合の情報加工部170の動作のフローチャートを図13に示す。情報加工部170は、ステップS40の処理を行った後に、イベント判定部160がユーザ110の生体情報に基づいて抽出したイベントとユーザ110の周辺情報に基づいて抽出したイベントについて別々にステップS46の処理を行えばよい。また、イベントを統合しない場合においても、上記と同様に、加工する静止画像または動画像に、加工の理由を説明する文字情報を加えることが可能である。
また、本実施の形態では、ユーザ110の生体情報と周辺情報のそれぞれについてイベントを抽出しているが、どちらか一方の情報のみについてイベントを抽出するようにしてもよい。
本発明は、画像や音声等の情報の主対象者であるユーザや周辺の人の精神状態を反映するように情報を加工する技術に適用することができる。
100…情報加工システム、110…ユーザ、120…生体情報取得部、130…イベント参加者、140…周辺情報取得部、150…記録部、160…イベント判定部、170…情報加工部、180…情報出力部。

Claims (9)

  1. 主対象者となるユーザの生体情報と、前記ユーザとその周辺の状況を表す周辺情報とを入力として、これらの情報を保存する記録手段と、
    前記ユーザの生体情報と周辺情報のうち少なくとも一方に基づいてイベントが発生したか否かを判定するイベント判定手段と、
    このイベント判定手段が抽出したイベントの情報に基づいて前記周辺情報を加工する情報加工手段とを備えることを特徴とする情報加工システム。
  2. 請求項1記載の情報加工システムにおいて、
    前記イベント判定手段は、前記ユーザの生体情報に基づいてイベントを抽出すると共にイベントの重みを決定し、さらに前記周辺情報または周辺情報取得に関する操作に基づいてイベントを抽出すると共にイベントの重みを決定し、
    前記情報加工手段は、前記イベントの重みに応じて、このイベントに対応する前記周辺情報を加工することを特徴とする情報加工システム。
  3. 請求項1記載の情報加工システムにおいて、
    前記イベント判定手段は、前記ユーザの生体情報に基づいてイベントを抽出すると共にイベントの重みを決定し、さらに前記周辺情報または周辺情報取得に関する操作に基づいてイベントを抽出すると共にイベントの重みを決定し、
    前記情報加工手段は、前記ユーザの生体情報に基づいて抽出されたイベントと前記周辺情報または周辺情報取得に関する操作に基づいて抽出されたイベントの中の同一と見なせるイベントを統合する処理を行い、同一と見なせるイベントが存在しないイベントと統合したイベントのそれぞれについて、イベントの重みに応じて、イベントに対応する前記周辺情報を加工することを特徴とする情報加工システム。
  4. 請求項2または3記載の情報加工システムにおいて、
    前記情報加工手段は、前記イベントの重みが大きくなるほど、このイベントに対応する前記周辺情報が強調されるように加工することを特徴とする情報加工システム。
  5. 請求項2乃至4のいずれか1項に記載の情報加工システムにおいて、
    前記ユーザの生体情報は、心拍数、体温、血圧、血糖値のうち少なくとも1つを含み、
    前記イベント判定手段は、前記ユーザの生体情報の変化に基づいてイベントの発生時刻を決定すると共に、この生体情報の変化が大きいほど、イベントの重みが大きくなるように重み付けを行うことを特徴とする情報加工システム。
  6. 請求項1乃至5のいずれか1項に記載の情報加工システムにおいて、
    前記ユーザの周辺情報は、前記ユーザまたはその周辺を撮影した静止画像、前記ユーザまたはその周辺を撮影した動画像、前記ユーザまたはその周辺の音声のうち少なくとも1つを含むことを特徴とする情報加工システム。
  7. 請求項2乃至5のいずれか1項に記載の情報加工システムにおいて、
    前記ユーザの周辺情報は、前記ユーザまたはその周辺を撮影した静止画像を少なくとも含み、
    前記イベント判定手段は、単位時間あたりの前記静止画像の撮影枚数が所定の閾値を超えた時刻をイベントの発生時刻と判定すると共に、単位時間あたりの前記静止画像の撮影枚数が多いほど、イベントの重みが大きくなるように重み付けを行うことを特徴とする情報加工システム。
  8. 請求項2乃至5のいずれか1項に記載の情報加工システムにおいて、
    前記ユーザの周辺情報は、前記ユーザまたはその周辺を撮影した動画像を少なくとも含み、
    前記イベント判定手段は、動画像撮影のズームイン操作が開始された時刻をイベントの発生時刻と判定すると共に、ズームイン操作開始からズームアウト操作開始までのズームイン継続時間が長いほど、イベントの重みが大きくなるように重み付けを行うことを特徴とする情報加工システム。
  9. 請求項2乃至5のいずれか1項に記載の情報加工システムにおいて、
    前記ユーザの周辺情報は、前記ユーザまたはその周辺を撮影した静止画像、前記ユーザまたはその周辺を撮影した動画像、前記ユーザまたはその周辺の音声のうち少なくとも1つと、さらに前記ユーザ以外の人の生体情報を含み、
    この生体情報は、心拍数、体温、血圧、血糖値のうち少なくとも1つを含み、
    前記イベント判定手段は、前記ユーザ以外の人の生体情報の変化に基づいてイベントの発生時刻を決定すると共に、この生体情報の変化が大きいほど、イベントの重みが大きくなるように重み付けを行うことを特徴とする情報加工システム。
JP2015122615A 2015-06-18 2015-06-18 情報加工システム Active JP6363561B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015122615A JP6363561B2 (ja) 2015-06-18 2015-06-18 情報加工システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015122615A JP6363561B2 (ja) 2015-06-18 2015-06-18 情報加工システム

Publications (2)

Publication Number Publication Date
JP2017011386A true JP2017011386A (ja) 2017-01-12
JP6363561B2 JP6363561B2 (ja) 2018-07-25

Family

ID=57764306

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015122615A Active JP6363561B2 (ja) 2015-06-18 2015-06-18 情報加工システム

Country Status (1)

Country Link
JP (1) JP6363561B2 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004219914A (ja) * 2003-01-17 2004-08-05 Sony Corp 情報伝送方法、情報伝送装置、情報記録方法、情報記録装置、情報再生方法、情報再生装置および記録媒体
JP2005063087A (ja) * 2003-08-11 2005-03-10 Sony Corp 記録再生装置、再生装置、記録再生方法および再生方法
JP2005332376A (ja) * 2004-04-22 2005-12-02 Fuji Xerox Co Ltd 情報処理装置、システム、情報処理方法およびプログラム
JP2006080644A (ja) * 2004-09-07 2006-03-23 Toshiba Tec Corp カメラ
JP2007134770A (ja) * 2005-11-08 2007-05-31 Sony Corp 撮像装置、および情報処理方法、並びにコンピュータ・プログラム
JP2007235373A (ja) * 2006-02-28 2007-09-13 Sony Corp 画像処理システムおよび方法、画像処理装置および方法、撮像装置および方法、プログラム記録媒体、並びにプログラム
JP2009296299A (ja) * 2008-06-05 2009-12-17 Panasonic Corp 画像記録装置、画像記録プログラムおよび画像記録プログラムを記録した記録媒体
JP2010021721A (ja) * 2008-07-09 2010-01-28 Olympus Corp カメラ
JP2010246050A (ja) * 2009-04-09 2010-10-28 Canon Inc データ管理装置、その制御方法及びプログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004219914A (ja) * 2003-01-17 2004-08-05 Sony Corp 情報伝送方法、情報伝送装置、情報記録方法、情報記録装置、情報再生方法、情報再生装置および記録媒体
JP2005063087A (ja) * 2003-08-11 2005-03-10 Sony Corp 記録再生装置、再生装置、記録再生方法および再生方法
JP2005332376A (ja) * 2004-04-22 2005-12-02 Fuji Xerox Co Ltd 情報処理装置、システム、情報処理方法およびプログラム
JP2006080644A (ja) * 2004-09-07 2006-03-23 Toshiba Tec Corp カメラ
JP2007134770A (ja) * 2005-11-08 2007-05-31 Sony Corp 撮像装置、および情報処理方法、並びにコンピュータ・プログラム
JP2007235373A (ja) * 2006-02-28 2007-09-13 Sony Corp 画像処理システムおよび方法、画像処理装置および方法、撮像装置および方法、プログラム記録媒体、並びにプログラム
JP2009296299A (ja) * 2008-06-05 2009-12-17 Panasonic Corp 画像記録装置、画像記録プログラムおよび画像記録プログラムを記録した記録媒体
JP2010021721A (ja) * 2008-07-09 2010-01-28 Olympus Corp カメラ
JP2010246050A (ja) * 2009-04-09 2010-10-28 Canon Inc データ管理装置、その制御方法及びプログラム

Also Published As

Publication number Publication date
JP6363561B2 (ja) 2018-07-25

Similar Documents

Publication Publication Date Title
WO2017105720A1 (en) Electroencephalography (eeg) camera control
EP2713881B1 (en) Method and system for assisting patients
TWI620547B (zh) Information processing device, information processing method and information processing system
US20100086204A1 (en) System and method for capturing an emotional characteristic of a user
KR101795601B1 (ko) 영상 처리 장치, 영상 처리 방법, 및 컴퓨터 판독가능 저장매체
JP2014036801A (ja) 生体状態観察システム、生体状態観察方法、およびプログラム
WO2015072202A1 (ja) 瞳孔径に基づく眼の疲労検出のための情報処理装置、方法、およびプログラム
KR20150107565A (ko) 건강 상태 정보를 제공하는 전자 장치, 그 제어 방법, 및 컴퓨터 판독가능 저장매체
CN101617339A (zh) 图像处理装置和图像处理方法
EP2402839A2 (en) System and method for indexing content viewed on an electronic device
KR101946466B1 (ko) 탈모 진단을 위한 촬영 방법 및 이를 수행하는 전자 장치
JP2020091702A (ja) 撮像装置および撮像方法
JP2009210992A (ja) 撮影装置
JP2015092646A (ja) 情報処理装置、制御方法、およびプログラム
JP2017041673A (ja) 視聴状態検出装置、視聴状態検出システムおよび視聴状態検出方法
US20170103178A1 (en) Device, system and method for detecting a health condition of a subject
EP3300655A1 (en) A method and system for emotion-triggered capturing of audio and/or image data
JP6198530B2 (ja) 画像処理装置
CN113764099A (zh) 基于人工智能的心理状态分析方法、装置、设备及介质
US20130052621A1 (en) Mental state analysis of voters
JP6363561B2 (ja) 情報加工システム
WO2022065446A1 (ja) 感情判定装置、感情判定方法及び感情判定プログラム
CN108446593A (zh) 一种面部痉挛检测方法及装置
WO2019044135A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2008251073A (ja) 情報データ記録装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170623

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180626

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180628

R150 Certificate of patent or registration of utility model

Ref document number: 6363561

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150