JP2006080644A - カメラ - Google Patents

カメラ Download PDF

Info

Publication number
JP2006080644A
JP2006080644A JP2004259899A JP2004259899A JP2006080644A JP 2006080644 A JP2006080644 A JP 2006080644A JP 2004259899 A JP2004259899 A JP 2004259899A JP 2004259899 A JP2004259899 A JP 2004259899A JP 2006080644 A JP2006080644 A JP 2006080644A
Authority
JP
Japan
Prior art keywords
image
camera
emotion
image data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004259899A
Other languages
English (en)
Inventor
Yasuhito Kichi
保仁 喜地
Toshimi Echigo
聡美 越後
Takeshi Iguchi
健 井口
Kiyoshi Iwaki
澄 岩城
Kazunobu Takahashi
和伸 高橋
Kazukuni Hirabayashi
和訓 平林
Mitsuru Watanabe
満 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba TEC Corp
Original Assignee
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba TEC Corp filed Critical Toshiba TEC Corp
Priority to JP2004259899A priority Critical patent/JP2006080644A/ja
Publication of JP2006080644A publication Critical patent/JP2006080644A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

【課題】自己の画像データと合わせて多視点の撮影画像を得る。
【解決手段】カメラ装着者の運動状態や脈拍、体温、血圧など生体情報を検出する検出手段16,18,19,20と、この検出手段の検出結果を使用して装着者の感情を解析する感情解析部17と、周囲を撮影する撮影装置2と、画像データを記憶する記憶装置15と、データ送信装置21と、データ受信装置22を備え、データ送信装置21は画像データを指定したアドレスに送信させる命令を送信し、感情解析部17の感情解析結果に基づいて感情レベルが予め設定した閾値よりも大きいときに撮影装置2が撮影した画像データ及びデータ受信装置22が受信した画像データを記憶装置15に記憶する。
【選択図】 図2

Description

本発明は、人体に装着して使用するカメラに関する。
従来、この種のカメラとしては、例えば、人体に撮影装置を装着し、感情解析手段を備え、装着者の感情解析を行い、その結果から撮影の制御や撮影画像の編集を行うカメラが知られている(例えば、非特許文献1参照)。
相沢清晴、石島健一郎、椎名誠著、論文「ウェアラブル映像の構造化と要約:個人の主観を考慮した要約の生成の試み」、電子情報通信学会論文誌D-II、2003年6月、 Vol.J86-DII No.6 pp.807-815
しかし、この従来のカメラは、撮影画像が装着カメラの視野の画像のみに限定されていた。
本発明は、周辺に同一のカメラが存在する場合にそのカメラとデータ通信を行って同じタイミングで撮影した画像データを得ることができ、自己の画像データと合わせて多視点の撮影画像を得ることができるカメラを提供する。
本発明は、脈拍など1つ又は複数の生体情報を検出する検出手段と、この検出手段の検出結果を使用して装着者の感情を解析する感情解析手段と、周囲を撮影する撮影手段と、画像データを記憶する記憶手段と、送信手段と、受信手段とを備え、送信手段は画像データを指定したアドレスに送信させる命令を送信し、感情解析手段の感情解析結果に基づいて感情レベルが予め設定した閾値よりも大きいときに撮影手段が撮影した画像データ及び受信手段が受信した画像データを記憶手段に記憶するカメラにある。
本発明によれば、周辺に同一のカメラが存在する場合にそのカメラとデータ通信を行って同じタイミングで撮影した画像データを得ることができ、自己の画像データと合わせて多視点の撮影画像を得ることができるカメラを提供できる。
以下、本発明の一実施の形態を、図面を参照して説明する。
図1は、装着型カメラ本体部1の外観を示す斜視図である。本実施形態の装着型カメラは名札型であり、表面上側に、周囲を撮影する撮影手段としての撮影装置2、赤外領域を撮影する赤外領域撮影手段としての赤外領域撮影装置3、スピーカなどの音声出力装置4、1対の赤外線発信装置5,6を配置し、表面下側に、液晶ディスプレイ等からなる名前表示および画像閲覧用の画像表示装置7を配置している。また、上面にはマイクロホンなどの音声入力装置8を配置している。また、本体部1の背面には、クリップもしくは安全ピン等の固定手段(図示せず)を備え、衣服などに固定できる構成になっている。
図2は装着型カメラの制御構成を示すブロック図である。11はこのカメラ本体部全体の動作を制御する制御部である。前記制御部11は、撮影装置2、赤外領域撮影装置3、音声入力装置8から、可視領域画像、赤外領域画像、音声を連続して取り込み、この取り込んだ可視領域画像、赤外領域画像、音声を画像処理部12に逐次送出する。
前記画像処理部12はこれら画像データと音声データの組み合わせからなる画像音声データに時計回路13から取得した時刻(画像データの撮影時刻)やGPS(汎地球測位システム)14から取得した位置情報を付加する処理を施し、記憶装置15に設けた1次記憶部に記憶する。この1次記憶部に記憶した画像音声データは一定時間が経過すると、古いデータから順次削除され、空いた記憶領域に新しい画像音声データを記憶する。この処理により、1次記憶部の画像音声データは常に更新されることになる。前記本体部1は、カメラ装着者の運動状態を測定する加速度測定装置16を設け、この測定データを感情解析部17に供給している。
カメラ装着者の脈拍を測定する脈拍測定装置18、カメラ装着者の体温を測定する体温測定装置19、血圧を測定する血圧測定装置20を本体部1に接続し、これら測定装置18、19、20が測定したデータを前記感情解析部17に供給している。前記感情解析部17は加速度測定装置16、脈拍測定装置18、体温測定装置19、血圧測定装置20の測定データからカメラ装着者の感情を解析し、その感情解析結果を前記制御部11に戻すようになっている。
この装着型カメラにおいては本体部1に対する各測定装置18、19、20の着脱が簡単で、カメラ装着者の動きを拘束しない脈波を感情解析のための指標としている。また、運動による脈波の変化と心理的要因による脈波の変化を区別するために、前記加速度測定装置16を装着者の運動状態検出のための指標として使用している。前記加速度測定装置16で得られる加速度の絶対値は運動状態の程度を表わすので、加速度の絶対値に適当な係数を乗じることによって、運動による脈波量に換算することができる。
前記制御部11は、送信手段であるデータ送信装置21、受信手段であるデータ受信装置22及び前記赤外線発信装置5,6をそれぞれ制御する。前記データ送信装置21は、この装着型カメラと同じ機能を有する他のカメラに対し、指定時刻の画像データを切り出して返信させる画像送信命令等を送信する。前記データ受信装置22は、この装着型カメラと同じ機能を有する他のカメラからの画像データや画像送信命令等を受信する。前記赤外線発信装置5,6は、自己の識別信号を赤外線で発信する。
前記制御部11は、また、コマンド入力装置23を制御し、オペレータ操作によるこのコマンド入力装置23からのコマンドを取込む。
前記脈拍測定装置18、体温測定装置19、血圧測定装置20及びコマンド入力装置23は、本体部1とは分離し、例えば、リストバンド型の装着装置(図示せず)に取付けられている。
次に、感情解析部17で行う感情解析手法の簡単な例について述べる。
人間の感情は、快感を表す指数と興奮や緊張を表す指数による2次元空間から成る感情空間に割り当てられる。以後、快感を表す指数を快適度、興奮や緊張を表す指数を覚醒度と記述する。感情空間で表わされる喜怒哀楽の4種の感情のうち、「喜び」は快度と覚醒度が共に高い場合とされ、「怒り」は快適度が低く覚醒度が高い場合とされ、「哀しみ」は快適度と覚醒度が共に低い場合とされ、「楽しい」は快適度が高く覚醒度が低い場合とされている。
前記脈拍測定装置18で測定された脈波数から前記加速度測定装置16で得られた脈波の換算数を減じ、この脈波が高いと覚醒度が高く、低いと覚醒度が低いとする。快適度に関しては、脈波数に対して、例えば、生活支援工学系学会連合大会(第19回ライフサポート学会大会)の講演予稿集111頁に掲載されている快適度評価システム、快適度の算出の手法を適用して快適度を得る。
最初に、装着者の気分が平常である時の快適度と覚醒度の平均値を予め求めておき、その平均値を装着者の感情空間の原点とする。そして、カメラ使用時のある時点の快適度と覚醒度の値を感情空間の原点と比較することで感情空間上での原点との距離を算出する。この距離を、感情の高揚の度合を示す「感情レベル」と定義する。上記した感情空間は快適度と覚醒度からなる直交座標系であるが、これを極座標に変換した場合、感情レベルを動径とする極座標系となる。この極座標系のもう一つの指数である偏角を、「感情の種類」と定義する。
前記感情解析部17は、感情解析結果、すなわち、感情レベルとして動径の長さ、感情の種類として動径の偏角を制御部11に送る。
なお、本実施形態は感情の解析結果の利用方法に関するものであり、感情解析に用いる生体情報の種類や利用する生体情報の数、あるいは感情の解析手法によって限定されるものではない。
前記制御部11は、感情解析部17により得た感情解析結果から装着者の感情の感情レベルを評価する。この評価は、前記感情解析部17から送られてくる感情レベルを予め設定した閾値と比較し、閾値より高い感情レベルを検出し、さらに、閾値より高い感情レベルの中で感情レベルがピークとなる時刻を特定する。
カメラ装着者の感情が、装着者の生体情報の変化として現れるまでに要する時間は、感情解析の処理に要する時間を考慮し、前記制御部11では感情レベルのピークを特定できた時に、時計回路13により得た時刻から、カメラ装着者の感情が生体情報の変化として現れるまでに要する時間と感情解析の処理に要する時間を引いた時刻を、カメラ装着者の感情レベルのピーク時刻としている。
前記制御部11は、画像処理部12に対してカメラ装着者の感情レベルのピーク時刻における画像音声データの切り出しを指示し、この切り出しデータに付加する感情解析結果を前記画像処理部12に送出する。この送出する感情解析結果は、カメラ装着者の感情レベルのピークを特定できたときの感情解析結果である。
なお、ここでは制御部11が感情レベルのピーク時刻を解析する構成になっているが、これに限らず、感情解析部17に時計回路13により得た時刻を送り、この感情解析部17で感情レベルのピーク時刻を解析し、その結果を制御部11に送出する構成にしてもよい。
前記画像処理部12は、記憶装置15の1次記憶部にある画像音声データから、制御部11から送信される感情レベルのピーク時刻における画像音声データの切り出し指示に従って、指定された感情レベルのピーク時刻に一致する撮影時刻の画像音声データを切り出す。そして、前記感情解析部17により得た感情解析結果の付加処理を施す。切り出され感情解析結果を付加された画像音声データは制御部11からの指示により、記憶装置15の2次記憶部に記憶する。
更に、動画の場合は、感情レベルのピーク時刻の替わりに、感情レベルの高レベル開始時刻と終了時刻を指定する。前記感情解析部17から送られてくる感情レベルを閾値と比較し、閾値より高い感情レベルを検出した時に時計回路13により得た時刻から、カメラ装着者の感情が装着者の生体情報の変化として現れるまでに要する時間と感情解析の処理に要する時間を引いた時刻を、カメラ装着者の感情レベルの高レベル開始時刻とする。
また、感情レベルが、閾値より高い状態から、低くなったことを検出した時に時計回路13により得た時刻から、カメラ装着者の感情が装着者の生体情報の変化として現れるまでに要する時間と感情解析の処理に要する時間を引いた時刻を、カメラ装着者の感情レベルの高レベル終了時刻とする。
前記データ送信装置21は、他のカメラに対し指定時刻の画像データを切り出して自己のカメラに返信させる指示を送出する。ここでの指定時刻は、制御部11で特定したカメラ装着者の感情レベルのピーク時刻になっている。以後、指定時刻の画像データを切り出し返信させる指示のことを画像送信命令と称する。
前記データ受信装置22は他カメラから返信された画像データを受信する。また、前記データ受信装置22は他カメラが送出した画像送信命令の受信も行う。
前記赤外線発信装置5,6は、自己の識別信号を赤外線で発信する。撮影したい被写体が、この装着型カメラを装着した人に限られる場合、画像送信命令を送出する際に、制御部11は、送信すべき画像の指定時刻と画像送信命令によって撮影させる被写体を指定する被写体情報を画像送信命令に付加する。
前記制御部11は、記憶装置15の1次記憶部にある赤外領域画像において、画像送信命令で指定する指定時刻の赤外線画像を特定し、この赤外線画像の中心に最も近い位置で明滅する赤外線信号により発信される識別番号を特定する。そして、この特定した識別番号を被写体情報とする。また、画像送信命令によって撮影させる被写体を、画像送信命令を送信する装着型カメラの装着者自身に固定する場合は、その装着型カメラの識別番号を画像送信命令の被写体情報とする。画像送信命令を受信したデータ受信装置22は、制御部11に受信した画像送信命令を送る。
前記制御部11は、記憶装置15の1次記憶部に記憶している赤外領域画像において画像送信命令に指定された指定時刻の赤外線画像を特定し、この赤外線画像に明滅する赤外信号により発信される識別信号が存在すれば、その識別番号を特定する。そして、この特定した識別信号が、被写体情報で指定された識別番号と同じであれば、被写体情報で指定された識別番号の装着型カメラを装着した被写体が、撮影装置2で撮影された可視領域画像の中に撮影されていると判断する。
前記制御部11は、画像処理部12により指定時刻の画像データ切り出しを行う。そして、切り出した画像データを、画像送信命令を送出したカメラに対して送信する。前記画像表示装置7は撮影を行っている時は、カメラ装着者の氏名を表示し、画像閲覧時には、記憶装置15の2次記憶部に保存されている画像音声データを表示する。
図3は前記本体部1が行う静止画の画像収集動作のフローチャートを示している。
この画像収集は、まず、S1にて、赤外領域撮影装置3及び撮影装置2を制御部11の駆動制御手段で駆動し、赤外領域と可視光の画像データを撮影して記憶装置15の1次記憶部に記憶する作業を開始する。同時に音声入力装置8から音声データを取り込む。また、赤外線発信装置5,6を駆動して識別信号の発信を開始する。
そして、S2にて、加速度測定装置16、脈拍測定装置18、体温測定装置19、血圧測定装置20の測定データである生理情報からカメラ装着者の感情を解析し、感情解析結果から得られた感情レベルが予め設定された閾値より大きく、且つピークに達しているかを判定する。
感情レベルが閾値より低かった場合、もしくはピークに達していない場合は、S3にて、他カメラからの画像送信命令を受信したかを確認する。そして、他カメラから画像送信命令を受信していなかった場合には、S4にて、記憶装置15の1次記憶部にある画像に音声を組み合わせた画像音声データの保存時間を調べ、保存した時間から、予め設定した時間以上経過している画像音声データは削除し、そこに新しい画像音声データを保存する。この処理により記憶装置15の1次記憶部の画像音声データは常に更新されることになる。そして、S2に戻る。
また、S2にて、感情レベルが閾値を超え、且つピークに達した場合には、S5にて、記憶装置15の1次記憶部に保存した画像音声データから、感情レベルのピーク時刻に一致する撮影時刻の画像データとこの撮影時刻前後の音声データを切り出す。そして、切り出した画像音声データに、撮影時刻と感情レベルのピーク時刻の感情解析結果を付加する。
続いて、S6にて、画像送信命令によって他のカメラに撮影させる被写体を特定する。この被写体を、画像送信命令を送信する装着型カメラの装着者自身に固定する場合は、その装着型カメラの識別番号を画像送信命令の被写体情報とする。そして、画像送信命令を他カメラにデータ送信装置21から送信する。また、感情レベルがピークの時の感情解析結果と位置情報を予め指定された送信先にデータ送信装置21から送信する。
続いて、S7にて、他カメラから画像音声データが返信されたことを確認し、S8にて、返信された画像音声データを受信すると、S9にて、返信された画像音声データに撮影時間と感情レベルがピークの時の感情情報を付加する。そして、S10にて、記憶装置15における2次記憶部の画像保存容量が限界になっているか否かをチェックし、保存容量が充分なときには、S11にて、切り出した画像音声データと返信された画像音声データを2次記憶部に保存する。そして、S4の処理を行ってからS2に戻る。
また、記憶装置15の2次記憶部の容量が限界になって空き容量が足りない場合には、S12にて、切り出した画像音声データの感情レベルを、既に2次記憶部に保存されている画像音声データの感情レベルと比較し、感情レベルが小さい方の画像データを削除する(データ削除手段)。ここでは、既存の画像音声データをいくらか削除して新たに切り出した画像音声データと返信された画像音声データを保存するか、新たに切り出した画像音声データと返信された画像音声データを削除するかを決定することになる。
そして、既存の画像音声データをいくらか削除して新たに切り出した画像音声データと返信された画像音声データを保存した場合、S13にて、2次記憶部に保存されている画像音声データの持つ感情レベルのうち最も低い感情レベルの値を、画像音声データ切り出しの指定時刻の決定指標である感情レベルの閾値として再設定する。そして、S4の処理を行ってからS2に戻る。
また、S2にて、感情レベルが閾値より低かった場合、もしくはピークに達していない場合を判断し、S3にて、他カメラから画像送信命令を受信したことを判断すると、S14にて、記憶装置15の1次記憶部に保存された画像音声データから、画像送信命令により指定された時刻の画像音声データを切り出す。
続いて、S15にて、画像送信命令により指定された時刻の赤外領域画像における被写体を探索し、S16にて、画像送信命令に指定された被写体の識別信号が存在しているか否かを比較し判断する(比較手段)。そして、被写体の識別信号が存在していれば、S17にて、切り出した画像音声データを、画像送信命令を発信した他カメラに返信する。そして、S4の処理を行ってからS2に戻る。また、画像送信命令により指定された時刻に前後する赤外領域画像に、画像送信命令に指定された被写体の識別信号が存在しなかった場合には切り出した画像音声データの返信は行わない。この場合も、S4の処理を行ってからS2に戻る。
なお、ここでは画像送信命令を発信したカメラに、指定時刻の画像音声データを集める構成としたが、それぞれのカメラ専用のサーバをネットワーク上に事前に用意し、切り出した画像音声データを、ネットワークを介してそのカメラ専用のサーバに送信し、画像送信命令には画像送信命令を発信したカメラ専用のサーバのアドレスを付加し、画像音声データを指定されたアドレスのサーバに送信させることもできる。この場合、画像音声データはそれぞれのカメラ専用のサーバに集めることができる。画像閲覧時はそれぞれのカメラ専用のサーバにアクセスし、画像データをダウンロードしてディスプレイに表示すればよい。また、ここでは画像と音声を組み合わせた画像音声データを使用したが画像データのみであってもよい。
次に、収集する画像音声データにおける画像が動画像の場合について述べる。
動画像は、切り出す画像データの始点と終点を指定する必要があるため、画像切り出しの指定時刻を決定する処理が必要になる。すなわち、収集する画像が動画像の場合、画像収集動作のフローチャートは図4に示すようになる。
この画像収集は、まず、S21にて、赤外領域撮影装置3及び撮影装置2を駆動し、赤外領域と可視光の画像データを撮影して記憶装置15の1次記憶部に記憶する作業を開始する。同時に音声入力装置8から音声データを取り込む。また、赤外線発信装置5,6を駆動して識別信号の発信を開始する。
そして、S22にて、加速度測定装置16、脈拍測定装置18、体温測定装置19、血圧測定装置20の測定データである生理情報からカメラ装着者の感情を解析し、感情解析結果から得られた感情レベルが予め設定された閾値を越えたかを判定する。
感情レベルが閾値を越えていた場合は、S23にて、記憶装置15の1次記憶部に保存した動画像に音声を組み合わせた動画像音声データからの動画像データと音声データの切り出しを開始する。また、感情レベルが閾値以下であればS23の処理をパスする。
続いて、S24にて、切り出し中の画像の感情レベルが閾値以下に低下したかを判断し、閾値以下でないことを判断すると、S25にて、他カメラからの画像送信命令を受信したかを確認する。そして、他カメラから画像送信命令を受信していなかった場合には、S26にて、記憶装置15の1次記憶部にある動画像音声データの保存時間を調べ、保存した時間から、予め設定した時間以上経過している動画像音声データは削除し、そこに新しい動画像音声データを保存する。この処理により記憶装置15の1次記憶部の動画像音声データは常に更新されることになる。そして、S22に戻る。
また、S24にて、切り出し中の動画像の感情レベルが閾値以下に低下したことを判断すると、S27にて、記憶装置15の1次記憶部に保存された動画像音声データからのデータの切り出しを終了する。そして、切り出した動画像音声データに撮影時間と感情解析結果を付加する。
続いて、S28にて、画像送信命令によって他のカメラに撮影させる被写体を特定する。この被写体を、画像送信命令を送信する装着型カメラの装着者自身に固定する場合は、その装着型カメラの識別番号を画像送信命令の被写体情報とする。そして、画像送信命令を他カメラにデータ送信装置21から送信する。また、感情解析結果と位置情報を予め指定された送信先にデータ送信装置21から送信する。
続いて、S29にて、他カメラから動画像音声データが返信されたことを確認し、S30にて、返信された動画像音声データを受信すると、S31にて、返信された動画像音声データに撮影時間と感情情報を付加する。そして、S32にて、記憶装置15における2次記憶部の画像保存容量が限界になっているか否かをチェックし、保存容量が充分なときには、S33にて、切り出した動画像音声データと返信された画像データを2次記憶部に保存する。そして、S26の処理を行ってからS22に戻る。
また、記憶装置15の2次記憶部の容量が限界になって空き容量が足りない場合には、S34にて、切り出した動画像音声データの感情レベルを、既に2次記憶部に保存されている動画像音声データの感情レベルと比較し、感情レベルが小さい方の画像データを削除する(データ削除手段)。ここでは、既存の動画像音声データをいくらか削除して新たに切り出した動画像音声データと返信された動画像音声データを保存するか、新たに切り出した動画像音声データと返信された動画像音声データを削除するかを決定することになる。
そして、既存の動画像音声データをいくらか削除して新たに切り出した動画像音声データと返信された動画像音声データを保存した場合、S35にて、2次記憶部に保存されている動画像音声データの持つ感情レベルのうち最も低い感情レベルの値を、感情レベルの新たな閾値として再設定する。そして、S26の処理を行ってからS22に戻る。
また、S24にて、切り出し中の画像の感情レベルが閾値以下に低下していないことを判断し、さらに、S25にて、他カメラから画像送信命令を受信したことを判断すると、S36にて、記憶装置15の2次記憶部に保存された動画像音声データから、画像送信命令により指定された時間の動画像音声データを切り出す。
続いて、S37にて、画像送信命令により指定された時刻の赤外領域画像における被写体を探索し、S38にて、画像送信命令に指定された被写体の識別信号が存在しているか否かを比較し判断する(比較手段)。そして、被写体の識別信号が存在していれば、S39にて、切り出した動画像音声データを、画像送信命令を発信した他カメラに返信する。そして、S26の処理を行ってからS22に戻る。また、画像送信命令により指定された時間に前後する赤外領域画像に、画像送信命令に指定された被写体の識別信号が存在しなかった場合には切り出した動画像音声データの返信は行わない。この場合も、S26の処理を行ってからS22に戻る。
なお、ここでは画像送信命令を発信したカメラに、指定時間の動画像音声データを集める構成としたが、それぞれのカメラ専用のサーバをネットワーク上に事前に用意し、切り出した動画像音声データを、ネットワークを介してそのカメラ専用のサーバに送信し、画像送信命令には画像送信命令を発信したカメラ専用のサーバのアドレスを付加し、動画像音声データを指定されたアドレスのサーバに送信させることもできる。この場合、動画像音声データはそれぞれのカメラ専用のサーバに集めることができる。画像閲覧時はそれぞれのカメラ専用のサーバにアクセスし、画像データをダウンロードしてディスプレイに表示すればよい。
このような構成の装着型カメラにおいては、周辺に同一のカメラが存在する場合にそのカメラとデータ通信を行って同じタイミングで撮影した画像データを得ることができ、自己の画像データと合わせて多視点の撮影画像を得ることができる。
そして、音声を含む静止画や動画の画像収集が終了した後は、収集画像の選別の作業を行う。この時、画像に付加された感情解析結果によって収集画像を分類することで、気に入った画像の選別が楽に行える。この際、選別された画像に付加されている感情解析結果を利用し、感情解析部17や制御部11に本カメラの装着者の特徴を学習させる。
例えば、本カメラを画像閲覧モードにし、収集画像の中から周辺機器によりプリントアウトする画像や外部の記憶媒体に移す画像データを選ぶ。カメラには、プリンタへのデータ送信制御手段と外部の記憶媒体へのデータ送信制御手段が備わっている。制御部11は、画像閲覧モードでこの二つの送信制御手段を使用して送信された画像データを特定する。この選ばれた画像データは本カメラの装着者が気に入った画像だと判断することができる。
また、初期設定では、感情解析部17の解析結果を制御部11で評価する際には、感情レベルのみを使用しているが、画像閲覧モードで選別された画像データ群に付加されている感情解析結果中の感情の種類を使用する。感情の種類は、例えば、喜怒哀楽等の感情でこれらは前記コマンド入力装置23から入力して設定する(設定手段)。
制御部11は、感情の種類を示す偏角により、4種類の感情の中から該当する感情を特定する。そして、画像閲覧モードで選択された画像データの種類ごとに画像データの数を調べ、選別作業の終了後、画像データの数の多い感情の種類を優先して画像の切り出しを行うような重み付けを制御部11に施す。このようにして、感情の種類と感情解析結果との相関が制御部11に設けた判断手段で判断され、相関が高い感情解析結果の画像データを優先して前記記憶装置15の2次記憶部に記憶することになる。
これにより、以後、この装着型カメラを使用した時には、多く選別された感情の種類の画像を優先的に切り出して収集することになる。例えば、画像閲覧モードで選別された画像データ群のうち、感情の種類が「喜び」の画像が5枚、「怒り」の画像が3枚、「哀しみ」の画像が1枚、「楽しい」の画像が7枚ある場合、枚数の多い順に1.3、1.1、0.9、0.7のパラメータを与える。すなわち、「喜び」は1.1、「怒り」は0.9、「哀しみ」は0.7、「楽しい」は1.3となる。
これらのパラメータを感情パラメータと定義する。次回以降にこの装着型カメラを使用する際に、測定される感情レベルと各感情パラメータを積算し、その値を閾値と比較する。「楽しい」と「喜び」の感情は、「怒り」と「哀しみ」の感情に比べ感情レベルが高めに評価されるため、収集される画像データの数は相対的に多くなる。切り出された画像データに付加する感情解析結果も、解析される撮影時の感情レベルと各感情パラメータを積算したものとする。選別作業の終了後、選別された画像データをプリントアウトし、外部記憶媒体に移す。そして、記憶装置15に保存されている収集画像を全て削除する。
次にこの装着型カメラを親子が利用する場合の具体例について述べる。
ここでは被写体の設定をカメラの装着者自身とする。まず、子供Aが自宅から出かける際、親がこの装着型カメラを子供Aに装着させ、作動させる。本カメラは子供Aが外で遊んでいる間、常に子供Aの感情を解析し、感情レベルが設定した閾値を超えピークに達した瞬間の画像を収集する。また、子供Aと一緒に遊んでいる子供Bも同じ構成のカメラを装着していた場合、画像送信命令を送出することで、子供Bの視点の画像も収集することができる。ここで、子供Bが装着しているカメラの赤外領域画像に子供Aが装着しているカメラの赤外線発信装置による識別番号が撮影されていなかった場合は、子供Bの視点の画像は返信されない。
このシステムにより、子供Aの装着型カメラは、子供Aの視点の画像と子供Bが装着しているカメラが撮影した子供Aの写っている画像を収集することができる。一緒に遊んでいる子供Bの装着型カメラが画像送信命令を送出した場合、子供Aのカメラは子供Aの視点の画像を切り出し、子供Bの写っている画像だけを子供Bのカメラに返信することになる。
また、感情解析結果と位置情報の送信先を、親が所持している携帯電話やパソコン等の情報端末にしておけば、子供Aの帰りが遅いときなどに、親は情報端末により子供Aの位置情報と感情解析結果を確認することで子供Aの現状を推測することができる。
子供Aの帰宅後は、カメラを子供Aから外して収集画像を閲覧することができる。親は子供Aの視点の画像だけでなく、子供Bの視点で子供Aを見た画像を見ることもでき、その日、子供Aにとって印象深かった出来事を簡単に知ることができ、子供とコミュニケーションするための話題を増やすことができる。
また、それぞれの画像に付加された時刻情報と感情解析結果で、より詳しく子供の状況を知ることができる。画像閲覧の際、それぞれの画像に付加された時刻情報と感情解析結果で画像を分類して、周辺機器によりプリントアウトする画像データや外部記憶媒体に移す画像データを選別する。この時、選別した画像データの撮影時における子供の感情、例えば、喜怒哀楽の4種の感情から選択した1つをコマンド入力装置23により入力することで、入力した感情と選別した画像に付加された生理情報の対応関係を感情解析部17に学習させることができ、これにより、感情解析部17の解析精度が向上する。
選別作業の終了後、選別された画像データ群の中で感情の種類毎に画像データの数を調べ、画像データの数の多い感情の種類を優先して画像の切り出しを行うための重み付けを制御部11に施す。これにより、以後にこの装着型カメラを使用した時には、以前に多く選別された感情の種類の画像を優先的に収集することになる。例えば、選別した画像データ群の中で感情の種類が喜びの画像が一番多かった場合、以後にこのカメラを使用した時には、感情解析の結果が喜びの時の画像を優先的に収集するようになる。
次に、この装着型カメラをテーマパーク等の遊戯施設で利用する場合の具体例について述べる。
使用する全ての装着型カメラにおいて被写体の設定はそれぞれのカメラの装着者自身となる。まず、テーマパークの入口で、装着型カメラを来場者のみなさんに装着してもらい、作動させた上で入場して戴く。
装着したカメラは来場者がテーマパークにいる間、常に来場者の感情を解析する。そして、来場者のカメラには自己の視点の画像と他の来場者によって写された自己の画像を収集することができる。また、感情解析結果と位置情報の送信先を、テーマパーク管理者の情報端末に設定しておけば、テーマパーク管理者は各アトラクションの入場人数だけでなく、各アトラクションの経路のどの位置で観客がどんな感情になっているかをリサーチすることができ、各アトラクションを構成する要素単位での来場者の反応を知ることができる。また、位置情報は迷子を探す手掛かりにもなる。
来場者が装着したカメラの回収は、来場者がテーマパークを出る時に行う。この時、それぞれの来場者が装着していたカメラが収集した画像群から、感情レベルが高いものを今日のハイライト画像とし、プリントアウトして来場者に配るか、もしくは来場者の持つ携帯電話などの情報端末に送信するなどのサービスも実現できる。
次に、この装着型カメラを幼稚園や保育園などの保育機関で利用する場合の具体例について述べる。
園児の装着するカメラにおいては、被写体の設定はカメラの装着者自身となる。また、保育士の装着するカメラにおいては、被写体の設定は保育士のカメラの赤外領域撮影画像により、被写体の発信する識別番号を特定して行うようになっている。
まず、園児が保育施設に預けられた時に、本装着型カメラを園児に装着し作動させる。例えば、園児Aが装着しているカメラは園児Aが保育施設に預けられている間、常に園児Aの感情を解析し、感情レベルが設定した閾値を超えピークに達した瞬間の画像を収集する。また、園児Aの周辺に同じ構成の他のカメラを装着している他の園児Bや保育士Hがいた場合、画像送信命令を送出することで、他の園児Bや保育士Hの視点の画像も収集することができる。
ここで、他の園児Bや保育士Hの装着型カメラの赤外領域画像に園児Aのカメラの赤外線発信装置5,6による識別番号が撮影されていなかった場合は、他の園児Bや保育士Hの視点の画像は園児Aの名札型カメラに返信されない。このシステムにより、園児Aのカメラには園児Aの視点の画像と園児Aの写っている画像が収集されることになる。他の園児Bのカメラが画像送信命令を送出した場合、園児Aのカメラは園児Aの視点の画像を切り出し、画像送信信号を送出した園児Bの写っている画像だけを画像送信信号を送出した園児Bのカメラに返信することになる。
保育士Hが装着しているカメラは、この保育士Hが園児の世話をしている間、常に保育士Hの感情を解析し、感情レベルが設定した閾値を超えピークに達した瞬間の画像を収集する。また、保育士Hの周辺に同じ構成の装着型カメラを装着している他の園児や保育士がいた場合、画像送信命令を送出することで、他の園児や保育士の視点の画像も収集することができる。ここで保育士Hの装着するカメラにおいては、被写体の設定は保育士Hのカメラの赤外領域撮影画像により、被写体の発信する識別番号を特定して行うようになっている。
例えば、1人の保育士Hと3人の園児A、B、Cがそれぞれカメラを装着している場合の利用の一例を示す。園児Aと園児Bは庭で遊んでいる。保育士Hと園児Cは屋内におり、園児Aと園児Bを直接見ることはできない。この状態で園児Aが転んでケガをし、泣き始めたとする。保育士Hと園児B、Cが泣き声のする方向を向く。ここで園児Aの感情がピークとなり、園児Aのカメラが園児Aのカメラ視点の画像を切り出し保存したのち画像送信命令を送出する。
園児Aのカメラの被写体設定は園児Aが装着しているカメラである。保育士Hと園児Cのカメラからは園児Aのカメラを直接見ることができないので、園児Aのカメラに画像を返信するのは園児Bのカメラだけである。
しばらくして、園児Aの泣き声を聞いた保育士Hが、園児Aに何が起きたのかを確認するため屋内から庭に出てくる。そして園児Aのケガに気付き、保育士Hの感情がピークとなり、保育士Hのカメラが自己の視点の画像を切り出し保存した後、画像送信命令を送出する。保育士Hのカメラの被写体設定は、保育士Hのカメラにおける視野の中心点に最も近いカメラである。この場合、保育士Hのカメラの被写体設定は、園児Aのカメラとなる。園児Aのカメラの視点では園児Aのカメラを直接見ることはできない。また園児Cのカメラの視点では園児Aのカメラを見ることはできない。よって、保育士Hのカメラに画像を返信できるのは園児Bのカメラだけである。
このような過程により、園児Aのカメラには園児Aがケガをした瞬間が、園児Aの視点と園児Bの視点の画像で保存される。保育士Hのカメラには保育士Hがケガした園児Aに駆け寄った瞬間の園児Aの様子が、保育士Hの視点と園児Bの視点で見た画像で保存される。
その日の仕事の終わりに、保育士が園児の親一人一人にその日の報告をする際、それぞれの園児が装着していたカメラに保存された画像を見ることで、園児一人一人のその日の様子をより詳細に報告できる。また、園児達に装着したカメラの画像と保育士に装着したカメラの画像を見比べることで、その日、保育士が園児のトラブルに対応できたか、それとも保育士が気付かなかったトラブルが存在したかを保育士自身が把握することができる。
なお、この例では画像データはそれぞれのカメラに集める構成となっているが、カメラ毎にカメラ専用のサーバを用意し、この各カメラ専用サーバに画像データを集める構成とすることもできる。このようにすれば、園児の親に対し、自分の子供が装着したカメラに対応するカメラ専用サーバへのアクセス権を認めることで、園児の親は仕事先などから該当するカメラ専用サーバへアクセスして子供の画像データを閲覧でき、仕事先から子供の様子を確認することができる。
なお、前述した一実施の形態の装着型カメラにおいては、撮影装置2と赤外領域撮影装置3が常時画像を撮影し、記憶装置15の1次記憶部に画像音声データを常時記憶するようにしたものについて述べた。これはカメラ装着者の感情が装着者の生体情報の変化として現れるまでの時間と生体情報の解析処理にかかった時間分遡った時刻の画像データを取得する事で、カメラ装着者の感情と取得した画像データの撮影時刻の時間差を小さくするためである。
しかし、撮影装置2と赤外領域撮影装置3が常時画像を撮影し、記憶装置15の1次記憶部に画像を常時記憶すると大量の電力を消費し、装着型カメラの稼動時間が短くなる。
そこで、次に、他の実施の形態として、高い感情レベルの中でピークとなる感情レベルを特定した時と、他のカメラが発信した画像送信命令を受信した時のみ撮影装置2と赤外領域撮影装置3を作動させるような装着型カメラについて述べる。なお、外観については図1と同じであり、制御ブロックについては図2と同じである。
制御部11は、感情解析部17により得た感情解析結果から装着者の感情の感情レベルを評価する。この評価は、前記感情解析部17から送られてくる感情レベルを予め設定した閾値と比較し、閾値より高い感情レベルを検出し、さらに、閾値より高い感情レベルの中で感情レベルがピークとなる時刻を特定する。
なお、この他の実施の形態では、前記制御部11が閾値より高い感情レベルの中でピークとなる感情レベルを特定した時刻をカメラ装着者の感情レベルのピーク時刻とする。
前記制御部11は、閾値より高い感情レベルの中でピークとなる感情レベルを特定した瞬間、画像処理部12に対して画像撮影を指示し、画像に付加する感情解析結果を前記画像処理部12に送出する。この送出する感情解析結果は、カメラ装着者の感情レベルのピークを特定できたときの感情解析結果である。
なお、ここでは制御部11が感情レベルのピーク時刻を解析する構成になっているがこれに限らず、感情解析部17に時計回路13により得た時刻を送り、この感情解析部17で感情レベルのピーク時刻を解析し、その結果を制御部11に送出する構成にしてもよい。
前記画像処理部12は、制御部11から画像撮影の指示を受けると、即座に撮影装置2と音声入力装置8を作動させ、画像音声データを取得する。同時に赤外領域撮影装置3を作動させる。この時撮影された赤外領域画像の中心に最も近い位置で明滅する赤外線信号により発信される識別番号を特定する。この特定した識別番号を被写体情報とする。その後、撮影装置2と赤外領域撮影装置3と音声入力装置8を停止する。そして、前記感情解析部17により得た感情解析結果と撮影時刻の付加処理を施す。感情解析結果と被写体情報を付加された画像データは制御部11からの指示により、記憶装置15に記憶する。
データ送信装置21は、他のカメラに対し指定時刻の画像データを切り出して自己のカメラに返信させる指示を送出する。ここでの指定時刻は、制御部11で特定したカメラ装着者の感情レベルのピーク時刻になっている。以後、指定時刻の画像データを切り出し返信させる指示のことを画像送信命令と称する。データ受信装置22は他カメラから返信された画像データを受信する。また、前記データ受信装置22は他カメラが送出した画像送信命令の受信も行う。
赤外線発信装置5,6は、自己の識別信号を赤外線で発信する。撮影したい被写体が、この装着型カメラを装着した人に限られる場合、画像送信命令を送出する際に、制御部11は、送信すべき画像の指定時刻と画像送信命令によって撮影させる被写体を指定する被写体情報を画像送信命令に付加する。画像送信命令によって撮影させる被写体を、画像送信命令を送信する装着型カメラの装着者自身に固定する場合は、その装着型カメラの識別番号を画像送信命令の被写体情報とする。
一方、本実施の形態と同じ構成のカメラ、あるいは前述した一実施の形態と同じ構成のカメラから画像送信命令を受信したデータ受信装置22は、制御部11に受信した画像送信命令を送る。画像送信命令には、画像データの切り出しを行う指定時刻が含まれているが、この実施の形態ではこの指定時刻は使用しない。
前記制御部11は、画像送信命令の受信後、即座に画像処理部12を通して撮影装置2と音声入力装置8を作動させ画像音声データを取得し、赤外領域撮影装置3を作動させる。赤外領域撮影装置3がその時撮影している赤外領域画像に明滅する赤外線信号により発信される識別信号が存在すれば、その識別番号を特定する。その後、撮影装置2と赤外領域撮影装置3と音声入力装置8を停止する。
そして、この特定した識別番号が、被写体情報で指定された識別番号と同じであれば、画像送信命令を送出したカメラに対して撮影装置2が撮影した画像を送信する。画像表示装置7は撮影を行っている時は、カメラ装着者の氏名を表示し、画像閲覧時には、記憶装置15に保存されている画像音声データを表示する。
図5はこの実施の形態における本体部1が行う静止画の画像収集動作のフローチャートを示している。
この画像収集は、まず、S41にて、赤外線発信装置5,6を駆動して識別信号の発信を開始する。そして、S42にて、加速度測定装置16、脈拍測定装置18、体温測定装置19、血圧測定装置20の測定データである生理情報からカメラ装着者の感情を解析し、感情解析結果から得られた感情レベルが予め設定された閾値より大きく、且つピークに達しているかを判定する。
感情レベルが閾値より低かった場合、もしくはピークに達していない場合は、S43にて、他のカメラからの画像送信命令を受信したかを確認する。そして、受信していなければS42に戻る。また、感情レベルが閾値を超え、且つピークに達していた場合には、S44にて、撮影装置2と赤外領域撮影装置3と音声入力装置8を作動させ画像音声データを取得する。そして、画像音声データに撮影時刻と感情レベルのピーク時刻の感情解析結果を付加する。
続いて、S45にて、画像送信命令によって他のカメラに撮影させる被写体を特定する。この被写体を、画像送信命令を送信する装着型カメラの装着者自身に固定する場合は、その装着型カメラの識別番号を画像送信命令の被写体情報とする。そして、撮影装置2と赤外領域撮影装置3と音声入力装置8を停止し、画像送信命令を他カメラにデータ送信装置21から送信する。また、感情レベルがピークの時の感情解析結果と位置情報を予め指定された送信先にデータ送信装置21から送信する。
続いて、S46にて、他カメラから画像音声データが返信されたことを確認し、S47にて、返信された画像音声データを受信すると、S48にて、返信された画像音声データに撮影時間と感情レベルがピークの時の感情情報を付加する。そして、S49にて、記憶装置15の画像保存容量が限界になっているか否かをチェックし、保存容量が充分なときには、S50にて、取得した画像音声データと返信された画像音声データを記憶装置15に保存する。そして、S42に戻る。
また、記憶装置15の容量が限界になって空き容量が足りない場合には、S51にて、画像音声データの感情レベルを、既に記憶装置15に保存されている画像音声データの感情レベルと比較し、感情レベルが小さい方の画像データを削除する(データ削除手段)。ここでは、既存の画像音声データをいくらか削除して新たに取得した画像音声データと返信された画像音声データを保存するか、新たに取得した画像音声データと返信された画像音声データを削除するかを決定することになる。
そして、既存の画像音声データをいくらか削除して新たに取得した画像音声データと返信された画像音声データを保存した場合、S52にて、記憶装置15に保存されている画像音声データの持つ感情レベルのうち最も低い感情レベルの値を、画像音声データ切り出しの指定時刻の決定指標である感情レベルの閾値として再設定する。そして、S42に戻る。
また、S42にて、感情レベルが閾値より低かった場合、もしくはピークに達していない場合を判断し、S43にて、他のカメラからの画像送信命令を受信したことを判断すると、S53にて、撮影装置2と赤外領域撮影装置3と音声入力装置8を作動させ、画像音声データと赤外領域画像を取得する。
続いて、S54にて、その時の赤外領域画像における被写体を探索し、撮影装置2と赤外領域撮影装置3と音声入力装置8を停止する。そして、S55にて、画像送信命令に指定された被写体の識別信号が存在しているか否かを比較し判断する(比較手段)。
被写体の識別信号が存在していれば、S56にて、取得した画像音声データを、画像送信命令を発信した他カメラに返信する。そして、S42に戻る。また、取得した赤外領域画像に、画像送信命令に指定された被写体の識別信号が存在しなかった場合には取得した画像音声データの返信は行わない。この場合も、S42に戻る。
このような構成においても前述した一実施の形態と同様の作用効果が得られる。
なお、ここでは画像送信命令を発信したカメラに、画像音声データを集める構成としたが、それぞれのカメラ専用のサーバをネットワーク上に事前に用意し、取得した画像音声データを、ネットワークを介してそのカメラ専用のサーバに送信し、画像送信命令には画像送信命令を発信したカメラ専用のサーバのアドレスを付加し、画像音声データを指定されたアドレスのサーバに送信させることもできる。この場合、画像音声データはそれぞれのカメラ専用のサーバに集めることができる。画像閲覧時はそれぞれのカメラ専用のサーバにアクセスし、画像データをダウンロードしてディスプレイに表示すればよい。また、ここでは画像と音声を組み合わせた画像音声データを使用したが画像データのみであってもよい。
なお、前述した各実施の形態では画像表示装置7や音声出力装置4を設けて画像表示や音声出力ができるようになっているがこれに限定するものではなく、外部の画像表示装置や音声出力装置に、画像や音声のデータを送信できる構成にすれば、装着型カメラ自体に画像表示装置7や音声出力装置4を必ずしも搭載する必要はなくなる。画像表示装置や音声出力装置を無くした場合における装着型カメラの他の実施の形態の外観を示すと、図6に示すようになる。
すなわち、名札型の装着型カメラ本体部31の表面上側に撮影装置32、赤外領域撮影装置33、1対の赤外線発信装置34,35を配置し、上面に音声入力装置36を配置して構成される。このような構成においても、周辺に同一のカメラが存在する場合にそのカメラとデータ通信を行って同じタイミングで撮影した画像データを得ることができ、自己の画像データと合わせて多視点の撮影画像を得ることができる。
本発明の、一実施の形態に係る装着型カメラの外観を示す図。 同実施の形態に係る装着型カメラの制御構成を示すブロック図。 同実施の形態に係る装着型カメラにおける静止画の画像収集動作を示すフローチャート。 同実施の形態に係る装着型カメラにおける動画の画像収集動作を示すフローチャート。 本発明の、他の実施の形態に係る装着型カメラにおける静止画の画像収集動作を示すフローチャート。 本発明の、他の実施の形態に係る装着型カメラの外観を示す図。
符号の説明
2…撮影装置、3…赤外領域撮影装置、5,6…赤外線発信装置、11…制御部、12…画像処理部、13…時計回路、15…記憶装置、17…感情解析部、18…脈拍測定装置、19…体温測定装置、20…血圧測定装置、21…データ送信装置、22…データ受信装置。

Claims (11)

  1. 1つ又は複数の生体情報を検出する検出手段と、この検出手段の検出結果を使用して装着者の感情を解析する感情解析手段と、周囲を撮影する撮影手段と、画像データを記憶する記憶手段と、送信手段と、受信手段とを備え、
    前記送信手段は画像データを指定したアドレスに送信させる命令を送信し、
    前記感情解析手段の感情解析結果に基づいて感情レベルが予め設定した閾値よりも大きいときに前記撮影手段が撮影した画像データ及び前記受信手段が受信した画像データを前記記憶手段に記憶することを特徴とするカメラ。
  2. 受信手段が指定したアドレスに画像データを送信させる命令を外部から受信すると、送信手段は、撮影した画像データを指定されたアドレスに送信することを特徴とする請求項1記載のカメラ。
  3. 請求項1記載のカメラにおいて、さらに、前記カメラの作動中は常にカメラ固有の識別番号を発信する赤外線発信手段を備えたことを特徴とするカメラ。
  4. 請求項1記載のカメラにおいて、さらに、赤外領域を撮影する赤外領域撮影手段を備え、この赤外領域撮影手段が赤外線の識別番号を受信すると、その識別番号を取出して撮影した画像データに付加することを特徴とするカメラ。
  5. 送信手段は、指定したアドレスに画像データを送信させる命令に、1つ又は複数の識別番号を付加して送信することを特徴とする請求項1記載のカメラ。
  6. 請求項5記載のカメラにおいて、さらに、撮影手段の作動中は常にカメラ固有の識別番号を発信する赤外線発信手段を備え、命令に付加する識別番号に前記赤外線発信手段が発信するカメラ自体の識別番号を含むことを特徴とするカメラ。
  7. 請求項5記載のカメラにおいて、さらに、赤外領域を撮影する赤外領域撮影手段を備え、命令に付加する識別番号に前記赤外領域撮影手段が受信した識別番号を含むことを特徴とするカメラ。
  8. 請求項4記載のカメラにおいて、さらに、受信手段が指定したアドレスに画像データを送信させる命令を外部から受信すると、その受信した命令に付加された1つもしくは複数の識別番号と赤外領域撮影手段により受信した識別信号の1つもしくは複数と比較して一致の有無を判断する比較手段を設け、送信手段は、前記比較手段が一致を判断した場合に指定されたアドレスに画像データを送信することを特徴とするカメラ。
  9. 請求項1記載のカメラにおいて、記憶手段は、撮影手段が撮影した画像データに感情解析手段が解析した感情解析結果を付加して記憶し、この記憶手段の記憶容量が少なくなった場合に、既に記憶されている画像データに付加されている感情解析結果の感情レベルと新たに記憶する画像データに付加されている感情解析結果の感情レベルとを比較し、感情レベルが小さい方の画像データを削除するデータ削除手段を設けたことを特徴とするカメラ。
  10. 請求項1記載のカメラにおいて、記憶手段は、撮影手段が撮影した画像データに感情解析手段が解析した感情解析結果を付加して記憶し、少なくとも感情の種類を設定する設定手段と、この設定手段が設定した少なくとも感情の種類と前記感情解析手段が解析した感情解析結果との相関を判断する判断手段とを設け、相関が高い感情解析結果の画像データを優先して前記記憶手段に記憶することを特徴とするカメラ。
  11. 請求項1記載のカメラにおいて、さらに、時刻を計時する時計回路と、1次記憶部及び2次記憶部を有する記憶手段とを設け、撮影手段が撮影した画像データを前記時計回路が計時した時刻を付加して前記1次記憶部に記憶し、続いてこの1次記憶部に記憶した画像データから、感情解析手段が感情の解析を行った時刻から所定時間さかのぼった時刻の画像データを切り出して前記2次記憶部に記憶することを特徴とするカメラ。
JP2004259899A 2004-09-07 2004-09-07 カメラ Pending JP2006080644A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004259899A JP2006080644A (ja) 2004-09-07 2004-09-07 カメラ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004259899A JP2006080644A (ja) 2004-09-07 2004-09-07 カメラ

Publications (1)

Publication Number Publication Date
JP2006080644A true JP2006080644A (ja) 2006-03-23

Family

ID=36159776

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004259899A Pending JP2006080644A (ja) 2004-09-07 2004-09-07 カメラ

Country Status (1)

Country Link
JP (1) JP2006080644A (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007259330A (ja) * 2006-03-24 2007-10-04 Fujifilm Corp 映像配信遠隔制御装置、映像配信システムおよび映像配信方法
US7876374B2 (en) 2006-12-07 2011-01-25 Sony Corporation Image display system, display apparatus, and display method
US8125539B2 (en) * 2007-11-09 2012-02-28 Sony Corporation Information-processing apparatus and method detecting living-body information
JP2012120206A (ja) * 2012-01-12 2012-06-21 Sony Corp 情報処理装置、撮像制御方法、プログラム
US8687925B2 (en) 2007-04-10 2014-04-01 Sony Corporation Image storage processing apparatus, image search apparatus, image storage processing method, image search method and program
KR20140061365A (ko) 2011-07-15 2014-05-21 고쿠리쓰다이가쿠호진 규슈다이가쿠 유기 일렉트로 루미네선스 소자 및 그것에 사용하는 화합물
US8797331B2 (en) 2007-08-06 2014-08-05 Sony Corporation Information processing apparatus, system, and method thereof
US8872941B2 (en) 2006-11-07 2014-10-28 Sony Corporation Imaging apparatus and imaging method
JP2015033052A (ja) * 2013-08-05 2015-02-16 カシオ計算機株式会社 トレーニング支援システム、サーバー、端末、カメラ、方法並びにプログラム
JP2017011386A (ja) * 2015-06-18 2017-01-12 日本電信電話株式会社 情報加工システム
CN106548533A (zh) * 2015-09-17 2017-03-29 丰田自动车株式会社 生活轨迹记录系统
JP2019185188A (ja) * 2018-04-03 2019-10-24 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 情報処理方法、情報処理装置及び情報処理システム
JP2021071498A (ja) * 2019-10-29 2021-05-06 株式会社デンソー 記録装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004213623A (ja) * 2002-11-25 2004-07-29 Eastman Kodak Co 健康管理及び個人セキュリティのための画像生成方法、及び画像生成システム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004213623A (ja) * 2002-11-25 2004-07-29 Eastman Kodak Co 健康管理及び個人セキュリティのための画像生成方法、及び画像生成システム

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007259330A (ja) * 2006-03-24 2007-10-04 Fujifilm Corp 映像配信遠隔制御装置、映像配信システムおよび映像配信方法
JP4645956B2 (ja) * 2006-03-24 2011-03-09 富士フイルム株式会社 映像配信遠隔制御装置、映像配信システムおよび映像配信方法
US8872941B2 (en) 2006-11-07 2014-10-28 Sony Corporation Imaging apparatus and imaging method
US8009219B2 (en) 2006-12-07 2011-08-30 Sony Corporation Image display system, display apparatus, and display method
US7876374B2 (en) 2006-12-07 2011-01-25 Sony Corporation Image display system, display apparatus, and display method
US8687925B2 (en) 2007-04-10 2014-04-01 Sony Corporation Image storage processing apparatus, image search apparatus, image storage processing method, image search method and program
US9972116B2 (en) 2007-08-06 2018-05-15 Sony Corporation Information processing apparatus, system, and method for displaying bio-information or kinetic information
US8797331B2 (en) 2007-08-06 2014-08-05 Sony Corporation Information processing apparatus, system, and method thereof
US10937221B2 (en) 2007-08-06 2021-03-02 Sony Corporation Information processing apparatus, system, and method for displaying bio-information or kinetic information
US10529114B2 (en) 2007-08-06 2020-01-07 Sony Corporation Information processing apparatus, system, and method for displaying bio-information or kinetic information
US9568998B2 (en) 2007-08-06 2017-02-14 Sony Corporation Information processing apparatus, system, and method for displaying bio-information or kinetic information
US10262449B2 (en) 2007-08-06 2019-04-16 Sony Corporation Information processing apparatus, system, and method for displaying bio-information or kinetic information
US8125539B2 (en) * 2007-11-09 2012-02-28 Sony Corporation Information-processing apparatus and method detecting living-body information
KR20140061365A (ko) 2011-07-15 2014-05-21 고쿠리쓰다이가쿠호진 규슈다이가쿠 유기 일렉트로 루미네선스 소자 및 그것에 사용하는 화합물
JP2012120206A (ja) * 2012-01-12 2012-06-21 Sony Corp 情報処理装置、撮像制御方法、プログラム
JP2015033052A (ja) * 2013-08-05 2015-02-16 カシオ計算機株式会社 トレーニング支援システム、サーバー、端末、カメラ、方法並びにプログラム
JP2017011386A (ja) * 2015-06-18 2017-01-12 日本電信電話株式会社 情報加工システム
CN106548533A (zh) * 2015-09-17 2017-03-29 丰田自动车株式会社 生活轨迹记录系统
JP2019185188A (ja) * 2018-04-03 2019-10-24 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 情報処理方法、情報処理装置及び情報処理システム
JP7034808B2 (ja) 2018-04-03 2022-03-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法、情報処理装置及び情報処理システム
JP2021071498A (ja) * 2019-10-29 2021-05-06 株式会社デンソー 記録装置
JP7279612B2 (ja) 2019-10-29 2023-05-23 株式会社デンソー 記録装置

Similar Documents

Publication Publication Date Title
CN106254756B (zh) 拍摄装置、信息获取装置、系统和方法以及记录介质
US10554829B2 (en) Information processing device, photographing device, image sharing system, and method of information processing
US20050012830A1 (en) Autonomous camera having exchangable behaviours
CN110013261B (zh) 情绪监测的方法、装置、电子设备及存储介质
JP2006080644A (ja) カメラ
JP6229656B2 (ja) 制御装置および記憶媒体
JP6248937B2 (ja) コンテンツ取得装置、携帯装置、サーバ、情報処理装置及び記憶媒体
JP2006267887A (ja) 映像認識手段を備えたヘッドマウントディスプレイ
JP5915457B2 (ja) 制御システムおよびプログラム
JP2008040781A (ja) 被写体照合装置および被写体照合方法
JP2015028686A (ja) ソーシャルタイムラインを作成する方法、ソーシャル・ネットワーク・サービスシステム、サーバー、端末並びにプログラム
EP1588570A2 (en) Adding metadata to pictures
CN103634547A (zh) 客户端设备,服务器和存储介质
US20180232384A1 (en) Methods and apparatus for information capture and presentation
JP6638772B2 (ja) 撮像装置、画像記録方法及びプログラム
JP2008269411A (ja) 画像キーワード編集システム、画像キーワード提供サーバおよび画像キーワード編集装置
CN114079730B (zh) 一种拍摄方法和拍摄系统
JP2009239346A (ja) 撮影装置
JP6241495B2 (ja) トレーニング支援装置、トレーニング支援方法、及びプログラム
JP5669302B2 (ja) 行動情報収集システム
JP2015015570A (ja) 画像管理システム、画像管理装置および画像管理プログラム
JP6435595B2 (ja) トレーニング支援システム、サーバー、端末、カメラ、方法並びにプログラム
JP2021036646A (ja) 情報収集システム、カメラ端末装置、情報収集方法および情報収集プログラム
JP2001352507A (ja) 作業データ収集方法
CN105827950B (zh) 显示装置和显示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070723

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090929

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100223