JP2013126206A - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2013126206A
JP2013126206A JP2011275269A JP2011275269A JP2013126206A JP 2013126206 A JP2013126206 A JP 2013126206A JP 2011275269 A JP2011275269 A JP 2011275269A JP 2011275269 A JP2011275269 A JP 2011275269A JP 2013126206 A JP2013126206 A JP 2013126206A
Authority
JP
Japan
Prior art keywords
information
evaluation
image
unit
personal identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011275269A
Other languages
English (en)
Inventor
Natsuko Sasaki
夏子 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011275269A priority Critical patent/JP2013126206A/ja
Priority to US13/707,054 priority patent/US20130156277A1/en
Priority to CN2012105247340A priority patent/CN103167328A/zh
Publication of JP2013126206A publication Critical patent/JP2013126206A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/175Static expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】笑顔などの評価条件をユーザ毎に自動的に最適化する。
【解決手段】個人識別情報に関連付けされた画像評価情報を取得する。個人識別情報は、第1の画像情報に関連する個人を識別するための情報である。画像評価情報は、第1の画像情報に基づき検出された主要被写体の像に応じてこの第1の画像情報を評価することにより生成されるものである。個人識別情報と画像評価情報に基づき第2の画像情報を評価するための評価条件を設定する。個人毎に評価条件が適切に設定される。そのため、第2の画像情報を、個人差を考慮して適切に評価することが可能となる。
【選択図】図6

Description

本技術は、情報処理装置、情報処理方法およびプログラムに関し、特に、笑顔などの評価条件を設定する情報処理装置等に関する。
従来、例えば、特許文献1には、個人の表情を検出して画像記録の可否を決定するデジタルカメラにおいて、被写体個人によって撮影者の好みでない表情の画像が記録されることを防止するデジタルカメラが記載されている。このデジタルカメラにおいては、「個人Aの場合は、「悲しみ」以外の「笑顔度10%」、「喜び」、「怒り」、「驚き」、「ウインク」のいずれかが検出され、かつ視線がカメラを向いていることが検出された場合に画像記録が許可される」といった条件を入力しておくことで、その条件に当てはまった時のみ撮影が行われる。
特開2010−178259号公報
上述の特許文献1に記載されるデジタルカメラにおいては、ユーザが撮影条件を何らかの方法で入力することが必要となる。また、このデジタルカメラにおいては、体調やメイク、髪型、照明条件等により同じ個人でも推定値が変化していった場合に、ユーザが撮影条件を入力し直す必要がある。また、このデジタルカメラにおいては、表情認識の個人による精度の違いに適応できない。笑顔認識も、個人によって、笑顔度が大きく出やすかったり小さく出やすかったりという傾向がある場合がある。また、このデジタルカメラにおいては、撮影条件は機器内で閉じていて、他の機器と連携することは考慮されていない。
本技術の目的は、笑顔などの評価条件をユーザ毎に自動的に最適化することにある。
本技術の概念は、
第1の画像情報に関連する個人を識別するための個人識別情報と、前記第1の画像情報に基づき検出された主要被写体の像に応じて前記第1の画像情報を評価することにより生成される画像評価情報とを取得する取得部と、
前記個人識別情報と前記画像評価情報に基づき第2の画像情報を評価するための評価条件を設定する設定部を備える
情報処理装置にある。
本技術において、取得部により、個人識別情報と画像評価情報とが取得される。ここで、個人識別情報は、第1の画像情報に関連する個人を識別するための情報である。画像評価情報は、第1の画像情報に基づき検出された主要被写体の像に応じてこの第1の画像情報を評価することにより生成されるものである。そして、設定部により、個人識別情報と画像評価情報に基づき第2の画像情報を評価するための評価条件が設定される。
例えば、画像評価情報は、個人識別情報で特定される個人の顔の表情を評価する情報とされてもよい。また、例えば、画像評価情報は、個人識別情報で特定される個人に関連付けされる構図を評価する評価情報とされてもよい。また、例えば、画像評価情報は、個人識別情報で特定される個人の表示コンテンツへの興味度合いを評価する情報とされてもよい。このように本技術においては、個人に関連付けされた画像評価情報に基づいて評価条件が設定されるものである。そのため、評価条件をユーザ毎に自動的に最適化することが可能となる。
なお、本技術において、例えば、取得部で取得される画像評価情報には、評価時における環境情報が付加されており、設定部は、環境情報に基づいて選択された所定の環境で評価されて生成された画像評価情報に基づき、第2の画像情報を評価するための評価条件を設定する、ようにされてもよい。この場合、第2の画像情報を評価する際の環境(明るさなど)に適合した評価条件を設定可能となる。
また、本技術において、例えば、画像評価情報は、個人識別情報で特定される個人が表示コンテンツを見ているときのこの個人の顔の表情を評価する情報であり、取得部で取得される画像評価情報には、評価時における表示コンテンツを識別するコンテンツ識別情報が付加されており、設定部は、画像評価情報およびコンテンツ識別情報に基づき、第2の画像情報を評価するための評価条件を設定する、ようにされてもよい。
この場合、画像評価情報に基づいて評価条件を設定する際に、表示コンテンツの違いによる画像評価情報のバラツキを抑えることが可能となり、評価条件の精度を高めることが可能となる。また、この場合、特定の表示コンテンツを見ているときの画像評価情報のみを選択的に用いて評価条件を設定することも可能となる。
また、本技術において、例えば、取得部で取得された画像評価情報を、評価時における評価エンジンと第2の画像情報を評価する評価エンジンとに応じて変換する変換部をさらに備え、設定部は、変換部で変換された画像評価情報に基づいて、第2の画像情報を評価するための評価条件を設定する、ようにされてもよい。この場合、2つの評価エンジンが異なるときにも、評価条件の設定を適切に行うことが可能となる。ここで、「評価エンジン」は、入力された画像を、所定の画像処理を利用して評価する機構、または機能、またはプログラムを意味する。
また、本技術において、例えば、取得部で取得された画像評価情報を、評価時における環境と第2の画像情報を評価する環境とに応じて変換する変換部をさらに備え、設定部は、変換部で変換された画像評価情報に基づいて、第2の画像情報を評価するための評価条件を設定する、ようにされてもよい。この場合、2つの環境が異なるときにも、評価条件の設定を適切に行うことが可能となる。
また、本技術の他の概念は、
第2の画像情報を評価条件に基づいて評価する評価部と、
前記評価の結果に基づいて制御される処理部を備え、
上記評価条件は、
第1の画像情報に関連する個人を識別するための個人識別情報と、前記第1の画像情報に基づき検出された主要被写体の像に応じて前記第1の画像情報を評価することにより生成される画像評価情報に基づいて設定される
情報処理装置にある。
本技術において、評価部により、第2の画像情報が評価条件に基づいて評価される。そして、この評価の結果に基づいて処理部が制御される。ここで、評価条件は、第1の画像情報に関連する個人を識別するための個人識別情報と、この第1の画像情報に基づき検出された主要被写体の像に応じてこの第1の画像情報を評価することにより生成される画像評価情報に基づいて設定される。
例えば、処理部は撮像部であり、第2の画像情報は前記撮像部により得られ、評価の結果に基づいて、撮像部のシャッタータイミングが制御されてもよい。ここで、例えば、画像評価情報は、個人識別情報で特定される個人の顔の表情を評価する情報であってもよい、また、例えば、画像評価情報は、個人識別情報で特定される個人に関連付けされる構図を評価する評価情報であってもよい。また、例えば、画像処理部は表示部であり、第2の画像情報は、表示部に表示し得る表示コンテンツの画像情報であり、評価の結果に基づいて、表示部への推奨コンテンツ表示が制御されてもよい。
このように本技術においては、ユーザ毎に自動的に最適化された評価条件により、第2の画像情報の評価が行われ、その結果に基づいて処理部が制御されるものである。そのため、ユーザ毎に適切な評価結果を得ることができ、処理部の制御が適切に行われる。
また、本技術のさらに他の概念は、
第1の音声情報に関連する個人を識別するための個人識別情報と、前記第1の音声情報を評価することにより生成される音声評価情報とを取得する取得部と、
前記個人識別情報と前記音声評価情報に基づき第2の音声情報を評価するための評価条件を設定する設定部を備える
情報処理装置にある。
本技術において、取得部により、個人識別情報と音声評価情報とが取得される。ここで、個人識別情報は、第1の音声情報に関連する個人を識別するための情報である。音声評価情報は、第1の音声情報を評価することにより生成されるものである。そして、設定部により、個人識別情報と音声評価情報に基づき第2の音声情報を評価するための評価条件が設定される。このように本技術においては、個人に関連付けされた音声評価情報に基づいて評価条件が設定されるものであるため、評価条件をユーザ毎に自動的に最適化することが可能となる。
また、本技術の別の概念は、
第2の音声情報を評価条件に基づいて評価する評価部と、
前記評価の結果に基づいて制御される処理部を備え、
前記評価条件は、
第1の音声情報に関連する個人を識別するための個人識別情報と、前記第1の音声情報を評価することにより生成される音声評価情報に基づいて設定される
情報処理装置にある。
本技術において、評価部により、第2の音声情報が評価条件に基づいて評価される。そして、この評価の結果に基づいて処理部が制御される。ここで、評価条件は、第1の音声情報に関連する個人を識別するための個人識別情報と、この第1の音声情報を評価することにより生成される音声評価情報に基づいて設定される。
このように本技術においては、ユーザ毎に自動的に最適化された評価条件により、第2の音声情報の評価が行われ、その結果に基づいて処理部が制御されるものである。そのため、ユーザ毎に適切な評価結果を得ることができ、処理部の制御が適切に行われる。
本技術によれば、笑顔などの評価条件をユーザ毎に自動的に最適化できる。
実施の形態としての情報処理システムの構成例を示すブロック図である。 判定実行装置で評価条件を設定する場合における、情報処理システムの各部のブロック構成の一例を示す図である。 サーバ装置で評価条件を設定する場合における、情報処理システムの各部のブロック構成の一例を示す図である。 ログ情報収集装置で評価条件を設定する場合における、情報処理システムの各部のブロック構成の一例を示す図である。 ログ情報収集装置がテレビ受信機(TV)で、判定実行装置がデジタルスチルカメラ(DSC)である情報処理システムの構成例を示すブロック図である。 情報処理システムの各部のブロック構成の一例を示す図である。 個人識別情報に関連付けされてデータベースに記憶される笑顔度のログ情報の一例を示す図である。 笑顔度に、日付、時間の情報だけでなく、室内か屋外か、明るいか暗いか、などの環境情報を付加することを説明するための図である。 笑顔度に、日付、時間の情報だけでなく、表示コンテンツの種類を示すコンテンツ識別情報を付加することを説明するための図である。 テレビ受信機の処理フローの一例を示すフローチャートである。 サーバ装置の処理フローの一例を示すフローチャートである。 デジタルスチルカメラの処理フローの一例を示すフローチャートである。 情報処理システムのブロック構成の他の一例を示す図である。 情報処理システムのブロック構成のさらに他の一例を示す図である。 情報処理システムのブロック構成の別の一例を示す図である。 情報処理システムのブロック構成のさらに別の一例を示す図である。 ログ情報収集装置がテレビ受信機(TV)で、判定実行装置がテレビ受信機(TV)である情報処理システムの構成例を示す図である。 情報処理システムの各部のブロック構成の一例を示す図である。 テレビ受信機の処理フローの一例を示すフローチャートである。 サーバ装置の処理フローの一例を示すフローチャートである。 テレビ受信機の処理フローの一例を示すフローチャートである。 ログ情報収集装置がパーソナルコンピュータ(PC)で、判定実行装置がデジタルスチルカメラ(DSC)である情報処理システムの構成例を示す図である。 情報処理システムの各部のブロック構成の一例を示す図である。 パーソナルコンピュータの処理フローの一例を示すフローチャートである。 サーバ装置の処理フローの一例を示すフローチャートである。 デジタルスチルカメラの処理フローの一例を示すフローチャートである。 ログ情報収集装置がパーソナルコンピュータ(PC)で、判定実行装置がテレビ受信機(TV)である情報処理システムの構成例を示す図である。 情報処理システムの各部のブロック構成の一例を示す図である。 パーソナルコンピュータの処理フローの一例を示すフローチャートである。 サーバ装置の処理フローの一例を示すフローチャートである。 テレビ受信機の処理フローの一例を示すフローチャートである。 ログ情報収集装置および判定実行装置が同一機器であって、デジタルスチルカメラである情報処理システムの構成例を示す図である。 情報処理システムの各部のブロック構成の一例を示す図である。 ログ情報収集装置が、2台のテレビ受信機(TV)で、判定実行装置がデジタルスチルカメラ(DSC)である情報処理システムの構成例を示す図である。 判定実行装置において評価情報(画像評価情報、音声評価情報)を、評価エンジンの情報、環境情報などに基づいて適切な値に変換して用いる場合における、情報処理システムの構成例を示す図である。 評価情報変換部の構成例を示す図である。 評価情報を画像評価エンジン情報に基づいて変換する変換処理例を説明するための図である。 評価情報を明るさ情報に基づいて変換する変換処理例を説明するための図である。 ログ情報収集装置側に評価情報変換部を設ける場合における情報処理システムの構成例を示す図である。
以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明を以下の順序で行う。
1.実施の形態
2.変形例
<1.実施の形態>
[情報処理システム]
図1は、実施の形態としての情報処理システム10の構成例を示している。この情報処理システム10は、ログ情報収集装置110、判定実行装置120およびサーバ装置130により構成されている。サーバ装置130は、クラウド上、すなわちネットワーク上に存在する。ログ情報収集装置110および判定実行装置120は、それぞれ、クラウド上のサーバ装置130と通信が可能とされている。
ログ情報収集装置110は、ログ情報を収集する。このログ情報は、個人識別情報に関連付けられる画像評価情報あるいは音声評価情報である。画像評価情報には、個人識別情報で特定される個人の顔の表情を評価する情報、個人識別情報で特定される個人に関連付けされる構図を評価する情報、個人識別情報で特定される個人の表示コンテンツへの興味度合いを評価する情報などが含まれる。
ログ情報収集装置110は、収集した評価情報をログ情報として、クラウド上のサーバ装置130に送る。サーバ装置130は、ログ情報収集装置110から個人識別情報と共に送られてくる評価情報を、個人識別情報に関連付けてデータベースに保存する。
判定実行装置120は、所定の個人識別情報に関連付けされている評価情報のログ情報をサーバ装置130から受け取り、そのログ情報を解析して、評価条件を設定する。そして、判定実行装置120は、設定された評価条件を用いて、画像情報あるいは音声情報の評価を行い、その結果に基づいて処理を制御する。
図2は、情報処理システム110の各部のブロック構成の一例を示している。ログ情報収集装置110は、評価情報入力部111と、評価部112と、送信部113を有している。評価情報入力部111は、評価対象となる画像情報あるいは音声情報を入力する。この評価情報入力部111は、評価対象が画像情報である場合には、撮像部、画像再生部、あるいは画像入力端子等により構成される。また、この評価情報入力部111は、評価対象が音声情報である場合には、マイクロホン、音声再生部、音声入力端子等により構成される。
評価部112は、評価情報入力部111から入力される評価対象の画像情報あるいは音声情報を評価して、画像評価情報あるいは音声評価情報を生成する。評価部112で評価情報を生成することは、ユーザの明示的な操作、あるいは自動的に所定の時間間隔をもって行われる。送信部113は、評価部112で生成された評価情報をログ情報として個人識別情報と共にサーバ装置130に送り、データベースに保存する。
判定実行装置120は、受信部121と、情報処理部122と、評価情報入力部123と、評価部124と、処理部125を有している。受信部121は、サーバ装置130から、所定の個人識別情報と、この個人識別情報に関連付けされている評価情報のログ情報を受け取る。情報処理部122は、受信部121で受け取った評価情報のログ情報に基づいて、評価条件を設定する。
情報処理部122は、取得部122aおよび設定部122bにより構成されている。取得部122aは、受信部121で受け取られた、個人識別情報に関連付けされた評価情報のログ情報を取得する。設定部122bは、取得部122aで取得されたログ情報に基づき、個人識別情報で特定される個人に対応した評価条件を設定する。
評価情報入力部123は、評価対象となる画像情報あるいは音声情報を入力する。この評価情報入力部123は、評価対象が画像情報である場合には、撮像部、画像再生部、あるいは画像入力端子等により構成される。また、この評価情報入力部123は、評価対象が音声情報である場合には、マイクロホン、音声再生部、音声入力端子等により構成される。
評価部124は、評価情報入力部123から入力される評価対象の画像情報あるいは音声情報を、情報処理部122で設定された評価条件を用いて評価する。処理部125は、評価部124の評価結果に基づいて制御される。この処理部125は、撮像部、画像表示部、音声出力部などである。
上述では、判定実行装置120で評価条件を設定するように説明した。しかし、評価条件の設定は、サーバ装置130あるいはログ情報収集装置110で行うことも考えられる。
図3は、サーバ装置130で評価条件を設定する場合における、情報処理システム110の各部のブロック構成の一例を示している。この図3において、図2と対応する部分には同一符号を付し、適宜、その詳細説明は省略する。
ログ情報収集装置110に関しては、図2の情報処理システム10におけるログ情報収集装置110と同様の構成となっている。サーバ装置130は、データベースの他に、情報処理部122を有している。情報処理部122は、評価情報のログ情報に基づいて、評価条件を設定する。
この情報処理部122は、図2における判定実行装置120の情報処理部122と同様に、取得部122aおよび設定部122bにより構成されている。取得部122aは、データベースから、所定の個人識別情報に関連付けされた評価情報のログ情報を取得する。設定部122bは、取得部122aで取得されたログ情報に基づき、個人識別情報で特定される個人に対応した評価条件を設定する。
判定実行装置120は、受信部121と、評価情報入力部123と、評価部124と、処理部125を有している。受信部121は、サーバ装置130の情報処理部122で設定された、所定の個人識別情報で特定される個人に対応して設定された評価条件を受け取る。
評価情報入力部123は、評価対象となる画像情報あるいは音声情報を入力する。評価部124は、評価情報入力部123から入力される評価対象の画像情報あるいは音声情報を、受信部121で受け取った評価条件を用いて評価する。処理部125は、評価部124の評価結果に基づいて制御される。
図4は、ログ情報収集装置110で評価条件を設定する場合における、情報処理システム110の各部のブロック構成の一例を示している。この図4において、図2、図3と対応する部分には同一符号を付し、適宜、その詳細説明は省略する。
サーバ装置130に関しては、図2の情報処理システム10におけるサーバ装置130と同様の構成となっている。また、判定実行装置120に関しては、図3の情報処理システム10における判定事項装置120と同様の構成となっている。ログ情報収集装置110は、評価情報入力部111と、評価部112と、情報処理部122と、送信部113を有している。
評価情報入力部111は、評価対象となる画像情報あるいは音声情報を入力する。評価部112は、評価情報入力部111から入力される評価対象の画像情報あるいは音声情報を評価して、画像評価情報あるいは音声評価情報を生成する。情報処理部122は、評価情報のログ情報に基づいて、評価条件を設定する。この情報処理部122は、図2における判定実行装置120の情報処理部122、あるいは図3におけるサーバ装置130の情報処理部122と同様に、取得部122aおよび設定部122bにより構成されている。
取得部122aは、評価部112から、所定の個人識別情報に関連付けされた評価情報のログ情報を取得する。設定部122bは、取得部122aで取得されたログ情報に基づき、個人識別情報で特定される個人に対応した評価条件を設定する。送信部113は、情報処理部122で設定された評価条件を個人識別情報と共にサーバ装置130に送り、データベースに保存する。
[情報処理システムの具体例1:顔の表情の評価]
次に、情報処理システム10の具体例1について説明する。図5は、ログ情報収集装置がテレビ受信機(TV)110Aで、判定実行装置がデジタルスチルカメラ(DSC)120Aである情報処理システム10Aの構成例を示している。また、この情報処理システム10Aでは、評価情報が画像情報であり、画像評価情報が個人(人物)の顔の表情、ここでは笑顔を評価する情報である。
この情報処理システム10Aは、テレビ受信機110A、デジタルスチルカメラ120Aおよびサーバ装置130により構成されている。サーバ装置130は、クラウド上、すなわちネットワーク上に存在する。テレビ受信機110Aおよびデジタルスチルカメラ120Aは、それぞれ、クラウド上のサーバ装置130と通信が可能とされている。
テレビ受信機110Aは、個人識別情報に関連付けられる笑顔度のログ情報を収集する。テレビ受信機110Aは、(1)カメラ(撮像部)201で個人202を撮像して画像情報を得る。テレビ受信機110Aは、この画像情報から顔像を検出し、この顔像に対して個人識別処理を行って個人識別情報を得ると共に、この顔像に対して笑顔認識処理を行って笑顔度を求める。(2)テレビ受信機110Aは、個人識別情報と共に、笑顔度を、クラウド上のサーバ装置130に送る。サーバ装置130は、テレビ受信機110Aから送られてくる笑顔度を、個人識別情報に関連付けてデータベースに保存する。
デジタルスチルカメラ120Aは、(3)被写体としての個人400を撮像して画像情報を得る。デジタルスチルカメラ120Aは、この画像情報から顔を検出し、この顔像に対して個人識別処理を行って個人識別情報を得る。(4)デジタルスチルカメラ120Aは、この個人識別情報をサーバ装置130に送り、(5)サーバ装置130から、その個人識別情報に関連付けて記憶されている笑顔度のログ情報を受け取る。
デジタルスチルカメラ120Aは、そのログ情報を解析して、評価条件(笑顔の閾値)を設定する。デジタルスチルカメラ120Aは、上述の顔像に対して笑顔認識処理を行って笑顔度を得る。そして、デジタルスチルカメラ120Aは、このように得られた笑顔度を評価条件に基づいて評価する。(6)デジタルスチルカメラ120Aは、笑顔度が閾値より大きいとき、笑顔であると判断し、シャッタを切って、個人400のスチル撮像を行う。
図6は、情報処理システム10Aの各部のブロック構成の一例を示している。テレビ受信機110Aは、カメラ(撮像部)201と、顔処理部203と、データ送信部207を有している。カメラ201は、上述したように、個人202を撮像して、評価対象としての画像情報を得る。
顔処理部203は、顔検出部204、個人識別部205および笑顔認識部206を備えている。顔処理部203は、顔検出部204により、カメラ201で撮像して得られた画像情報から顔を検出する。この顔検出は、一般的なカメラで用いられている方法を用いて行うことができる。例えば、特開2008−42319号公報には、顔検出方法の一例が記載されている。
また、顔処理部203は、個人識別部205により、顔像に対して個人識別処理を行って、個人識別情報を得る。この個人識別部205は、例えば、個人識別情報として、個人を見分けることができる特徴量を出力する。この個人識別は、セキュリティ分野やカメラの個人を見分ける機能で使われているような一般的な方法を用いて行うことができる。例えば、特開2010−61465号公報には、個人識別方法の一例が記載されている。
また、顔処理部203は、笑顔認識部206により、顔像に対して笑顔認識処理を行って、笑顔度(笑顔スコア)を得る。この笑顔度は、例えば、0〜100の範囲内の値とされる。この笑顔認識は、カメラの笑顔になると撮影する機能で使われている一般的な方法を用いて行うことができる。例えば、特開2008−42319号公報、特開2008−311819号公報には、笑顔認識方法の一例が記載されている。
データ送信部207は、笑顔認識部206で得られた笑顔度をログ情報として、個人識別部205で得られた個人識別情報と共にサーバ装置130に送って、データベースに保存する。このように、テレビ受信機110Aにおける、上述の個人202の撮像から個人識別情報と共に笑顔度をサーバ装置130に送信する一連の処理は、ユーザの明示的な操作、あるいは自動的に所定の時間間隔をもって行われる。
サーバ装置130は、データ受信部301と、データ保存部302と、データベース303と、個人識別情報マッチング部304と、データ送信部305を有している。データ受信部301は、テレビ受信機110Aから送られてくる個人識別情報および笑顔度を受信すると共に、デジタルスチルカメラ120Aから送られてくる個人識別情報を受信する。
データ保存部302は、データ受信部301がテレビ受信機110Aからの個人識別情報および笑顔度を受信するとき、その笑顔度をログ情報として、個人識別情報に関連付けて、データベース303に保存する。個人識別情報マッチング部304は、データ受信部301がデジタルスチルカメラ120Aからの個人識別情報を受信するとき、その個人識別情報とデータベース303に記憶されている個人識別情報とのマッチング処理を行う。
そして、個人識別情報マッチング部304は、マッチング処理により、データベース303に、デジタルスチルカメラ120Aからの個人識別情報に対応した笑顔度のログ情報が存在するか否かを検索する。データ送信部305は、データベース303にデジタルスチルカメラ120Aからの個人識別情報に対応した笑顔度のログ情報があるとき、個人識別情報と共に笑顔度のログ情報を、デジタルスチルカメラ120Aに送信する。
図7は、データベース303に、個人識別情報に関連付けされて記憶される笑顔度のログ情報の一例を示している。個人識別をするための特徴量と笑顔度とがペアとされて記憶される。図示の例では、笑顔度(笑顔スコア)が時系列情報である場合を示している。
例えば、Aさんに関しては、8/1は17時にテレビ受信機110Aを視聴しており、カメラ201に捉えられ、その時間帯の笑顔度の最大値は80、同様に、8/2は75、8/3は70、8/4は90だったことが保存されている。ここで、保存される笑顔度は、最大値ではなく、全ての値でもよいし、平均値でもよい。また、各日あたりに1個でなくてもよい。同様に、Bさん、Cさんに関しても、笑顔度のログ情報が保存されている。
デジタルスチルカメラ120Aからの個人識別情報が例えばAさんの特徴量であった場合、個人識別マッチング部304によるマッチング処理により、データベース303から、Aさんの笑顔度のログ情報が検索される。そして、データ送信部305から、Aさんの特徴量(個人識別情報)と共に当該検索された笑顔度のログ情報がデジタルスチルカメラ120Aに送信される。
デジタルスチルカメラ120Aは、カメラ(撮像部)401と、顔処理部402と、データ送信部406と、データ受信部407と、ログ解析部408と、撮像タイミング制御部409を有している。カメラ401は、上述したように、個人400を撮像して、評価対象としての画像情報を得る。
顔処理部402は、顔検出部403、個人識別部404および笑顔認識部405を備えている。顔処理部402は、顔検出部403により、カメラ401で撮像して得られた画像情報から顔を検出する。この顔検出部403は、上述したテレビ受信機110Aにおける顔検出部204と同様の構成とされており、顔検出を一般的なカメラで用いられている方法を用いて行う。
また、顔処理部402は、個人識別部404により、顔像に対して個人識別処理を行って、個人識別情報を得る。この個人識別部404は、上述したテレビ受信機110Aにおける個人識別部205と同様の構成とされており、個人識別をセキュリティ分野やカメラの個人を見分ける機能で使われているような一般的な方法を用いて行う。
また、顔処理部402は、笑顔認識部405により、顔像に対して笑顔認識処理を行って、笑顔度(笑顔スコア)を得る。この笑顔認識部405は、上述したテレビ受信機110Aにおける笑顔認識部206と同様の構成とされており、笑顔認識をカメラの笑顔になると撮影する機能で使われている一般的な方法を用いて行う。
データ送信部406は、個人識別部404で得られた個人識別情報を、サーバ装置130に送る。データ受信部407は、上述したようにサーバ装置130から送られてくる個人識別情報および笑顔度のログ情報を受信する。ログ解析部408は、笑顔度のログ情報を解析して、評価条件、ここでは笑顔の最適な閾値を設定する。
ここで、閾値として、例えば、個人ごとの保存されている笑顔度の平均値を利用することができる。例えば、平均値を使った場合、図7のAさんの場合の閾値は、(80+75+70+90)/4=78.75、Bさんの場合の閾値は、(40+30+50)/3=40、Cさんの場合の閾値は、(70+50+60+50)/4=57.5となる。他にも、近い日付や同じ時間帯などの特定条件に合致した笑顔度の平均値や、最大値を用いることもできる。
また、図8に示すように、笑顔度に、日付、時間の情報だけでなく、室内か屋外か、明るいか暗いか、などの環境情報を付加しておくことが考えられる。その場合には、環境の似通った笑顔度のみを用いて、撮影環境に適合した閾値を設定することも可能となる。
さらに、図9に示すように、笑顔度に、日付、時間の情報だけでなく、その笑顔度が得られたときにテレビ受信機110Aで表示されていた表示コンテンツの種類を示すコンテンツ識別情報を付加しておくことも考えられる。その場合には、閾値を設定するにあたって、笑顔度にコンテンツの種類に応じてその値を調整して用いることが可能となる。
例えば、コンテンツの種類がコメディやお笑いであった場合には、一般的に笑顔度が高くなっていると思われるので、重み付け係数は小さくされる。なお、コンテンツの種類がコメディやお笑いであった場合に得られた笑顔度を重点的に利用することも考えられる。
撮像タイミング制御部409は、笑顔認識部405で得られる笑顔度が、ログ解析部408で求められた笑顔の閾値を越えるとき、スチル画像の撮像が行われるようにカメラ401のシャッタ制御を行う。この場合、カメラ401では、個人400をスチル撮像して、その画像情報を保存することが行われる。
なお、撮影対象となる個人(人物)は、最も顔が大きかったり、中心に近かったりする1人でもよく、ユーザに指定された個人でもよく、画面内にいる複数人でもよい。複数人の場合は、全員が閾値を越えていることを条件とすることができる。また、複数人の場合は、過半数が閾値を越えていることを条件とすることができる。
なお、ログ情報として保存される画像評価情報(笑顔度など)に付加される情報として、上述の日時、環境、表示コンテンツなどの情報の他に、シーン情報やGPS情報(位置情報)なども考えられる。また、画像評価情報に付加される環境情報として、詳細説明は省略するが、以下のような、Exif(Exchangeable image file format)のメタデータも考えられる。
・撮影日時 <<撮像により評価画像を生成した際の日時>>
・撮影機器メーカ名 <<評価機器メーカ名>>
・撮影機器モデル名 <<評価機器モデル名>>
・画像全体の解像度 <<評価画像の解像度>>
・水平・垂直方向の単位あたり解像度 <<評価画像の解像度>>
・撮影方向 <<撮像により評価画像を生成した際の撮影方向>>
・シャッタスピード <<撮像により評価画像を生成した際のシャッタスピード>>
・絞り(F値) <<撮像により評価画像を生成した際の絞り>>
・ISO感度 <<撮像により評価画像を生成した際のISO感度>>
・測光モード <<撮像により評価画像を生成した際の測光モード>>
・フラッシュの有無 <<撮像により評価画像を生成した際のフラッシュの有無>>
・露光補正ステップ値 <<撮像により評価画像を生成した際の露光補正ステップ値>>
・焦点距離 <<撮像により評価画像を生成した際の焦点距離>>
・色空間 <<カラースペース>><<撮像により評価画像を生成した際の色空間>>
・GPS情報(GPS付きカメラの場合、緯度・経度・標高など。) <<撮像により評価画像を生成した際のGPS情報>>
また、画像評価情報に付加される環境情報として、さらに、以下のような情報も考えられる。
画像評価エンジンID <<“評価”されたときの環境情報>>
画像評価時に表示されていたコンテンツの情報(コンテンツID、コンテンツのジャンル、コンテンツに対するユーザのお気に入り度)<<撮像されたときの環境情報>>
・評価機器ID <<“評価”されたときの環境情報>>
・被写体(評価対象)の明るさ
・撮影環境の明るさ(評価環境の明るさ)
・光源情報
・カラーバランス(ホワイトバランス)
・被写体(評価対象)のサイズ
・被写体(評価対象)の向き
・被写体(評価対象)の移動(速度) <<被写体が動いている場合は評価の精度が下がり、評価値が小さく算出されることが考えられるため>>
・撮像装置のブレ度(手振れ度)<<上記被写体の移動と同様に、手振れが起きている場合は評価の精度が下がり、評価値が低く算出されることが考えられるため>>
なお、画像評価情報(笑顔度など)が得られた際の環境情報などを上述したように環境情報に付加することとは逆に、所定の環境を意図的に作っておいて、ログをとることも考えられる。例えば、笑顔度を計測するので笑って下さいという指示を出して、笑顔を作らせることもでき、そのときに照明条件などをもコントロールすることができる。これにより、必要とする環境における画像評価情報を効率よく得ることが可能となる。
図6に示す情報処理システム10Aの動作を説明する。最初に、ログ情報収集時の動作を説明する。テレビ受信機110Aのカメラ201で、所定の表示コンテンツを視聴している個人202が撮像され、評価対象としての画像情報が得られる。この画像情報は、顔処理部203に供給される。
顔処理部203では、顔検出部204により、画像情報から顔が検出される。そして、個人識別部205で顔像に対して個人識別処理が行われて個人識別情報が得られると共に、笑顔認識部206で顔像に対して笑顔認識処理が行われて笑顔度(笑顔スコア)が得られる。そして、データ送信部207により、笑顔度は、ログ情報として、個人識別情報と共にサーバ装置130に送られる。
なお、テレビ受信機110Aにおける、上述の個人202が撮像されて個人識別情報と共に笑顔度のログ情報がサーバ装置130に送信される一連の処理は、ユーザの明示的な操作、あるいは自動的に所定の時間間隔をもって行われる。この場合、笑顔度には、日付、時間の情報の他に、環境情報、あるいは表示コンテンツの種類を示す識別情報などが付加されてもよい。
テレビ受信機110Aから送られる個人識別情報および笑顔度のログ情報は、サーバ装置130のデータ受信部301で受信される。サーバ装置130では、このように受信された笑顔度のログ情報が、個人識別情報に関連付けされて、データベース303に保存される。このようにして、サーバ装置130のデータベース303には、所定数の個人に対応した笑顔度のログ情報が識別可能に保存される(図7〜図9参照)。
なお、サーバ装置130において、データベース303に保存される各個人の笑顔度のログ情報の個数は順次増加していく。この場合、所定数以上になった場合は、時間的に古いものは順次削除してもよく、あるいは、平均値として残すようにしてもよい。
次に、ログ情報利用時の動作を説明する。デジタルスチルカメラ120Aのカメラ401で、被写体としての個人400が撮像され、評価対象としての画像情報が得られる。この画像情報は、顔処理部402に供給される。顔処理部402では、顔検出部403により、画像情報から顔が検出される。そして、個人識別部404で顔像に対して個人識別処理が行われて個人識別情報が得られる。この個人識別情報は、データ送信部406により、サーバ装置130に送られる。
デジタルスチルカメラ120Aから送られる個人識別情報は、サーバ装置130のデータ受信部301で受信され、個人識別情報マッチング部304に送られる。このマッチング部304では、データベース303に、デジタルスチルカメラ120Aからの個人識別情報に対応した笑顔度のログ情報が存在するか否かが検索される。存在するとき、その笑顔度のログ情報がデータベース303から取り出され、データ送信部305により、個人識別情報と共にデジタルスチルカメラ120Aに送信される。
サーバ装置130から個人識別情報と共に送られる笑顔度のログ情報は、デジタルスチルカメラ120Aのデータ受信部407で受信され、ログ解析部408に供給される。このログ解析部408では、笑顔度のログ情報が解析されて、評価条件として、被写体としての個人400に対応した笑顔の最適な閾値が設定される。
この笑顔の閾値は、撮像タイミング制御部409に供給される。また、顔処理部402では、笑顔認識部405により、顔像に対して笑顔認識処理が行われて笑顔度(笑顔スコア)が得られる。この笑顔度は、撮像タイミング制御部409に供給される。なお、ログ情報利用時には、カメラ401から連続して画像情報が出力される状態となっており、笑顔認識部405では笑顔度を得ることが繰り返し行われる。
撮像タイミング制御部409では、笑顔認識部405で得られる笑顔度が、ログ解析部408で設定される閾値を越えるとき、スチル画像の撮像が行われるようにカメラ401のシャッタ制御が行われる。この場合、カメラ401では、被写体としての個人400のスチル撮像が行われ、その画像情報が保存される。
図10は、テレビ受信機110Aの処理フローの一例を示している。テレビ受信機110Aは、ステップST1において、処理を開始し、その後に、ステップST2の処理に移る。この場合、ユーザの明示的な操作により、あるいは個人202の認識によって自動的に、処理を開始する。テレビ受信機110Aは、ステップST2において、カメラ201で、個人202を撮像してカメラ画像(画像情報)を取得する。
次に、テレビ受信機110Aは、ステップST3において、顔処理部203の顔検出部204により、画像情報から顔を検出する。そして、テレビ受信機110Aは、ステップST4において、顔処理部203の個人識別部205により、顔像に対して個人識別処理を行って、個人識別情報(特徴量)を得る。さらに、テレビ受信機110Aは、ステップST5において、顔処理部203の笑顔認識部206により、顔像に対して笑顔認識処理を行って、笑顔度(笑顔スコア)を得る。なお、ステップST4とステップST5の処理の順番は逆であってもよい。
次に、テレビ受信機110Aは、ステップST6において、データ送信部207により、ステップST4で得られた個人識別情報とステップST5で得られた笑顔度を対として、サーバ装置130に送信する。テレビ受信機110Aは、ステップST6の処理の後、ステップST7において、処理を終了する。
図11は、サーバ装置130の処理フローの一例を示している。サーバ装置130は、この処理フローを所定の周期をもって繰り返し実行する。サーバ装置130は、ステップST11において、処理を開始し、その後に、ステップST12の処理に移る。このステップST12において、サーバ装置130は、データ受信部301でログ情報収集装置(テレビ受信機110A)からデータを受信しているか否かを判断する。
データを受信しているとき、サーバ装置130は、ステップST13において、データ保存部302により、受信された個人識別情報および笑顔度のログ情報を、データベース303に保存する。サーバ装置130は、このステップST13の処理の後、ステップST14において、処理を終了する。
上述のステップST12で、データを受信していないとき、サーバ装置130は、ステップST15の処理に移る。このステップST15において、サーバ装置130は、データ受信部301で判定実行装置(デジタルスチルカメラ120A)からデータを受信しているか否かを判断する。データを受信していないとき、サーバ装置130は、直ちに、ステップST14において、処理を終了する。
一方、データを受信しているとき、サーバ装置130は、ステップST16の処理に移る。このステップST16において、サーバ装置130は、個人識別情報マッチング部304により、受信された個人識別情報とデータベース303に記憶されている個人識別情報とのマッチング処理を行って、データベース303にその個人識別情報に対応した笑顔度のログ情報が存在するか否かを検索する。
次に、サーバ装置130は、ステップST17において、ステップST16の検索結果に基づいて、データベース303に受信された個人識別情報に対応した笑顔度のログ情報があるか否かを判断する。ログ情報があるとき、サーバ装置130は、ステップST18において、データ送信部305により、データベース303からそのログ情報を取り出し、デジタルスチルカメラ120Aに送信する。
サーバ装置130は、ステップST18の処理の後、ステップST14において、処理を終了する。また、ステップST17でログ情報がないとき、サーバ装置130は、直ちに、ステップST14において、処理を終了する。
図12は、デジタルスチルカメラ120Aの処理フローの一例を示している。デジタルスチルカメラ120Aは、この処理フローを所定の周期をもって繰り返し実行する。デジタルスチルカメラ120Aは、ステップST21において、処理を開始し、その後に、ステップST22の処理に移る。
デジタルスチルカメラ120Aは、ステップST22において、カメラ画像(画像情報)の取得タイミングにあるか否かを判断する。この取得タイミングは、例えば、ユーザのシャッタ操作後に自動的に所定周期をもって繰り返し与えられる。取得タイミングにあるとき、デジタルスチルカメラ120Aは、ステップST23において、カメラ401で被写体としての個人400を撮像して、カメラ画像(画像情報)を取得する。
次に、デジタルスチルカメラ120Aは、ステップST24において、顔処理部402の顔検出部403により、画像情報から顔を検出する。そして、デジタルスチルカメラ120Aは、ステップST25において、顔処理部402の個人識別部404により、顔像に対して個人識別処理を行って、個人識別情報(特徴量)を得る。
次に、デジタルスチルカメラ120Aは、ステップST26において、ステップST25で得られた個人識別情報に対応した笑顔度のログ情報をサーバ装置130から既に受信しているか否かを判断する。受信していないとき、デジタルスチルカメラ120Aは、ステップST27において、データ送信部406により、ステップST25で得られた個人識別情報を、サーバ装置130に送信する。デジタルスチルカメラ120Aは、このステップST27の処理の後、ステップST28において、処理を終了する。
また、ステップST22でカメラ画像の取得タイミングでないとき、デジタルスチルカメラ120Aは、ステップST29において、データ受信部407で、ステップST27で送信した個人識別情報に関連付けされた笑顔度のログ情報を受信しているか否かを判断する。受信しているとき、デジタルスチルカメラ120Aは、ステップST30において、ログ解析部408により、笑顔度のログ情報を解析して、笑顔の最適な閾値を設定する。
デジタルスチルカメラ120Aは、ステップST30の処理の後、ステップST31の処理に移る。上述のステップST26で既にログ情報を受信しているときも、このステップST31の処理に移る。このステップST31において、デジタルスチルカメラ120Aは、顔処理部402の笑顔認識部405により、顔像に対して笑顔認識処理を行って、笑顔度(笑顔スコア)を得る。
次に、デジタルスチルカメラ120Aは、ステップST32において、ステップST31で得られた笑顔度が、設定された笑顔の閾値を越えるか否かを判断する。越えているとき、デジタルスチルカメラ120Aは、ステップST33において、撮像タイミング制御部409により、カメラ401のシャッタを制御し、個人400のスチル画像の撮像を行う。デジタルスチルカメラ120Aは、このステップST33の処理の後、ステップST28において、処理を終了する。一方、ステップST32で越えていないとき、デジタルスチルカメラ120Aは、直ちに、ステップST28において、処理を終了する。
また、ステップST29でログ情報が受信されていないとき、デジタルスチルカメラ120Aは、ステップST34において、ステップST27で個人識別情報をサーバ装置130に送信してから一定時間が経過したか否かを判断する。一定時間が経過していないとき、デジタルスチルカメラ120Aは、直ちに、ステップST28において、処理を終了する。
また、ステップST34で一定時間が経過しているとき、デジタルスチルカメラ120Aは、ステップST35において、笑顔の閾値をデフォルト値に設定し、その後に、ステップST31の処理に移る。すなわち、この場合、個人識別情報に関連付けされている笑顔度のログ情報がデータベース303に保存されていなかったことを意味し、笑顔度のログ情報を解析することによる笑顔の閾値の設定は不可能となる。そのため、この場合には、笑顔の閾値はデフォルト値に設定され、以降の処理が行われる。
なお、図6の情報処理システム10Aにおいては、デジタルスチルカメラ120Aで、笑顔度のログ情報を解析して個人識別情報で特定される個人(人物)における笑顔の閾値を設定するものである。しかし、この笑顔の閾値の設定を、サーバ装置130、あるいはログ情報収集装置であるテレビ受信機110Aで行う構成も考えられる。
図13は、情報処理システム10Aのブロック構成の他の一例を示している。この構成例では、サーバ装置130で笑顔の閾値設定が行われる。この図13において、図6と対応する部分には同一符号を付し、適宜、その詳細説明は省略する。テレビ受信機110Aは、図6の情報処理システム10Aにおけるテレビ受信機110Aと同様に構成されている。
サーバ装置130は、データ受信部301と、データ保存部302と、データベース303と、個人識別情報マッチング部304と、ログ解析部408と、データ送信部305を有している。ログ解析部408は、データベース303からデジタルスチルカメラ120Aからの個人識別情報に対応した笑顔度のログ情報を取り出し、このログ情報を解析して、評価条件としての笑顔の閾値を設定する。データ送信部305は、ログ解析部408で設定された笑顔の閾値を、個人識別情報と共に、デジタルスチルカメラ120Aに送信する。このサーバ装置130のその他は、図6の情報処理システム10Aにおけるサーバ装置130と同様に構成されている。
デジタルスチルカメラ120Aは、カメラ(撮像部)401と、顔処理部402と、データ送信部406と、データ受信部407と、撮像タイミング制御部409を有している。データ受信部407は、上述したようにサーバ装置130から送られてくる個人識別情報および笑顔の閾値を受信する。撮像タイミング制御部409は、笑顔認識部405で得られる笑顔度が、データ受信部407で受信された笑顔の閾値を越えるとき、スチル画像の撮像が行われるようにカメラ401のシャッタ制御を行う。この場合、カメラ401では、個人400をスチル撮像して、その画像情報を保存することが行われる。このデジタルスチルカメラ120Aのその他は、図6の情報処理システム10Aにおけるデジタルスチルカメラ120Aと同様に構成されている。
図13に示す情報処理システム10Aの動作を説明する。ログ情報収集時の動作については、図6の情報処理システム10Aの動作と同様であるので、その説明を省略する。
ログ情報利用時の動作を説明する。デジタルスチルカメラ120Aのカメラ401で、被写体としての個人400が撮像され、評価対象としての画像情報が得られる。この画像情報は、顔処理部402に供給される。顔処理部402では、顔検出部403により、画像情報から顔が検出される。そして、個人識別部404で顔像に対して個人識別処理が行われて個人識別情報が得られる。この個人識別情報は、データ送信部406により、サーバ装置130に送られる。
デジタルスチルカメラ120Aから送られる個人識別情報は、サーバ装置130のデータ受信部301で受信され、個人識別情報マッチング部304に送られる。このマッチング部304では、データベース303に、デジタルスチルカメラ120Aからの個人識別情報に対応した笑顔度のログ情報があるか否かが検索される。
データベース303に対応した笑顔度のログ情報があるとき、ログ解析部408では、その笑顔度のログ情報が取り出されて解析され、評価条件としての笑顔の閾値が設定される。そして、データ送信部305により、個人識別情報と共に、設定あれた笑顔の閾値が、デジタルスチルカメラ120Aに送信される。
サーバ装置130から送られる個人識別情報および笑顔の閾値は、デジタルスチルカメラ120Aのデータ受信部407で受信され、撮像タイミング制御部409に供給される。また、顔処理部402では、笑顔認識部405により、顔像に対して笑顔認識処理が行われて笑顔度(笑顔スコア)が得られる。この笑顔度は、撮像タイミング制御部409に供給される。なお、笑顔認識部405では、笑顔度を得ることが、繰り返し行われる。
撮像タイミング制御部409では、笑顔認識部405で得られる笑顔度が、データ受信部407で受信された笑顔の閾値を越えるとき、スチル画像の撮像が行われるようにカメラ401のシャッタ制御が行われる。この場合、カメラ401では、被写体としての個人400のスチル撮像が行われ、その画像情報が保存される。
図14は、情報処理システム10Aのブロック構成のさらに他の一例を示している。この構成例では、テレビ受信機110Aで笑顔の閾値設定が行われる。この図14において、図6、図13と対応する部分には同一符号を付し、適宜、その詳細説明は省略する。デジタルスチルカメラ120Aは、図13の情報処理システム10Aにおけるデジタルスチルカメラ120Aと同様に構成されている。
テレビ受信機110Aは、カメラ(撮像部)201と、顔処理部203と、ログ解析部408と、データ送信部207を有している。ログ解析部408は、顔処理部203で得られる個人識別情報毎の笑顔度のログ情報を解析して、評価条件としての笑顔の閾値を設定する。データ送信部207は、ログ解析部408で設定された笑顔の閾値を、個人識別情報と共に、サーバ装置130に送信する。このテレビ受信機110Aのその他は、図6の情報処理システム10Aにおけるテレビ受信機110Aと同様に構成されている。
サーバ装置130は、データ受信部301と、データ保存部302と、データベース303と、個人識別情報マッチング部304と、データ送信部305を有している。データ受信部301は、テレビ受信機110Aから送られてくる個人識別情報および笑顔の閾値を受信すると共に、デジタルスチルカメラ120Aから送られてくる個人識別情報を受信する。
データ保存部302は、データ受信部301がテレビ受信機110Aからの個人識別情報および笑顔の閾値を受信するとき、その笑顔の閾値を、個人識別情報に関連付けて、データベース303に保存する。個人識別マッチング部304は、データ受信部301がデジタルスチルカメラ120Aからの個人識別情報を受信するとき、その個人識別情報とデータベース303に記憶されている個人識別情報とのマッチング処理を行う。
そして、個人識別情報マッチング部304は、データベース303に、デジタルスチルカメラ120Aからの個人識別情報に対応した笑顔の閾値が存在するか否かを検索する。データ送信部305は、データベース303にデジタルスチルカメラ120Aからの個人識別情報に対応した笑顔の閾値があるとき、個人識別情報と共に笑顔の閾値を、デジタルスチルカメラ120Aに送信する。このサーバ装置130のその他は、図6の情報処理システム10Aにおけるサーバ装置130と同様に構成されている。
図14に示す情報処理システム10Aの動作を説明する。最初に、ログ情報収集時の動作を説明する。テレビ受信機110Aのカメラ201で、所定の表示コンテンツを視聴している個人202が撮像され、評価対象としての画像情報が得られる。この画像情報は、顔処理部203に供給される。
顔処理部203では、顔検出部204により、画像情報から顔が検出される。そして、個人識別部205で顔像に対して個人識別処理が行われて個人識別情報が得られると共に、笑顔認識部206で顔像に対して笑顔認識処理が行われて笑顔度(笑顔スコア)が得られる。ログ解析部408では、顔処理部203で得られる個人識別情報毎に、笑顔度のログ情報が解析されて、評価条件としての笑顔の閾値が設定される。そして、データ送信部207により、ログ解析部408で設定された笑顔の閾値が、個人識別情報と共に、サーバ装置130に送られる。
テレビ受信機110Aから送られる個人識別情報および笑顔の閾値は、サーバ装置130のデータ受信部301で受信される。そして、サーバ装置130では、このように受信された笑顔の閾値が、個人識別情報に関連付けされて、データベース303に保存される。このようにして、サーバ装置130のデータベース303には、所定数の個人に対応した笑顔の閾値が識別可能に保存される。
次に、ログ情報利用時の動作を説明する。デジタルスチルカメラ120Aのカメラ401で、被写体としての個人400が撮像され、評価対象としての画像情報が得られる。この画像情報は、顔処理部402に供給される。顔処理部402では、顔検出部403により、画像情報から顔が検出される。そして、個人識別部404で顔像に対して個人識別処理が行われて個人識別情報が得られる。この個人識別情報は、データ送信部406により、サーバ装置130に送られる。
デジタルスチルカメラ120Aから送られる個人識別情報は、サーバ装置130のデータ受信部301で受信され、個人識別情報マッチング部304に送られる。このマッチング部304では、データベース303に、デジタルスチルカメラ120Aからの個人識別情報に対応した笑顔の閾値があるか否かが検索される。対応した笑顔の閾値があるとき、データ送信部305により、個人識別情報と共に笑顔の閾値が、デジタルスチルカメラ120Aに送信される。
サーバ装置130から送られる個人識別情報および笑顔の閾値は、デジタルスチルカメラ120Aのデータ受信部407で受信され、撮像タイミング制御部409に供給される。また、顔処理部402では、笑顔認識部405により、顔像に対して笑顔認識処理が行われて笑顔度(笑顔スコア)が得られる。この笑顔度は、撮像タイミング制御部409に供給される。なお、笑顔認識部405では、笑顔度を得ることが、繰り返し行われる。
撮像タイミング制御部409では、笑顔認識部405で得られる笑顔度が、データ受信部407で受信された笑顔の閾値を越えるとき、スチル画像の撮像が行われるようにカメラ401のシャッタ制御が行われる。この場合、カメラ401では、被写体としての個人400のスチル撮像が行われ、その画像情報が保存される。
図15は、情報処理システム10Aのブロック構成の別の一例を示している。この構成例では、サーバ装置130で、ログ情報収集時における顔処理が行われると共に、笑顔の閾値設定が行われる。この図15において、図6、図13、図14と対応する部分には同一符号を付し、適宜、その詳細説明は省略する。デジタルスチルカメラ120Aは、図13の情報処理システム10Aにおけるデジタルスチルカメラ120Aと同様に構成されている。
テレビ受信機110Aは、カメラ(撮像部)201と、データ送信部207を有している。データ送信部207は、カメラ201で個人202を撮像して得られる評価対象としての画像情報を、サーバ装置130に送る。このテレビ受信機110Aのその他は、図6の情報処理システム10Aにおけるテレビ受信機110Aと同様に構成されている。
サーバ装置130は、データ受信部301と、顔処理部203と、データ保存部302と、データベース303と、個人識別情報マッチング部304と、ログ解析部408と、データ送信部305を有している。データ受信部301は、テレビ受信機110Aから送られてくる画像情報を受信すると共に、デジタルスチルカメラ120Aから送られてくる個人識別情報を受信する。
顔処理部203は、顔検出部204、個人識別部205および笑顔認識部206を備えている。顔処理部203は、顔検出部204により、カメラ201で撮像して得られた画像情報から顔を検出する。また、顔処理部203は、個人識別部205により、顔像に対して個人識別処理を行って、個人識別情報を得る。さらに、顔処理部203は、笑顔認識部206により、顔像に対して笑顔認識処理を行って、笑顔度(笑顔スコア)を得る。
データ保存部302は、顔処理部203で得られる笑顔度をログ情報として、同じく顔処理部203で得られる個人識別情報に関連付けて、データベース303に保存する。このサーバ装置130のその他は、図13の情報処理システム10Aにおけるサーバ装置130と同様に構成されている。
図15に示す情報処理システム10Aの動作を説明する。ログ情報利用時の動作については、図13の情報処理システム10Aの動作と同様であるので、その説明を省略する。
ログ情報収集時の動作を説明する。テレビ受信機110Aのカメラ201で、所定の表示コンテンツを視聴している個人202が撮像され、評価対象としての画像情報が得られる。この画像情報は、データ送信部207により、サーバ装置130に送られる。このようにテレビ受信機110Aから送られる画像情報は、サーバ装置130のデータ受信部301で受信され、顔処理部203に供給される。
顔処理部203では、顔検出部204により、画像情報から顔が検出される。そして、個人識別部205で顔像に対して個人識別処理が行われて個人識別情報が得られると共に、笑顔認識部206で顔像に対して笑顔認識処理が行われて笑顔度(笑顔スコア)が得られる。データ保存部302では、顔処理部203で得られる笑顔度が、ログ情報として、同じく顔処理部203で得られる個人識別情報に関連付けて、データベース303に保存される。このようにして、サーバ装置130のデータベース303には、所定数の個人に対応した笑顔の閾値が識別可能に保存される。
図16は、情報処理システム10Aのブロック構成のさらに別の一例を示している。この構成例では、サーバ装置130で、ログ情報収集時およびログ情報利用時における顔処理が行われると共に撮像タイミング制御信号の生成処理、さらに笑顔の閾値設定が行われる。この図16において、図6、図13、図14、図15と対応する部分には同一符号を付し、適宜、その詳細説明は省略する。テレビ受信機110Aは、図15の情報処理システム10Aにおけるテレビ受信機110Aと同様に構成されている。
サーバ装置130は、データ受信部301と、顔処理部203と、データ保存部302と、データベース303と、顔処理部402と、個人識別情報マッチング部304と、ログ解析部408と、撮像タイミング制御部409と、データ送信部305を有している。データ受信部301は、テレビ受信機110Aから送られてくる画像情報を受信すると共に、デジタルスチルカメラ120Aから送られてくる画像情報を受信する。
顔処理部402は、顔検出部403、個人識別部404および笑顔認識部405を備えている。顔処理部403は、顔検出部403により、受信部で受信されたデジタルスチルカメラ402からの画像情報から顔を検出する。また、顔処理部402は、個人識別部404により、顔像に対して個人識別処理を行って、個人識別情報を得る。さらに、顔処理部402は、笑顔認識部405により、顔像に対して笑顔認識処理を行って、笑顔度(笑顔スコア)を得る。
個人識別データマッチング部304は、データベース303に、顔処理部402で得られた個人識別情報に対応した笑顔度のログ情報が存在するか否かを検索する。ログ解析部408は、データベース303から顔処理部402で得られた個人識別情報に対応した笑顔度のログ情報を取り出し、このログ情報を解析して、評価条件としての笑顔の閾値を設定する。
撮像タイミング制御部409は、笑顔認識部405で得られる笑顔度が、ログ解析部408で設定された笑顔の閾値を越えるとき、スチル画像の撮像を行うための撮像タイミング制御信号を発生する。データ送信部305は、この撮像タイミング制御信号を、デジタルスチルカメラ120Aに送信する。このサーバ装置130のその他は、図15の情報処理システム10Aにおけるサーバ装置130と同様に構成されている。
デジタルスチルカメラ120Aは、カメラ(撮像部)401と、データ受信部407と、データ受信部407を有している。データ送信部406は、カメラ401で個人400を撮像して得られる評価対象としての画像情報を、サーバ装置130に送る。データ受信部407は、サーバ装置130から送られてくる撮像タイミング制御信号を受信し、カメラ401に供給する。この場合、カメラ401では、個人400をスチル撮像して、その画像情報を保存することが行われる。このデジタルスチルカメラ120Aのその他は、図6の情報処理システム10Aにおけるデジタルスチルカメラ120Aと同様に構成されている。
図16に示す情報処理システム10Aの動作を説明する。ログ情報収集時の動作については、図15の情報処理システム10Aの動作と同様であるので、その説明を省略する。
ログ情報利用時の動作を説明する。デジタルスチルカメラ120Aのカメラ401で、被写体としての個人400が撮像され、評価対象としての画像情報が得られる。この画像情報は、データ送信部406により、サーバ装置130に送られる。このようにデジタルスチルカメラ120Aから送られる画像情報は、サーバ装置130のデータ受信部301で受信され、顔処理部402に供給される。
顔処理部402では、顔検出部403により、画像情報から顔が検出される。そして、個人識別部404で顔像に対して個人識別処理が行われて個人識別情報が得られる。この個人識別情報は、個人識別情報マッチング部304に供給される。このマッチング部304では、データベース303に、顔処理部402からの個人識別情報に対応した笑顔度のログ情報があるか否かが検索される。
データベース303に対応した笑顔度のログ情報があるとき、ログ解析部408では、その笑顔度のログ情報が取り出されて解析され、評価条件としての笑顔の閾値が設定される。この笑顔の閾値は、撮像タイミング制御部409に供給される。また、顔処理部402では、笑顔認識部405により、顔像に対して笑顔認識処理が行われて笑顔度(笑顔スコア)が得られる。この笑顔度は、撮像タイミング制御部409に供給される。なお、笑顔認識部405では、笑顔度を得ることが、繰り返し行われる。
撮像タイミング制御部409では、笑顔認識部405で得られる笑顔度が、ログ解析部408で得られた笑顔の閾値を越えるとき、スチル画像の撮像を行うための撮像タイミング制御信号が発生される。この撮像タイミング制御信号は、データ送信部305により、デジタルスチルカメラ402に送られる。
サーバ装置130から送られる撮像タイミング制御信号は、デジタルスチルカメラ120Aのデータ受信部407で受信され、カメラ401に供給されて、このカメラ401のシャッタ制御が行われる。これにより、カメラ401では、被写体としての個人400のスチル撮像が行われ、その画像情報が保存される。
図5に示す情報処理システム10Aにおいては、個人に関連付けされた笑顔度のログ情報に基づいて笑顔の閾値が設定されるため、笑顔の閾値はユーザ毎に自動的に最適化される。したがって、表情認識の個人差によらずに、笑顔検出シャッタによる撮像を良好に行うことができる。なお、笑顔ではなく、その他の顔の表情(怒りや悲しみ)、さらには見た目の年齢を検出してシャッタ制御を行う場合も同様である。
[情報処理システムの具体例2:表示コンテンツへの興味度合いを評価]
次に、情報処理システム10の具体例2について説明する。図17は、ログ情報収集装置がテレビ受信機(TV)110Bで、判定実行装置がテレビ受信機(TV)120Bである情報処理システム10Bの構成例を示している。また、この情報処理システム10Bでは、評価情報が画像情報であり、画像評価情報が個人(人物)の表示コンテンツへの興味度合いを評価する情報である。
この情報処理システム10Bは、テレビ受信機110B、テレビ受信機120Bおよびサーバ装置130により構成されている。サーバ装置130は、クラウド上、すなわちネットワーク上に存在する。テレビ受信機110Bおよびテレビ受信機120Bは、それぞれ、クラウド上のサーバ装置130と通信が可能とされている。
テレビ受信機110Bは、個人識別情報に関連付けられる表示コンテンツへの興味度合いを示す情報のログ情報を収集する。テレビ受信機110Bは、(1)所定種類のコンテンツを表示している状態で、カメラ(撮像部)211で個人212を撮像して、画像情報を得る。
テレビ受信機110Bは、この画像情報から顔像を検出し、この顔像に対して個人識別処理を行って個人識別情報を得る。また、テレビ受信機110Bは、この画像情報から、表示コンテンツへの興味度合いを示す情報、ここでは注目時間(例えば、表示コンテンツの時間長を単位時間に当たりに規格化したときに個人212が見ていた時間)を求める。
(2)テレビ受信機110Bは、個人識別情報と共に、注目時間を、表示コンテンツの種類を示すコンテンツ識別情報を付加して、クラウド上のサーバ装置130に送る。サーバ装置130は、テレビ受信機110Bから送られてくる注目時間を、個人識別情報に関連付けてデータベースに保存する。
テレビ受信機120Bは、(3)個人412を撮像して、画像情報を得る。テレビ受信機120Bは、この画像情報から顔を検出し、この顔像に対して個人識別処理を行って個人識別情報を得る。(4)テレビ受信機120Bは、この個人識別情報を、サーバ装置130に送り、(5)サーバ装置130から、その個人識別情報に関連付けて記憶されている、注目時間のログ情報を受け取る。
テレビ受信機120Bは、そのログ情報を解析して、各コンテンツ種類に対する評価条件として、例えば興味度係数を設定する。所定のコンテンツ種類の興味度係数としては、例えば、全種類のコンテンツの注目時間の平均値と、この所定のコンテンツ種類の注目時間の平均値との差分などを用いることができる。(6)テレビ受信機120Bは、各コンテンツ種類に対する興味度係数を用いて、例えばEPG(Electronic Program Guide)情報を参照し、推奨番組(コンテンツ)選択し、画面上に表示して、個人412に提示する。
図18は、情報処理システム10Bの各部のブロック構成の一例を示している。テレビ受信機110Bは、カメラ(撮像部)211と、表示部213と、顔処理部214と、興味度合い認識部217と、データ送信部218を有している。カメラ211は、上述したように、表示部213に所定種類のコンテンツを表示している状態で、個人212を撮像して、評価対象としての画像情報を得る。
顔処理部214は、顔検出部215および個人識別部216を備えている。顔処理部214は、顔検出部215により、カメラ211で撮像して得られた画像情報から顔を検出する。この顔検出は、一般的なカメラで用いられている方法を用いて行うことができる。例えば、特開2008−42319号公報には、顔検出方法の一例が記載されている。
また、顔処理部214は、個人識別部216により、顔像に対して個人識別処理を行って、個人識別情報を得る。この個人識別部216は、例えば、個人識別情報として、個人を見分けることができる特徴量を出力する。この個人識別は、セキュリティ分野やカメラの個人を見分ける機能で使われているような一般的な方法を用いて行うことができる。例えば、特開2010−61465号公報には、個人識別方法の一例が記載されている。
興味度合い認識部217は、顔像に基づいて、個人211が表示部213の表示コンテンツを見ているか否かを判断し、興味度合いを示す情報としての注目時間を得る。興味度合い認識部217は、この注目時間に、表示コンテンツの種類を示すコンテンツ識別情報を付加しておく。データ送信部218は、興味度合い認識部217で得られた注目時間を、個人識別部216で得られた個人識別情報と共に、サーバ装置130に送って、データベースに保存する。このように、テレビ受信機110Bにおける、上述の個人212の撮像から個人識別情報と共に注目時間をサーバ装置130に送信する一連の処理は、ユーザの明示的な操作、あるいは自動的に所定の時間間隔をもって行われる。
サーバ装置130は、データ受信部301と、データ保存部302と、データベース303と、個人識別情報マッチング部304と、データ送信部305を有している。データ受信部301は、テレビ受信機110Bから送られてくる個人識別情報および注目時間(コンテンツ識別情報付加)を受信すると共に、テレビ受信機120Bから送られてくる個人識別情報を受信する。
データ保存部302は、データ受信部301がテレビ受信機110Bからの個人識別情報および注目時間を受信するとき、その注目時間をログ情報として、個人識別情報に関連付けて、データベース303に保存する。個人識別情報マッチング部304は、データ受信部301がテレビ受信機120Bからの個人識別情報を受信するとき、その個人識別情報とデータベース303に記憶されている個人識別情報とのマッチング処理を行う。
そして、個人識別情報マッチング部304は、データベース303に、テレビ受信機120Bからの個人識別情報に対応した注目時間のログ情報が存在するか否かを検索する。データ送信部305は、データベース303にテレビ受信機120Bからの個人識別情報に対応した注目時間のログ情報があるとき、個人識別情報と共に注目時間(コンテンツ識別情報付加)のログ情報を、テレビ受信機120Bに送信する。
テレビ受信機120Bは、カメラ(撮像部)411と、表示部413と、顔処理部414と、データ送信部417と、データ受信部418と、ログ解析部419と、推奨コンテンツ決定部420を有している。カメラ411は、上述したように、個人412を撮像して、評価対象としての画像情報を得る。
顔処理部414は、顔検出部415および個人識別部416を備えている。顔処理部414は、顔検出部415により、カメラ411で撮像して得られた画像情報から顔を検出する。この顔検出部415は、上述したテレビ受信機110Bにおける顔検出部215と同様の構成とされており、顔検出を一般的なカメラで用いられている方法を用いて行う。
また、顔処理部414は、個人識別部416により、顔像に対して個人識別処理を行って、個人識別情報を得る。この個人識別部416は、上述したテレビ受信機110Bにおける個人識別部216と同様の構成とされており、個人識別をセキュリティ分野やカメラの個人を見分ける機能で使われているような一般的な方法を用いて行う。
データ送信部417は、個人識別部416で得られた個人識別情報を、サーバ装置130に送る。データ受信部418は、上述したようにサーバ装置130から送られてくる個人識別情報および注目時間(コンテンツ識別情報付加)のログ情報を受信する。ログ解析部419は、注目時間のログ情報を解析して、コンテンツ種類毎に、評価条件としての興味度係数を設定する。
この場合、ログ解析部419は、所定のコンテンツ種類の興味度係数として、例えば、全種類のコンテンツの注目時間の平均値と、この所定のコンテンツ種類の注目時間の平均値との差分を求める。このように求められる各コンテンツ種類の興味度係数は、例えば、個人が普段から長くテレビを見る人と、チラチラとしかテレビを見ない人のいずれであっても、各コンテンツ種類のコンテンツへの興味度合いを正しく示すものとなる。
推奨コンテンツ決定部420は、各コンテンツ種類の興味度係数を用いて、例えばEPG情報を参照し、推奨番組(コンテンツ)選択し、画面上に表示するように、表示部413を制御する。ここで、推奨コンテンツ決定部420は、興味度係数の高いコンテンツ種類の番組を推奨番組として選択する。
図18に示す情報処理システム10Bの動作を説明する。最初に、ログ情報収集時の動作を説明する。テレビ受信機110Bのカメラ211で、表示部213に表示されている所定種類のコンテンツ(番組)を視聴している個人212が撮像され、評価対象としての画像情報が得られる。この画像情報は、顔処理部214に供給される。
顔処理部214では、顔検出部215により、画像情報から顔が検出される。そして、個人識別部216で顔像に対して個人識別処理が行われて個人識別情報が得られる。また、興味度合い認識部217では、顔像に基づいて、個人211が表示部213の表示コンテンツを見ているか否かが判断され、興味度合いを示す情報としての注目時間が得られる。そして、データ送信部218により、注目時間(コンテンツ識別情報付加)は、ログ情報として、個人識別情報と共にサーバ装置130に送られる。
なお、テレビ受信機110Bにおける、上述の個人212が撮像されて個人識別情報と共に注目時間(コンテンツ識別情報付加)のログ情報がサーバ装置130に送信される一連の処理は、ユーザの明示的な操作、あるいは自動的に所定の時間間隔をもって行われる。なお、注目時間には、日付、時間の情報の他に、環境情報などが付加されてもよい。
テレビ受信機110Bから送られる個人識別情報および注目時間(コンテンツ識別情報付加)のログ情報は、サーバ装置130のデータ受信部301で受信される。そして、サーバ装置130では、このように受信された注目時間のログ情報が、個人識別情報に関連付けされて、データベース303に保存される。このようにして、サーバ装置130のデータベース130には、所定数の個人に対応した注目時間のログ情報が識別可能に保存される。
次に、ログ情報利用時の動作を説明する。テレビ受信機120Bのカメラ411で、視聴者としての個人412が撮像され、評価対象としての画像情報が得られる。この画像情報は、顔処理部414に供給される。顔処理部414では、顔検出部415により、画像情報から顔が検出される。そして、個人識別部416で顔像に対して個人識別処理が行われて個人識別情報が得られる。この個人識別情報は、データ送信部417により、サーバ装置130に送られる。
テレビ受信機120Bから送られる個人識別情報は、サーバ装置130のデータ受信部301で受信され、個人識別情報マッチング部304に送られる。このマッチング部304では、データベース303に、テレビ受信機120Bからの個人識別情報に対応した注目時間のログ情報があるか否かが検索される。対応した注目時間のログ情報があるとき、データ送信部305により、個人識別情報と共に注目時間(コンテンツ識別情報付加)のログ情報が、テレビ受信機120Bに送信される。
サーバ装置130から送られる個人識別情報および注目時間(コンテンツ識別情報付加)のログ情報は、テレビ受信機120Bのデータ受信部418で受信される。この個人識別情報および注目時間のログ情報は、ログ解析部419に供給される。ログ解析部419では、注目時間のログ情報が解析されて、コンテンツ種類毎に、評価条件としての興味度係数が設定され、推奨コンテンツ決定部420に供給される。
推奨コンテンツ決定部420では、各コンテンツ種類の興味度係数が用いられて、例えばEPG情報が参照され、推奨番組(コンテンツ)が選択される。そして、この推奨コンテンツ決定部420により表示部413が制御され、この表示部420に、視聴者である個人412への推奨コンテンツが表示される。
図19は、テレビ受信機110Bの処理フローの一例を示している。テレビ受信機110Bは、ステップST41において、処理を開始し、その後に、ステップST42の処理に移る。この場合、例えば、ユーザの明示的な操作をもって処理を開始する。テレビ受信機110Bは、ステップST42において、カメラ211で、表示部213に表示されている所定種類のコンテンツ(番組)を視聴している個人212の撮像を開始する。
次に、テレビ受信機110Bは、ステップST43において、顔処理部214の顔検出部215により、画像情報から顔を検出する。そして、テレビ受信機110Bは、ステップST44において、顔処理部214の個人識別部216により、顔像に対して個人識別処理を行って、個人識別情報(特徴量)を得る。
次に、テレビ受信機110Bは、ステップST45において、興味度合い認識部217により、コンテンツ興味度合いとしての注目時間を計算する。この場合、テレビ受信機110Bは、顔像に基づいて、個人211が表示部213の表示コンテンツを見ているか否かを判断し、注目時間を得る。
そして、テレビ受信機110Bは、ステップST46において、データ送信部218により、ステップST44で得られた個人識別情報とステップST45で得られた注目時間(コンテンツ識別情報付加)を対として、サーバ装置130に送信する。テレビ受信機110Bは、ステップST46の処理の後、ステップST47において、処理を終了する。
図20は、サーバ装置130の処理フローの一例を示している。サーバ装置130は、この処理フローを所定の周期をもって繰り返し実行する。サーバ装置130は、ステップST51において、処理を開始し、その後に、ステップST52の処理に移る。このステップST52において、サーバ装置130は、データ受信部301でログ情報収集装置(テレビ受信機110B)からデータを受信しているか否かを判断する。
データを受信しているとき、サーバ装置130は、ステップST53において、データ保存部302により、受信された個人識別情報および注目時間(コンテンツ識別情報付加)のログ情報を、データベース303に保存する。サーバ装置130は、このステップST53の処理の後、ステップST54において、処理を終了する。
上述のステップST52で、データを受信していないとき、サーバ装置130は、ステップST55の処理に移る。このステップST55において、サーバ装置130は、データ受信部301で判定実行装置(テレビ受信機120B)からデータを受信しているか否かを判断する。データを受信していないとき、サーバ装置130は、直ちに、ステップST54において、処理を終了する。
一方、データを受信しているとき、サーバ装置130は、ステップST56の処理に移る。このステップST56において、サーバ装置130は、個人識別情報マッチング部304により、受信された個人識別情報とデータベース303に記憶されている個人識別情報とのマッチング処理を行って、データベース303にその個人識別情報に対応した注目時間のログ情報が存在するか否かを検索する。
次に、サーバ装置130は、ステップST57において、ステップST56の検索結果に基づいて、データベース303に受信された個人識別情報に対応した注目時間のログ情報があるか否かを判断する。ログ情報があるとき、サーバ装置130は、ステップST58において、データ送信部305により、データベース303からそのログ情報を取り出し、テレビ受信機120Bに送信する。
サーバ装置130は、ステップST58の処理の後、ステップST54において、処理を終了する。また、ステップST57でログ情報がないとき、サーバ装置130は、直ちに、ステップST54において、処理を終了する。
図21は、テレビ受信機120Bの処理フローの一例を示している。テレビ受信機120Bは、この処理フローを所定の周期をもって繰り返し実行する。テレビ受信機120Bは、ステップST61において、処理を開始し、その後に、ステップST62の処理に移る。
このステップST62において、テレビ受信機120Bは、カメラ画像の取得タイミングか否かを判断する。取得タイミングは、ユーザの明示的な操作、あるいは自動的に、与えられる。例えば、ユーザ(個人412)がテレビ受信機120Bの視聴を開始したことを自動的に検出して、取得タイミングとする。取得タイミングにあるとき、テレビ受信機120Bは、ステップST63において、カメラ411で視聴者としての個人412を撮像して、カメラ画像(画像情報)を取得する。
次に、テレビ受信機120Bは、ステップST64において、顔処理部414の顔検出部415により、画像情報から顔を検出する。そして、テレビ受信機120Bは、ステップST65において、顔処理部414の個人識別部416により、顔像に対して個人識別処理を行って、個人識別情報(特徴量)を得る。
次に、テレビ受信機120Bは、ステップST66において、ステップST65で得られた個人識別情報に対応した注目時間のログ情報をサーバ装置130から既に受信しているか否かを判断する。受信していないとき、テレビ受信機120Bは、ステップST67において、データ送信部417により、ステップST65で得られた個人識別情報を、サーバ装置130に送信する。テレビ受信機120Bは、このステップST67の処理の後、ステップST68において、処理を終了する。
また、ステップST62でカメラ画像の取得タイミングでないとき、テレビ受信機120Bは、ステップST69において、データ受信部418で、ステップST67で送信した個人識別情報に関連付けされた注目時間のログ情報を受信しているか否かを判断する。受信していないとき、テレビ受信機120Bは、直ちに、ステップST68において、処理を終了する。
一方、受信しているとき、テレビ受信機120Bは、ステップST70において、ログ解析部419により、注目時間(コンテンツ識別情報付加)のログ情報を解析して、コンテンツ種類毎に、評価条件としての興味度係数を設定する。このステップST70の処理の後、テレビ受信機120Bは、ステップST71の処理に移る。上述のステップST66で既にログ情報を受信しているときも、このステップST71の処理に移る。
テレビ受信機120Bは、ステップST71において、推奨コンテンツ決定部420により、各コンテンツ種類の興味度係数を用いて、例えばEPG情報を参照し、推奨番組(コンテンツ)を選択する。そして、テレビ受信機120Bは、ステップST72において、ステップST71で選択された推奨コンテンツを、表示部413に表示し、視聴者である個人412に提示する。テレビ受信機120Bは、このステップST72の処理の後、ステップST68において、処理を終了する。
なお、図18の情報処理システム10Bにおいては、テレビ受信機120Bで、注目時間のログ情報を解析して個人識別情報で特定される個人(人物)における、コンテンツ種類毎の興味度係数を設定するものである。しかし、詳細説明は省略するが、この興味度係数の設定を、上述の情報処理システム10Aにおける笑顔の閾値の設定の場合と同様に、サーバ装置130、あるいはログ情報収集装置であるテレビ受信機110Bで行う構成も考えられる(図13〜図16参照)。
図17に示す情報処理システム10Bにおいては、個人に関連付けされた注目時間(コンテンツ識別情報付加)のログ情報に基づいてコンテンツ種類毎の興味度係数が設定されるため、コンテンツ種類毎の興味度係数はユーザ毎に自動的に最適化される。したがって、ユーザ毎に、最適なコンテンツ(番組)を推奨可能となる。
[情報処理システムの具体例3:構図の評価]
次に、情報処理システム10の具体例3について説明する。図22は、ログ情報収集装置がパーソナルコンピュータ(PC)110Cで、判定実行装置がデジタルスチルカメラ(DSC)120Cである情報処理システム10Cの構成例を示している。また、この情報処理システム10Cでは、評価情報が画像情報であり、画像評価情報が個人に関連付けされる構図を評価する情報である。
この情報処理システム10Cは、パーソナルコンピュータ110C、デジタルスチルカメラ120Cおよびサーバ装置130により構成されている。サーバ装置130は、クラウド上、すなわちネットワーク上に存在する。パーソナルコンピュータ110Cおよびデジタルスチルカメラ120Cは、それぞれ、クラウド上のサーバ装置130と通信が可能とされている。
パーソナルコンピュータ110Cは、個人識別情報に関連付けられる構図評価値(構図であるため単純な一次元の数値とは限らない)のログ情報を収集する。パーソナルコンピュータ110Cは、(1)カメラ(撮像部)231で個人232を撮像して画像情報を得る。パーソナルコンピュータ110Cは、この画像情報から顔像を検出し、この顔像に対して個人識別処理を行って個人識別情報を得る。
また、パーソナルコンピュータ110Cは、インターネットなどからダウンロードした画像情報、あるいはお気に入り設定した画像情報内の主要被写体の構図を評価して、構図評価値を得る。(2)パーソナルコンピュータ110Cは、個人識別情報と共に、構図評価値を、クラウド上のサーバ装置130に送る。サーバ装置130は、パーソナルコンピュータ110Cから送られてくる構図評価値を、個人識別情報に関連付けてデータベースに保存する。
デジタルスチルカメラ120Cは、(3)個人432を撮像して画像情報を得る。デジタルスチルカメラ120Cは、この画像情報から顔を検出し、この顔像に対して個人識別処理を行って個人識別情報を得る。(4)デジタルスチルカメラ120Cは、この個人識別情報をサーバ装置130に送り、(5)サーバ装置130から、その個人識別情報に関連付けて記憶されている構図評価値のログ情報を受け取る。
デジタルスチルカメラ120Cは、そのログ情報を解析して、評価条件(構図の良、否の判定閾値)を設定する。デジタルスチルカメラ120Cは、上述の画像情報内の主要被写体の構図を評価して、構図評価値を得る。そして、デジタルスチルカメラ120Cは、このように得られた構図評価値を判定閾値と比較して、構図の良、否を判定する。(6)デジタルスチルカメラ120Cは、構図が良であると判定するとき、シャッタを切って、個人412のスチル撮像を行う。
図23は、情報処理システム10Cの各部のブロック構成の一例を示している。パーソナルコンピュータ110Cは、カメラ(撮像部)231と、顔処理部233と、構図評価部236と、データ送信部237を有している。カメラ231は、上述したように、個人232を撮像して画像情報を得る。
顔処理部233は、顔検出部234および個人識別部235を備えている。顔処理部233は、顔検出部234により、カメラ231で撮像して得られた画像情報から顔を検出する。この顔検出は、一般的なカメラで用いられている方法を用いて行うことができる。例えば、特開2008−42319号公報には、顔検出方法の一例が記載されている。
また、顔処理部233は、個人識別部235により、顔像に対して個人識別処理を行って、個人識別情報を得る。この個人識別部235は、例えば、個人識別情報として、個人を見分けることができる特徴量を出力する。この個人識別は、セキュリティ分野やカメラの個人を見分ける機能で使われているような一般的な方法を用いて行うことができる。例えば、特開2010−61465号公報には、個人識別方法の一例が記載されている。
構図評価部236は、インターネットなどからダウンロードした画像情報、あるいはお気に入り設定した画像情報内の主要被写体の構図を評価して、構図評価値を得る。例えば、特開2009−100300号公報には、構図判定方法の一例が記載されている。データ送信部237は、構図評価部236で得られた構図評価値をログ情報として、個人識別部235で得られた個人識別情報と共にサーバ装置130に送り、データベースに保存する。このように、パーソナルコンピュータ110Cにおける、上述の個人232の撮像から個人識別情報と共に構図評価値をサーバ装置130に送信する一連の処理は、例えば、ユーザの明示的な操作をもって行われる。
サーバ装置130は、データ受信部301と、データ保存部302と、データベース303と、個人識別情報マッチング部304と、データ送信部305を有している。データ受信部301は、パーソナルコンピュータ110Cから送られてくる個人識別情報および構図評価値を受信すると共に、デジタルスチルカメラ120Cから送られてくる個人識別情報を受信する。
データ保存部302は、データ受信部301がパーソナルコンピュータ110Cからの個人識別情報および構図評価値を受信するとき、その構図評価値をログ情報として、個人識別情報に関連付けて、データベース303に保存する。個人識別情報マッチング部304は、データ受信部301がデジタルスチルカメラ120Cからの個人識別情報を受信するとき、その個人識別情報とデータベース303に記憶されている個人識別情報とのマッチング処理を行う。
そして、個人識別情報マッチング部304は、データベース303に、デジタルスチルカメラ120Cからの個人識別情報に対応した構図評価値のログ情報が存在するか否かを検索する。データ送信部305は、データベース303にデジタルスチルカメラ120Cからの個人識別情報に対応した構図評価値のログ情報があるとき、個人識別情報と共に構図評価値のログ情報を、デジタルスチルカメラ120Cに送信する。
デジタルスチルカメラ120Cは、カメラ(撮像部)431と、顔処理部433と、構図評価部436と、データ送信部437と、データ受信部438と、ログ解析部439と、撮像タイミング制御部440を有している。カメラ431は、上述したように、個人412を撮像して画像情報を得る。
顔処理部433は、顔検出部434および個人識別部435を備えている。顔処理部433は、顔検出部434により、カメラ431で撮像して得られた画像情報から顔を検出する。この顔検出部434は、上述したパーソナルコンピュータ110Cにおける顔検出部234と同様の構成とされており、顔検出を一般的なカメラで用いられている方法を用いて行う。
また、顔処理部433は、個人識別部435により、顔像に対して個人識別処理を行って、個人識別情報を得る。この個人識別部435は、上述したパーソナルコンピュータ110Cにおける個人識別部235と同様の構成とされており、個人識別をセキュリティ分野やカメラの個人を見分ける機能で使われているような一般的な方法を用いて行う。
データ送信部437は、個人識別部435で得られた個人識別情報を、サーバ装置130に送る。構図評価部436は、カメラ431で撮像して得られた画像情報内の主要被写体の構図を評価して、構図評価値を得る。この構図評価部436は、上述したパーソナルコンピュータ110Cにおける構図評価部236と同様の構成とされている。
データ受信部438は、上述したようにサーバ装置130から送られてくる個人識別情報および構図評価値のログ情報を受信する。ログ解析部439は、構図評価値のログ情報を解析して、評価条件(構図の良、否の判定閾値)を設定する。そして、撮像タイミング制御部440は、構図評価部436で得られた構図評価値を、ログ解析部439で設定された判定閾値と比較して、構図の良、否を判定する。
撮像タイミング制御部440は、構図良と判定するとき、スチル画像の撮像が行われるようにカメラ431のシャッタ制御を行う。この場合、カメラ431では、個人432をスチル撮像して、その画像情報を保存することが行われる。なお、撮像対象となる個人(人物)は、最も顔が大きかったり、中心に近かったりする1人でもよく、ユーザに指定された個人でもよく、画面内にいる複数人でもよい。
図23に示す情報処理システム10Cの動作を説明する。最初に、ログ情報収集時の動作を説明する。パーソナルコンピュータ110Cのカメラ231で、関連付けすべき個人232を撮像して画像情報を得る。
顔処理部233では、顔検出部234により、画像情報から顔が検出される。そして、個人識別部235で顔像に対して個人識別処理が行われて個人識別情報が得られる。また、インターネットなどからダウンロードした画像情報、あるいはお気に入り設定した画像情報が構図評価部236に供給される。この構図評価部236では、画像情報内の主要被写体の構図が評価されて、構図評価値が得られる。そして、データ送信部237により、構図評価部236で得られた構図評価値が、ログ情報として、個人識別部235で得られた個人識別情報と共に、サーバ装置130に送られる。
なお、パーソナルコンピュータ110Cにおける、上述の個人232が撮像されて個人識別情報と共に構図評価値のログ情報がサーバ装置130に送信される一連の処理は、例えば、ユーザの明示的な操作をもって行われる。この場合、構図評価値には、日付、時間の情報の他に、環境情報、さらには評価された画像情報に関する情報などが付加されてもよい。
パーソナルコンピュータ110Cから送られる個人識別情報および構図評価値のログ情報は、サーバ装置130のデータ受信部301で受信される。そして、サーバ装置130では、このように受信された構図評価値のログ情報が、個人識別情報に関連付けされて、データベース303に保存される。このようにして、サーバ装置130のデータベース130には、所定数の個人に対応した構図評価値のログ情報が識別可能に保存される。
次に、ログ情報利用時の動作を説明する。デジタルスチルカメラ120Cのカメラ431で、被写体としての個人432が撮像され、評価対象としての画像情報が得られる。この画像情報は、顔処理部433に供給される。顔処理部433では、顔検出部434により、画像情報から顔が検出される。そして、個人識別部435で顔像に対して個人識別処理が行われて個人識別情報が得られる。この個人識別情報は、データ送信部437により、サーバ装置130に送られる。
デジタルスチルカメラ120Cから送られる個人識別情報は、サーバ装置130のデータ受信部301で受信され、個人識別情報マッチング部304に送られる。このマッチング部304では、データベース303に、デジタルスチルカメラ120Cからの個人識別情報に対応した構図評価値のログ情報があるか否かが検索される。対応した構図評価値のログ情報があるとき、データ送信部305により、個人識別情報と共に構図評価値のログ情報が、デジタルスチルカメラ120Cに送信される。
サーバ装置130から送られる個人識別情報および構図評価値のログ情報は、デジタルスチルカメラ120Cのデータ受信部438で受信される。この個人識別情報および構図評価値のログ情報は、ログ解析部439に供給される。ログ解析部439では、構図評価値のログ情報が解析されて、評価条件として構図の良、否の判定閾値が設定される。この判定閾値は、撮像タイミング制御部440に供給される。
また、カメラ431で得られた画像情報は構図評価部436に供給される。構図評価部436では、画像情報内の主要被写体の構図が評価されて、構図評価値が得られる。なお、構図評価部436では、構図評価値を得ることが、繰り返し行われる。この構図評価値は、撮像タイミング制御部440に供給される。
撮像タイミング制御部440では、構図評価部436で得られた構図評価値が、ログ解析部439で設定された判定閾値と比較されて、構図の良、否が判定される。そして、構図良と判定されるとき、撮像タイミング制御部440により、スチル画像の撮像が行われるようにカメラ431のシャッタ制御が行われる。これにより、カメラ431では、個人432がスチル撮像されて、その画像情報が保存される。
図24は、パーソナルコンピュータ110Cの処理フローの一例を示している。パーソナルコンピュータ110Cは、ステップST81において、処理を開始し、その後に、ステップST82の処理に移る。この場合、ユーザの明示的な操作をもって処理を開始する。パーソナルコンピュータ110Cは、ステップST82において、カメラ231で、個人232を撮像する。
次に、パーソナルコンピュータ110Cは、ステップST83において、顔処理部233の顔検出部234により、画像情報から顔を検出する。そして、パーソナルコンピュータ110Cは、ステップST84において、顔処理部233の個人識別部235により、顔像に対して個人識別処理を行って、個人識別情報(特徴量)を得る。
次に、パーソナルコンピュータ110Cは、ステップST85において、構図評価部236により、インターネットなどからダウンロードした画像情報、あるいはお気に入り設定した画像情報内の主要被写体の構図を評価して、構図評価値を得る。そして、パーソナルコンピュータ110Cは、ステップST86において、データ送信部237により、ステップST84で得られた個人識別情報とステップST85で得られた構図評価値を対として、サーバ装置130に送信する。パーソナルコンピュータ110Cは、ステップST86の処理の後、ステップST87において、処理を終了する。
図25は、サーバ装置130の処理フローの一例を示している。サーバ装置130は、この処理フローを所定の周期をもって繰り返し実行する。サーバ装置130は、ステップST91において、処理を開始し、その後に、ステップST92の処理に移る。このステップST92において、サーバ装置130は、データ受信部301でログ情報収集装置(パーソナルコンピュータ110C)からデータを受信しているか否かを判断する。
データを受信しているとき、サーバ装置130は、ステップST93において、データ保存部302により、受信された個人識別情報および構図評価値のログ情報を、データベース303に保存する。サーバ装置130は、このステップST93の処理の後、ステップST94において、処理を終了する。
上述のステップST92で、データを受信していないとき、サーバ装置130は、ステップST95の処理に移る。このステップST95において、サーバ装置130は、データ受信部301で判定実行装置(デジタルスチルカメラ120C)からデータを受信しているか否かを判断する。データを受信していないとき、サーバ装置130は、直ちに、ステップST94において、処理を終了する。
一方、データを受信しているとき、サーバ装置130は、ステップST96の処理に移る。このステップST96において、サーバ装置130は、個人識別情報マッチング部304により、受信された個人識別情報とデータベース303に記憶されている個人識別情報とのマッチング処理を行って、データベース303にその個人識別情報に対応した構図評価値のログ情報が存在するか否かを検索する。
次に、サーバ装置130は、ステップST97において、ステップST96の検索結果に基づいて、データベース303に受信された個人識別情報に対応した構図評価値のログ情報があるか否かを判断する。ログ情報があるとき、サーバ装置130は、ステップST88において、データ送信部305により、データベース303からそのログ情報を取り出し、デジタルスチルカメラ120Cに送信する。
サーバ装置130は、ステップST98の処理の後、ステップST94において、処理を終了する。また、ステップST97でログ情報がないとき、サーバ装置130は、直ちに、ステップST94において、処理を終了する。
図26は、デジタルスチルカメラ120Cの処理フローの一例を示している。デジタルスチルカメラ120Cは、この処理フローを所定の周期をもって繰り返し実行する。デジタルスチルカメラ120Cは、ステップST121において、処理を開始し、その後に、ステップST122の処理に移る。
デジタルスチルカメラ120Cは、ステップST122において、カメラ画像(画像情報)の取得タイミングにあるか否かを判断する。取得タイミングは、例えば、ユーザの明示的な操作をもって与えられる。取得タイミングにあるとき、デジタルスチルカメラ120Cは、ステップST123において、カメラ431で被写体としての個人432を撮像して、カメラ画像(画像情報)を取得する。
次に、デジタルスチルカメラ120Cは、ステップST124において、顔処理部433の顔検出部434により、画像情報から顔を検出する。そして、デジタルスチルカメラ120Cは、ステップST125において、顔処理部433の個人識別部435により、顔像に対して個人識別処理を行って、個人識別情報(特徴量)を得る。
次に、デジタルスチルカメラ120Cは、ステップST126において、ステップST125で得られた個人識別情報に対応した構図評価値のログ情報をサーバ装置130から既に受信しているか否かを判断する。受信していないとき、デジタルスチルカメラ120Cは、ステップST127において、データ送信部437により、ステップST125で得られた個人識別情報を、サーバ装置130に送信する。デジタルスチルカメラ120Cは、このステップST127の処理の後、ステップST128において、処理を終了する。
また、ステップST122でカメラ画像の取得タイミングでないとき、デジタルスチルカメラ120Cは、ステップST129において、データ受信部438で、ステップST127で送信した個人識別情報に関連付けされた構図評価値のログ情報を受信しているか否かを判断する。受信しているとき、デジタルスチルカメラ120Cは、ステップST130において、ログ解析部439により、構図評価値のログ情報を解析して、構図の良、否の判定閾値を設定する。
デジタルスチルカメラ120Cは、ステップST130の処理の後、ステップST131の処理に移る。上述のステップST126で既にログ情報を受信しているときも、このステップST131の処理に移る。このステップST131において、デジタルスチルカメラ120Cは、構図評価部436により、カメラ431で撮像して得られた画像情報内の主要被写体の構図を評価して、構図評価値を得る。
次に、デジタルスチルカメラ120Cは、ステップST132において、ステップST131で得られた構図評価値が、設定された判定閾値を越えるか否かを判断する。越えているとき、デジタルスチルカメラ120Cは、ステップST133において、撮像タイミング制御部440により、カメラ431のシャッタを制御し、個人412のスチル画像の撮像を行う。デジタルスチルカメラ120Cは、このステップST133の処理の後、ステップST128において、処理を終了する。一方、ステップST132で越えていないとき、デジタルスチルカメラ120Cは、直ちに、ステップST128において、処理を終了する。
また、ステップST129でログ情報が受信されていないとき、デジタルスチルカメラ120Cは、ステップST134において、ステップST127で個人識別情報をサーバ装置130に送信してから一定時間が経過したか否かを判断する。一定時間が経過していないとき、デジタルスチルカメラ120Cは、直ちに、ステップST128において、処理を終了する。
また、ステップST134で一定時間が経過しているとき、デジタルスチルカメラ120Cは、ステップST135において、構図良否の判定閾値をデフォルト値に設定し、その後に、ステップST131の処理に移る。すなわち、この場合、個人識別情報に関連付けされている構図評価値のログ情報がデータベース303に保存されていなかったことを意味し、構図評価値のログ情報を解析することによる構図良否の判定閾値の設定は不可能となる。そのため、この場合には、構図良否の判定閾値は、デフォルト値に設定され、以降の処理が行われる。
なお、図22の情報処理システム10Cにおいては、デジタルスチルカメラ120Cで、構図評価値のログ情報を解析して個人識別情報で特定される個人(人物)における構図良否の判定閾値を設定するものである。しかし、詳細説明は省略するが、この構図良否の判定閾値の設定を、上述の情報処理システム10Aにおける笑顔の閾値の設定の場合と同様に、サーバ装置130、あるいはログ情報収集装置であるパーソナルコンピュータ110Cで行う構成も考えられる(図13〜図16参照)。
図22に示す情報処理システム10Cにおいては、個人に関連付けされた構図評価値のログ情報に基づいて構図良否の判定閾値が設定されるため、構図良否の判定閾値はユーザ毎に自動的に最適化される。したがって、各個人は、構図検出によるスチル撮像を、所望の構図となったタイミングで良好に行うことができる。
[情報処理システムの具体例4:音声感情の評価]
次に、情報処理システム10の具体例4について説明する。図27は、ログ情報収集装置がパーソナルコンピュータ(PC)110Dで、判定実行装置がテレビ受信機(TV)120Dである情報処理システム10Dの構成例を示している。また、この情報処理システム10Dでは、評価情報が音声情報であり、音声評価情報が個人の音声感情を評価する情報である。ここで、音声感情には、「喜び」、「悲しみ」「怒り」、「驚き」、「幸せ」などがある。ここでは、説明を簡単にするために、音声感情は「喜び」であるとする。
この情報処理システム10Dは、パーソナルコンピュータ110D、テレビ受信機120Dおよびサーバ装置130により構成されている。サーバ装置130は、クラウド上、すなわちネットワーク上に存在する。パーソナルコンピュータ110Dおよびテレビ受信機120Dは、それぞれ、クラウド上のサーバ装置130と通信が可能とされている。
パーソナルコンピュータ110Dは、個人識別情報に関連付けられる喜び評価値のログ情報を収集する。パーソナルコンピュータ110Dは、(1)カメラ(撮像部)251で個人252を撮像して画像情報を得る。パーソナルコンピュータ110Dは、この画像情報から顔像を検出し、この顔像に対して個人識別処理を行って個人識別情報を得る。
また、パーソナルコンピュータ110Dは、個人252の音声をマイクロホン253で捉えて得られる音声信号(音声情報)の音声感情(喜び)を評価(推定)して、喜び評価値を得る。(2)パーソナルコンピュータ110Dは、個人識別情報と共に、喜び評価値を、クラウド上のサーバ装置130に送る。サーバ装置130は、テレビ受信機110Aから送られてくる喜び評価値を、個人識別情報に関連付けてデータベースに保存する。
テレビ受信機120Dは、(3)個人452を撮像して画像情報を得る。テレビ受信機120Dは、この画像情報から顔を検出し、この顔像に対して個人識別処理を行って個人識別情報を得る。(4)テレビ受信機120Dは、この個人識別情報をサーバ装置130に送り、(5)サーバ装置130から、その個人識別情報に関連付けて記憶されている喜び評価値のログ情報を受け取る。
テレビ受信機120Dは、そのログ情報を解析して、喜びの度合いを区別する所定数の閾値を設定する。また、テレビ受信機120Dは、個人452の音声をマイクロホン453で捉えて得られる音声信号(音声情報)に基づいて音声感情(喜び)を評価(推定)して、喜び評価値を得る。そして、テレビ受信機120Dは、喜び評価値を閾値と比較して、どの段階の喜びであるかを判定する。(6)テレビ受信機120Dは、スピーカ454から、判定結果に対応した音声を出力する。
例えば、喜びの段階が高い場合には、「おめでとう、よかったね!」、あるいは、喜びの段階が低く悲しみに近い場合には、「元気を出せ!」など、である。また、言葉ではなく、喜びの段階に相応しい音楽を出力することも考えられる。また、音声出力ではなく、喜びの段階に相応しいコンテンツ(番組)を表示部に推奨コンテンツとして表示することなども考えられる。
図28は、情報処理システム10Dの各部のブロック構成の一例を示している。パーソナルコンピュータ110Dは、カメラ(撮像部)251と、マイクロホン253と、顔処理部254と、音声感情評価部257と、データ送信部258を有している。カメラ251は、上述したように、個人252を撮像して、画像情報を得る。
顔処理部254は、顔検出部255および個人識別部256を備えている。顔処理部254は、顔検出部255により、カメラ251で撮像して得られた画像情報から顔を検出する。この顔検出は、一般的なカメラで用いられている方法を用いて行うことができる。例えば、特開2008−42319号公報には、顔検出方法の一例が記載されている。
また、顔処理部254は、個人識別部256により、顔像に対して個人識別処理を行って、個人識別情報を得る。この個人識別部256は、例えば、個人識別情報として、個人を見分けることができる特徴量を出力する。この個人識別は、セキュリティ分野やカメラの個人を見分ける機能で使われているような一般的な方法を用いて行うことができる。例えば、特開2010−61465号公報には、個人識別方法の一例が記載されている。
マイクロホン253は、個人252の音声を捉えて、音声信号(音声情報)を得る。音声感情評価部257は、音声信号(音声情報)の音声感情(喜び)を評価(推定)して、喜び評価値を得る。例えば、特開2006−71936号公報には、音声感情の推定方法の一例が記載されている。
データ送信部258は、音声感情評価部257で得られた喜び評価値をログ情報として、個人識別部256で得られた個人識別情報と共にサーバ装置130に送り、データベースに保存する。このように、パーソナルコンピュータ110Dにおける、上述の個人252の撮像から個人識別情報と共に喜び評価値をサーバ装置130に送信する一連の処理は、例えば、ユーザの明示的な操作をもって、あるいは個人252の音声入力時に自動的に行われる。
サーバ装置130は、データ受信部301と、データ保存部302と、データベース303と、個人識別情報マッチング部304と、データ送信部305を有している。データ受信部301は、パーソナルコンピュータ110Dから送られてくる個人識別情報および喜び評価値を受信すると共に、テレビ受信機120Dから送られてくる個人識別情報を受信する。
データ保存部302は、データ受信部301がパーソナルコンピュータ110Dからの個人識別情報および喜び評価値を受信するとき、その喜び評価値をログ情報として、個人識別情報に関連付けて、データベース303に保存する。個人識別情報マッチング部304は、データ受信部301がテレビ受信機120Dからの個人識別情報を受信するとき、その個人識別情報とデータベース303に記憶されている個人識別情報とのマッチング処理を行う。
そして、個人識別情報マッチング部304は、データベース303に、テレビ受信機120Dからの個人識別情報に対応した喜び評価値のログ情報が存在するか否かを検索する。データ送信部305は、データベース303にテレビ受信機120Dからの個人識別情報に対応した喜び評価値のログ情報があるとき、個人識別情報と共に喜び評価値のログ情報を、テレビ受信機120Dに送信する。
テレビ受信機120Dは、カメラ(撮像部)451と、マイクロホン453と、スピーカ454と、顔処理部455と、データ送信部458を有している。また、テレビ受信機120Dは、データ受信部459と、ログ解析部460と、音声感情評価部461と、音声合成制御部462と、音声合成処理部463を有している。
カメラ451は、上述したように、個人452を撮像して画像情報を得る。顔処理部455は、顔検出部456および個人識別部457を備えている。顔処理部455は、顔検出部456により、カメラ451で撮像して得られた画像情報から顔を検出する。この顔検出部456は、上述したパーソナルコンピュータ110Dにおける顔検出部255と同様の構成とされており、顔検出を一般的なカメラで用いられている方法を用いて行う。
また、顔処理部455は、個人識別部457により、顔像に対して個人識別処理を行って、個人識別情報を得る。この個人識別部457は、上述したパーソナルコンピュータ110Dにおける個人識別部256と同様の構成とされており、個人識別をセキュリティ分野やカメラの個人を見分ける機能で使われているような一般的な方法を用いて行う。データ送信部458は、個人識別部457で得られた個人識別情報を、サーバ装置130に送る。
データ受信部459は、上述したようにサーバ装置130から送られてくる個人識別情報および喜び評価値のログ情報を受信する。ログ解析部460は、喜び評価値のログ情報を解析して、喜びの度合いを区別する所定数の閾値を設定する。マイクロホン453は、個人452の音声を捉えて、音声信号(音声情報)を得る。音声感情評価部461は、音声信号(音声情報)の音声感情(喜び)を評価(推定)して、喜び評価値を得る。この音声感情評価部461は、上述したパーソナルコンピュータ110Dにおける音声感情評価部257と同様の構成とされている。
音声合成制御部462は、音声感情評価部461で得られる喜び評価値を、ログ解析部460で設定された閾値と比較して、どの段階の喜びであるかを判定する。そして、この音声合成制御部462は、判定結果に基づいて音声合成処理部463を制御する。音声合成処理部463は、どの段階の喜びであるかの判定結果に対応した音声を得るための音声信号を合成する。スピーカ454は、この合成音声信号による音声を出力する。
図28に示す情報処理システム10Dの動作を説明する。最初に、ログ情報収集時の動作を説明する。パーソナルコンピュータ110Dのカメラ251で、個人252を撮像して画像情報を得る。顔処理部254では、顔検出部255により、画像情報から顔が検出される。そして、個人識別部256で顔像に対して個人識別処理が行われて個人識別情報が得られる。
マイクロホン253で個人252の音声が捉えられて音声信号(音声情報)が得られる。この音声信号は音声感情評価部257に供給される。この音声感情評価部257では、音声信号(音声情報)の音声感情(喜び)が評価(推定)されて、喜び評価値が得られる。そして、データ送信部258により、音声感情評価部257で得られた喜び評価値が、ログ情報として、個人識別部256で得られた個人識別情報と共に、サーバ装置130に送られる。
なお、パーソナルコンピュータ110Dにおける、上述の個人252が撮像されて個人識別情報と共に喜び評価値のログ情報がサーバ装置130に送信される一連の処理は、例えば、ユーザの明示的な操作をもって行われる。この場合、喜び評価値には、日付、時間の情報の他に、環境情報などが付加されてもよい。
パーソナルコンピュータ110Dから送られる個人識別情報および喜び評価値のログ情報は、サーバ装置130のデータ受信部301で受信される。そして、サーバ装置130では、このように受信された喜び評価値のログ情報が、個人識別情報に関連付けされて、データベース303に保存される。このようにして、サーバ装置130のデータベース130には、所定数の個人に対応した喜び評価値のログ情報が識別可能に保存される。
次に、ログ情報利用時の動作を説明する。テレビ受信機120Dのカメラ451で、個人452が撮像され画像情報が得られる。この画像情報は、顔処理部455に供給される。顔処理部455では、顔検出部456により、画像情報から顔が検出される。そして、個人識別部457で顔像に対して個人識別処理が行われて個人識別情報が得られる。この個人識別情報は、データ送信部458により、サーバ装置130に送られる。
テレビ受信機120Dから送られる個人識別情報は、サーバ装置130のデータ受信部301で受信され、個人識別情報マッチング部304に送られる。このマッチング部304では、データベース303に、デジタルスチルカメラ120Cからの個人識別情報に対応した喜び評価値のログ情報があるか否かが検索される。対応した喜び評価値のログ情報があるとき、データ送信部305により、個人識別情報と共に喜び評価値のログ情報が、テレビ受信機120Dに送信される。
サーバ装置130から送られる個人識別情報および喜び評価値のログ情報は、テレビ受信機120Dのデータ受信部459で受信される。この個人識別情報および喜び評価値のログ情報は、ログ解析部460に供給される。ログ解析部460では、喜び評価値のログ情報が解析されて、喜びの度合いを区別する所定数の閾値が設定される。この閾位置は、音声合成制御部462に供給される。
また、マイクロホン453で個人452の音声が捉えられて音声信号(音声情報)が得られる。この音声信号は音声感情評価部461に供給される。この音声感情評価部257では、音声信号(音声情報)の音声感情(喜び)が評価(推定)されて、喜び評価値が得られる。この喜び評価値は、音声合成制御部462に供給される。
この音声合成制御部462では、音声感情評価部461で得られる喜び評価値が、ログ解析部460で設定された閾値と比較されて、どの段階の喜びであるかが判定され、その判定結果に基づいて音声合成処理部463が制御される。音声合成処理部463では、どの段階の喜びであるかの判定結果に対応した音声を得るための音声信号が合成される。そして、この合成音声信号はスピーカ454に供給され、この合成音声信号による音声が出力される。
図29は、パーソナルコンピュータ110Dの処理フローの一例を示している。パーソナルコンピュータ110Dは、ステップST141において、処理を開始し、その後に、ステップST142の処理に移る。例えば、ユーザの明示的な操作をもって処理を開始する。パーソナルコンピュータ110Dは、ステップST142において、カメラ251で、個人252を撮像する。
次に、パーソナルコンピュータ110Dは、ステップST143において、顔処理部254の顔検出部256により、画像情報から顔を検出する。そして、パーソナルコンピュータ110Dは、ステップST144において、顔処理部254の個人識別部256により、顔像に対して個人識別処理を行って、個人識別情報(特徴量)を得る。
次に、パーソナルコンピュータ110Dは、ステップST145において、音声感情評価部257により、マイクロホン253で得られる個人252の音声信号(音声情報)を評価(推定)して、喜び評価値を得る。そして、パーソナルコンピュータ110Dは、ステップST146において、ステップST144で得られた個人識別情報とステップST145で得られた喜び評価値を対として、サーバ装置130に送信する。パーソナルコンピュータ110Dは、ステップST146の処理の後、ステップST147において、処理を終了する。
図30は、サーバ装置130の処理フローの一例を示している。サーバ装置130は、この処理フローを所定の周期をもって繰り返し実行する。サーバ装置130は、ステップST151において、処理を開始し、その後に、ステップST152の処理に移る。このステップST152において、サーバ装置130は、データ受信部301でログ情報収集装置(パーソナルコンピュータ110D)からデータを受信しているか否かを判断する。
データを受信しているとき、サーバ装置130は、ステップST153において、データ保存部302により、受信された個人識別情報および喜び評価値のログ情報を、データベース303に保存する。サーバ装置130は、このステップST153の処理の後、ステップST154において、処理を終了する。
上述のステップST152で、データを受信していないとき、サーバ装置130は、ステップST155の処理に移る。このステップST155において、サーバ装置130は、データ受信部301で判定実行装置(テレビ受信機120D)からデータを受信しているか否かを判断する。データを受信していないとき、サーバ装置130は、直ちに、ステップST154において、処理を終了する。
一方、データを受信しているとき、サーバ装置130は、ステップST156の処理に移る。このステップST156において、サーバ装置130は、個人識別情報マッチング部304により、受信された個人識別情報とデータベース303に記憶されている個人識別情報とのマッチング処理を行って、データベース303にその個人識別情報に対応した喜び評価値のログ情報が存在するか否かを検索する。
次に、サーバ装置130は、ステップST157において、ステップST156の検索結果に基づいて、データベース303に受信された個人識別情報に対応した喜び評価値のログ情報があるか否かを判断する。ログ情報があるとき、サーバ装置130は、ステップST158において、データ送信部305により、データベース303からそのログ情報を取り出し、テレビ受信機120Dに送信する。
サーバ装置130は、ステップST158の処理の後、ステップST154において、処理を終了する。また、ステップST157でログ情報がないとき、サーバ装置130は、直ちに、ステップST154において、処理を終了する。
図31は、テレビ受信機120Dの処理フローの一例を示している。テレビ受信機120Dは、この処理フローを所定の周期をもって繰り返し実行する。テレビ受信機120Dは、ステップST161において、処理を開始し、その後に、ステップST162の処理に移る。
テレビ受信機120Dは、ステップST162において、カメラ画像(画像情報)の取得タイミングにあるか否かを判断する。取得タイミングは、例えば、ユーザの明示的な操作をもって与えられる。取得タイミングにあるとき、テレビ受信機120Dは、ステップST163において、カメラ451で個人452を撮像して、カメラ画像(画像情報)を取得する。
次に、テレビ受信機120Dは、ステップST164において、顔処理部455の顔検出部456により、画像情報から顔を検出する。そして、テレビ受信機120Dは、ステップST165において、顔処理部455の個人識別部457により、顔像に対して個人識別処理を行って、個人識別情報(特徴量)を得る。
次に、テレビ受信機120Dは、ステップST166において、ステップST165で得られた個人識別情報に対応した喜び評価値のログ情報をサーバ装置130から既に受信しているか否かを判断する。受信していないとき、テレビ受信機120Dは、ステップST167において、データ送信部458により、ステップST165で得られた個人識別情報を、サーバ装置130に送信する。テレビ受信機120Dは、このステップST167の処理の後、ステップST168において、処理を終了する。
また、ステップST162でカメラ画像の取得タイミングでないとき、テレビ受信機120Dは、ステップST169において、データ受信部459で、ステップST167で送信した個人識別情報に関連付けされた喜び評価値のログ情報を受信しているか否かを判断する。受信しているとき、テレビ受信機120Dは、ステップST170において、ログ解析部460により、喜び評価値のログ情報を解析して、喜びの度合いを区別する所定数の閾値を設定する。
テレビ受信機120Dは、ステップST170の処理の後、ステップST171の処理に移る。上述のステップST166で既にログ情報を受信しているときも、このステップST171の処理に移る。このステップST171において、テレビ受信機120Dは、音声感情評価部461により、マイクロホン453で得られる個人452の音声信号(音声情報)を評価(推定)して、喜び評価値を得る。
次に、テレビ受信機120Dは、ステップST172において、音声合成制御部461により、喜び評価値を閾値と比較して、どの段階の喜びであるかが判定する。そして、テレビ受信機120Dは、ステップST173において、音声合成処理部462により、判定結果に対応した音声を得るための音声信号を合成し、スピーカ454から、その合成音声信号による音声を出力する。なお、音声合成処理を行わずに、予め用意されている音声信号による音声を出力するようにしてもよい。
テレビ受信機120Dは、このステップST173の処理の後、ステップST168において、処理を終了する。また、テレビ受信機120Dは、ステップST169でログ情報が受信されていないとき、ステップST174において、ステップST167で個人識別情報をサーバ装置130に送信してから一定時間が経過したか否かを判断する。一定時間が経過していないとき、テレビ受信機120Dは、直ちに、ステップST168において、処理を終了する。
また、ステップST174で一定時間が経過しているとき、テレビ受信機120Dは、ステップST175において、喜びの度合いを区別する所定数の閾値をデフォルト値に設定し、その後に、ステップST171の処理に移る。すなわち、この場合、個人識別情報に関連付けされている喜び評価値のログ情報がデータベース303に保存されていなかったことを意味し、喜び評価値のログ情報を解析することによる閾値の設定は不可能となる。そのため、この場合には、閾値は、デフォルト値に設定され、以降の処理が行われる。
なお、図27の情報処理システム10Dにおいては、テレビ受信機120Dで、喜び評価値のログ情報を解析して個人識別情報で特定される個人(人物)に対応した、喜びの度合いを区別する所定数の閾値を設定するものである。しかし、詳細説明は省略するが、この閾値の設定を、上述の情報処理システム10Aにおける笑顔の閾値の設定の場合と同様に、サーバ装置130、あるいはログ情報収集装置であるパーソナルコンピュータ110Dで行う構成も考えられる(図13〜図16参照)。
図27に示す情報処理システム10Dにおいては、個人に関連付けされた喜び評価値のログ情報に基づいて喜びの度合いを区別する所定数の閾値が設定される。つまり、喜びの度合いを区別する所定数の閾値は、ユーザ毎に自動的に最適化される。したがって、音声信号(音声情報)の個人差によらずに、喜びの段階を適切に判断でき、適切な音声の出力が可能になる。
[情報処理システムの具体例5:ログ情報収集装置、判定実行装置が同一機器]
次に、情報処理システム10の具体例5について説明する。図32は、ログ情報収集装置および判定実行装置が同一機器であって、デジタルスチルカメラ110である情報処理システム10Eの構成例を示している。また、この情報処理システム10Eでは、上述の図5に示す情報処理システム10Aと同様に、評価情報が画像情報であり、画像評価情報が個人(人物)の笑顔を評価する情報である。
この情報処理システム10Eは、デジタルスチルカメラ110Eおよびサーバ装置130により構成されている。サーバ装置130は、クラウド上、すなわちネットワーク上に存在する。デジタルスチルカメラ110Eは、クラウド上のサーバ装置130と通信が可能とされている。
デジタルスチルカメラ110Eは、ログ情報収集時には、個人識別情報に関連付けられる笑顔度のログ情報を収集する。デジタルスチルカメラ110Eは、(1)カメラ(撮像部)261で個人262を撮像して画像情報を得る。デジタルスチルカメラ110Eは、この画像情報から顔像を検出し、この顔像に対して個人識別処理を行って個人識別情報を得ると共に、この顔像に対して笑顔認識処理を行って笑顔度を求める。
(2)デジタルスチルカメラ110Eは、個人識別情報と共に、笑顔度を、クラウド上のサーバ装置130に送る。サーバ装置130は、デジタルスチルカメラ110Eから送られてくる笑顔度を、個人識別情報に関連付けてデータベースに保存する。
また、デジタルスチルカメラ110Eは、ログ情報利用時には、(3)被写体としての個人262を撮像して画像情報を得る。デジタルスチルカメラ110Eは、この画像情報から顔を検出し、この顔像に対して個人識別処理を行って個人識別情報を得る。(4)デジタルスチルカメラ110Eは、この個人識別情報をサーバ装置130に送り、(5)サーバ装置130から、その個人識別情報に関連付けて記憶されている笑顔度のログ情報を受け取る。
デジタルスチルカメラ110Eは、そのログ情報を解析して、評価条件(笑顔の閾値)を設定する。デジタルスチルカメラ110Eは、上述の顔像に対して笑顔認識処理を行って笑顔度を得る。そして、デジタルスチルカメラ110Eは、このように得られた笑顔度を評価条件に基づいて評価する。(6)デジタルスチルカメラ110Eは、笑顔度が閾値より大きいとき、笑顔であると判断し、シャッタを切って、被写体としての個人262のスチル撮像を行う。
図33は、情報処理システム10Eの各部のブロック構成の一例を示している。デジタルスチルカメラ110Eは、カメラ(撮像部)261と、顔処理部263と、データ送信部267を有している。また、デジタルスチルカメラ110Eは、データ受信部268と、ログ解析部269と、撮像タイミング制御部270を有している。カメラ261は、上述したように、ログ情報収集時には、個人262を撮像して評価対象としての画像情報を得ると共に、ログ情報利用時には、被写体としての個人262を撮像して画像情報を得る。
顔処理部263は、上述の図6に示す情報処理システム10Aのデジタルスチルカメラ120Aにおける顔処理部402と同様の構成とされており、顔検出部264、個人識別部265および笑顔認識部266を備えている。
顔検出部264は、カメラ261で撮像して得られた画像情報から顔を検出する。個人識別部265は、顔像に対して個人識別処理を行って、個人識別情報、例えば、個人を見分けることができる特徴量を出力する。笑顔認識部266は、顔像に対して笑顔認識処理を行って、例えば、0〜100の範囲内の値の笑顔度(笑顔スコア)を得る。
データ送信部267は、ログ情報収集時には、笑顔認識部266で得られた笑顔度をログ情報として、個人識別部265で得られた個人識別情報と共にサーバ装置130に送る。デジタルスチルカメラ110Eにおける、上述の個人262の撮像から個人識別情報と共に笑顔度をサーバ装置130に送信する一連の処理は、ユーザの明示的な操作、あるいは個人262の存在を認識して自動的に行われる。一方、データ送信部267は、ログ情報利用時には、個人識別部265で得られた個人識別情報のみを、サーバ装置130に送る。
データ受信部268は、ログ情報利用時に、サーバ装置130から送られてくる個人識別情報および笑顔度のログ情報を受信する。ログ解析部269は、笑顔度のログ情報を解析して、評価条件、ここでは笑顔の最適な閾値を設定する。撮像タイミング制御部270は、ログ情報利用時に、笑顔認識部266で得られる笑顔度が、ログ解析部269で求められた笑顔の閾値を越えるとき、スチル画像の撮像が行われるようにカメラ261のシャッタ制御を行う。ログ解析部269、撮像タイミング制御部270は、詳細説明は省略するが、上述の図6に示す情報処理システム10Aのデジタルスチルカメラ120Aにおけるログ解析部408、撮像タイミング制御部409と同様の構成とされている。
サーバ装置130は、データ受信部301と、データ保存部302と、データベース303と、個人識別情報マッチング部304と、データ送信部305を有している。データ受信部301は、ログ情報収集時のデジタルスチルカメラ110Eから送られてくる個人識別情報および笑顔度の対の情報を受信すると共に、ログ情報利用時のデジタルスチルカメラ110Eから送られてくる個人識別情報を受信する。
データ保存部302は、データ受信部301がデジタルスチルカメラ110Eから個人識別情報および笑顔度のログ情報を受信するとき、その笑顔度を個人識別情報に関連付けて、データベース303に保存する。個人識別情報マッチング部304は、データ受信部301がデジタルスチルカメラ110Eから個人識別情報のみを受信するとき、その個人識別情報とデータベース303に記憶されている個人識別情報とのマッチング処理を行う。
そして、個人識別情報マッチング部304は、マッチング処理により、データベース303に、デジタルスチルカメラ110Eからの個人識別情報に対応した笑顔度のログ情報が存在するか否かを検索する。データ送信部305は、データベース303にデジタルスチルカメラ110Eからの個人識別情報に対応した笑顔度のログ情報があるとき、個人識別情報と共に笑顔度のログ情報を、デジタルスチルカメラ110Eに送信する。
図33に示す情報処理システム10Eの動作を説明する。最初に、ログ情報収集時の動作を説明する。デジタルスチルカメラ110Eのカメラ201で、ログ情報収集の対象となる個人262が撮像され、評価対象としての画像情報が得られる。この画像情報は、顔処理部263に供給される。
顔処理部263では、顔検出部264により、画像情報から顔が検出される。そして、個人識別部265で顔像に対して個人識別処理が行われて個人識別情報が得られると共に、笑顔認識部266で顔像に対して笑顔認識処理が行われて笑顔度(笑顔スコア)が得られる。そして、データ送信部267により、笑顔度は、ログ情報として、個人識別情報と共にサーバ装置130に送られる。
デジタルスチルカメラ110Eから送られる個人識別情報および笑顔度のログ情報は、サーバ装置130のデータ受信部301で受信される。サーバ装置130では、このように受信された笑顔度のログ情報が、個人識別情報に関連付けされて、データベース303に保存される。このようにして、サーバ装置130のデータベース303には、所定数の個人に対応した笑顔度のログ情報が識別可能に保存される(図7〜図9参照)。
次に、ログ情報利用時の動作を説明する。デジタルスチルカメラ110Eのカメラ261で、被写体としての個人262が撮像され、評価対象としての画像情報が得られる。この画像情報は、顔処理部263に供給される。顔検出部264で画像情報から顔が検出され、個人識別部265で顔像に対して個人識別処理が行われて個人識別情報が得られる。この個人識別情報は、データ送信部267により、サーバ装置130に送られる。
デジタルスチルカメラ110Eから送られる個人識別情報は、サーバ装置130のデータ受信部301で受信され、個人識別情報マッチング部304に送られる。このマッチング部304では、データベース303に、デジタルスチルカメラ110Eからの個人識別情報に対応した笑顔度のログ情報が存在するか否かが検索される。その笑顔度のログ情報がデータベース303から取り出され、データ送信部305により、個人識別情報と共にデジタルスチルカメラ110Eに送信される。
サーバ装置130から個人識別情報と共に送られてくる笑顔度のログ情報は、デジタルスチルカメラ110Eのデータ受信部268で受信され、ログ解析部269に供給される。このログ解析部269では、笑顔度のログ情報が解析されて、評価条件として、被写体としての個人262に対応した笑顔の最適な閾値が設定される。この笑顔の閾値は、撮像タイミング制御部270に供給される。
また、顔処理部263では、笑顔認識部266により、顔像に対して笑顔認識処理が行われて笑顔度(笑顔スコア)が得られる。この笑顔度は、撮像タイミング制御部270に供給される。なお、ログ情報利用時には、カメラ261から連続して画像情報が出力される状態となっており、笑顔認識部266では笑顔度を得ることが繰り返し行われる。
撮像タイミング制御部270では、笑顔認識部266で得られる笑顔度が、ログ解析部269で設定される閾値を越えるとき、スチル画像の撮像が行われるようにカメラ261のシャッタ制御が行われる。この場合、カメラ261では、被写体としての個人262のスチル撮像が行われ、その画像情報が保存される。
なお、デジタルスチルカメラ110Eのログ情報収集時における処理フローは、上述の図6に示す情報処理システム10Aのテレビ受信機110Aの処理フロー(図10参照)と同様になる。また、デジタルスチルカメラ110Eのログ情報利用時における処理フローは、上述の図6に示す情報処理システム10Aのデジタルスチルカメラ110Aの処理フロー(図12参照)と同様になる。また、サーバ装置130の処理フローは、図6に示す情報処理システム10Aのサーバ装置130の処理フロー(図11参照)と同様になる。
図32に示す情報処理システム10Eにおいては、個人に関連付けされた笑顔度のログ情報に基づいて笑顔の閾値が設定されるため、笑顔の閾値はユーザ毎に自動的に最適化される。したがって、表情認識の個人差によらずに、笑顔検出シャッタによる撮像を良好に行うことができる。なお、笑顔ではなく、その他の顔の表情(怒りや悲しみ)、さらには見た目の年齢を検出してシャッタ制御を行う場合も同様である。
[情報処理システムの具体例6:他ユーザ収集ログ情報の使用]
次に、情報処理システム10の具体例6について説明する。図34は、ログ情報収集装置が、テレビ受信機(TV)110Aa,110Abで、判定実行装置がデジタルスチルカメラ(DSC)120Aである情報処理システム10A′の構成例を示している。この図34において、図6に対応する部分には同一符号を付し、その詳細説明は省略する。
この構成例は、デジタルスチルカメラ120Aのユーザが、自分がクラウド上のサーバ装置130に保存した笑顔度のログ情報だけでなく、他のユーザがクラウド上のサーバ装置130に保存した笑顔度のログ情報をも利用可能であることを示すものである。この情報処理システム10A′では、図6に示す情報処理装置10Aと同様に、評価情報が画像情報であり、画像評価情報が個人(人物)の顔の表情、ここでは笑顔を評価する情報である。
この情報処理システム10A′は、テレビ受信機110Aa,110Ab、デジタルスチルカメラ120Aおよびサーバ装置130により構成されている。サーバ装置130は、クラウド上、すなわちネットワーク上に存在する。テレビ受信機110Aa,110Abおよびデジタルスチルカメラ120Aは、それぞれ、クラウド上のサーバ装置130と通信が可能とされている。テレビ受信機110Aa,110Abは、それぞれ、図6に示す情報処理装置10Aにおけるテレビ受信機110Aと同様に構成されている。サーバ装置130、デジタルスチルカメラ120Aは、それぞれ、図6に示す情報処理装置10Aにおけるサーバ装置130、デジタルスチルカメラ120Aと同様に構成されている。
テレビ受信機110Aaは、デジタルスチルカメラ120AのユーザU1が所有するものであり、個人識別情報に関連付けられる笑顔度のログ情報を収集する。テレビ受信機110Aは、(1)カメラ(撮像部)201aで個人202aを撮像して画像情報を得る。テレビ受信機110Aaは、この画像情報から顔像を検出し、この顔像に対して個人識別処理を行って個人識別情報を得ると共に、この顔像に対して笑顔認識処理を行って笑顔度を求める。(2)テレビ受信機110Aaは、個人識別情報と共に、笑顔度を、クラウド上のサーバ装置130に送る。サーバ装置130は、テレビ受信機110Aaから送られてくる笑顔度を、個人識別情報に関連付けてデータベースに保存する。
また、テレビ受信機110Abは、デジタルスチルカメラ120AのユーザU1とは異なるユーザU2が所有するものであり、個人識別情報に関連付けられる笑顔度のログ情報を収集する。テレビ受信機110Abは、(1′)カメラ(撮像部)201bで個人202bを撮像して画像情報を得る。テレビ受信機110Aaは、この画像情報から顔像を検出し、この顔像に対して個人識別処理を行って個人識別情報を得ると共に、この顔像に対して笑顔認識処理を行って笑顔度を求める。(2′)テレビ受信機110Abは、個人識別情報と共に、笑顔度を、クラウド上のサーバ装置130に送る。サーバ装置130は、テレビ受信機110Abから送られてくる笑顔度を、個人識別情報に関連付けてデータベースに保存する。
デジタルスチルカメラ120Aは、(3)被写体としての個人401a,401bを同時に撮像して画像情報を得る。デジタルスチルカメラ120Aは、この画像情報から2個の顔を検出し、それぞれの顔像に対して個人識別処理を行って個人識別情報を得る。(4)デジタルスチルカメラ120Aは、2個の個人識別情報をサーバ装置130に送り、(5)サーバ装置130から、2個の個人識別情報のそれぞれに関連付けて記憶されている笑顔度のログ情報を受け取る。
この場合、それぞれのログ情報は、デジタルスチルカメラ120AのユーザU1が収集したものに限られるものではなく、他のユーザが収集したものとなることもある。例えば、個人401aに対応した笑顔度のログ情報としてテレビ受信機110Aaで収集したものが利用され、個人401bに対応した笑顔度のログ情報はテレビ受信機110Abで収集されたものが利用されることもある。
デジタルスチルカメラ120Aは、それぞれのログ情報を解析して、各個人の評価条件(笑顔の閾値)をそれぞれ設定する。デジタルスチルカメラ120Aは、各個人の顔像に対して笑顔認識処理を行って笑顔度を得る。そして、デジタルスチルカメラ120Aは、このように得られた各個人の笑顔度を、各個人の評価条件(笑顔の閾値)に基づいて評価する。(6)デジタルスチルカメラ120Aは、例えば、各個人の笑顔度がそれぞれ対応する閾値より大きいとき、笑顔であると判断し、シャッタを切って、個人401a,401bのスチル撮像を行う。
[画像評価情報の変換]
例えば、上述の図1に示す情報処理システム10において、ログ情報収集装置110の評価部112における評価と、判定実行装置120の評価部124における評価とが、異なる場合も考えられる。例えば、双方の評価エンジンの異なる場合、あるいは、画像情報から顔の特定の表情を評価する際には撮像環境における明るさが異なる場合、などが考えられる。ここで、「評価エンジン」は、入力された画像を、所定の画像処理を利用して評価する機構、または機能、またはプログラムを意味する。
この場合、判定実行装置120では、サーバ装置130からログ情報として送られてくる評価情報(画像評価情報、音声評価情報)を、評価エンジンの情報、環境情報などに基づいて、適切な値に変換して用いることが考えられる。図35は、その場合における、情報処理システム10′の一例を示している。この図35において、図2と対応する部分には同一符号を付し、その詳細説明は省略する。
この情報処理システム10′は、ログ情報収集装置110、判定実行装置120′およびサーバ装置130により構成されている。判定実行装置120′の情報処理装置122′は、取得部122aおよび設定部122bの他に、評価情報変換部122cを備えている。この評価情報変換部122cは、取得部122aと設定部122bとの間に挿入されている。
評価情報変換部122cは、取得部で取得されたログ情報である評価情報を、評価エンジンの情報、環境情報などに基づいて、適切な値に変換する。設定部122bは、変換後の表示情報のログ情報に基づき、個人識別情報で特定される個人に対応した評価条件を設定する。
図36は、評価情報変換部122cの構成例を示している。この評価条件変換部122cは、例えば、変換テーブルにより構成される。この評価条件変換部122cは、ログ情報収集時の情報およびログ情報利用時の情報を入力とし、ログ情報利用時の情報を出力する。
入力されるログ情報収集時の情報には、ログ情報である評価情報Iaと、ログ情報生成環境情報(評価エンジンID、Exifなどに準じる評価環境情報)が含まれる。また、入力されるログ情報利用時の情報には、ログ情報利用環境情報(評価エンジンID、Exifなどに準じる評価環境情報)が含まれる。また、出力されるログ情報利用時の情報には、変換後のログ情報である評価情報Ibが含まれる。ここで、「評価エンジンID」は、「評価エンジン」を識別するための情報である。
評価情報変換部122cは、入力情報として、ログ情報である評価情報は必須であるが、その他の情報に関しては、適宜、選択的に用いることができる。例えば、評価エンジンIDのみを用いる場合とか、画像評価情報を扱う際には明るさの情報のみ、あるいはさらに評価エンジンIDを用いる場合とか、が考えられる。
評価情報変換部122cにおける変換処理の具体例を説明する。最初に、ログ情報収集時の画像評価エンジンEaと、ログ情報利用時に用いる画像評価エンジンEbの対応がわかっている場合の変換処理例を説明する。
この場合には、評価情報変換部122cには、例えば、図37(a)に示すように、画像評価情報Iaの他に、画像評価エンジンEaの識別子IDaと、画像評価エンジンEbの識別子IDbが入力される。そして、評価情報変換部122cでは、以下の(1)式にように、識別子IDaと識別子IDbの組み合わせに対応した変換係数αが用いられ、画像評価情報Iaが、画像評価情報Ibに変換される。
Ib=Ia * α ・・・(1)
図37(b)は、識別子IDaと識別子IDbにより決定される変換係数αの一例を示している。例えば、画像評価エンジンEa(IDa=IDa1)は、画像評価エンジンEb(IDb=IDb2)よりも笑顔度を33%高く評価する傾向がわかっているものとする。この場合には、α=0.75に決定されるので、(1)式により、適切な値に変換される。
次に、評価した際の明るさに応じて評価値が変化する場合における変換処理例を説明する。この場合には、評価情報変換部122cには、例えば、図38(a)に示すように、画像評価情報Iaの他に、ログ収集時の明るさ情報Laと、ログ利用時の明るさ情報Lbが入力される。そして、評価情報変換部122cでは、以下の(2)式にように、識別子IDaと識別子IDbの組み合わせに対応した変換係数Wが用いられ、画像評価情報Iaが、画像評価情報Ibに変換される。
Ib=Ia * W ・・・(2)
明るさによって笑顔の評価値に違いが出る場合があるので、変換係数Wはこのことを考慮して決定される。たとえば、明るいほど笑顔の度合いを高く評価する傾向が既知であり、ログ収集時の明るさよりログ利用時の明るさが大きい場合には、笑顔度を大きくするように決定される。逆に、明るいほど笑顔の度合いを高く評価する傾向が既知であり、ログ収集時の明るさよりログ利用時の明るさが小さい場合には、笑顔度を小さくするように決定される。図38(b)は、明るさLaと明るさLbにより決定される変換係数Wの一例を示している。例えば、La=0.1で、Lb=1.0であるとき、W=1.2に決定される。また、例えば、La=1.0で、Lb=0.1であるとき、W=0.25に決定される。
なお、評価情報変換部122cが評価エンジンと明るさの両方に基づいて評価情報を変換する場合の変換式は、以下の(3)式に示すようになる。
Ib=Ia * α * W ・・・(3)
また、ログ情報は集合的に扱うことも可能である。そのため、集合に含まれるログ情報ごとの変換係数(個別)α、Wの値の平均をとって、変換係数(集合)α(ave)、W(ave)を算出して、変換に用いてもよい。その場合の変換式は、以下の(4)式に示すようになる。
Ib=Ia(ave) * α(ave) * W(ave) ・・・(4)
また、図35に示す情報処理システム10′は、判定実行装置側に評価情報変換部を設けた例である。しかし、ログ情報収集装置側に評価情報変換部を設けることも考えられる。図39は、その場合における情報処理システム10″の一例を示している。この図39において、図2と対応する部分には同一符号を付して示している。
この情報処理システム10″は、ログ情報収集装置110″、判定実行装置120およびサーバ装置130により構成されている。ログ情報収集装置110″において、評価部112と送信部113との間に、評価情報変換部114が挿入されている。評価情報変換部114は、取得部で取得されたログ情報である評価情報を、評価エンジンの情報、環境情報などに基づいて、適切な値に変換する。送信部113は、評価情報変換部114で変換された評価情報をサーバ装置130に送信して保存する。
<2.変形例>
なお、上述実施の形態においては、ログ情報収集装置110の具体例としてテレビ受信機、デジタルスチルカメラ、パーソナルコンピュータなどを示したが、ユーザが普段何気なく見ている機器が望ましい。例えば、テレビ受信機、デジタルスチルカメラ、パーソナルコンピュータの他に、テレビ電話器、監視カメラ、フォトフレームなどであってもよい。また、上述実施の形態においては、判定実行装置120の具体例としてデジタルスチルカメラ、テレビ受信機などを示したが、デジタルサイネージ装置、携帯端末などであってもよい。例えば、デジタルサイネージ装置では、複数の視聴者のそれぞれに対して本技術を用いた笑顔の閾値を設定して、笑顔の個人(人物)の人数把握などを精度よく行うことができる。
また、上述実施の形態においては、評価情報のログ情報をクラウド上のサーバ装置130に保存する例を示した。しかし、判定実行装置(ログ情報利用装置)が、ログ情報収集装置に無線あるいは有線をもって接続して、ログ情報を直接取得する構成も考えられる。また、ログ情報収集装置と判定実行装置が同一の機器である場合には、自身の機器内にログ情報を保存しておいてもよい。
また、上述実施の形態においては、画像情報や音声情報の評価情報のログ情報を取り扱う例を示したが、本技術は、その他の評価情報のログ情報を取り扱う場合にも適用できる。例えば、個人の心拍、体温などの健康に関する評価情報のログ情報を取り扱って、判定実行装置側で個人毎に適切な健康判定を行うことも考えられる。
また、本技術は、以下のような構成を取ることもできる。
(1)第1の画像情報に関連する個人を識別するための個人識別情報と、前記第1の画像情報に基づき検出された主要被写体の像に応じて前記第1の画像情報を評価することにより生成される画像評価情報とを取得する取得部と、
前記個人識別情報と前記画像評価情報に基づき第2の画像情報を評価するための評価条件を設定する設定部を備える
情報処理装置。
(2)前記取得部で取得される画像評価情報には、評価時における環境情報が付加されており、
前記設定部は、前記環境情報に基づいて選択された所定の環境で評価されて生成された前記画像評価情報に基づき、前記第2の画像情報を評価するための評価条件を設定する
前記(1)に記載の情報処理装置。
(3)前記画像評価情報は、前記個人識別情報で特定される個人が表示コンテンツを見ているときの該個人の顔の表情を評価する情報であり、
前記取得部で取得される画像評価情報には、評価時における表示コンテンツを識別するコンテンツ識別情報が付加されており、
前記設定部は、前記画像評価情報および前記コンテンツ識別情報に基づき、前記第2の画像情報を評価するための評価条件を設定する
前記(1)または(2)に記載の情報処理装置。
(4)前記取得部で取得された画像評価情報を、前記評価時における評価エンジンと前記第2の画像情報を評価する評価エンジンとに応じて変換する変換部をさらに備え、
前記設定部は、前記変換部で変換された画像評価情報に基づいて、前記第2の画像情報を評価するための評価条件を設定する
前記(1)から(3)のいずれかに記載の情報処理装置。
(5)前記取得部で取得された画像評価情報を、前記評価時における環境と前記第2の画像情報を評価する環境とに応じて変換する変換部をさらに備え、
前記設定部は、前記変換部で変換された画像評価情報に基づいて、前記第2の画像情報を評価するための評価条件を設定する
前記(1)から(4)のいずれかに記載の情報処理装置。
(6)前記画像評価情報は、前記個人識別情報で特定される個人の顔の表情を評価する情報である
前記(1)から(5)のいずれかに記載の情報処理装置。
(7)前記画像評価情報は、前記個人識別情報で特定される個人に関連付けされる構図を評価する情報である
前記(1)から(5)のいずれかに記載の情報処理装置。
(8)前記画像評価情報は、前記個人識別情報で特定される個人の表示コンテンツへの興味度合いを評価する情報である
前記(1)から(5)に記載の情報処理装置。
(9)第1の画像情報に関連する個人を識別するための個人識別情報と、前記第1の画像情報に基づき検出された主要被写体の像に応じて前記第1の画像情報を評価することにより生成される画像評価情報とを取得する取得ステップと、
前記個人識別情報と前記画像評価情報に基づき第2の画像情報を評価するための評価条件を設定する設定ステップを備える
情報処理方法。
(10)コンピュータを、
第1の画像情報に関連する個人を識別するための個人識別情報と、前記第1の画像情報に基づき検出された主要被写体の像に応じて前記第1の画像情報を評価することにより生成される画像評価情報とを取得する取得手段と、
前記個人識別情報と前記画像評価情報に基づき第2の画像情報を評価するための評価条件を設定する設定手段
として機能させるためのプログラム。
(11)第2の画像情報を評価条件に基づいて評価する評価部と、
前記評価の結果に基づいて制御される処理部を備え、
上記評価条件は、
第1の画像情報に関連する個人を識別するための個人識別情報と、前記第1の画像情報に基づき検出された主要被写体の像に応じて前記第1の画像情報を評価することにより生成される画像評価情報に基づいて設定される
情報処理装置。
(12)前記処理部は撮像部であり、
前記第2の画像情報は前記撮像部により得られ、
前記評価の結果に基づいて、前記撮像部のシャッタータイミングが制御される
前記(11)に記載の情報処理装置。
(13)前記画像評価情報は、前記個人識別情報で特定される個人の顔の表情を評価する情報である
前記(12)に記載の情報処理装置。
(14)前記画像評価情報は、前記個人識別情報で特定される個人に関連付けされる構図を評価する評価情報である
前記(12)に記載の情報処理装置。
(15)前記画像処理部は表示部であり、
前記第2の画像情報は、前記表示部に表示し得る表示コンテンツの画像情報であり、
前記評価の結果に基づいて、前記表示部への推奨コンテンツ表示が制御される
前記(11)に記載の情報処理装置。
(16)第2の画像情報を評価条件に基づいて評価する評価ステップと、
前記評価の結果に基づいて処理部を制御する制御ステップを備え、
上記評価条件は、
第1の画像情報に関連する個人を識別するための個人識別情報と、前記第1の画像情報に基づき検出された主要被写体の像に応じて前記第1の画像情報を評価することにより生成される画像評価情報に基づいて設定される
情報処理方法。
(17)コンピュータを、
第2の画像情報を評価条件に基づいて評価する評価手段と、
前記評価の結果に基づいて制御される処理手段として機能させ、
上記評価条件は、
第1の画像情報に関連する個人を識別するための個人識別情報と、前記第1の画像情報に基づき検出された主要被写体の像に応じて前記第1の画像情報を評価することにより生成される画像評価情報に基づいて設定される
プログラム。
(18)第1の音声情報に関連する個人を識別するための個人識別情報と、前記第1の音声情報を評価することにより生成される音声評価情報とを取得する取得部と、
前記個人識別情報と前記音声評価情報に基づき第2の音声情報を評価するための評価条件を設定する設定部を備える
情報処理装置。
(19)第2の音声情報を評価条件に基づいて評価する評価部と、
前記評価の結果に基づいて制御される処理部を備え、
前記評価条件は、
第1の音声情報に関連する個人を識別するための個人識別情報と、前記第1の音声情報を評価することにより生成される音声評価情報に基づいて設定される
情報処理装置。
10,10′,10″,10A,10A′,10B−10F・・・情報処理システム
110・・・ログ情報収集装置
110A,110Aa,110Ab,110B・・・テレビ受信機
110C,110D・・・パーソナルコンピュータ
110E・・・デジタルスチルカメラ
111・・・評価情報入力部
112・・・評価部
113・・・送信部
114・・・評価情報変換部
120・・・判定実行装置
120A,120C・・・デジタルスチルカメラ
120B,120D・・・テレビ受信機
121・・・受信部
122・・・情報処理部
122a・・・取得部
122b・・・評価情報変換部
122c・・・設定部
123・・・評価情報入力部
124・・・評価部
125・・・処理部
130・・・サーバ装置

Claims (19)

  1. 第1の画像情報に関連する個人を識別するための個人識別情報と、前記第1の画像情報に基づき検出された主要被写体の像に応じて前記第1の画像情報を評価することにより生成される画像評価情報とを取得する取得部と、
    前記個人識別情報と前記画像評価情報に基づき第2の画像情報を評価するための評価条件を設定する設定部を備える
    情報処理装置。
  2. 前記取得部で取得される画像評価情報には、評価時における環境情報が付加されており、
    前記設定部は、前記環境情報に基づいて選択された所定の環境で評価されて生成された前記画像評価情報に基づき、前記第2の画像情報を評価するための評価条件を設定する
    請求項1に記載の情報処理装置。
  3. 前記画像評価情報は、前記個人識別情報で特定される個人が表示コンテンツを見ているときの該個人の顔の表情を評価する情報であり、
    前記取得部で取得される画像評価情報には、評価時における表示コンテンツを識別するコンテンツ識別情報が付加されており、
    前記設定部は、前記画像評価情報および前記コンテンツ識別情報に基づき、前記第2の画像情報を評価するための評価条件を設定する
    請求項1に記載の情報処理装置。
  4. 前記取得部で取得された画像評価情報を、前記評価時における評価エンジンと前記第2の画像情報を評価する評価エンジンとに応じて変換する変換部をさらに備え、
    前記設定部は、前記変換部で変換された画像評価情報に基づいて、前記第2の画像情報を評価するための評価条件を設定する
    請求項1に記載の情報処理装置。
  5. 前記取得部で取得された画像評価情報を、前記評価時における環境と前記第2の画像情報を評価する環境とに応じて変換する変換部をさらに備え、
    前記設定部は、前記変換部で変換された画像評価情報に基づいて、前記第2の画像情報を評価するための評価条件を設定する
    請求項1に記載の情報処理装置。
  6. 前記画像評価情報は、前記個人識別情報で特定される個人の顔の表情を評価する情報である
    請求項1に記載の情報処理装置。
  7. 前記画像評価情報は、前記個人識別情報で特定される個人に関連付けされる構図を評価する情報である
    請求項1に記載の情報処理装置。
  8. 前記画像評価情報は、前記個人識別情報で特定される個人の表示コンテンツへの興味度合いを評価する情報である
    請求項1に記載の情報処理装置。
  9. 第1の画像情報に関連する個人を識別するための個人識別情報と、前記第1の画像情報に基づき検出された主要被写体の像に応じて前記第1の画像情報を評価することにより生成される画像評価情報とを取得する取得ステップと、
    前記個人識別情報と前記画像評価情報に基づき第2の画像情報を評価するための評価条件を設定する設定ステップを備える
    情報処理方法。
  10. コンピュータを、
    第1の画像情報に関連する個人を識別するための個人識別情報と、前記第1の画像情報に基づき検出された主要被写体の像に応じて前記第1の画像情報を評価することにより生成される画像評価情報とを取得する取得手段と、
    前記個人識別情報と前記画像評価情報に基づき第2の画像情報を評価するための評価条件を設定する設定手段
    として機能させるためのプログラム。
  11. 第2の画像情報を評価条件に基づいて評価する評価部と、
    前記評価の結果に基づいて制御される処理部を備え、
    上記評価条件は、
    第1の画像情報に関連する個人を識別するための個人識別情報と、前記第1の画像情報に基づき検出された主要被写体の像に応じて前記第1の画像情報を評価することにより生成される画像評価情報に基づいて設定される
    情報処理装置。
  12. 前記処理部は撮像部であり、
    前記第2の画像情報は前記撮像部により得られ、
    前記評価の結果に基づいて、前記撮像部のシャッタータイミングが制御される
    請求項11に記載の情報処理装置。
  13. 前記画像評価情報は、前記個人識別情報で特定される個人の顔の表情を評価する情報である
    請求項12に記載の情報処理装置。
  14. 前記画像評価情報は、前記個人識別情報で特定される個人に関連付けされる構図を評価する評価情報である
    請求項12に記載の情報処理装置。
  15. 前記画像処理部は表示部であり、
    前記第2の画像情報は、前記表示部に表示し得る表示コンテンツの画像情報であり、
    前記評価の結果に基づいて、前記表示部への推奨コンテンツ表示が制御される
    請求項11に記載の情報処理装置。
  16. 第2の画像情報を評価条件に基づいて評価する評価ステップと、
    前記評価の結果に基づいて処理部を制御する制御ステップを備え、
    上記評価条件は、
    第1の画像情報に関連する個人を識別するための個人識別情報と、前記第1の画像情報に基づき検出された主要被写体の像に応じて前記第1の画像情報を評価することにより生成される画像評価情報に基づいて設定される
    情報処理方法。
  17. コンピュータを、
    第2の画像情報を評価条件に基づいて評価する評価手段と、
    前記評価の結果に基づいて制御される処理手段として機能させ、
    上記評価条件は、
    第1の画像情報に関連する個人を識別するための個人識別情報と、前記第1の画像情報に基づき検出された主要被写体の像に応じて前記第1の画像情報を評価することにより生成される画像評価情報に基づいて設定される
    プログラム。
  18. 第1の音声情報に関連する個人を識別するための個人識別情報と、前記第1の音声情報を評価することにより生成される音声評価情報とを取得する取得部と、
    前記個人識別情報と前記音声評価情報に基づき第2の音声情報を評価するための評価条件を設定する設定部を備える
    情報処理装置。
  19. 第2の音声情報を評価条件に基づいて評価する評価部と、
    前記評価の結果に基づいて制御される処理部を備え、
    前記評価条件は、
    第1の音声情報に関連する個人を識別するための個人識別情報と、前記第1の音声情報を評価することにより生成される音声評価情報に基づいて設定される
    情報処理装置。
JP2011275269A 2011-12-16 2011-12-16 情報処理装置、情報処理方法およびプログラム Pending JP2013126206A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011275269A JP2013126206A (ja) 2011-12-16 2011-12-16 情報処理装置、情報処理方法およびプログラム
US13/707,054 US20130156277A1 (en) 2011-12-16 2012-12-06 Information processing apparatus, information processing method and program
CN2012105247340A CN103167328A (zh) 2011-12-16 2012-12-07 信息处理设备、信息处理方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011275269A JP2013126206A (ja) 2011-12-16 2011-12-16 情報処理装置、情報処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2013126206A true JP2013126206A (ja) 2013-06-24

Family

ID=48590023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011275269A Pending JP2013126206A (ja) 2011-12-16 2011-12-16 情報処理装置、情報処理方法およびプログラム

Country Status (3)

Country Link
US (1) US20130156277A1 (ja)
JP (1) JP2013126206A (ja)
CN (1) CN103167328A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018045350A (ja) * 2016-09-13 2018-03-22 Kddi株式会社 所定対象のうちの特定対象における状態を識別する装置、プログラム及び方法

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8615112B2 (en) * 2007-03-30 2013-12-24 Casio Computer Co., Ltd. Image pickup apparatus equipped with face-recognition function
JP6136859B2 (ja) * 2013-11-01 2017-05-31 富士ゼロックス株式会社 情報処理装置及びプログラム
WO2018137868A1 (en) * 2017-01-27 2018-08-02 Philips Lighting Holding B.V. Recommendation engine for a lighting system
US10708635B2 (en) 2017-03-02 2020-07-07 Ricoh Company, Ltd. Subsumption architecture for processing fragments of a video stream
US10943122B2 (en) * 2017-03-02 2021-03-09 Ricoh Company, Ltd. Focalized behavioral measurements in a video stream
US10929707B2 (en) * 2017-03-02 2021-02-23 Ricoh Company, Ltd. Computation of audience metrics focalized on displayed content
US10956495B2 (en) * 2017-03-02 2021-03-23 Ricoh Company, Ltd. Analysis of operator behavior focalized on machine events
US10956494B2 (en) * 2017-03-02 2021-03-23 Ricoh Company, Ltd. Behavioral measurements in a video stream focalized on keywords
US10949705B2 (en) * 2017-03-02 2021-03-16 Ricoh Company, Ltd. Focalized behavioral measurements in a video stream
US10956773B2 (en) * 2017-03-02 2021-03-23 Ricoh Company, Ltd. Computation of audience metrics focalized on displayed content
US10929685B2 (en) * 2017-03-02 2021-02-23 Ricoh Company, Ltd. Analysis of operator behavior focalized on machine events
US10713391B2 (en) 2017-03-02 2020-07-14 Ricoh Co., Ltd. Tamper protection and video source identification for video processing pipeline
US10719552B2 (en) 2017-03-02 2020-07-21 Ricoh Co., Ltd. Focalized summarizations of a video stream
US10720182B2 (en) 2017-03-02 2020-07-21 Ricoh Company, Ltd. Decomposition of a video stream into salient fragments
US10949463B2 (en) 2017-03-02 2021-03-16 Ricoh Company, Ltd. Behavioral measurements in a video stream focalized on keywords

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7188355B1 (en) * 1999-09-30 2007-03-06 Canon Kabushiki Kaisha Television program recommendation system
JP4600435B2 (ja) * 2007-06-13 2010-12-15 ソニー株式会社 画像撮影装置及び画像撮影方法、並びにコンピュータ・プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018045350A (ja) * 2016-09-13 2018-03-22 Kddi株式会社 所定対象のうちの特定対象における状態を識別する装置、プログラム及び方法

Also Published As

Publication number Publication date
US20130156277A1 (en) 2013-06-20
CN103167328A (zh) 2013-06-19

Similar Documents

Publication Publication Date Title
JP2013126206A (ja) 情報処理装置、情報処理方法およびプログラム
JP4281819B2 (ja) 撮像画像データ処理装置、視聴情報生成装置、視聴情報生成システム、撮像画像データ処理方法、視聴情報生成方法
KR101531783B1 (ko) 특정한 사람을 포함하는 비디오 요약본
JP2008165700A (ja) 画像処理装置、電子機器、画像処理システム、画像処理方法、および、プログラム
JP4685465B2 (ja) 監視記録装置
US10942563B2 (en) Prediction of the attention of an audience during a presentation
CN106416220A (zh) 将视频自动插入照片故事
KR20080037947A (ko) 컨텐츠의 메타 데이터 생성 방법 및 장치
TW201251443A (en) Video summary including a feature of interest
JP2009187109A (ja) 画像表示装置、表示制御方法及び表示制御プログラム
JP2001127990A (ja) 情報通信システム
JP2013239797A (ja) 画像処理装置
EP2503545A1 (en) Arrangement and method relating to audio recognition
KR20150083491A (ko) 단말과 서버간의 정보 동기화 방법 및 시스템
JP2007067972A (ja) 会議システム及び会議システムの制御方法
CN109522799A (zh) 信息提示方法、装置、计算机设备和存储介质
WO2022041182A1 (zh) 音乐推荐方法和装置
JP2009100193A (ja) 選択支援装置および選択支援システム
JP2004158950A (ja) 記録映像自動生成システム,記録映像自動生成方法,記録映像自動生成プログラムおよび記録映像自動生成プログラムの記録媒体
JP2008199330A (ja) 動画像管理装置
US20140247392A1 (en) Systems and Methods for Determining, Storing, and Using Metadata for Video Media Content
KR20150109254A (ko) 셀프 타이머 촬영을 행하는 촬상 장치, 촬상 방법 및 기록 매체
JP5550114B2 (ja) 撮像装置
CN112188116B (zh) 基于对象的视频合成方法、客户端及系统
US20080095449A1 (en) Imaging Device