JP2004178593A - 画像処理方法及びシステム - Google Patents

画像処理方法及びシステム Download PDF

Info

Publication number
JP2004178593A
JP2004178593A JP2003392971A JP2003392971A JP2004178593A JP 2004178593 A JP2004178593 A JP 2004178593A JP 2003392971 A JP2003392971 A JP 2003392971A JP 2003392971 A JP2003392971 A JP 2003392971A JP 2004178593 A JP2004178593 A JP 2004178593A
Authority
JP
Japan
Prior art keywords
image
user
information
emotion
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003392971A
Other languages
English (en)
Inventor
Elena A Fedorovskaya
エイ フェドロフスカヤ エレナ
Serguei Endrikhovski
エンドリコフスキ セルゲイ
Tomasz A Matraszek
エイ マトラジェック トーマス
Kenneth A Parulski
エイ パルルスキ ケネス
Carolyn A Zacks
エイ ザックス キャロリン
Karen M Taxier
エム タクシアー カレン
Michael J Telek
ジェイ タレク マイケル
Frank Marino
マリーノ フランク
Dan Harel
ハレル ダン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eastman Kodak Co
Original Assignee
Eastman Kodak Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=32229950&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2004178593(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Eastman Kodak Co filed Critical Eastman Kodak Co
Publication of JP2004178593A publication Critical patent/JP2004178593A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Library & Information Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Automatic Focus Adjustment (AREA)
  • Television Signal Processing For Recording (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】 本願課題は、感情情報を取得し、画像の格納及び抽出を支援するために感情情報を使用する改善された方法を提供することである。
【解決手段】 本発明によれば、画像処理方法が提供される。一態様によれば、ある場面の画像が捕捉される。捕捉時に感情情報が収集される。感情情報は画像に関連付けられる。
【選択図】 図1a

Description

本発明は、画像捕捉システムに関連し、特に感情情報(affective information)をも捕捉する画像捕捉処理システムに関連する。
静止画及び動画像はディジタル形式で益々記録されている。ディジタル的な静止画及び動画は、ディジタル静止画又はディジタル映像カメラを利用して捕捉され得る。また、ディジタル静止画及び動画は、他の方法で記録されていた画像をディジタル形式に変換することによっても得られる。例えば、アナログ電子映像信号をディジタル画像に変換するために、アナログディジタル変換器を利用することはよく知られている。また、写真プリント、フィルム、感光板又はプレート(plate)、陰画又はネガに記録された画像からディジタル画像を導出するために、光学スキャナを利用することも知られている。
ディジタル静止画及び動画は、家庭のコンピュータその他の画像処理装置を利用して、ユーザにより容易に閲覧、格納、抽出及び印刷され得る。そのような画像は、1995年8月3日付で出願されたフレッドランド等による米国特許第5,666,215号(特許文献1)に記載されているように、閲覧用にウェブサイトにアップロードされ得る。ウェブブラウザを利用して、アップロードされたディジタル画像は、閲覧されること、印刷するために選択されること、他の家族及び/又は友人に電子的に送信されること、又はオンラインデータベースや写真アルバムに格納されることが可能である。
写真撮影用のディジタルカメラの利用が近年増加していることにより、並びに従来の静止画、アナログ映像及び動画像に基づくフィルムをディジタル形式に変換する技術の近年の成長により、利用可能な大量のディジタル画像が急速に増えつつある。しかしながら、しばしばユーザは直ちに印刷せず、そうではなくユーザは、光学的ではなくディジタル画像を利用して、後の利用に備えて電子格納装置又はデータ格納媒体にディジタル画像を転送又はアップロードする。従って、パーソナルコンピュータ、パーソナルディジタルアシスタント、コンピュータネットワーク、光学的な、磁気的な及び電子格納媒体、いわゆるセットトップボックス装置その他の電子画像格納装置は、ディジタル的な静止画及び動画を格納するために益々利用されつつある。
従って、ユーザにより容易にアクセスされ得る形式でそのような格納装置におけるディジタル静止画及び動画を分類する又は一覧目録化する(カタログ化する)作業が、益々重要になってきている。あるユーザは、そのような格納装置にてディジタル静止画及び動画を組織化するために大きなパーソナルデータベースを作成している。多くのコンピュータプログラムがそれを実行するユーザを支援するために開発されている。しかしながら、画像を検討及びカタログ化するのに要する時間及び労力に起因して、これらのデータベースは一般的に使用されること及びアップロードされることは非常に希である。
従って、画像に関する際立って少ない捕捉後分析(post capture analysis)及び分類作業と共に画像を組織化及び分類することを支援する手法が必要とされている。
ユーザが画像を編成又は組織化するのに必要な時間及び労力を費やす場合に、データベースは、一般的には、捕捉の日付、場所、出来事又はイベント、人々のような様々なカテゴリに従って組織化される。他のカテゴリも使用される。そのようなカテゴリは、特に重要な又は価値のある画像をユーザが見出すことを有効に支援しないことが間々ある。そのため、ユーザは、その画像、画像が捕捉された時及び/又はユーザがそれをどのように分類したかを記憶しなければならない。
従って、画像を分類する一層有利な手法も必要とされている。様々な研究及び経験から、出来事及びそれに続く画像に関する最も記憶されるカテゴリは、捕捉時のユーザの感情(feeling)に関連するもの又はその出来事やその場面又はシーン(scene)でユーザが体験した感情的反応(emotional reaction)であることが知られている。ユーザの感情の様相を分類するために使用され得る情報は、感情情報として知られている。感情情報は、ある出来事に対するユーザの心理学的、生理学的及び行動的な反応を表現する。感情情報は、記録されている生の(未処理の)生理学的信号及び彼らの解釈の双方を表現し得る。感情情報を利用して、ユーザにとっての重要度、興味の度合い、又は特定の感情の強さや性質に基づいて、ディジタル静止画及び動画が分類され得る。そのような分類は、それら価値ある画像を速やかに見出し、閲覧し、及び共用することを支援し得る。
画像に関するユーザの反応に基づいて感情情報を導出する様々な方法が当該技術分野で知られている。感情情報を導出するために生理学的状況を監視するあるシステム例は、着用可能な捕捉システムであり、それは人体からの生体信号に基づいて重要又は非重要として画像の分類を可能にする。このシステムは、非特許文献1に開示されている。彼の論文では、彼(Mann)は、拳銃を武装し、現金を要求する強盗に着用者が襲われた場合においてそのシステムがどのように動作し得るかの例を述べている。この場合に、システムは、歩行速度に無関係な着用者の心拍の急激な増加のような生理学的信号を検出する。そして、このシステムは、その生体信号から、視覚的情報の高い重要性についての推測(inference)を行なう。これは、着用者のカメラから画像を記録する、及びこれらの画像を友人に又は危険の度合いを判別する関係者に送信する契機となる。
そのようなシステムの他の例は、非特許文献2に記載されている。この論文で提案されているシステムでは、コンピュータと、皮膚伝導率(skin conductivity)を監視する生理学的センサとを備えた着用可能な映像カメラが使用される。このシステムは、驚き反応(startle response)−皮膚伝導率の急激な変化−の検出に基づくものである。皮膚伝導率のそのような変化は、急激に興奮した、萎縮した又はストレスを受けた反応にしばしば関連付けられる。驚き反応が検出されると、着用者のディイジタルカメラで最近捕捉されたディジタル画像のバッファが、保存され及び選択的にリモートコンピュータに無線で送信され得る。ディジタル画像のこのような選択的な格納は、着用者自身の選択的な記憶反応をまねる(mimic)ことを意図する、その着用者に関する「記憶(memory)」アーカイブを形成する。他の動作モードでは、着用者からほとんど応答が検出されなくなり、彼らの注意力(attention level)が落ちたことを示す場合に、カメラが指定された頻度で自動的に画像を記録するよう設定される。
米国特許第5,666,215号明細書 Mann,"Humanistic Intelligence:"WearComp"as new framework and application for intelligent signal processing",Proceedings of the Institute of Electrical and Electronics Engineers(IEEE),86,pp.2123−2151,1998 Healey,et al.,"StartleCam:A Cybernetic Wearable Camera",Proceedings of the Second International Symposium on Werable Computers,1998
マン等(Mann et al.)により提案されるシステムは生理学的信号を利用して、「重要」(即ち、生体反応の急激な変化を引き起こす)又は「非重要」(即ち、生体反応の急激な変化を引き起こさない)として画像を分類し、及び「重要」画像のみを格納及び/又は送信する契機を着用可能なカメラに与える。しかしながら、彼らのシステムはいくつかの欠点を有する。
説明されているシステムは、生理学的信号を又は対応する画像と共に他の「重要」識別子を関連付けず、格納せず、及び送信しない。その結果、これら「重要」画像にこれらの画像が「重要」であることを示すものが存在しないので、「重要」画像はデータベースの他の画像の中で容易に見失われてしまう。これは、例えば、ディジタル画像ファイルが別のシステムで使用される場合、その画像が記録可能なコンパクトディスクや他の媒体に転送される場合、その画像がオンライン写真サービスプロバイダにアップロードされる等の場合に起こり得る。また、説明されているシステムは、対応する画像と共にユーザの識別子を関連付けず、格納せず、及び送信しない。従って、システムが1ユーザ以上で使用される場合に、どのユーザがその画像を「重要」として反応したかを判別することは困難である。
更に、説明されているシステムは、「重要−非重要」の2進法的分類を与えるに過ぎず、捕捉した画像の中で相対的な重要度の緻密な差異を許容しない。その結果、画像を捕捉してしばらく後にユーザデータベース内では、ユーザが彼又は彼女のデータベースにて総ての画像について属性を変更しない限り(それは膨大な時間のかかる作業である)、重要画像の量が多過ぎて重要な属性を提供する意図を失ってしまう。
従って、説明されているシステムは、漠然とした「重要」な属性に基づいて画像を分類するに過ぎない。例えば、それらは、重要画像が肯定的な(楽しい)又は否定的な(楽しくない)ユーザの反応の何れであるかを見分けることができない。それ故に、広範囲にわたる人的感情反応(例えば、愉快である、悲しい、怒り、恐怖、興味がある等)は、そのシステムでは考慮されず、ユーザの利益に貢献していない。
従って、感情情報を取得し、画像の格納及び抽出を支援するために感情情報を使用する改善された方法が更に必要とされている。
本発明の一態様によれば、画像処理方法が提供される。この態様によれば、ある場面の画像が取得される。感情情報は捕捉時に収集される。感情情報はその場面の画像に関連付けられる。
本発明の他の態様によれば、画像処理方法の他の例が提供される。この態様では、ある場面の画像が取得される。感情情報は捕捉時に収集される。捕捉した画像の相対的な重要度は、収集した感情信号に少なくとも部分的に準拠して判別される。相対的な重要度はその場面の画像に関連付けられる。
本発明の他の態様によれば、写真撮影方法が提供される。この態様では、ある場面の画像が取得される。撮影者の少なくとも一部の画像が捕捉時に取得される。感情情報は、撮影者の画像の解釈に少なくとも部分的に準拠して判別される。感情情報はその場面の画像に関連付けられる。
本発明の更なる別の態様によれば、画像処理方法が提供される。この方法によれば、画像のストリームが捕捉され、感情情報の対応するストリームが画像捕捉中に収集される。感情情報のストリームはその画像のストリームに関連付けられる。
本発明の更なる別の態様によれば、感情情報を判別する方法が提供される。この方法によれば、人の顔の特徴及び生理学的特徴を含む感情信号が取得される。顔の特徴が分析され及び生理学的特徴が分析される。人の感情の状態は、その人の顔及び生理学的特徴の分析に基づいて判別される。
本発明の更なる別の態様によれば、画像処理システムが提供される。画像処理システムは、ユーザにより選択された画像を捕捉するように適合させた画像捕捉システムを有する。メモリは画像を格納する。一群のセンサは、捕捉時にユーザから感情信号を取得するために使用される。プロセッサは、感情情報を捕捉した画像に関連付けるために使用される。
本発明は、ユーザがある場面を見ながら感情情報及び関連する情報並びに指定された場面に関して捕捉した画像に対する解釈を収集する方法を提供する。感情情報の解釈は、ユーザの趣向(例えば、ユーザがその場面を好む度合い)に関するいくつかの階調又はグラデーションを与え得る。また、ユーザにとってのその場面の相対的な重要度も提供し得る。更に、感情情報の解釈は、その場面によって起こされる特定の感情(例えば、喜び、悲しみ、恐怖、怒り等)の観点から行なわれ得る。
場面は視聴者が見る何らかのものとして定められる。それは、動作又は出来事が生じる場所、人々の集まり、及び/又は視聴者が見る対象物又はオブジェクト、一連の動作及び出来事、景色又は景色の一部等であり得る。画像捕捉装置によって記録又は表示される場面は、場面の画像として言及される。画像捕捉装置の例は、フィルムに静止画像又は動画像のような画像を記録する、ディジタル静止画カメラ、携帯用ビデオカメラ、着用可能なビデオカメラ、一般的な写真機、アナログビデオカメラ等を含む。ユーザは、カメラののぞき窓又はビューファインダを通じて直接的に、又はビューファインダとして与えられるカメラのプレビュー画面を通じて場面を観察することができる。
ここで使用されるように、単数及び複数の画像(image)なる語は、限定するわけではないが、静止画像、動画像、ステレオ画像又は他の深度画像のようなマルチ透視図(multi−perspective image)、その他の投入型(immersive)静止画及び動画の形式を含む。
様々な目的及び用途により、人々は様々な場面の画像を取得する。捕捉する記憶される出来事は、通常の人々、専門的な写真家又はジャーナリスト関係者が一般に行なう動作の一例である。これらの出来事は、各人又は個々のグループにとって意味のある又は情的に重要なものである。そのような出来事の画像は、特別な注意を引き付け、記憶を呼び出し、感情を引き起こし、又は一般的に、それらは心理的反応をもたらす。これら心理的反応には、生理学的及び/又は行動的変化がしばしば付随する。
特定の場面又はその場面の画像に対するユーザの心理的、生理学的及び行動的反応を表現する情報は、ここでは感情情報として言及される。感情情報は、生の生理学的及び/又は行動的信号(例えば、電気による皮膚応答、心拍、表情等)に加えて、それらの心理的解釈(例えば、好ましい、好ましくない等)及び感情カテゴリとの関連性(例えば、恐れ、怒り、喜び等)を包含し得る。感情情報は、ユーザの心理的反応が変化すると変更される。これは、例えば、ユーザが、危険な事故、びっくりする動作又は美しい風景を突然に目撃するような場合に生じ得る。
感情的な識別又はタグ付け(tagging)は、感情情報を判別し、特定の場面の画像に関連する感情情報を格納するプロセスとして定められる。感情情報がユーザの識別データに関連して格納される場合に、それは「個人的感情情報」として言及される。ユーザ識別データは、ユーザに固有に付随する任意の形式の情報であり得る。ユーザ識別データは、広範囲にわたって固有のID(GUID:globally unique ID)、ユーザ番号、社会保障番号等のような個人的な識別コードであり得る。また、ユーザ識別子は、完備な正式名称、ニックネーム、コンピュータユーザ名等でもあり得る。ユーザ識別データは、代替的に、顔の画像や説明、指紋や説明、網膜スキャン(画像)等のような情報を包含する。また、ユーザ識別データは、インターネットアドレス、セルラ電話番号その他の識別情報であり得る。
個人的感情情報が対応する画像に関連して格納される場合に、それは「個人的感情タグ」として言及される。感情情報及びユーザ識別子は、ある種の画像「メタデータ(metadata)」であり、これは画像に関連する任意の情報について使用される用語である。感情タグに格納される個人的感情情報に組み込まれ得る他の形式の画像メタデータの例は、場面画像から導出される情報、及び画像捕捉時間、捕捉装置、捕捉場所、捕捉日、画像捕捉パラメータ、画像編集履歴等のような非画像データを包含する。
個人的感情情報は、例えばExif(交換可能な画像ファイルフォーマット)画像ファイル内のタグ付け画像ファイルフォーマットIFDを利用して、画像ファイル内で個人的感情情報を格納することによって、ディジタル画像に関連付けられる。或いは、感情情報は、JPEG規格フォーマットISO10918−1(ITU−T.81)に従って、第1画像(又は代替的に第2画像)を含むジョイント写真転送グループファイルにおける1つ又はそれ以上のアプリケーションセグメントに格納され得る。これは、単独の工業規格画像ファイルが、通常のJPEG画像として格納されたJPEG圧縮第1画像と、通常のJPEGリーダでは無視されるプロプラエタリ(proprietary)形式で格納される感情情報との双方格納することを可能にする。更なる他の例では、個人的感情情報は、画像から分離したデータベースに格納され得る。また、この情報は、その情報に対する未認証アクセスを防止するためにセキュリティ及びアクセス許可情報と共に格納され得る。
感情タグ付けは、画像捕捉装置を利用して、特定の場面又はその場面の画像を見ながら手動で又は自動的になされ得る。手動による感情タグ付けの場合は、ユーザは手動制御要素(マニュアルコントロール)を利用することで感情情報を入力することができ、その制御要素は、例えばその場面に対する彼/彼女の反応を得るためのカメラの制御ボタン、タッチスクリーンディスプレイ、音声認識インターフェースを包含し得る。例えば、驚いたことについては、ユーザは「驚き」反応を表すカメラのボタンを「クリック」し、又は単に「ワゥ(Wow)!」とキーボードに喋ることが可能である。
自動的な感情タグ付けの場合は、画像捕捉装置は、感情情報を収集するために、以後に解釈され得る、以下の感情信号の1つ又はそれらの組み合わせを利用することが可能である:
− 目の動きの特徴(例えば、目の不動の持続時間、瞳(瞳孔)の大きさ、瞬きの速度、見る方向、眼球速度、眼球運動パターンから抽出される特徴及びパラメータ、それらの組み合わせ等);
− 生態的又は生理学的反応(例えば、電気的な皮膚反応(GSR)、手の温度、心拍速度、筋電図(EMG)、呼吸パターン、脳波図(EEG)、脳画像信号等);
− 表情(例えば、微笑み、しかめ面等);
− 声の特徴(例えば、声の大きさ、速さ、ピッチ等)
− 顔の動きを含む肉体的ジェスチャ(例えば、鼻筋をつまむ、耳の回りをこする等)。
以下に説明する本発明の一態様によれば、感情情報は、表情、目が止まっている時間、及び電気的皮膚反応に基づいて自動的に判別される。他の組み合わせも使用され得る。
図1a−1cを参照するに、本発明による画像捕捉システムの3つの例が示される。図1aに示されるシステムは、特定のユーザ2の所有する携帯用画像捕捉装置6であり、そのユーザは、直接的に又はビューファインダ24若しくはプレビュー画面22を通じて場面4を見ている。ディジタル静止画カメラ、携帯用ディジタルビデオカメラ、着用可能なビデオカメラ等が、画像捕捉装置6として考えられることが理解されるであろう。着用可能な画像捕捉装置6の例は、図1b及び図1cに示されている。
画像捕捉装置6は、場面4の画像を捕捉するための捕捉モジュール8を含む。捕捉モジュール8は、撮影レンズ(図示せず)、画像センサ(図示せず)及びA/D変換器(図示せず)を含む。また、この捕捉モジュールは、マイクロフォン(図示せず)、音声増幅器(図示せず)及び音声A/D変換器(図示せず)でもあり得る。捕捉モジュール8は、ディジタル静止画又は動画信号及び関連するディジタルオーディオ信号を提供する。また、画像捕捉装置6は、中央処理装置(CPU)14及びディジタル格納装置12を包含し、その格納装置は、捕捉モジュールにより与えられるディジタル静止画又は動画のような高解像度画像ファイルに加えて関連するメタデータを格納することが可能である。ディジタル格納装置12は、小型磁気ハードドライブ、フラッシュEPROMメモリその他のディジタルメモリであり得る。
画像捕捉装置6は、無線モデム又は他の通信インターフェースのような通信モジュール18に適合するように示されており、そのモジュールは、インターネットサービスプロバイダ20のような通信サービスプロバイダを利用してディジタル静止画及び動画を含むデータをやりとりする。通信モジュール18は、例えば、周知のブルートゥースシステムやIEEE規格802.15システム、ディジタルページングシステム、一般的なセルラ電話システムその他の無線システムのような、標準的な無線周波数無線通信システムを利用することが可能である。或いは、通信モジュール18は、赤外線、レーザその他の光通信手法を利用して他の装置と情報を交換することが可能である。更なる他の実施例では、画像捕捉装置6は、ディジタル画像及び感情情報を含む情報が画像捕捉装置6及び他の装置の間で交換されることを可能にするために、ユニフォームシリアルバスケーブル、IEEE規格1394ケーブルや、1本又は一群の有線その他の電子データ経路、ウェーブガイド又は光データ経路のようなデータ交換ハードウエアを利用するよう構成される通信モジュール18を有し得る。
感情情報を与えるために、画像捕捉装置6は、手動制御要素13とユーザの生理学的信号を検出し得る一群のセンサ15とを含む。ユーザ2は制御要素13を利用して感情情報を入力することが可能であり、その制御要素は例えば手動的制御ボタン、タッチスクリーンディスプレイ又は音声若しくはジェスチャー認識インターフェースを包含し得る。
また、感情情報は一群のセンサ15によっても集められる。例えば、図1aに示される例では、一群のセンサ15は、画像捕捉装置6の表面に搭載された電気的皮膚応答センサを含む。着用可能な例の場合は、センサ15一式は図1bに示されるように別の場所に設けられ、電気的皮膚応答センサ16はめがねを支持する一般的なフレーム28の横側部分29に設けられる。また、一群のセンサ15は、ユーザ頭部のこめかみにおける動脈に付近の側面部29に通常的には組み込まれ、温度測定及び/又は心拍速度の読み取りを支援する血管(vascular)センサ17を含み得る。また、センサ15の組は、図1bに示されるような耳の近辺に又は耳に接触する形式で振動センサ19を含み、耳近辺の可聴振動を検出するよう構成することも可能である。振動センサ19は、ユーザから発する音と他の音源から発する音との双方を検出するよう構成され得る。任意の一群のセンサ15は、他の有利な配置で設けられ得る。任意の一群のセンサ15の1つは、それらの存在が着用可能な画像捕捉装置6の例の様相を変えないように小型化され得る。例えば、図1cの例に示されるように、電気的皮膚応答を検出するセンサ16は、一般的なフレーム28のブリッジ26に設けられた着用可能な画像捕捉装置の一部である。
他の実施例では、一群のセンサ15は、その環境との相互作用を可能にする神経細胞からの電気的挙動を監視するよう構成されるニューラルセンサ及び他の装置より成る。そのようなセンサ15の例は、アメリカ合衆国アトランタGAのニューラルシグナルインコーポレーテッドにより販売されている頭脳通信装置及び筋肉通信装置を包含する。これらの装置は、神経細胞における電気信号及び神経細胞から発せられる信号をそれぞれ監視し、例えば平均的な人が手足の動きを引き起こす信号を検出する。これらの信号はコンピュータに送信され、そこではソフトウエアがそれらの信号を適切な情報にデコードする。そのような技術は感情情報に加えて感情情報を判別するのに有利なその他の情報を検出するために使用され得ることが、理解されるであろう。例えば、耳からの音声情報を搬送する神経に付随する神経活動が監視され、観察者がある出来事で実際に聴いたものを反映する音声情報を判別するために使用され得る。
また、画像捕捉装置6はユーザカメラ10を含み、これはユーザ2の眼球運動、瞳孔サイズ及び表情の映像を記録するために使用される。ユーザカメラ10は、例えば一般的な電荷結合画像処理装置、相補的金属酸化物画像処理装置又は電荷注入装置を組み込むことができる。他の画像処理技術も使用され得る。ユーザカメラ10により捕捉された画像は、ユーザの画像又はユーザの顔の何らかの特徴を形成する映像を包含し得る。また、ユーザカメラ10により捕捉された画像は、そこから感情情報が取得され得る他の形式の映像を包含し得る。例えば、目の位置及び瞳孔サイズを表現する画像は、ユーザの目の完全なディジタル画像を形成する必要はない。その代りに、コストを削減するため又は画像処理構造を簡単にするために、低解像度又は非線形画像パターンの他の形式の画像が使用され得る。
ユーザカメラ10により捕捉された映像は、CPU14で処理される前にディジタル格納装置12に格納される。ユーザ映像カメラ10は、例えば赤外線センサカメラを包含し得る。この例では、一群の赤外線発光ダイオード(赤外線LED)は、ユーザの瞳に赤外線を向けている。ユーザ映像カメラ10は、ユーザの目から発せられる赤外線信号を検出する。そして瞳はユーザの顔画像により追跡される。有利なユーザ映像カメラ10の一例は、アメリカ合衆国ニューヨーク州アーモンクのインターナショナルビジネスマシーン図により開発されたブルーアイ(Blue Eyes)カメラシステムである。ユーザカメラ10の他の有利な例は、アメリカ合衆国バージニア州フェアファックスのLCテクノロジーズインコーポレーテッドにより販売されているアイゲイズ(Eyegaze)システムである。アメリカ合衆国マサチューセッツ州ボストンのアプライドサイエスラボラトリにより販売されているリモート追跡型眼球追跡カメラASLモデル504の形式のものも使用され得る。ユーザカメラ10の他の有利な例は、ミラー等(Miller et al.)による“Camera System With Eye Monitoring”と題する米国特許出願番号第 号(管理番号85243)に更に詳細に提示及び説明されている。
ユーザビデオカメラ10は、図1aに示されるように携帯用画像捕捉装置6に取り付けられ又はその内部に、図1bに示されるように着用可能な画像捕捉装置6のような頭部搭載フレーム28に、又は図1cに示されるように着用可能な画像捕捉装置6の遠隔したフレームに設けられ得る。図1cの場合には、ユーザカメラ10は、瞳の大きさ、目及びまつ毛の動きを含むユーザの様々な顔の特徴を捕捉するのに特に適している。図1bに示される例では、眼球運動及び他の目の特徴を捕捉するのに最も適している。また、ユーザ映像カメラ10は画像捕捉装置6から分離されることも可能であり、その場合に、ユーザ映像カメラ10は任意の画像捕捉装置から構成することができ、その装置は画像捕捉装置6のユーザの画像を捕捉し、その画像を画像捕捉装置に転送することの可能なものである。遠隔したユーザ映像カメラ10からの画像の転送は、既知の任意の無線通信システムを利用して無線で行なわれ得る。
特徴追跡は、例えば、Ko et al.,“Facial Feature Tracking for EyeHead Controlled Human Computer Interface”,Proceedings of IEEE TENCON,1999,pp.72−75 に記載されているような様々なアルゴリズムを利用して実行され得る。リアルタイムの顔の特徴を追跡し得るこのアルゴリズムは、処理された顔画像から見分ける候補ブロックを利用して完全なグラフを構成し、各ブロックについての類似性の測定値を算出する。目は、最大の類似性を有するブロックとして位置付けられる。目の位置に基づいて、口、唇輪郭及び鼻の穴が位置付けられる。形成された特徴は追跡される。
眼球運動を記録するよう公正さ得るユーザ映像カメラ10を有する着用可能な画像捕捉装置6の一例は、例えば、Pelz et al.,“Oculomotor Behavior and Perceptual Strategies in Complex Tasks”,Vision Research,Vol.41,pp.3587−3596,[2002]のような文献に見受けられる。この文献は、ヘッドギア/ゴーグル形式の着用可能な軽量の眼球追跡器を開示しており、それは赤外線照明部、小型映像眼球カメラ、照射するビームに並行にカメラを合わせるビームスプリッタを含むモジュールを有する。明るい瞳画像を形成するために、後方反射(retro−reflection)が瞳照明を与える。外部ミラーは、光学経路をゴーグルの前方に折り返し、ホットミラー(hot mirror)はIR照明を目に向け、目の画像を眼球カメラに写す。第2小型カメラは、ユーザの視点から場面の画像を取得するためにゴーグルに搭載される。
図1b及び図1cの双方において、ユーザ映像カメラ10は2つの部分を構成するように示され、両目の目の特徴を捕捉することを可能にする。しかしながら、ユーザ映像カメラ10は、ユーザ2の双方の目又は目の一方のみの特徴を捕捉する1つの部分によって表現され得ることが、理解されるであろう。
画像捕捉装置6には適切なソフトウエアが設けられ、それは個人的な感情情報を作成及び使用するCPU14によって使用される。このソフトウエアは典型的には格納装置12に格納され、通信モジュール18を利用してアップロード又は更新され得る。加えて、捕捉モジュール8によって与えられる場面の画像から抽出される、非感情的情報に関連する画像処理及び分析をCPU14に実行させるソフトウエアも、ディジタル格納装置12に格納される。加えて、ディジタル格納装置12は個人的なユーザ特性又はユーザプロファイルに関連する情報を格納し、格納装置は、例えば典型的な反応パターンについての量的情報のようなユーザ反応の特徴を要約する情報を包含する特定のデータベースであり、ソフトウエアプログラムはCPU14がその特定のデータベースにアクセスすることを可能にし得る。この個人的なユーザプロファイルは、個別化される感情情報を作成及び使用する際に、CPU14により問い合わせられ得る。個人的なユーザプロファイルは、ユーザ2の反応について学習した新たな情報によって更新される。
上述した画像捕捉装置6の全部又は一部は、画像捕捉装置6の一体的な部分として又は有線や無線で接続される物理的に分離した装置として実現され得ることは、理解されるであろう。
以下、表情から抽出される趣向の程度のような顔の特徴の分析;又は感情的カテゴリ及び表情から抽出された差異の程度に基づいて感情情報を判別するための画像捕捉装置6の様々な方法例が説明される。他の実施例は、瞳サイズ及び眼球運動から抽出される関心の度合いや、電気的皮膚応答から抽出される興奮の度合いのような生理学的情報に基づいて感情情報を判別する方法を示す。更なる例は、感情情報を導出するために顔分析及び生理学的情報の組み合わせを用いる方法を示す。
図2a,2bを参照するに、特定の場面の画像の一部に使用する趣向の程度に準拠して、感情情報を提供する本発明による方法の実施例を示すフローチャートが示されている。この例では、感情情報は特定のユーザの表情に基づいて判別される。
ユーザ2は先ず画像捕捉装置6を起動する(ステップ110)。好適実施例では、本発明による方法を使用するソフトウエアアプリケーションが画像捕捉装置6に既にインストールされており、それが自動的に開始される(ステップ112)。或いは、画像捕捉装置6の適切な制御ボタン(図示せず)を利用することによって、手動でそのアプリケーションを開始させることもできる。
ユーザ2はユーザID及びパスワードのようなユーザ識別データを入力する(ステップ114)。他の実施例では、ユーザ映像カメラ10は、顔認識ソフトウエアに関連して、ユーザ2の身元を自動的に判別するために、及びユーザ名、個人的識別コードのような適切なユーザ識別子その他の識別子を与えるために使用される。他の実施例では、ユーザ識別データは、例えば通信モジュール18を利用して、無線周波数トランスポンダのように捕捉装置外部のデータソースから取得され得る。更なる他の実施例では、画像捕捉装置6は、ユーザ識別データと供に前もってプログラムされ、この場合にはステップ114は不要である。
画像捕捉装置6は、選択的に、彼らが場面を見る場合にユーザの感情反応を判別スために、記録され得る信号の選択機能を与える(ステップ116)。ユーザは所望の信号を選択し、この例では表情を選択する(ステップ118)。他の実施例では、画像捕捉装置6は、1つ又はそれ以上の感情信号を利用することが事前にプログラムされており、その場合にはステップ116,118は不要である。
ユーザ2はその後に捕捉される場面を形成するために画像処理装置を指示する。捕捉モジュール8は、場面の第1画像を取得し(ステップ120)、同時にユーザ映像カメラ10はユーザ2の第1顔画像を捕捉する(ステップ130)。
画像捕捉装置6は、その場面の画像(ステップ122)及び顔画像(ステップ132)を一時的に格納し、ユーザ2の表情を自動的に分析する(ステップ134)。Essa et al.,“Facial Expression Recognition Using a Dynamic Model and Motion Energy”,Proceedings of the ICCV95,Cambrige,MA,1995 の文献に開示されているような表情認識に関する公知のアルゴリズムを利用して、表情は分析され得る。このアルゴリズムは、表現各々に関連する顔面筋肉活動の確率分布に関する知識及び皮膚や筋肉に関する詳細な肉体的モデルに基づくものである。このような肉体的なモデルは、映像信号から推定される筋肉活動と、感情表現に関する映像データベースから得た一般的な筋肉活動との比較によって、表情を認識するために使用される。
また、表情は他の公知の利用可能なアルゴリズムによっても分析され得る。そのようなアルゴリズムの一例は、Lien,et al.,“Detection,Tracking,and Classification of Action Units in Facial Expression”,Robotics and Autonomous Systems,Vol.31,pp.131−146,2000 に見受けられる。同様な他のアルゴリズムは、Barlett et al.,“Measuring facial expressions by computer image analysis”,Psychophysiology,Vol.36,pp.253−263,1999 の文献に見受けられる。これらのアルゴリズムは、特定の顔の動きの認識−基本的筋肉運動−に準拠しており、それは、Ekman et al.,“Facial Action Coding System”,Consulting Psychologists Press Inc.,Palo Alto,CA[1978]の論文にて公表されている。表情運動符号化システム(FACS:Facial Action Coding System)では、任意の表情を表現するために、基本的な顔の動作が組み合わせられる。例えば、自然な微笑みは、2つの基本的な表情動作によって表現され、それらは:1)口の周りが、大頬骨(zygomaticus major)と呼ばれる筋肉によって持ち上げられること;及び2)眼輪筋(orbicularis oculi)と呼ばれる筋肉によって目にしわができることである。従って、持ち上がった口及びしわになった目が映像信号中に検出されると、それはその人が微笑んでいることを意味する。表情分析の結果、ユーザの顔に微笑みが検出される場合には、ユーザの顔は微笑んでいるものと認識され、微笑みが検出されない場合には微笑んでいないものと認識される。
画像捕捉装置6は微笑みのレベル、程度又は大きさを判別する(ステップ136)。微笑みが検出されない場合には、その微笑みレベルは0に等しい。微笑みが所与の画像に検出されると、その人の目の間の距離で分けられる指定される画像の開始から、最初の3秒間における口の周りの最大距離として、その画像に関する微笑みレベルが判別される。ユーザ2の目の間の距離は、上述した顔認識アルゴリズムを利用して判定される。口の大きさとユーザ2の頭部に関連する何らかの測定値(例えば、目の間の距離)の間の比率をとることの必要性は、顔画像から抽出される口の大きさは、ユーザ映像カメラ10に対するユーザ2の距離や頭部の位置等に依存することに由来する。ユーザ2の目の間の距離は、この依存性に配慮するために使用されるのであるが、顔の長さや幅、顔の面積のような他の測定値も使用され得る。
画像捕捉装置6は、好みの程度を判別する(ステップ138)。微笑みが検出されなかった場合には、微笑みレベル従って好みのレベルは0に等しい。実際、微笑みが検出される場合に、好みの程度の大きさは微笑みレベルに対応する。相対的な微笑みレベルは、ユーザ2の個人的ユーザプロファイルに関連付けられる平均的微笑みレベルで微笑みレベルを割ったものとして定められる。個人的ユーザプロファイルにおける平均的微笑みレベルデータは、定常的に更新され、ディジタル格納装置12に格納され得る。平均的な微笑みレベルに関する個人的なユーザプロファイルは、微笑みレベルデータを利用して更新され得る(ステップ139)。
得られた趣向(好み)のレベルは、ユーザ2により設定された閾値と比較される(ステップ140)。得られた趣向のレベルが閾値を上回る場合は、画像捕捉装置6は、捕捉されたその特定の画像に関心のあることを示す個人的感情タグを対応する画像のために作成する(ステップ144)。他の実施例では、趣向のレベルについての閾値も、例えばユーザの趣向レベルの分布に関する過去の累積確率に基づいて、個人的ユーザプロファイルから自動的に設定される。一実施例では、そのような確率は0.5に等しく、従って好みのレベルに対する閾値は、その場合に少なくとも50%生じる値に対応する。更なる他の実施例では、個人的感情タグは、趣向の値に関するある範囲内から選択される値を含み、捕捉される様々な画像の間で相対的な趣向のレベルの区別を可能にする。
画像捕捉装置6は、対応する画像及び個人的感情タグを格納し、そのタグは、場面画像を含む画像ファイルの中で画像メタデータの一部として好みの程度を示す(ステップ146)。或いは、好みの程度を示す個人的感情タグは、ユーザ識別データ及び画像識別子に関連して別のファイルに格納され得る。これが行なわれる場合には、データはファイルの場所を示す画像メタデータ内に格納される。加えて、ユーザ2がある画像を見る日付に関する情報も(即ち、捕捉されてすぐの)、別項目として個人的感情タグに記録され得る。
更なる例では、生の顔画像が、画像識別子及びユーザ識別子と共に画像捕捉装置6の別ファイルに、又は画像メタデータの一部として個人的感情タグに、感情情報として格納され、その分析は後に別のシステムを利用して選択的に行なわれる。例えば、場面画像及び生の顔画像は、通信モジュール18及びインターネットサービスプロバイダ20(図1)を利用して、別のデスクトップコンピュータ(図示せず)又はコンピュータサーバ(図示せず)に通信され、それらはステップ134−138に関して既に説明した分析を実行し得る。
対応する画像、個人的感情タグ及び他の画像メタデータは、通信モジュール18を利用してディジタル画像の個人的データベースに送信される(ステップ148)。この画像の個人的データベースは、例えば別個のデスクトップコンピュータ(図示せず)又はコンピュータサーバ(図示せず)を利用して格納され得る。
図示される例では、好みに関して取得したレベルが閾値を下回る場合には、ユーザの顔画像が消去される(ステップ142)。他の例では、取得した好みのレベルが閾値を下回る場合であってユーザ2が依然として同じ場面又はその場面の画像を例えばプレビュースクリーン22にて眺めている場合には、画像捕捉装置6は選択的に次の顔画像を取得し、ステップ132乃至140を反復し、ユーザ2が同一の場面又はその場面に関して捕捉された画像を眺める場合に、ユーザ2が彼女の表情を変更するか否かを判別する。
閾値が0に設定されている場合には、総ての場面画像、及び画像捕捉装置6に記録される対応する感情情報(好みのレベル、又は他の例では生の顔画像)は、上記のようにして格納される。
ユーザが電力の投入を維持する場合には(ステップ124)、場面の次の画像を捕捉するプロセス(ステップ120−124)が反復され、同時に捕捉した画像に関する個人的感情タグの判別及び格納のステップ(ステップ130−146)が反復される(ステップ126)。
画像捕捉装置6は、ユーザ2が画像捕捉装置6の電源投入を維持する限り、捕捉モジュール8を利用して場面4の画像を、ユーザ画像カメラ10を利用してユーザ2の顔画像を記録することを継続する。電源が落とされると、画像捕捉装置6は場面の画像及び顔画像の記録を停止し、感情タグ付けのプロセスを終了する(ステップ128)。
その開示内容が本願の参考に供せられる、2001年12月26日に出願された、マトラゼック等(Matraszek et al.)による“Method for Creating and Using Affective Information in a Digital Imaging System”と題する米国特許出願番号第10/036,113号、及び2001年12月26日に出願されたマトラゼック等による“Method for Using Affective Information Recorded With Digital Images for Producing an Album Page”と題する米国特許出願番号第10/036,123号に記載されているように、特定のユーザの好みの画像として、好みのレベルは、系統的且つ連続的な手法で画像をランク付けするためにディジタル画像処理システムで使用され得る。
他の例では、場面の画像に関して好みの二進法的なレベルが判別され得る。微笑みがステップ136で検出される場合に、対応する画像は、1に等しい趣向2進レベルを有する好みとして分類される。或いは、微笑みが検出されない場合には、その画像は0に等しい微笑みレベルを有する好みとして分類される。
2進法的な好みのレベルの観点から決定された感情情報は、個人的感情タグとして格納され、そのタグは画像メタデータの一部としてユーザ識別データを包含する。また、それは、画像識別子及びユーザ識別データと共にディジタル格納装置12における別ファイルに格納され得る。加えて、ユーザの表情に関する実際の画像の観点から、感情情報は、画像識別子及びユーザ識別内容に関連する別ファイルに格納され得る。
他の例では、捕捉された画像は、感情情報が相対的な微笑みレベルのような閾値を超える場合にのみ、画像捕捉装置6によってインターネットサービスプロバイダ20に転送される。その結果、趣向閾値を超える画像のみが、画像に関するユーザの個人データベースに格納される。この例では、そのようなファイルが趣向閾値に合うことを示すメタデータが画像ファイルに格納される。
図3a,3bを参照するに、画像取得中にユーザの反応の感情的なカテゴリを特徴付ける、感情情報を与える本発明の別の実施例を示すフローチャートが示される。本実施例では、感情情報はユーザの表情の分析に基づいて取得される。
更なる他の例では、場面に関する画像の感情的なカテゴリが判別され得る。表情は、「喜び」、「悲しみ」、「嫌悪」、「驚き」等のような広範囲にわたる感情カテゴリに分類される。顔認識の結果、「喜び」の表情を引き起こす場面は「喜び」感情カテゴリに割り当てられ;「悲しみ」の表情を引き起こす場面は「悲しみ」感情カテゴリに割り当てられる等々である。場面の画像は、非常に喜ばしい、幾らか喜ばしい、まあまあである、幾らか悲しい、非常に悲しい等のように、これらのカテゴリに関するある範疇の値を利用して更に分類される。
感情カテゴリの観点から判別された感情情報は、画像メタデータの一部としてユーザ識別子を含む個人的感情タグとして格納される。また、それは、画像識別子及びユーザ識別子と共にディジタル格納装置12における別ファイルに格納され得る。
表情は、「喜び」、「悲しみ」、「嫌悪」、「驚き」等のような広範囲にわたる感情カテゴリに分類される。表情を分類する公知のアルゴリズムは、Dailey et al.,“EMPATH:A Neural Network that Categorizes Facial Expressions”,Journal of Cognitive Neuroscience,2002 に開示されている。このアルゴリズムは、感覚分析、オブジェクト表現、及び分類の3段階のプロセスを実行する3つのニューロン階層より成るフィードフォワードニューラルネットワークを進めることに基づいて、表情を6つのカテゴリ:「喜び」、「悲しみ」、「恐れ」、「怒り」、「嫌悪」及び「驚き」に分類する。このモデルでは、第1の階層は、視覚皮質における複合的な細胞に類似する性質を有する一群のニューロンをまねる(mimic)。第2階層の部分はそのデータから規則性を抽出する。第3階層の出力は6つの基本的感情に分類される。その結果、各表情は、各々が表情に関する6つの数によって符号化される。様々な感情に対応する数は、それらが確率として解釈され得るように、総て正であって合計が1である。
以下に説明する方法は、ユーザの表情に基づいて感情カテゴリを判別し、更にこれらのカテゴリに対するある範疇の値を与え、より具体的には感情分類の「緻密化(distinctiveness)」が示唆され、図3a,3bに示される。感情分類の緻密化の度合いは、感情のファジィ性又は曖昧さとは反対に、特定の感情の一意性又は「純粋性(purity)」の測定値を反映する。
図3の例におけるステップ150乃至172は、概して図2の例におけるステップ110乃至132に対応する。
本実施例では、画像捕捉装置6は、デイリー等(Dailey et al.)によるニューラルネットワーク法を応用することによってユーザ2の表情を自動的に分析する(ステップ174)。その結果、ユーザの表情は、各々が総て基本感情に対する6つの数に関連付けられる。
感情カテゴリ(EC)は、最大数に関するカテゴリを選択することによって決定される(ステップ176)。例えば、その数が、「喜び」、「悲しみ」、「恐れ」、「怒り」、「嫌悪」及び「驚き」に関してそれぞれ0.5,0.01,0.2,0.1,0.19及び0であったとすると、判定される感情カテゴリは喜びであり、その理由はそれが最大数0.5を有するからである。そして、「喜び」の表情を引き起こす場面には「喜び」感情カテゴリが割り当てられ;「悲しみ」の表情を引き起こす場面には「悲しみ」感情カテゴリが割り当てられる、等々である。
複数のカテゴリが同一の数であった場合は、1つのカテゴリがその感情であるとしてランダムに選択される。或いは、いくつかのカテゴリが同じ数である場合に、他の感情又は悲感情情報を利用して、1つのカテゴリの選択を支援することも可能である。
画像捕捉装置6は感情カテゴリの差別化(distinctiveness)の度合いを決定する(ステップ178)。差別化の度合い(DDEC)は、先のステップ176で設定した6つの感情に対する数から算出され、便宜上それらをN1,N2,N3,N4,N5,N6と記す。以下の表記は、感情カテゴリECに関する差別化の度合いを判別するために本発明で使用されるものである:
Figure 2004178593
DDECは、感情カテゴリECに対する差別化の絶対的な大きさに対応する。差別化の相対的な大きさは、感情カテゴリに対する差別化の絶対的大きさECを、特定のユーザの各感情カテゴリに関してユーザプロファイルで設定されたDDECの平均値で除算したものとして定義される。ユーザプロファイルにおける平均DDECデータは、定常的に更新され、ユーザ2の個人的ユーザプロファイルの一部としてディジタル格納装置12に格納される。個人的ユーザプロファイルは、感情カテゴリDDECの差別化の平均的大きさに関する問い合わせを受け、更新される(ステップ179)。
取得した差別化のレベルは、ユーザ2により又はユーザ2のために設定された閾値と比較される(ステップ180)。取得した差別化のレベルが閾値を上回る場合には、画像捕捉装置6は、関連するその画像について、その特定の捕捉した画像に関する差別化の度合いと共に感情カテゴリを示す個人的感情タグを作成する(ステップ184)。
他の実施例では、差別化の度合いに対する閾値も、例えば特定の感情カテゴリに関連するユーザの差別化レベル分布についての従前の累積確率に基づいて、個人的ユーザプロファイルから自動的に設定され得る。一実施例では、そのような確率は0.5に等しく、差別化レベルに関するその閾値は、少なくとも50%の場合に生じる値に相当する。更なる他の実施例では、個人的感情タグは、ある範囲内の差別化の値の中から選択された値を包含し、捕捉した様々な画像の中で相対的な差別化レベルを差別化することができる。
画像捕捉装置6は、対応する画像とその差別化レベルと共に感情カテゴリを示す個人的感情タグとを、画像メタデータの一部として場面画像を含む画像ファイル内に格納する(ステップ186)。或いは、差別化レベルと共に感情カテゴリを示す個人的感情タグは、ユーザ識別データ及び画像識別子に関連する別個のファイルに格納され得る。加えて、ユーザが画像を見る日付(捕捉されてすぐの)についての情報も、別項目として個人的感情タグに記録され得る。
他の実施例では、生の顔画像が、画像識別子及びユーザ識別子と共に画像捕捉装置6における別個のファイル内に又は画像メタデータとして個人的感情タグ内に感情情報として格納され、その分析は後に選択的に別のシステムで行なわれる。例えば、場面画像及び生の顔画像は、無線モデム18(図1)及びインターネットサービスプロバイダ20により、ステップ174−178に関連する説明済みの分析を実行し得る別個のデスクトップコンピュータ(図示せず)又はコンピュータサーバ(図示せず)と通信され得る。
対応する画像、個人的感情タグ及び他の画像メタデータは、通信モジュール18を利用してインターネットサービスプロバイダ20に、ディジタル画像の個人的データベースに送信される(ステップ188)。画像に関するこの個人的データベースは、例えば別個このデスクトップコンピュータ(図示せず)又はコンピュータサーバ(図示せず)を利用して格納することができる。
図示されている例では、取得した差別化のレベルが閾値を下回る場合には、そのユーザの顔画像は消去される(ステップ182)。取得した差別化レベルが閾値を下回る場合であって、ユーザ2が例えばプレビュースクリーン22等で同じ捕捉画像を依然として眺めている場合には、画像捕捉装置6は選択的に次の顔画像を捕捉し、ステップ172乃至180を反復し、ユーザ2がその同一場面を又はプレビュースクリーン22で捕捉画像を眺める間にユーザ2がその表情を変えたか否かを判別する。
閾値が0に設定されていたならば、画像捕捉装置6により記録される総ての場面画像及び対応する感情情報(差別化のレベルを有する感情カテゴリ、又は他の例では生の顔画像)は、画像識別データ及びユーザ識別子と共に画像捕捉装置6における別個のファイル内に又は画像メタデータの一部として個人的感情タグ内に感情情報として永続的に格納される。
画像捕捉装置6は、ユーザ2が画像捕捉装置6の電源投入を維持する限り、捕捉モジュール8を利用して場面4の画像を及びユーザのビデオカメラ10を利用してユーザ2の顔画像を記録し続ける。ステップ168では、電源が落とされた場合に、画像捕捉装置6はその場面の画像及び顔画像の記録を停止し、感情タグ付けのプロセスを終了する。
ユーザ2が電源投入を維持する場合には、その場面の次の画像を捕捉し(ステップ160−166)、それと同時に捕捉した画像についての個人的感情タグを判別及び格納するプロセス(ステップ170−186)が反復される。
その開示内容が本願の参考に供せられる、2001年12月26日に出願された、マトラゼック等(Matraszek et al.)による“Method for Creating and Using Affective Information in a Digital Imaging System”と題する米国特許出願番号第10/036,113号、及び2001年12月26日に出願されたマトラゼック等による“Method for Using Affective Information Recorded With Digital Images for Producing an Album Page”と題する米国特許出願番号第10/036,123号に記載されているように、特定のユーザにとって情的に大切な又は好みの画像として系統的且つ継続的な手法で画像をランク付けするために、ディジタル画像処理システム内で感情カテゴリ及びその差別化の程度が使用され得る。
他の実施例では、差別化の度合いなしに、場面の画像に関する感情カテゴリのみが決定され得る。感情カテゴリが検出されると(ステップ174)、対応する画像が指定された感情によって分類される。しかしながら、2つ又はそれ以上の感情カテゴリが、ステップ176で計算された同様な数値を有する場合には、中間的な又はニュートラルなカテゴリが割り当てられ得る。
感情カテゴリの観点から決定された感情情報は、画像メタデータの一部としてユーザ識別データを示す個人的感情タグとして格納される。また、それは、画像識別子及びユーザ識別データと共にディジタル格納装置12における別ファイルに格納され得る。加えて、ユーザの表情の実際の画像に関する感情情報も、画像識別子及びユーザ識別データに関連付けて別ファイルに格納され得る。
以前に説明した実施例では、感情情報はユーザ2の顔の特徴から抽出されていた。図4a,4bは本発明の別の実施例を示すフローチャートであり、感情情報は、生理学的特徴、即ち眼凝視情報(eye gaze information)に基づく関心の度合いによって得られる。この例では、関心の度合いは目の凝視固定時間に基づいて決定され、その時間は、別の場所で凝視する前に、その場面の特定の場所でユーザ2の目が止まっている時間である。
Lang et al.,“Looking at Pictures:Affective,Facial,Visceral,and Behavioral Reactions”,Psychophisiology,Vol.30,pp.261−273の論文に記載されているデータは、平均的に、眺めている時間は関心の度合い又は観察者に引き起こされる画像への注目度に線形に関連することを示す。従って、そのような関連性により、その場面の領域にユーザの関心が向いている度合いとして、凝視時間を解釈することが可能である。引用されているラング等による公知文献では、単に場面の第三者画像について、眺めている時間を関心の度合いと比較している。本発明では、凝視時間は、場面についてだけでなく場面の当事者画像(first party image)についても直接的に評価され、画像メタデータの一部として個人的感情タグ内に又はユーザ識別子及び画像識別子に関連する別ファイル内に格納される。
図4a,4bの実施例では、方法手順210−228は、概して図2の方法手順110−128に相当するが、ステップ218にてユーザが「凝視時間(fixation time)」信号を選択する点で唯一相違する。或いは、画像捕捉装置6は「凝視時間」情報を捕捉するように事前にプログラムされ得る。
本実施例では、画像構成、捕捉、途中の捕捉後の再検討の何れかの際にユーザが場面を眺めるときに、画像捕捉装置6内のユーザビデオカメラ10は、30秒の時間枠のようなある時間枠の中で目の画像サンプルを取得する(ステップ230)。
ユーザの目の凝視方向の座標は、60Hzのサンプリングレートのようなあるサンプリングレートで格納される(ステップ232)。ある実施例では、サンプリングレートはユーザ2によって修正され得る。また、場面内容の時間変化率による目凝視の変化率や、感情データを格納するのに利用可能なメモリ容量等のような他の要因に基づいて、サンプリングレートが修正され得る。
生の(未処理の)凝視座標は、目の凝視位置にグループ化される(ステップ234)。目の凝視位置は、通常的には凝視座標が見る角度で1度以上変化しない間の少なくとも50秒の期間として定められる。各凝視位置について、開始時間、終了時間及び凝視座標が判定される。加えて、平均的な瞳孔直径が各凝視位置について決定され得る。目の凝視時間はそれらの開始及び終了時間に基づいて測定される(ステップ236)。
画像捕捉装置6は目の凝視位置各々についての関心の度合いを判別する(ステップ238)。関心の度合いの絶対的な大きさは、対応する凝視時間として定められる。関心の度合いの相対的な大きさは、その凝視時間を、特定のユーザに対する平均的な凝視時間で除算したものとして定められる。平均的な凝視時間は、継続的に更新され、ユーザ2の個人的ユーザプロファイルの一部としてディジタル格納装置12に格納される。個人的ユーザプロファイルは、ユーザ2に対する平均的凝視時間に関して問い合わせを受け更新される(ステップ239)。
取得した関心の度合いは、そのユーザのために設定された閾値と比較される(ステップ240)。取得した関心の度合いが閾値を上回る場合には、画像捕捉装置6は関心の度合いを示す個人的感情タグを作成する(ステップ244)。或いは、関心の度合いに関する閾値は、例えば、ユーザ2に関するユーザの関心の度合い分布による従前の累積確率に基づいて、個人的ユーザプロファイルから自動的に設定され得る。そのような確率が0.5に等しいならば、関心の度合いに関するその閾値は、少なくとも50%の場合に生じる値に相当する。
一実施例では、画像捕捉装置6は、対応する画像及び関心の度合いを画像メタデータの一部として個人的感情タグに格納する(ステップ246)。或いは、関心の度合いは、ユーザ識別子及び画像識別子に関する別ファイルに格納され得る。これが行なわれる場合には、データは、個人的感情情報を有するファイルの場所を示す画像メタデータ内に格納される。加えて、ユーザがある場面を見る日付についての情報も、別項目として個人的感情タグに記録され得る。
他の実施例では、その場面画像及び目に関する生の情報が格納される。生の目の情報は、CPU14により又は格納された画像を受信する別装置(図示せず)内のプロセッサにより後に分析され得る。
対応する画像、個人的感情タグ及び他の画像メタデータは、ステップ148に関して以前に説明したように、ディジタル画像の個人的データベースに送信される(ステップ248)。
取得した関心の度合いが閾値を下回る場合には、対応する目の情報は消去される(ステップ242)。取得した関心の度合いが閾値を下回る場合であってユーザ2が例えばプレビュースクリーン22等で同じ場面又は同じ場面の捕捉画像を依然として眺めている場合には、画像捕捉装置6は、目の画像の別のセグメントを選択的に捕捉し、ユーザ2が同じ場面又は同じ場面の捕捉画像を眺めている場合にステップ232乃至240を反復する。
閾値が0に設定されているならば、画像捕捉装置6により記録される総ての場面及び対応する感情情報(関心の度合い、又は他の例では生の目の画像)が、画像識別子及びユーザ識別子と共に画像捕捉装置6内の別個のファイル内に又は画像メタデータの一部として個人的感情タグ内に感情情報として格納される。
画像捕捉装置6は、ユーザ2が画像捕捉装置6の電源を投入している限り、捕捉モジュール8を利用して場面4の画像を、及びユーザビデオカメラ10を利用してユーザ2の顔画像を記録し続ける。ステップ168では、電源が落とされると、画像捕捉装置6は、その場面の画像及び顔画像の記録を停止し、感情タグ付けのプロセスを終了する。
ユーザが電源投入を維持する場合には、その場面の次の画像を捕捉し(ステップ220−226)、それと同時に捕捉した画像に個人的感情タグを決定及び格納するプロセス(ステップ230−246)が反復される。
2001年12月26日に出願された、マトラゼック等(Matraszek et al.)による“Method for Creating and Using Affective Information in a Digital Imaging System”と題する米国特許出願番号第10/036,113号、及び2001年12月26日に出願されたマトラゼック等による“Method for Using Affective Information Recorded With Digital Images for Producing an Album Page”と題する米国特許出願番号第10/036,123号に記載されているように、特定のユーザにとって好ましい又は高い価値がある画像として系統的且つ継続的な手法で画像をランク付けするために、ディジタル画像処理システム内で関心の度合いが使用され得る。
他の実施例では、ユーザカメラ10及び中央処理装置14は、ユーザの目(又は両目)の画像から付加的な情報を取得するために使用される。そのような情報の例は、限定するわけではないが、眼球速度、涙の分泌(tear formation)、目の温度、虹彩又はアイリスパターン、血管パターン、及び血管サイズ等を含む。この情報は、ユーザの身元、感情の状態及び/又は健康状態を判別するために使用され得る。この情報は感情タグの一部として格納され得る。
感情情報の他の情報元又はソースは、ユーザ2により発せられる生理学的信号に由来するものである。図5は、感情情報が生理学的信号から判別される本発明の実施例を示す。本実施例では、生理学的信号は皮膚伝導率であり、その皮膚伝導率から導出される感情情報は興奮(excitement)の度合いにより表現される。
皮膚伝導度変化は電気的な皮膚応答で測定される。皮膚伝導率は、場面又はその場面の画像を眺めるようなある出来事に対する応答として測定される皮膚の電気的伝導率の大きさの変化を反映する。Lang et al.,“Looking at Pictures:Affective,Facial,Visceral,and Behavioral Reactions”,Psychophysiology,Vol.30,pp.261−273,1993 に記載されているように、皮膚伝導度変化は、その画像が眺めている人に喚起させる興奮度(arousal)に依存し:その伝導度が高ければ高いほど、感情の高ぶり又は興奮度は低くなる、又はその逆であり:伝導度が低ければ低いほど感情の高ぶりは高くなる。また、皮膚伝導度応答の振幅測定は、関心度又は注目度を判定するためにも使用される。
本実施例では、方法手順310−328は、概して図2の方法手順110−128に相当するが、ステップ318にてユーザ2が、少なくとも感情情報の一部として電気的な皮膚応答情報を捕捉するように画像捕捉装置6に手動で命令できる点で唯一相違する。或いは、画像捕捉装置6は電気的皮膚応答情報を捕捉するように事前にプログラムされ得る。画像捕捉装置6は、電気的皮膚応答センサ16を用いて、例えば5秒間の時間枠のようなある時間枠内で電気的皮膚応答を測定する(ステップ330)。別の実施例では、その時間枠はユーザ2によって修正され得る。電気的皮膚応答センサ16の一例は、例えば、アメリカ合衆国ニューヨーク州ウエストチャジーのソートテクノロジにより販売されているプロコンプ(ProComp)検出システムによるSC−フレックス/プロ(SC−Flex/Pro)センサであり得る。
電気的皮膚応答による皮膚伝導度信号は、例えば60Hzのサンプリングレートのようなあるサンプリングレートで格納される(ステップ332)。ある実施例では、サンプリングレートは、場面内容の時間変化率、電気的皮膚応答の時間的変化率、又は感情データを格納するのに利用可能なメモリ容量等のような他の要因に基づいて修正され得る。電気的皮膚応答の伝導度信号は、データ内のノイズを減らすために濾波又はフィルタ処理される(ステップ334)。電気的皮膚応答の伝導度信号の振幅は、その後に決定される(ステップ336)。
画像捕捉装置6は、電気的皮膚応答信号に基づいて興奮度合いを判別する(ステップ338)。その場面に関する興奮度合いの絶対的な大きさは、フィルタ処理された電気的皮膚応答の皮膚伝導度信号の振幅と等価である。興奮度の相対的な大きさは、電気的皮膚応答信号の振幅を、その特定のユーザに対する平均的な電気的皮膚応答信号で除算したものとして定められる。平均的な皮膚伝導度は、継続的に更新され、ユーザの生理学的プロファイルの一部としてディジタル格納装置12に格納される。相対的な興奮度合いを算出するために平均的な皮膚伝導度応答情報は、個人的ユーザプロファイルから抽出される。個人的ユーザプロファイルは、皮膚伝導度応答情報に関して更新される(ステップ339)。
取得した興奮度合いは、そのユーザのために設定された閾値と比較される(ステップ340)。取得した興奮度合いが閾値を上回る場合には、画像捕捉装置6は興奮度合いを示す個人的感情タグを作成する(ステップ344)。他の実施例では、興奮度合いに関する閾値は、例えば、ユーザの興奮度合いに関する従前の累積確率に基づいて、個人的ユーザプロファイルから自動的に設定され得る。そのような確率が0.5に等しいならば、興奮度合いに関するその閾値は、少なくとも50%の場合に生じる値に相当する。或いは、個人的感情タグは、ある範囲内の感情高まり値の中から選択された値を含み、捕捉した様々な画像の中で相対的な興奮度の差別化を可能にする。
画像捕捉装置6は、対応する場面画像及び興奮度合いを画像メタデータの一部として個人的感情タグに格納する(ステップ344及び346)。或いは、興奮度合いは、ユーザ識別子及び画像識別子に関する別ファイルに格納され得る。加えて、ユーザがある場面を見る日付についての情報も、別項目として個人的感情タグに記録され得る。
他の実施例では、生の電気的皮膚応答信号が、画像識別子及びユーザ識別データと共に画像捕捉装置6における別ファイル内に、又は画像メタデータの一部として個人的感情タグ内に感情情報として格納される。
対応する画像、個人的感情タグ及び他の画像メタデータは、ステップ148に関して以前に説明したように、ディジタル画像の個人的データベースに送信される(ステップ348)。
ステップ342では、取得した興奮度合いが閾値を下回る場合には、対応する皮膚伝導度信号は消去される。取得した興奮度合いが閾値を下回る場合であってユーザ2が例えばプレビュースクリーン22等で同じ場面又は同じ場面の捕捉画像を依然として眺めている場合には、画像捕捉装置6は、皮膚伝導度信号の次のセグメントを5秒間選択的に測定し、ユーザ2が同じ場面又は同じ場面の捕捉画像を眺めている場合にステップ332乃至340を反復する。
閾値が0に設定されているならば、画像捕捉装置6により記録される総ての場面及び対応する感情情報が格納される。個人的ユーザプロファイルはその後に更新される(ステップ339)。
上述したように、2001年12月26日に出願された、マトラゼック等(Matraszek et al.)による“Method for Creating and Using Affective Information in a Digital Imaging System”と題する米国特許出願番号第10/036,113号、及び2001年12月26日に出願されたマトラゼック等による“Method for Using Affective Information Recorded With Digital Images for Producing an Album Page”と題する米国特許出願番号第10/036,123号に記載されているように、特定のユーザにとって好ましい、重要な又は感情の高まる画像として系統的且つ継続的な手法で画像をランク付けするために、ディジタル画像処理システム内で興奮度合いが使用され得る。
各ユーザ2は、ある画像について別々の生理学的及び表情反応を有することが、理解されるであろう。あるユーザは、控えめな表情反応しか示さないが強い生理学的応答を示す場合がある。別のユーザでは、強い表情反応を示すが弱い生理学的反応を示す場合もある。更に別のユーザは、控えめな生理学的及び表情反応を示す場合もある。従って、様々な種別の感情情報を結合させることで、その場面に対するユーザ2の感情応答に対するより牢堅な又はロバストな(robust)表現を得ることが可能である。以下の実施例は、感情情報の解釈を支援するために、生理学的及び表情応答情報の組み合わせを利用して感情情報を解釈する方法を示す。
図6a,6bを参照するに、図2−4に関して説明した3つの感情信号、即ち趣向の度合い、関心の度合い、及び興奮の度合いの組み合わせに基づく感情情報を与える、本発明の別の実施例を示すフローチャートが示され、それらの信号は肯定的重要性(positive importance)の総合的測定値を得るために更に結合される。
本実施例では、方法手順410−428は、概して図2の方法手順110−128に相当するが、ステップ418において、ユーザが「結合された」信号の利用を選択する点又は画像捕捉装置6が「結合された」信号を利用することを事前にプログラムされる点で唯一相違する。
画像捕捉装置6は、図2のステップ130−139に関して説明済みの表情に基づいて趣向の度合い(DP)を判別する(ステップ430及び432)。また、画像捕捉装置6は、図3のステップ230−239と同じ方法で凝視時間に基づく関心の度合い(DI)をも判別する(ステップ434−436)。画像捕捉装置6は、更に、図5のステップ330−339と同じ方法で皮膚伝導度に基づく興奮度合い(DE)を判別する(ステップ438−440)。
画像捕捉装置6は、3つの測定値の和に基づいて肯定的な重要度(又は好み)を決定する:
肯定的重要度=DP+DI+DE
他の実施例では、肯定的重要度はこれら3つの測定値の重み付けされた和に基づいて決定され、それは
肯定的重要度=wDPDP+wDIDI+wDEDE
であり、ここで重み又はウエイトwDP,wDI,wDEは、その特定のユーザに関して以前に取得した規格化された信号(最大値で除算したもの)各々における標準偏差に基づいて決定される。この場合に、その信号における標準偏差が高くなればなるほど、その信号の肯定的重要度測定値への寄与の重みも大きくなる。従って、所与の信号に関する標準偏差が小さければ小さいほど、対応する信号に関する肯定的重要度測定値への寄与の重みも小さくなる。この依存性の原因は、特定のユーザに関する特定の測定値の標準偏差は、様々な場面の中での個々の相違の度合いを反映しているという仮定に由来する。このことは、最高の標準偏差を有する信号は、より多くの識別力(差別化する力)を有し、それ故に特定のユーザに関する肯定的重要度の総合的測定値を決定又は考慮する際にはより重要であることを示唆する。
例えば、ユーザAに関して、別々の場面が、非常に様々な表情と皮膚伝導度応答の小さな変化とを引き起こす場合に、表情に基づく趣向の度合いの測定値(DP)に与えられる重みwDPは、皮膚伝導度に基づく興奮度合いの測定値(DE)に与えられる重みwDEよりも高くなる。一方、ユーザBに関して、異なる場面が、表情に関する小さな変化と皮膚伝導度応答における大きな変化とを引き起こす場合には、重みに関する関係は逆転する。関連する信号の最大値及び標準偏差に関するデータは、ステップ443にて個人的ユーザプロファイルから取得され得る。個人的ユーザプロファイルはその後にこの情報に関して更新される。
取得した肯定的重要度は閾値と比較される(ステップ444)。閾値は事前に決定され得る。また、閾値はユーザ2により設定され又はユーザ2のために設定されているようにすることができる。取得した肯定的重要度が閾値を上回る場合には、画像捕捉装置6は、肯定的重要度を示す個人的感情タグを作成する(ステップ448)。他の実施例では、閾値は、例えば肯定的重要分布の以前の累積確率に基づいて、個人的ユーザプロファイルから自動的に決定され得る。そのような閾値は、以前の確率0.5を有する肯定的重要度に対応するものとして選択され得る。
画像捕捉装置6は、対応する場面画像及び肯定的重要度を画像メタデータの一部として個人的感情タグに格納する(ステップ450)。或いは、肯定的重要度は、ユーザ識別データ及びユーザ識別子に関連する別ファイルに格納され得る。加えて、ユーザがある画像を見る日付についての情報も、別項目として個人的感情タグに記録され得る。
対応する画像、個人的感情タグ及び他の画像メタデータは、図2のステップ148に関連して説明したように、ディジタル画像の個人的データベースに送信される(ステップ452)。
取得した肯定的重要度が閾値を下回る場合には、顔画像、目の画像及び皮膚伝導度信号の対応するセグメントは消去される(ステップ446)。
取得した肯定的重要度が閾値を下回る場合であって、ユーザ2が例えばプレビュースクリーン22にて同じ場面又は同じ場面の捕捉画像を依然として眺めている場合には、画像捕捉装置6は、顔画像、目の画像及び皮膚伝導度信号の次のセグメントを選択的に測定し、ユーザ2が同じ場面又は同じ場面の捕捉画像を見ている場合に、ステップ432乃至444を反復する。
閾値が0に設定されているならば、画像捕捉装置6に記録される総ての場面及び対応する感情情報(肯定的重要度、又は他の例では生の顔画像、目の画像、及び電気的皮膚応答信号)が、格納されることになる。
上述したように、2001年12月26日に出願された、マトラゼック等(Matraszek et al.)による“Method for Creating and Using Affective Information in a Digital Imaging System”と題する米国特許出願番号第10/036,113号、及び2001年12月26日に出願されたマトラゼック等による“Method for Using Affective Information Recorded With Digital Images for Producing an Album Page”と題する米国特許出願番号第10/036,123号に記載されているように、特定のユーザにとって好ましい、重要な又は感情の高まる画像として系統的且つ継続的な手法で画像をランク付けするために、ディジタル画像処理システム内で肯定的重要度が使用され得る。
他の実施例では、表情、目の特徴及び生理学的反応の他の組み合わせが、個人的感情タグを生成するために使用され、「喜び」、「恐怖」、「怒り」等のような広範囲にわたる感情カテゴリに従って場面を分類することが可能である。そのような分類例が表1に示される。
表1:表情、目の特徴及び生理学的反応の組み合わせに基づく感情分類
Figure 2004178593

画像は、非常に喜ばしい、いくらか喜ばしい、それほどでもない、いくらか悲しい、非常に悲しい等のようなそれらのカテゴリのある範囲内の値を利用して更に分類され得る。
感情カテゴリの観点から判別した感情情報は、画像メタデータの一部としてユーザ識別子を含む個人的感情タグとして格納される。また、それは画像識別子及びユーザ識別子と共にコンピュータにおける別ファイルに格納され得る。
図7を参照するに、感情情報を判別するために生理学的及び顔の分析が組み合わせて使用される本発明の別の実施例によるフローチャートが示される。本実施例では、画像に対するユーザの応答についての感情情報は、図2−5に関して説明した4つの感情信号、即ち趣向の度合い、差別化の度合い、関心の度合い、及び興奮の度合いの組み合わせに基づいており、それらの信号は重要性の総合的測定値を得るために更に結合される。本実施例は、図1cに示されるような着用可能な画像捕捉装置6のような例に適している。
本実施例では、方法手順510−528は、概して図6の方法手順410−428に相当するが、ユーザが「結合された差別化」信号の利用を選択すること又は画像捕捉装置6が「結合された差別化」信号を利用することを事前にプログラムされることの2点でのみ相違する。
画像捕捉装置6は、図3のステップ170−179に関して説明済みの差別化の度合い(DD)を判別する(ステップ530及び533)。
画像捕捉装置6は、重要度(又は感情応答の大きさ)を決定する。本実施例では、重要度の測定値は、4つの測定値の和に基づいている:
重要度=DP+DD+DI+DE
重要度=wDPDP+wDDDD+wDIDI+wDEDE
であり、ここで重みwDP,wDD,wDI,wDEは、その特定のユーザに関して以前に取得した規格化された信号(最大値で除算したもの)各々における標準偏差に基づいて決定される。この場合に、その信号における標準偏差が高くなればなるほど、その信号の重要度測定値への寄与の重みも大きくなる。従って、所与の信号に関する標準偏差が小さければ小さいほど、対応する信号に関する重要度測定値への寄与の重みも小さくなる。この依存性の原因は、特定のユーザに関する特定の測定値の標準偏差は、様々な場面の中での個々の相違の度合いを反映しているという仮定に由来する。このことは、最高の標準偏差を有する信号は、より多くの識別力(差別化する力)を有し、それ故に特定のユーザに関する重要度の総合的測定値を決定又は考慮する際にはより重要であることを示唆する。
例えば、ユーザAに関して、別々の場面が、非常に大きな表情変化と皮膚伝導度応答の小さな変化とを引き起こす場合に、表情に基づく趣向の度合いの測定値(DP)に与えられる重みwDPは、皮膚伝導度に基づく興奮度合いの測定値(DE)に与えられる重みwDEよりも高くなる。一方、ユーザBに関して、異なる場面が、表情に関する小さな変化と皮膚伝導度応答における大きな変化とを引き起こす場合には、重みに関する関係は逆転する。関連する信号の最大値及び標準偏差に関するデータは、個人的ユーザプロファイルから取得され得る。個人的ユーザプロファイルはその後にこの情報に関して更新される(ステップ543)。
取得した重要度は閾値と比較される(ステップ544)。この閾値は事前に決定され得る。また、閾値はユーザ2により設定され又はユーザ2のために設定されているようにすることができる。取得した重要度が閾値を上回る場合には、画像捕捉装置6は、重要度を示す個人的感情タグを作成する(ステップ548)。他の実施例では、閾値は、例えば重要分布の以前の累積確率に基づいて、個人的ユーザプロファイルから自動的に決定され得る。そのような閾値は、以前の確率0.5を有する肯定的重要度に対応するものとして選択され得る。
画像捕捉装置6は、対応する場面画像及び重要度を画像メタデータの一部として個人的感情タグに格納する(ステップ550)。或いは、重要度は、ユーザ識別子及び画像識別子に関連する別ファイルに格納され得る。加えて、ユーザ2がある画像を見る日付についての情報も、別項目として個人的感情タグに記録され得る。
対応する画像、個人的感情タグ及び他の画像メタデータは、図2のステップ152に関連して説明したように、ディジタル画像の個人的データベースに送信される(ステップ552)。
取得した重要度が閾値を下回る場合には、顔画像、目の画像及び皮膚伝導度信号の対応するセグメントは消去される(ステップ540)。他の実施例では、取得した重要度が閾値を下回る場合であって、ユーザ2が例えばプレビュースクリーン22にて同じ場面又は同じ場面の捕捉画像を依然として眺めている場合には、画像捕捉装置6は、顔画像、目の画像及び皮膚伝導度信号の次のセグメントを選択的に測定し、ユーザ2が同じ場面又は同じ場面の捕捉画像を見ている場合に、ステップ532乃至544を反復する。
閾値が0に設定されているならば、画像捕捉装置6に記録される総ての場面及び対応する感情情報(重要度、又は他の例では生の顔画像、目の画像、及び電気的皮膚応答信号)が、格納されることになる。
他の実施例では、これら3つ又は他の感情信号(声、EEG、頭脳スキャン、眼球運動その他のような信号)の異なる組み合わせを利用して、個人的感情タグを作成し、広範囲にわたる感情カテゴリに従って場面を分類することができる。更に、場所情報、画像分析、カレンダ(暦)及びスケジュール情報、時間及び日付情報のような非感情情報を利用して、画像に付随する重要度のような感情情報を一層良好に判別することの支援が可能になる。
上述したように、2001年12月26日に出願された、マトラゼック等(Matraszek et al.)による“Method for Creating and Using Affective Information in a Digital Imaging System”と題する米国特許出願番号第10/036,113号、及び2001年12月26日に出願されたマトラゼック等による“Method for Using Affective Information Recorded With Digital Images for Producing an Album Page”と題する米国特許出願番号第10/036,123号に記載されているように、特定のユーザにとって好ましい、重要な又は感情の高まる画像として系統的且つ継続的な手法で画像をランク付けするために、ディジタル画像処理システム内で重要度が使用され得る。また、重要度は、画像圧縮、分解及び格納についての判別を行なうために画像捕捉装置6内でも使用され得る。画像捕捉装置内で個人感情タグを形成及び使用するコンピュータプログラムは、1つ又はそれ以上の格納媒体に記録されることが可能であり、その媒体は例えば、本発明による方法を実行するための命令を有するコンピュータプログラムを格納するのに使用される;(フロッピディスクのような)磁気ディスク又は磁気テープのような磁気格納媒体;光ディスク、光テープ又は機械読み取り可能なバーコードのような光格納媒体;ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)のようなソリッドステート電子格納装置;その他の物理的装置又は媒体である。
また、個人的感情タグは、相対的な重要度を示す情報をも包含し得る。上述したように、相対的な重要度は、感情情報のみに基づいて判別され得る。或いは、感情に関係する及び感情に関係しない情報(非感情情報)が、相対的な重要度を決定するために組み合わせて使用され得る。非感情情報の例は、日付及び時間情報、グローバルポジショニングシステム(GPS)や同様な電子的位置測定器から利用可能であるような位置情報を包含する。画像自身の画像分析も、相対的な重要度に影響し得る感情に関係しない情報源として使用され得る。例えば、場面内の特定の事物の存在は、既存の画像処理及び画像認識アルゴリズムで容易に見分けられ得る。そのようなアルゴリズム例は、ルオ等(Luo et al.)により1998年12月31日付出願の米国特許第6,282,317号(B1)に開示されており、その内容は本願の参考に供せられ、それは、肌、顔、空、草等を、色、背景、輝度等に関連する「構造的」特徴と共に意味のある特徴として識別し、簡単なマップを生成するためにそれらの特徴を結合することによって、写真画像内の主要事物の自動判定方法を開示している。
その開示内容が本願の参考に供せられる、ルオ等により2000年12月14日に出願され“Image Processing Method for Detecting Human Figures in Digital Image”と題する米国特許出願番号第2002/0076100号(A1)に開示されている他の画像処理技術は、ディジタルカラー画像内で人物を検出することを可能にする。アルゴリズムは、先ず、一様な色彩又は模様(テクスチャ)の重複しない領域に画像をセグメント化し、人体の肌の色の候補領域及び人物の顔の候補領域を以後に検出し;顔の候補領域の各々について、人物に関する所定のグラフィックスモデルに従って、人物の肌の色の領域に優先度を与えながら、顔領域近辺に領域をグループ化することによって人物を構成する。Liu et al.,“Face Recognition Using Kernel Based Fisher Discriminant Analysis”,Proceedings of the Fifth IEEE International Conference on Automatic Face and Gesture Recognition,pp.0197−0201,2002 に記載されるような顔認識アルゴリズムを用いて判別される、場面に内の人々又は特定の人々の存在は、相対的な重要度を増進するために使用され得る。また、ルオ等により2000年8月18日に出願され“Digital Image Processing System and Method for Emphasize a Main Subject of an Image”と題する米国特許出願番号第09/642,533号 に記載されるように、それは、品質を向上させ主要な事物を強調するために画像を選択的に処理するために使用され、及び見分けられた人々と共にこの画像を共有し、又はセキュリティに関してその画像を業者に送信するために使用され得る。
上述した実施例では、画像及び画像捕捉システムは、ディジタル画像及びディジタル画像捕捉システムであるとして説明されてきた。本発明の原理を考察するに、場面の画像は、アナログ電子形式で又は写真フィルム若しくはプレートのような光媒体で捕捉されることも可能である。これら何れかの形式で画像が捕捉される場合に、感情情報を表現するデータは、情報が関連付けられるべき画像を示す何らかの識別コードと共に、感情情報を画像とは別々に記録することによって画像に関連付けて記録され得る。或いは、感情情報はアナログ電子画像に関連してエンコード及び記録され得る。写真フィルム又はプレートが使用される場合には、感情情報はそのフィルム又はプレートにて光学的に又は磁気的に記録され得る。また、感情情報はそのフィルム又はプレートに関連する電子メモリにも記録され得る。
本発明によれば、感情情報は捕捉時又は捕捉中に捕捉されるものとして説明された。ここに使用されるように、これらの用語は、画像が構成される又は捕捉される任意の時間を包含する。また、そのような時間は、例えば捕捉した画像が満足のゆくものかを撮影者が確認する場合のような捕捉時点直後の期間をも包含する。
本発明は、ある特定の好適実施例を参照しながら詳細に説明されたが、本発明の精神及び範囲内で変形及び修正が可能であることは、理解されるであろう。
本発明による携帯用の画像捕捉システムの例を示す図である。 本発明による装着可能な画像捕捉システムの例を示す図である。 感情情報を形成するための本発明による装着可能な画像捕捉システムの別の例を示す図である。 感情情報の提供が表情分析に準拠する本発明の一実施例を示すフローチャートである。 感情情報の提供が表情分析に準拠する本発明の一実施例を示すフローチャートである。 感情情報が表情分析に準拠して与えられる本発明の一実施例を示すフローチャートである。 感情情報が表情分析に準拠して与えられる本発明の一実施例を示すフローチャートである。 感情情報が固定時間の分析に準拠して与えられる方法例を示すフローチャートである。 感情情報が固定時間の分析に準拠して与えられる方法例を示すフローチャートである。 感情情報が皮膚伝導率の分析に準拠して与えられる方法例を示すフローチャートである。 感情情報が皮膚伝導率の分析に準拠して与えられる方法例を示すフローチャートである。 感情情報が顔の特徴及び生理学的特徴の総合的な分析に準拠して与えられる方法例を示すフローチャートである。 感情情報が顔の特徴及び生理学的特徴の総合的な分析に準拠して与えられる方法例を示すフローチャートである。 感情情報が顔の特徴及び生理学的特徴の総合的な分析に準拠して与えられる別の方法例を示すフローチャートである。 感情情報が顔の特徴及び生理学的特徴の総合的な分析に準拠して与えられる別の方法例を示すフローチャートである。
符号の説明
2 ユーザ
4 場面
6 画像捕捉装置
8 捕捉モジュール
10 ユーザビデオカメラ
12 ディジタル格納装置
13 手動制御要素
14 中央処理要素
15 センサ
16 電気的皮膚応答センサ
17 血管センサ
18 通信モジュール
19 振動センサ
20 インターネットサービスプロバイダ
22 プレビュースクリーン
24 ビューファインダ
26 ブリッジ
28 レンズフレーム
29 側面側
110 画像捕捉装置起動ステップ
112 アプリケーション開始ステップ
114 ユーザ識別データ入力ステップ
116 感情反応判別ステップ
118 所望信号選択ステップ
120 場面画像捕捉ステップ
122 場面画像格納ステップ
124 電源投入検出ステップ
126 捕捉継続ステップ
128 電源遮断ステップ
130 顔画像捕捉ステップ
132 顔画像格納ステップ
134 顔画像分析ステップ
136 微笑みレベル判別ステップ
138 趣向レベル判別ステップ
139 個人的ユーザプロファイル更新ステップ
140 閾値との比較ステップ
142 顔画像消去ステップ
144 個人的感情タグ作成ステップ
146 画像及び感情タグ格納ステップ
148 画像及び感情タグ送信ステップ
150 画像捕捉装置起動ステップ
152 アプリケーション開始ステップ
154 ユーザ識別内容入力ステップ
156 感情反応判別ステップ
158 所望信号選択ステップ
160 場面画像捕捉ステップ
162 場面画像格納ステップ
164 電源投入検出ステップ
166 捕捉継続ステップ
168 電源遮断ステップ
170 顔画像捕捉ステップ
172 顔画像格納ステップ
174 表情分析ステップ
176 感情カテゴリ判別ステップ
178 差別化レベル判別ステップ
179 個人的ユーザプロファイル更新ステップ
180 差別化レベルの閾値との比較ステップ
182 画像消去ステップ
184 個人的感情タグ作成ステップ
186 画像格納ステップ
188 画像及び感情情報送信ステップ
210 画像捕捉装置起動ステップ
212 アプリケーション開始ステップ
214 個人情報入力ステップ
216 感情反応判別ステップ
218 目凝視情報選択ステップ
220 場面画像捕捉ステップ
222 場面画像格納ステップ
224 電源投入検出ステップ
226 捕捉継続ステップ
228 電源遮断ステップ
230 目凝視画像サンプル捕捉ステップ
232 目凝視座標格納ステップ
234 凝視判別ステップ
236 凝視時間測定ステップ
238 凝視時間による関心度判別ステップ
239 個人的ユーザプロファイル更新ステップ
240 閾値との比較ステップ
242 画像消去ステップ
244 個人的感情タグ作成ステップ
246 画像及び感情タグ格納ステップ
248 画像及び感情タグ送信ステップ
310 画像捕捉装置起動ステップ
312 アプリケーション開始ステップ
314 個人情報入力ステップ
316 感情反応判別ステップ
318 目凝視情報選択ステップ
320 場面画像捕捉ステップ
322 場面画像格納ステップ
324 電源投入検出ステップ
326 捕捉継続ステップ
328 電源遮断ステップ
330 電気的皮膚応答の第1セグメント捕捉ステップ
332 皮膚伝導度格納ステップ
334 電気的皮膚応答信号濾波ステップ
336 電気的皮膚応答振幅測定ステップ
338 興奮度判別ステップ
339 個人的ユーザプロファイル更新ステップ
340 閾値との比較ステップ
342 次セグメント捕捉ステップ
344 興奮度格納ステップ
346 画像及び感情タグ格納ステップ
348 画像及び感情タグ送信ステップ
410 画像捕捉装置起動ステップ
412 アプリケーション開始ステップ
414 個人情報入力ステップ
416 感情反応判別ステップ
418 所望信号選択ステップ
420 場面画像捕捉ステップ
422 場面画像格納ステップ
424 電源投入検出ステップ
426 捕捉継続ステップ
428 終了
430 顔画像捕捉ステップ
432 趣向の度合い判別ステップ
434 目セグメント捕捉ステップ
436 関心度判別ステップ
438 皮膚伝導度信号セグメント捕捉ステップ
440 興奮度判別ステップ
442 重要度判別ステップ
443 個人的ユーザプロファイル問合及び更新ステップ
444 閾値との重要度比較ステップ
446 画像消去ステップ
448 感情タグ作成ステップ
450 画像及び感情タグ格納ステップ
452 データ送信ステップ
510 画像捕捉装置起動ステップ
512 アプリケーション開始ステップ
514 個人情報入力ステップ
516 感情反応判別ステップ
518 所望信号選択ステップ
520 場面画像捕捉ステップ
522 場面画像格納ステップ
524 終了
526 捕捉継続ステップ
528 電源遮断ステップ
530 顔画像捕捉ステップ
532 趣向の度合い判別ステップ
533 差別化レベル判別ステップ
534 目セグメント捕捉ステップ
536 関心度判別ステップ
538 皮膚伝導度信号セグメント捕捉ステップ
540 興奮度判別ステップ
542 重要度判別ステップ
543 個人的ユーザプロファイル問合及び更新ステップ
544 閾値との重要度比較ステップ
546 顔の目及び電気的皮膚の消去ステップ
548 感情タグ作成ステップ
550 画像及び感情タグ格納ステップ
552 画像送信ステップ

Claims (3)

  1. ある場面の画像を捕捉するステップ;
    捕捉時に感情情報を収集するステップ;及び
    感情情報を場面画像に関連付けるステップ;
    より成ることを特徴とする画像処理方法。
  2. 写真撮影方法であって:
    ある場面の画像を捕捉するステップ;
    捕捉時に撮影者の画像を取得するステップ;
    撮影者の画像の少なくとも部分的な解釈により感情情報を判別するステップ;及び
    感情情報を場面画像に関連付けるステップ;
    より成ることを特徴とする写真撮影方法。
  3. ユーザにより選択される画像を捕捉するよう構成される画像捕捉システムと、画像を格納するメモリと、捕捉時にユーザから感情信号を取得するよう構成される一群のセンサと、捕捉した画像に感情情報を関連付けるよう構成されるプロセッサとを備えることを特徴とする画像処理システム。
JP2003392971A 2002-11-25 2003-11-21 画像処理方法及びシステム Pending JP2004178593A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/304,127 US7233684B2 (en) 2002-11-25 2002-11-25 Imaging method and system using affective information

Publications (1)

Publication Number Publication Date
JP2004178593A true JP2004178593A (ja) 2004-06-24

Family

ID=32229950

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003392971A Pending JP2004178593A (ja) 2002-11-25 2003-11-21 画像処理方法及びシステム

Country Status (4)

Country Link
US (2) US7233684B2 (ja)
EP (1) EP1422639A3 (ja)
JP (1) JP2004178593A (ja)
CN (1) CN100430934C (ja)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346471A (ja) * 2004-06-03 2005-12-15 Canon Inc 情報処理方法、情報処理装置
JP2006115011A (ja) * 2004-10-12 2006-04-27 Sharp Corp 行動履歴記録装置、行動履歴管理システム、行動履歴記録方法およびプログラム
JP2007133531A (ja) * 2005-11-09 2007-05-31 Advanced Telecommunication Research Institute International 注目状態検出装置、及び注目状態検出方法
JP2008118527A (ja) * 2006-11-07 2008-05-22 Sony Corp 撮像装置、表示装置、撮像方法、表示方法
JP2008522652A (ja) * 2004-12-06 2008-07-03 パルチ−ワッセルマン,ダフナ 多変量ダイナミック生体測定システム
JP2009510826A (ja) * 2005-09-26 2009-03-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ コンテンツ情報の提供を受けたユーザの感情状態を分析するための方法及び装置
US7586517B2 (en) 2004-10-27 2009-09-08 Panasonic Corporation Image pickup apparatus
US7876374B2 (en) 2006-12-07 2011-01-25 Sony Corporation Image display system, display apparatus, and display method
JP2011055251A (ja) * 2009-09-02 2011-03-17 Sony Corp 撮像装置および方法
JP2011100458A (ja) * 2009-11-09 2011-05-19 Palo Alto Research Center Inc 商品に対する消費者の購買嗜好を収集するためのコンピュータにより実施される方法
JP2011193275A (ja) * 2010-03-15 2011-09-29 Nikon Corp 表示装置
JP2011200412A (ja) * 2010-03-25 2011-10-13 Panasonic Electric Works Co Ltd 生体情報計測システム
JP2012186607A (ja) * 2011-03-04 2012-09-27 Nikon Corp 電子機器、画像表示システム及び画像選択方法
US8687925B2 (en) 2007-04-10 2014-04-01 Sony Corporation Image storage processing apparatus, image search apparatus, image storage processing method, image search method and program
JP2014112787A (ja) * 2012-12-05 2014-06-19 Samsung Electronics Co Ltd 動画像処理装置及び動画像処理方法
US8797331B2 (en) 2007-08-06 2014-08-05 Sony Corporation Information processing apparatus, system, and method thereof
US8872941B2 (en) 2006-11-07 2014-10-28 Sony Corporation Imaging apparatus and imaging method
JP2015505430A (ja) * 2011-11-29 2015-02-19 ソニーエリクソンモバイルコミュニケーションズ, エービー 携帯電子機器及び携帯電子機器を使用してメディアを記録する方法
JP2015080269A (ja) * 2015-01-07 2015-04-23 株式会社ニコン 表示装置
JP2015091048A (ja) * 2013-11-06 2015-05-11 キヤノン株式会社 撮像装置、撮像方法、及びプログラム
JP2016220158A (ja) * 2015-05-26 2016-12-22 株式会社Jvcケンウッド タギング装置、タギングシステム、タギング方法及びタギングプログラム
WO2017169499A1 (ja) * 2016-03-31 2017-10-05 ソニー株式会社 制御装置、制御方法及びコンピュータプログラム
US10254842B2 (en) 2013-11-08 2019-04-09 Sony Corporation Controlling a device based on facial expressions of a user
CN110520056A (zh) * 2017-04-07 2019-11-29 国立研究开发法人产业技术综合研究所 测量仪安装辅助装置和测量仪安装辅助方法
WO2020184122A1 (ja) 2019-03-11 2020-09-17 ソニー株式会社 情報処理装置、および情報処理システム
WO2024062913A1 (ja) * 2022-09-20 2024-03-28 富士フイルム株式会社 画像処理装置、画像処理装置の作動方法、および画像処理装置の作動プログラム

Families Citing this family (262)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7450734B2 (en) * 2000-01-13 2008-11-11 Digimarc Corporation Digital asset management, targeted searching and desktop searching using digital watermarks
US7043048B1 (en) 2000-06-01 2006-05-09 Digimarc Corporation Capturing and encoding unique user attributes in media signals
US7327505B2 (en) * 2002-02-19 2008-02-05 Eastman Kodak Company Method for providing affective information in an imaging system
US7233684B2 (en) * 2002-11-25 2007-06-19 Eastman Kodak Company Imaging method and system using affective information
GB2395853A (en) * 2002-11-29 2004-06-02 Sony Uk Ltd Association of metadata derived from facial images
US8339462B2 (en) 2008-01-28 2012-12-25 DigitalOptics Corporation Europe Limited Methods and apparatuses for addressing chromatic abberations and purple fringing
US7792335B2 (en) * 2006-02-24 2010-09-07 Fotonation Vision Limited Method and apparatus for selective disqualification of digital images
GB2404511B (en) * 2003-07-26 2007-08-22 Hewlett Packard Development Co Image capture device having a learning function
US9836751B2 (en) * 2003-07-31 2017-12-05 International Business Machines Corporation Self-contained and automated eLibrary profiling system
JP2005122128A (ja) * 2003-09-25 2005-05-12 Fuji Photo Film Co Ltd 音声認識システム及びプログラム
US7460737B2 (en) 2004-02-12 2008-12-02 Hoshiko Llc Method and apparatus for photograph finding
US7437005B2 (en) * 2004-02-17 2008-10-14 Microsoft Corporation Rapid visual sorting of digital files and data
JP2005266984A (ja) * 2004-03-17 2005-09-29 Konica Minolta Holdings Inc 画像処理システム
US8572221B2 (en) * 2004-05-26 2013-10-29 Facebook, Inc. System and method for managing an online social network
DE102004027443B3 (de) * 2004-06-04 2005-07-21 Dräger Safety AG & Co. KGaA Messsystem für die berührungslose Körperkerntemperatur-Bestimmung
JP2006025007A (ja) * 2004-07-06 2006-01-26 Fuji Photo Film Co Ltd 画像処理装置及び画像処理プログラム
US9704502B2 (en) * 2004-07-30 2017-07-11 Invention Science Fund I, Llc Cue-aware privacy filter for participants in persistent communications
US9779750B2 (en) 2004-07-30 2017-10-03 Invention Science Fund I, Llc Cue-aware privacy filter for participants in persistent communications
US7463792B2 (en) * 2004-08-17 2008-12-09 Peterschmidt Eric T System and method of archiving family history
KR100763900B1 (ko) * 2004-08-28 2007-10-05 삼성전자주식회사 사용자 시선정보에 기반한 텔레비전 프로그램 녹화/재생방법 및 그 장치
US8488023B2 (en) * 2009-05-20 2013-07-16 DigitalOptics Corporation Europe Limited Identifying facial expressions in acquired digital images
US7742079B2 (en) * 2005-02-07 2010-06-22 Sony Corporation Digital camera with automatic functions
GB0502844D0 (en) 2005-02-11 2005-03-16 Univ Edinburgh Storing digital content for access using a captured image
US8235725B1 (en) * 2005-02-20 2012-08-07 Sensory Logic, Inc. Computerized method of assessing consumer reaction to a business stimulus employing facial coding
JP4588642B2 (ja) * 2005-03-15 2010-12-01 富士フイルム株式会社 アルバム作成装置、アルバム作成方法、及びプログラム
US8570586B2 (en) * 2005-05-02 2013-10-29 Digimarc Corporation Active images through digital watermarking
DE602006009191D1 (de) * 2005-07-26 2009-10-29 Canon Kk Bildaufnahmegerät und -verfahren
US7734654B2 (en) * 2005-08-16 2010-06-08 International Business Machines Corporation Method and system for linking digital pictures to electronic documents
US7707171B2 (en) * 2005-09-16 2010-04-27 Imagini Holdings Limited System and method for response clustering
US8775975B2 (en) 2005-09-21 2014-07-08 Buckyball Mobile, Inc. Expectation assisted text messaging
JP2007104529A (ja) * 2005-10-07 2007-04-19 Eastman Kodak Co デジタルカメラおよびタイムラグ設定方法
US7694885B1 (en) 2006-01-26 2010-04-13 Adobe Systems Incorporated Indicating a tag with visual data
US7813526B1 (en) 2006-01-26 2010-10-12 Adobe Systems Incorporated Normalizing detected objects
US7720258B1 (en) 2006-01-26 2010-05-18 Adobe Systems Incorporated Structured comparison of objects from similar images
US7636450B1 (en) 2006-01-26 2009-12-22 Adobe Systems Incorporated Displaying detected objects to indicate grouping
US8259995B1 (en) 2006-01-26 2012-09-04 Adobe Systems Incorporated Designating a tag icon
US7706577B1 (en) * 2006-01-26 2010-04-27 Adobe Systems Incorporated Exporting extracted faces
US7978936B1 (en) 2006-01-26 2011-07-12 Adobe Systems Incorporated Indicating a correspondence between an image and an object
US7813557B1 (en) 2006-01-26 2010-10-12 Adobe Systems Incorporated Tagging detected objects
US7716157B1 (en) 2006-01-26 2010-05-11 Adobe Systems Incorporated Searching images with extracted objects
US7804983B2 (en) 2006-02-24 2010-09-28 Fotonation Vision Limited Digital image acquisition control and correction method and apparatus
US8334993B2 (en) * 2006-03-01 2012-12-18 Fotomedia Technologies, Llc Methods, systems, and computer program products for associating an image with a communication characteristic
WO2007117979A2 (en) * 2006-03-31 2007-10-18 Imagini Holdings Limited System and method of segmenting and tagging entities based on profile matching using a multi-media survey
US7610255B2 (en) * 2006-03-31 2009-10-27 Imagini Holdings Limited Method and system for computerized searching and matching multimedia objects using emotional preference
KR100763236B1 (ko) * 2006-05-09 2007-10-04 삼성전자주식회사 생체 신호를 이용하는 동영상 편집 장치 및 방법
JP4175390B2 (ja) * 2006-06-09 2008-11-05 ソニー株式会社 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP4829012B2 (ja) * 2006-06-14 2011-11-30 富士フイルム株式会社 人物撮像装置,その制御方法およびその制御プログラム
US7930199B1 (en) * 2006-07-21 2011-04-19 Sensory Logic, Inc. Method and report assessing consumer reaction to a stimulus by matching eye position with facial coding
JP4757173B2 (ja) * 2006-11-17 2011-08-24 キヤノン株式会社 撮像装置及びその制御方法及びプログラム
US9122645B1 (en) 2006-12-20 2015-09-01 Qurio Holdings, Inc. Method and system for tagging within virtual groups
US7995794B2 (en) * 2007-03-02 2011-08-09 Sony Ericsson Mobile Communications Ab Remote control of an image capturing unit in a portable electronic device
KR101464397B1 (ko) 2007-03-29 2014-11-28 더 닐슨 컴퍼니 (유에스) 엘엘씨 마케팅 및 엔터테인먼트 효과의 분석
US9886981B2 (en) 2007-05-01 2018-02-06 The Nielsen Company (Us), Llc Neuro-feedback based stimulus compression device
US8392253B2 (en) 2007-05-16 2013-03-05 The Nielsen Company (Us), Llc Neuro-physiology and neuro-behavioral based stimulus targeting system
US20080306995A1 (en) * 2007-06-05 2008-12-11 Newell Catherine D Automatic story creation using semantic classifiers for images and associated meta data
US8934717B2 (en) * 2007-06-05 2015-01-13 Intellectual Ventures Fund 83 Llc Automatic story creation using semantic classifiers for digital assets and associated metadata
KR20100038107A (ko) 2007-07-30 2010-04-12 뉴로포커스, 인크. 신경-반응 자극 및 자극 속성 공명 추정기
US8386313B2 (en) 2007-08-28 2013-02-26 The Nielsen Company (Us), Llc Stimulus placement system using subject neuro-response measurements
US8392255B2 (en) 2007-08-29 2013-03-05 The Nielsen Company (Us), Llc Content based selection and meta tagging of advertisement breaks
US20090083129A1 (en) 2007-09-20 2009-03-26 Neurofocus, Inc. Personalized content delivery using neuro-response priming data
US8327395B2 (en) 2007-10-02 2012-12-04 The Nielsen Company (Us), Llc System providing actionable insights based on physiological responses from viewers of media
US8150807B2 (en) * 2007-10-03 2012-04-03 Eastman Kodak Company Image storage system, device and method
US9521960B2 (en) 2007-10-31 2016-12-20 The Nielsen Company (Us), Llc Systems and methods providing en mass collection and centralized processing of physiological responses from viewers
US20090132264A1 (en) * 2007-11-16 2009-05-21 Wood Mark D Media asset evaluation based on social relationships
US8886952B1 (en) 2007-12-06 2014-11-11 The United States Of America As Represented By The Director Of The National Security Agency Method of controlling a transaction
US20090158309A1 (en) * 2007-12-12 2009-06-18 Hankyu Moon Method and system for media audience measurement and spatial extrapolation based on site, display, crowd, and viewership characterization
US8600120B2 (en) 2008-01-03 2013-12-03 Apple Inc. Personal computing device control using face detection and recognition
US8750578B2 (en) 2008-01-29 2014-06-10 DigitalOptics Corporation Europe Limited Detecting facial expressions in digital images
JP5231827B2 (ja) * 2008-02-04 2013-07-10 富士フイルム株式会社 画像表示装置、表示制御方法及び表示制御プログラム
CN101271528B (zh) * 2008-04-11 2012-06-27 北京中星微电子有限公司 一种输出图像的方法及装置
US20120081282A1 (en) * 2008-05-17 2012-04-05 Chin David H Access of an application of an electronic device based on a facial gesture
US8462996B2 (en) * 2008-05-19 2013-06-11 Videomining Corporation Method and system for measuring human response to visual stimulus based on changes in facial expression
US8160311B1 (en) * 2008-09-26 2012-04-17 Philip Raymond Schaefer System and method for detecting facial gestures for control of an electronic device
US20100086204A1 (en) * 2008-10-03 2010-04-08 Sony Ericsson Mobile Communications Ab System and method for capturing an emotional characteristic of a user
US20100169792A1 (en) * 2008-12-29 2010-07-01 Seif Ascar Web and visual content interaction analytics
US8401248B1 (en) 2008-12-30 2013-03-19 Videomining Corporation Method and system for measuring emotional and attentional response to dynamic digital media content
US8808195B2 (en) * 2009-01-15 2014-08-19 Po-He Tseng Eye-tracking method and system for screening human diseases
EP2384583A1 (en) 2009-01-20 2011-11-09 Hewlett-Packard Development Company, L.P. Image processing
US8364971B2 (en) * 2009-02-26 2013-01-29 Kynen Llc User authentication system and method
CN105717989B (zh) 2009-02-27 2020-02-21 艾卡姆有限公司 基于耳机的电信平台
JP5127067B2 (ja) * 2009-03-06 2013-01-23 パナソニック株式会社 画像検索装置及び画像検索方法
US20100250325A1 (en) * 2009-03-24 2010-09-30 Neurofocus, Inc. Neurological profiles for market matching and stimulus presentation
CN101853259A (zh) * 2009-03-31 2010-10-06 国际商业机器公司 添加和处理带有情感数据的标签的方法和设备
US8482626B2 (en) 2009-04-07 2013-07-09 Mediatek Inc. Digital camera and image capturing method
US8600100B2 (en) * 2009-04-16 2013-12-03 Sensory Logic, Inc. Method of assessing people's self-presentation and actions to evaluate personality type, behavioral tendencies, credibility, motivations and other insights through facial muscle activity and expressions
US8271544B2 (en) 2009-05-01 2012-09-18 Creative Technology Ltd Data file having more than one mode of operation
US20100295782A1 (en) 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
JP5315157B2 (ja) * 2009-07-27 2013-10-16 キヤノン株式会社 情報処理装置、ライン状ノイズ低減処理方法、及びプログラム
KR101661211B1 (ko) * 2009-08-05 2016-10-10 삼성전자주식회사 얼굴 인식률 개선 장치 및 방법
US8326002B2 (en) * 2009-08-13 2012-12-04 Sensory Logic, Inc. Methods of facial coding scoring for optimally identifying consumers' responses to arrive at effective, incisive, actionable conclusions
BR112012002388B1 (pt) * 2009-08-21 2020-12-15 Samsung Electronics Co., Ltd Método de fornecimento de conteúdo, e sistema de compartilhamento de conteúdo com um dispositivo de armazenamento em rede e um dispositivo de provimento de conteúdo
WO2011021909A2 (en) 2009-08-21 2011-02-24 Samsung Electronics Co., Ltd. Method and apparatus for providing contents via network, method and apparatus for receiving contents via network, and method and apparatus for backing up data via network, backup data providing device, and backup system
US10987015B2 (en) 2009-08-24 2021-04-27 Nielsen Consumer Llc Dry electrodes for electroencephalography
US9788748B2 (en) 2009-09-01 2017-10-17 Exxonmobil Upstream Research Company Method of using human physiological responses as inputs to hydrocarbon management decisions
JP4900739B2 (ja) * 2009-09-04 2012-03-21 カシオ計算機株式会社 電子写真立て、その制御方法及びプログラム
US20110106750A1 (en) 2009-10-29 2011-05-05 Neurofocus, Inc. Generating ratings predictions using neuro-response data
US9560984B2 (en) 2009-10-29 2017-02-07 The Nielsen Company (Us), Llc Analysis of controlled and automatic attention for introduction of stimulus material
US9619469B2 (en) * 2009-12-22 2017-04-11 Apple Inc. Adaptive image browsing
JP5110098B2 (ja) * 2010-02-08 2012-12-26 カシオ計算機株式会社 表示処理装置、及び、プログラム
US8684742B2 (en) 2010-04-19 2014-04-01 Innerscope Research, Inc. Short imagery task (SIT) research method
US8655428B2 (en) 2010-05-12 2014-02-18 The Nielsen Company (Us), Llc Neuro-response data synchronization
US8200076B2 (en) * 2010-05-19 2012-06-12 Eastman Kodak Company Estimating gender or age of a photographer
US8180209B2 (en) * 2010-05-19 2012-05-15 Eastman Kodak Company Determining camera activity from a steadiness signal
US8180208B2 (en) * 2010-05-19 2012-05-15 Eastman Kodak Company Identifying a photographer
US10517521B2 (en) 2010-06-07 2019-12-31 Affectiva, Inc. Mental state mood analysis using heart rate collection based on video imagery
US11587357B2 (en) 2010-06-07 2023-02-21 Affectiva, Inc. Vehicular cognitive data collection with multiple devices
US10897650B2 (en) 2010-06-07 2021-01-19 Affectiva, Inc. Vehicle content recommendation using cognitive states
US11430561B2 (en) 2010-06-07 2022-08-30 Affectiva, Inc. Remote computing analysis for cognitive state data metrics
US10869626B2 (en) 2010-06-07 2020-12-22 Affectiva, Inc. Image analysis for emotional metric evaluation
US10843078B2 (en) 2010-06-07 2020-11-24 Affectiva, Inc. Affect usage within a gaming context
US11393133B2 (en) 2010-06-07 2022-07-19 Affectiva, Inc. Emoji manipulation using machine learning
US10922567B2 (en) 2010-06-07 2021-02-16 Affectiva, Inc. Cognitive state based vehicle manipulation using near-infrared image processing
US11151610B2 (en) 2010-06-07 2021-10-19 Affectiva, Inc. Autonomous vehicle control using heart rate collection based on video imagery
US10799168B2 (en) 2010-06-07 2020-10-13 Affectiva, Inc. Individual data sharing across a social network
US9204836B2 (en) 2010-06-07 2015-12-08 Affectiva, Inc. Sporadic collection of mobile affect data
US11465640B2 (en) 2010-06-07 2022-10-11 Affectiva, Inc. Directed control transfer for autonomous vehicles
US11073899B2 (en) 2010-06-07 2021-07-27 Affectiva, Inc. Multidevice multimodal emotion services monitoring
US11410438B2 (en) 2010-06-07 2022-08-09 Affectiva, Inc. Image analysis using a semiconductor processor for facial evaluation in vehicles
US9503786B2 (en) 2010-06-07 2016-11-22 Affectiva, Inc. Video recommendation using affect
US11935281B2 (en) 2010-06-07 2024-03-19 Affectiva, Inc. Vehicular in-cabin facial tracking using machine learning
US11657288B2 (en) 2010-06-07 2023-05-23 Affectiva, Inc. Convolutional computing using multilayered analysis engine
US20130245396A1 (en) * 2010-06-07 2013-09-19 Affectiva, Inc. Mental state analysis using wearable-camera devices
US10111611B2 (en) 2010-06-07 2018-10-30 Affectiva, Inc. Personal emotional profile generation
US11700420B2 (en) 2010-06-07 2023-07-11 Affectiva, Inc. Media manipulation using cognitive state metric analysis
US10482333B1 (en) 2017-01-04 2019-11-19 Affectiva, Inc. Mental state analysis using blink rate within vehicles
US10614289B2 (en) 2010-06-07 2020-04-07 Affectiva, Inc. Facial tracking with classifiers
US11511757B2 (en) 2010-06-07 2022-11-29 Affectiva, Inc. Vehicle manipulation with crowdsourcing
US11232290B2 (en) 2010-06-07 2022-01-25 Affectiva, Inc. Image analysis using sub-sectional component evaluation to augment classifier usage
US11704574B2 (en) 2010-06-07 2023-07-18 Affectiva, Inc. Multimodal machine learning for vehicle manipulation
US10796176B2 (en) 2010-06-07 2020-10-06 Affectiva, Inc. Personal emotional profile generation for vehicle manipulation
US9247903B2 (en) 2010-06-07 2016-02-02 Affectiva, Inc. Using affect within a gaming context
US10779761B2 (en) 2010-06-07 2020-09-22 Affectiva, Inc. Sporadic collection of affect data within a vehicle
US11887352B2 (en) 2010-06-07 2024-01-30 Affectiva, Inc. Live streaming analytics within a shared digital environment
US11823055B2 (en) 2019-03-31 2023-11-21 Affectiva, Inc. Vehicular in-cabin sensing using machine learning
US9646046B2 (en) 2010-06-07 2017-05-09 Affectiva, Inc. Mental state data tagging for data collected from multiple sources
US9934425B2 (en) 2010-06-07 2018-04-03 Affectiva, Inc. Collection of affect data from multiple mobile devices
US11056225B2 (en) 2010-06-07 2021-07-06 Affectiva, Inc. Analytics for livestreaming based on image analysis within a shared digital environment
US10592757B2 (en) 2010-06-07 2020-03-17 Affectiva, Inc. Vehicular cognitive data collection using multiple devices
US10143414B2 (en) 2010-06-07 2018-12-04 Affectiva, Inc. Sporadic collection with mobile affect data
US10628741B2 (en) 2010-06-07 2020-04-21 Affectiva, Inc. Multimodal machine learning for emotion metrics
US10911829B2 (en) 2010-06-07 2021-02-02 Affectiva, Inc. Vehicle video recommendation via affect
US9642536B2 (en) 2010-06-07 2017-05-09 Affectiva, Inc. Mental state analysis using heart rate collection based on video imagery
US11067405B2 (en) 2010-06-07 2021-07-20 Affectiva, Inc. Cognitive state vehicle navigation based on image processing
US11484685B2 (en) 2010-06-07 2022-11-01 Affectiva, Inc. Robotic control using profiles
US10074024B2 (en) 2010-06-07 2018-09-11 Affectiva, Inc. Mental state analysis using blink rate for vehicles
US10108852B2 (en) 2010-06-07 2018-10-23 Affectiva, Inc. Facial analysis to detect asymmetric expressions
US10289898B2 (en) 2010-06-07 2019-05-14 Affectiva, Inc. Video recommendation via affect
US10628985B2 (en) 2017-12-01 2020-04-21 Affectiva, Inc. Avatar image animation using translation vectors
US9959549B2 (en) 2010-06-07 2018-05-01 Affectiva, Inc. Mental state analysis for norm generation
US10474875B2 (en) 2010-06-07 2019-11-12 Affectiva, Inc. Image analysis using a semiconductor processor for facial evaluation
US11017250B2 (en) 2010-06-07 2021-05-25 Affectiva, Inc. Vehicle manipulation using convolutional image processing
US9723992B2 (en) 2010-06-07 2017-08-08 Affectiva, Inc. Mental state analysis using blink rate
US10627817B2 (en) 2010-06-07 2020-04-21 Affectiva, Inc. Vehicle manipulation using occupant image analysis
US11292477B2 (en) 2010-06-07 2022-04-05 Affectiva, Inc. Vehicle manipulation using cognitive state engineering
US11318949B2 (en) 2010-06-07 2022-05-03 Affectiva, Inc. In-vehicle drowsiness analysis using blink rate
US10401860B2 (en) 2010-06-07 2019-09-03 Affectiva, Inc. Image analysis for two-sided data hub
US11430260B2 (en) 2010-06-07 2022-08-30 Affectiva, Inc. Electronic display viewing verification
US10204625B2 (en) 2010-06-07 2019-02-12 Affectiva, Inc. Audio analysis learning using video data
US8976230B1 (en) * 2010-06-28 2015-03-10 Vlad Vendrow User interface and methods to adapt images for approximating torso dimensions to simulate the appearance of various states of dress
US8326001B2 (en) * 2010-06-29 2012-12-04 Apple Inc. Low threshold face recognition
US8824747B2 (en) 2010-06-29 2014-09-02 Apple Inc. Skin-tone filtering
US20120076368A1 (en) * 2010-09-27 2012-03-29 David Staudacher Face identification based on facial feature changes
US9224033B2 (en) * 2010-11-24 2015-12-29 Nec Corporation Feeling-expressing-word processing device, feeling-expressing-word processing method, and feeling-expressing-word processing program
US9183632B2 (en) * 2010-11-24 2015-11-10 Nec Corporation Feeling-expressing-word processing device, feeling-expressing-word processing method, and feeling-expressing-word processing program
US9196042B2 (en) * 2010-11-24 2015-11-24 Nec Corporation Feeling-expressing-word processing device, feeling-expressing-word processing method, and feeling-expressing-word processing program
KR20120057033A (ko) * 2010-11-26 2012-06-05 한국전자통신연구원 Iptv 제어를 위한 원거리 시선 추적 장치 및 방법
US8526686B2 (en) * 2010-12-24 2013-09-03 Telefonaktiebolaget L M Ericsson (Publ) Dynamic profile creation in response to facial recognition
EP2659486B1 (en) * 2010-12-30 2016-03-23 Nokia Technologies Oy Method, apparatus and computer program for emotion detection
US20120203640A1 (en) * 2011-02-03 2012-08-09 U Owe Me, Inc. Method and system of generating an implicit social graph from bioresponse data
JP5841538B2 (ja) * 2011-02-04 2016-01-13 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 関心度推定装置および関心度推定方法
US8836777B2 (en) 2011-02-25 2014-09-16 DigitalOptics Corporation Europe Limited Automatic detection of vertical gaze using an embedded imaging device
BR112013021503A2 (pt) 2011-02-27 2018-06-12 Affectiva Inc método implantado em computador para recomendações baseadas em afeto; produto de programa de computador incorporado a um meio legível por computador; sistema de computador para recomendações baseadas em afeto; e método implantado em computador para classificação com base em afeto
US8760551B2 (en) 2011-03-02 2014-06-24 Canon Kabushiki Kaisha Systems and methods for image capturing based on user interest
US9013264B2 (en) 2011-03-12 2015-04-21 Perceptive Devices, Llc Multipurpose controller for electronic devices, facial expressions management and drowsiness detection
US8655027B1 (en) 2011-03-25 2014-02-18 The United States of America, as represented by the Director, National Security Agency Method of image-based user authentication
WO2012149448A1 (en) * 2011-04-29 2012-11-01 Wellness & Prevension, Inc. Method and system for user initiated electronic messaging
US8698940B2 (en) 2011-05-09 2014-04-15 Intellectual Ventures Fund 83 Llc Switchable imaging apparatus for viewing and capture
US8610814B2 (en) 2011-05-09 2013-12-17 Intellectual Ventures Fund 83 Llc Switchable imaging apparatus for display and capture
US8446514B2 (en) 2011-05-09 2013-05-21 Intellectual Ventures Fund 83 Llc Capturing images using a switchable imaging apparatus
US8698941B2 (en) 2011-05-09 2014-04-15 Intellectual Ventures Fund 83 Llc Imaging apparatus with switchable beam deflector array
US8885877B2 (en) * 2011-05-20 2014-11-11 Eyefluence, Inc. Systems and methods for identifying gaze tracking scene reference locations
US20130022220A1 (en) 2011-07-20 2013-01-24 Google Inc. Wearable Computing Device with Indirect Bone-Conduction Speaker
CN103688529A (zh) * 2011-07-22 2014-03-26 惠普发展公司,有限责任合伙企业 环形缓冲器上的可视媒体
US9442565B2 (en) * 2011-08-24 2016-09-13 The United States Of America, As Represented By The Secretary Of The Navy System and method for determining distracting features in a visual display
US8781565B2 (en) 2011-10-04 2014-07-15 Qualcomm Incorporated Dynamically configurable biopotential electrode array to collect physiological data
WO2013077076A1 (ja) * 2011-11-24 2013-05-30 株式会社エヌ・ティ・ティ・ドコモ 表情出力装置及び表情出力方法
US9684374B2 (en) * 2012-01-06 2017-06-20 Google Inc. Eye reflection image analysis
US20150018023A1 (en) * 2012-03-01 2015-01-15 Nikon Corporation Electronic device
US8922481B1 (en) 2012-03-16 2014-12-30 Google Inc. Content annotation
US9607025B2 (en) 2012-09-24 2017-03-28 Andrew L. DiRienzo Multi-component profiling systems and methods
US9104467B2 (en) * 2012-10-14 2015-08-11 Ari M Frank Utilizing eye tracking to reduce power consumption involved in measuring affective response
CN103838357B (zh) * 2012-11-22 2018-03-06 腾讯科技(北京)有限公司 一种画面交互方法、装置、系统和移动终端
US9378655B2 (en) 2012-12-03 2016-06-28 Qualcomm Incorporated Associating user emotion with electronic media
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US20140153900A1 (en) * 2012-12-05 2014-06-05 Samsung Electronics Co., Ltd. Video processing apparatus and method
KR102091848B1 (ko) * 2013-01-04 2020-03-20 삼성전자주식회사 전자 장치에서 사용자의 감정 정보를 제공하기 위한 장치 및 방법
KR20140094878A (ko) * 2013-01-23 2014-07-31 삼성전자주식회사 사용자 단말 및 사용자 단말에서 사용자 인식을 이용한 영상 처리 방법
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US20150182163A1 (en) * 2013-12-31 2015-07-02 Aliphcom Wearable device to detect inflamation
US11271993B2 (en) 2013-03-14 2022-03-08 Aperture Investments, Llc Streaming music categorization using rhythm, texture and pitch
US9875304B2 (en) 2013-03-14 2018-01-23 Aperture Investments, Llc Music selection and organization using audio fingerprints
US10623480B2 (en) 2013-03-14 2020-04-14 Aperture Investments, Llc Music categorization using rhythm, texture and pitch
US10225328B2 (en) 2013-03-14 2019-03-05 Aperture Investments, Llc Music selection and organization using audio fingerprints
US10242097B2 (en) 2013-03-14 2019-03-26 Aperture Investments, Llc Music selection and organization using rhythm, texture and pitch
US10061476B2 (en) 2013-03-14 2018-08-28 Aperture Investments, Llc Systems and methods for identifying, searching, organizing, selecting and distributing content based on mood
US9282284B2 (en) * 2013-05-20 2016-03-08 Cisco Technology, Inc. Method and system for facial recognition for a videoconference
CN104219439A (zh) * 2013-05-29 2014-12-17 杭州美盛红外光电技术有限公司 影像信息摄录装置和影像信息摄录方法
CN104219438A (zh) * 2013-05-29 2014-12-17 杭州美盛红外光电技术有限公司 影像录像装置及影像录像方法
JP6295534B2 (ja) * 2013-07-29 2018-03-20 オムロン株式会社 プログラマブル表示器、制御方法、およびプログラム
US20150178915A1 (en) * 2013-12-19 2015-06-25 Microsoft Corporation Tagging Images With Emotional State Information
US20220147562A1 (en) 2014-03-27 2022-05-12 Aperture Investments, Llc Music streaming, playlist creation and streaming architecture
US9639742B2 (en) * 2014-04-28 2017-05-02 Microsoft Technology Licensing, Llc Creation of representative content based on facial analysis
US9773156B2 (en) 2014-04-29 2017-09-26 Microsoft Technology Licensing, Llc Grouping and ranking images based on facial recognition data
US9323984B2 (en) * 2014-06-06 2016-04-26 Wipro Limited System and methods of adaptive sampling for emotional state determination
CN105468620A (zh) * 2014-09-03 2016-04-06 雅虎公司 多媒体界面成像方法、系统和穿戴式设备
KR102299764B1 (ko) * 2014-11-28 2021-09-09 삼성전자주식회사 전자장치, 서버 및 음성출력 방법
WO2016146488A1 (en) * 2015-03-13 2016-09-22 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Method for automatically identifying at least one user of an eye tracking device and eye tracking device
US10438215B2 (en) 2015-04-10 2019-10-08 International Business Machines Corporation System for observing and analyzing customer opinion
US9936250B2 (en) 2015-05-19 2018-04-03 The Nielsen Company (Us), Llc Methods and apparatus to adjust content presented to an individual
EP3306463A4 (en) * 2015-06-01 2018-06-06 Huawei Technologies Co. Ltd. Method and device for processing multimedia
US9600715B2 (en) * 2015-06-26 2017-03-21 Intel Corporation Emotion detection system
CN105095873B (zh) * 2015-07-31 2018-12-18 小米科技有限责任公司 照片共享方法、装置
WO2017025485A1 (en) 2015-08-07 2017-02-16 Sensomotoric Instruments Gesellschaft Für Innovative Sensorik Gmbh Communication system and method for providing a bionic virtual meeting room
US9769367B2 (en) 2015-08-07 2017-09-19 Google Inc. Speech and computer vision-based control
CN106562792B (zh) * 2015-10-08 2021-08-06 松下电器(美国)知识产权公司 信息提示装置的控制方法和信息提示装置
US20170126966A1 (en) * 2015-10-29 2017-05-04 Mediatek Inc. Photography method using gaze detection
US10783431B2 (en) * 2015-11-11 2020-09-22 Adobe Inc. Image search using emotions
US10353473B2 (en) * 2015-11-19 2019-07-16 International Business Machines Corporation Client device motion control via a video feed
US10616199B2 (en) * 2015-12-01 2020-04-07 Integem, Inc. Methods and systems for personalized, interactive and intelligent searches
JP6713537B2 (ja) 2015-12-04 2020-06-24 スリング メディア, エルエルシー.Sling Media, Llc. 複数のメディアストリームの処理
US9836819B1 (en) 2015-12-30 2017-12-05 Google Llc Systems and methods for selective retention and editing of images captured by mobile image capture device
US9838641B1 (en) 2015-12-30 2017-12-05 Google Llc Low power framework for processing, compressing, and transmitting images at a mobile image capture device
US9836484B1 (en) 2015-12-30 2017-12-05 Google Llc Systems and methods that leverage deep learning to selectively store images at a mobile image capture device
US10732809B2 (en) 2015-12-30 2020-08-04 Google Llc Systems and methods for selective retention and editing of images captured by mobile image capture device
US10225511B1 (en) 2015-12-30 2019-03-05 Google Llc Low power framework for controlling image sensor mode in a mobile image capture device
US20170223017A1 (en) * 2016-02-03 2017-08-03 Mastercard International Incorporated Interpreting user expression based on captured biometric data and providing services based thereon
US9886584B2 (en) * 2016-02-25 2018-02-06 International Business Machines Corporation Optimized redaction system
US10684674B2 (en) * 2016-04-01 2020-06-16 Facebook Technologies, Llc Tracking portions of a user's face uncovered by a head mounted display worn by the user
US10154191B2 (en) * 2016-05-18 2018-12-11 Microsoft Technology Licensing, Llc Emotional/cognitive state-triggered recording
US10762429B2 (en) 2016-05-18 2020-09-01 Microsoft Technology Licensing, Llc Emotional/cognitive state presentation
US9959678B2 (en) 2016-06-03 2018-05-01 Oculus Vr, Llc Face and eye tracking using facial sensors within a head-mounted display
US10430988B2 (en) * 2016-06-03 2019-10-01 Facebook Technologies, Llc Facial animation using facial sensors within a head-mounted display
US10835120B2 (en) * 2016-08-23 2020-11-17 Welch Allyn, Inc. Extended medical test system
US9769166B1 (en) * 2016-10-19 2017-09-19 International Business Machines Corporation Wearable sensor based system for person identification
US10657718B1 (en) 2016-10-31 2020-05-19 Wells Fargo Bank, N.A. Facial expression tracking during augmented and virtual reality sessions
US10321050B2 (en) 2016-11-29 2019-06-11 International Business Machines Corporation Determining optimal photograph capture timing based on data from wearable computer eyewear devices
US10740823B1 (en) 2017-04-28 2020-08-11 Wells Fargo Bank, N.A. Financial alert system based on image of user spending behavior
US10922566B2 (en) 2017-05-09 2021-02-16 Affectiva, Inc. Cognitive state evaluation for vehicle navigation
US11587097B2 (en) * 2017-08-17 2023-02-21 James A. STOB Organization location verification
KR102185854B1 (ko) 2017-09-09 2020-12-02 애플 인크. 생체측정 인증의 구현
US11249945B2 (en) * 2017-12-14 2022-02-15 International Business Machines Corporation Cognitive data descriptors
CN108197220A (zh) * 2017-12-28 2018-06-22 广东欧珀移动通信有限公司 照片分类方法、装置、存储介质及电子设备
JP7222683B2 (ja) * 2018-12-06 2023-02-15 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体
CN111247787A (zh) * 2018-12-29 2020-06-05 深圳市大疆创新科技有限公司 拍照方法及拍照终端
US11887383B2 (en) 2019-03-31 2024-01-30 Affectiva, Inc. Vehicle interior object management
CN112584280B (zh) * 2019-09-27 2022-11-29 百度在线网络技术(北京)有限公司 智能设备的控制方法、装置、设备和介质
US11769056B2 (en) 2019-12-30 2023-09-26 Affectiva, Inc. Synthetic data for neural network training using vectors
US11792500B2 (en) * 2020-03-18 2023-10-17 Snap Inc. Eyewear determining facial expressions using muscle sensors
CN114079730B (zh) * 2020-08-19 2023-09-12 华为技术有限公司 一种拍摄方法和拍摄系统
WO2022119810A1 (en) * 2020-12-02 2022-06-09 Innsightful, Inc. System and method for prevention, diagnosis, and treatment of health conditions
US11200449B1 (en) 2021-05-21 2021-12-14 Airbnb, Inc. Image ranking system
US11361421B1 (en) 2021-05-21 2022-06-14 Airbnb, Inc. Visual attractiveness scoring system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0498979A (ja) * 1990-08-17 1992-03-31 Fuji Photo Film Co Ltd ビデオカメラ
JPH04342078A (ja) * 1991-05-20 1992-11-27 Nippon Telegr & Teleph Corp <Ntt> 表情認識装置
JPH08339446A (ja) * 1995-06-09 1996-12-24 Sharp Corp 対話装置
JP2002077592A (ja) * 2000-04-13 2002-03-15 Fuji Photo Film Co Ltd 画像処理方法
WO2002025633A1 (fr) * 2000-09-20 2002-03-28 Kaori Tsuruta Procede/systeme de reproduction d'images, procede/systeme de mise en forme d'images, album electronique, et systeme de creation/d'emission/de distribution pour un tel album
JP2002236698A (ja) * 2001-02-08 2002-08-23 Sharp Corp 情報処理装置、情報処理プログラムおよび記録媒体
JP2002330370A (ja) * 2001-05-02 2002-11-15 Tryforce International:Kk 映像配信装置、映像配信方法および映像配信システム

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5164831A (en) 1990-03-15 1992-11-17 Eastman Kodak Company Electronic still camera providing multi-format storage of full and reduced resolution images
JP2828324B2 (ja) 1990-06-21 1998-11-25 富士通株式会社 遠隔監視システム
US5734424A (en) * 1990-08-08 1998-03-31 Canon Kabushiki Kaisha Image pickup apparatus capable of providing moving video signal and still video signal
JPH07226911A (ja) 1994-02-15 1995-08-22 Eastman Kodak Japan Kk 電子スチルカメラ
JPH07261279A (ja) * 1994-02-25 1995-10-13 Eastman Kodak Co 写真画像の選択システム及び方法
US5477264A (en) 1994-03-29 1995-12-19 Eastman Kodak Company Electronic imaging system using a removable software-enhanced storage device
US5791692A (en) 1995-05-31 1998-08-11 Eastman Kodak Company Dual sided photographic album leaf and method of making
JP3493847B2 (ja) 1995-11-15 2004-02-03 株式会社日立製作所 広域医療情報システム
US6003991A (en) 1996-02-17 1999-12-21 Erik Scott Viirre Eye examination apparatus and method for remote examination of a patient by a health professional
US5760917A (en) 1996-09-16 1998-06-02 Eastman Kodak Company Image distribution method and system
US5742233A (en) 1997-01-21 1998-04-21 Hoffman Resources, Llc Personal security and tracking system
US6513046B1 (en) 1999-12-15 2003-01-28 Tangis Corporation Storing and recalling information to augment human memories
US6282317B1 (en) 1998-12-31 2001-08-28 Eastman Kodak Company Method for automatic determination of main subjects in photographic images
US6463163B1 (en) * 1999-01-11 2002-10-08 Hewlett-Packard Company System and method for face detection using candidate image region selection
CN1352696A (zh) * 1999-03-10 2002-06-05 匹兹堡大学联邦制高等教育 脂肪来源的干细胞和网格
US6727953B1 (en) * 1999-03-23 2004-04-27 Eastman Kodak Company Digital camera including printer for printing on an authenticated receiver
US6163361A (en) * 1999-04-23 2000-12-19 Eastman Kodak Company Digital camera including a printer for receiving a cartridge having security control circuitry
US6287252B1 (en) 1999-06-30 2001-09-11 Monitrak Patient monitor
US6294993B1 (en) 1999-07-06 2001-09-25 Gregory A. Calaman System for providing personal security via event detection
US6775381B1 (en) * 1999-07-19 2004-08-10 Eastman Kodak Company Method and apparatus for editing and reading edited invisible encodements on media
AU7780600A (en) 1999-10-01 2001-05-10 Glaxo Group Limited Patient data monitoring system
US6671405B1 (en) 1999-12-14 2003-12-30 Eastman Kodak Company Method for automatic assessment of emphasis and appeal in consumer images
US6282231B1 (en) 1999-12-14 2001-08-28 Sirf Technology, Inc. Strong signal cancellation to enhance processing of weak spread spectrum signal
US6893396B2 (en) 2000-03-01 2005-05-17 I-Medik, Inc. Wireless internet bio-telemetry monitoring system and interface
US20010043279A1 (en) * 2000-03-07 2001-11-22 Masahito Niikawa Digital camera
US6807290B2 (en) * 2000-03-09 2004-10-19 Microsoft Corporation Rapid computer modeling of faces for animation
AU2001244428A1 (en) 2000-03-23 2001-10-03 Mitsubishi Chemical Corporation Personalized health profiling system and method
US6438323B1 (en) 2000-06-15 2002-08-20 Eastman Kodak Company Camera film loading with delayed culling of defective cameras
US6608615B1 (en) 2000-09-19 2003-08-19 Intel Corporation Passive gaze-driven browsing
WO2002027640A2 (en) 2000-09-29 2002-04-04 Lifelink, Inc. System and method for wireless communication of sensed data to a central server
US6629104B1 (en) * 2000-11-22 2003-09-30 Eastman Kodak Company Method for adding personalized metadata to a collection of digital images
US6697502B2 (en) 2000-12-14 2004-02-24 Eastman Kodak Company Image processing method for detecting human figures in a digital image
GB2370709A (en) 2000-12-28 2002-07-03 Nokia Mobile Phones Ltd Displaying an image and associated visual effect
US7664296B2 (en) 2001-01-31 2010-02-16 Fujifilm Corporation Image recording method and system, image transmitting method, and image recording apparatus
US6920236B2 (en) * 2001-03-26 2005-07-19 Mikos, Ltd. Dual band biometric identification system
AUPR541801A0 (en) * 2001-06-01 2001-06-28 Canon Kabushiki Kaisha Face detection in colour images with complex background
US7027620B2 (en) * 2001-06-07 2006-04-11 Sony Corporation Method of recognizing partially occluded and/or imprecisely localized faces
JP4163412B2 (ja) * 2001-12-19 2008-10-08 オリンパス株式会社 印刷システム、画像処理装置及びその方法
TW550517B (en) * 2002-01-11 2003-09-01 Ind Tech Res Inst Image pre-processing method for improving correction rate of face detection
US6926429B2 (en) 2002-01-30 2005-08-09 Delphi Technologies, Inc. Eye tracking/HUD system
JP2003280785A (ja) 2002-03-26 2003-10-02 Sony Corp 画像表示処理装置、および画像表示処理方法、並びにコンピュータ・プログラム
US7206022B2 (en) * 2002-11-25 2007-04-17 Eastman Kodak Company Camera system with eye monitoring
US7233684B2 (en) * 2002-11-25 2007-06-19 Eastman Kodak Company Imaging method and system using affective information
US7046924B2 (en) * 2002-11-25 2006-05-16 Eastman Kodak Company Method and computer program product for determining an area of importance in an image using eye monitoring information
US7319780B2 (en) * 2002-11-25 2008-01-15 Eastman Kodak Company Imaging method and system for health monitoring and personal security

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0498979A (ja) * 1990-08-17 1992-03-31 Fuji Photo Film Co Ltd ビデオカメラ
JPH04342078A (ja) * 1991-05-20 1992-11-27 Nippon Telegr & Teleph Corp <Ntt> 表情認識装置
JPH08339446A (ja) * 1995-06-09 1996-12-24 Sharp Corp 対話装置
JP2002077592A (ja) * 2000-04-13 2002-03-15 Fuji Photo Film Co Ltd 画像処理方法
WO2002025633A1 (fr) * 2000-09-20 2002-03-28 Kaori Tsuruta Procede/systeme de reproduction d'images, procede/systeme de mise en forme d'images, album electronique, et systeme de creation/d'emission/de distribution pour un tel album
JP2002236698A (ja) * 2001-02-08 2002-08-23 Sharp Corp 情報処理装置、情報処理プログラムおよび記録媒体
JP2002330370A (ja) * 2001-05-02 2002-11-15 Tryforce International:Kk 映像配信装置、映像配信方法および映像配信システム

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346471A (ja) * 2004-06-03 2005-12-15 Canon Inc 情報処理方法、情報処理装置
JP4641389B2 (ja) * 2004-06-03 2011-03-02 キヤノン株式会社 情報処理方法、情報処理装置
JP4511304B2 (ja) * 2004-10-12 2010-07-28 シャープ株式会社 行動履歴記録装置、行動履歴管理システム、行動履歴記録方法およびプログラム
JP2006115011A (ja) * 2004-10-12 2006-04-27 Sharp Corp 行動履歴記録装置、行動履歴管理システム、行動履歴記録方法およびプログラム
US7586517B2 (en) 2004-10-27 2009-09-08 Panasonic Corporation Image pickup apparatus
JP2008522652A (ja) * 2004-12-06 2008-07-03 パルチ−ワッセルマン,ダフナ 多変量ダイナミック生体測定システム
JP2009510826A (ja) * 2005-09-26 2009-03-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ コンテンツ情報の提供を受けたユーザの感情状態を分析するための方法及び装置
JP2007133531A (ja) * 2005-11-09 2007-05-31 Advanced Telecommunication Research Institute International 注目状態検出装置、及び注目状態検出方法
JP2008118527A (ja) * 2006-11-07 2008-05-22 Sony Corp 撮像装置、表示装置、撮像方法、表示方法
US8872941B2 (en) 2006-11-07 2014-10-28 Sony Corporation Imaging apparatus and imaging method
US7876374B2 (en) 2006-12-07 2011-01-25 Sony Corporation Image display system, display apparatus, and display method
US8009219B2 (en) 2006-12-07 2011-08-30 Sony Corporation Image display system, display apparatus, and display method
US8687925B2 (en) 2007-04-10 2014-04-01 Sony Corporation Image storage processing apparatus, image search apparatus, image storage processing method, image search method and program
US8797331B2 (en) 2007-08-06 2014-08-05 Sony Corporation Information processing apparatus, system, and method thereof
US9568998B2 (en) 2007-08-06 2017-02-14 Sony Corporation Information processing apparatus, system, and method for displaying bio-information or kinetic information
US10937221B2 (en) 2007-08-06 2021-03-02 Sony Corporation Information processing apparatus, system, and method for displaying bio-information or kinetic information
US10262449B2 (en) 2007-08-06 2019-04-16 Sony Corporation Information processing apparatus, system, and method for displaying bio-information or kinetic information
US9972116B2 (en) 2007-08-06 2018-05-15 Sony Corporation Information processing apparatus, system, and method for displaying bio-information or kinetic information
US10529114B2 (en) 2007-08-06 2020-01-07 Sony Corporation Information processing apparatus, system, and method for displaying bio-information or kinetic information
JP2011055251A (ja) * 2009-09-02 2011-03-17 Sony Corp 撮像装置および方法
JP2011100458A (ja) * 2009-11-09 2011-05-19 Palo Alto Research Center Inc 商品に対する消費者の購買嗜好を収集するためのコンピュータにより実施される方法
JP2011193275A (ja) * 2010-03-15 2011-09-29 Nikon Corp 表示装置
JP2011200412A (ja) * 2010-03-25 2011-10-13 Panasonic Electric Works Co Ltd 生体情報計測システム
JP2012186607A (ja) * 2011-03-04 2012-09-27 Nikon Corp 電子機器、画像表示システム及び画像選択方法
US9380257B2 (en) 2011-11-29 2016-06-28 Sony Corporation Portable electronic equipment and method of recording media using a portable electronic equipment
JP2015505430A (ja) * 2011-11-29 2015-02-19 ソニーエリクソンモバイルコミュニケーションズ, エービー 携帯電子機器及び携帯電子機器を使用してメディアを記録する方法
JP2014112787A (ja) * 2012-12-05 2014-06-19 Samsung Electronics Co Ltd 動画像処理装置及び動画像処理方法
JP2015091048A (ja) * 2013-11-06 2015-05-11 キヤノン株式会社 撮像装置、撮像方法、及びプログラム
US10254842B2 (en) 2013-11-08 2019-04-09 Sony Corporation Controlling a device based on facial expressions of a user
JP2015080269A (ja) * 2015-01-07 2015-04-23 株式会社ニコン 表示装置
JP2016220158A (ja) * 2015-05-26 2016-12-22 株式会社Jvcケンウッド タギング装置、タギングシステム、タギング方法及びタギングプログラム
WO2017169499A1 (ja) * 2016-03-31 2017-10-05 ソニー株式会社 制御装置、制御方法及びコンピュータプログラム
US10904420B2 (en) 2016-03-31 2021-01-26 Sony Corporation Control device and control method for managing a captured image
CN110520056A (zh) * 2017-04-07 2019-11-29 国立研究开发法人产业技术综合研究所 测量仪安装辅助装置和测量仪安装辅助方法
CN110520056B (zh) * 2017-04-07 2022-08-05 国立研究开发法人产业技术综合研究所 测量仪安装辅助装置和测量仪安装辅助方法
WO2020184122A1 (ja) 2019-03-11 2020-09-17 ソニー株式会社 情報処理装置、および情報処理システム
KR20210133962A (ko) 2019-03-11 2021-11-08 소니그룹주식회사 정보 처리 장치 및 정보 처리 시스템
US11533537B2 (en) 2019-03-11 2022-12-20 Sony Group Corporation Information processing device and information processing system
WO2024062913A1 (ja) * 2022-09-20 2024-03-28 富士フイルム株式会社 画像処理装置、画像処理装置の作動方法、および画像処理装置の作動プログラム

Also Published As

Publication number Publication date
US20070201731A1 (en) 2007-08-30
CN100430934C (zh) 2008-11-05
CN1510903A (zh) 2004-07-07
EP1422639A2 (en) 2004-05-26
US7418116B2 (en) 2008-08-26
US7233684B2 (en) 2007-06-19
US20040101212A1 (en) 2004-05-27
EP1422639A3 (en) 2006-05-03

Similar Documents

Publication Publication Date Title
US7233684B2 (en) Imaging method and system using affective information
US7319780B2 (en) Imaging method and system for health monitoring and personal security
US7327505B2 (en) Method for providing affective information in an imaging system
US7271809B2 (en) Method for using viewing time to determine affective information in an imaging system
US7003139B2 (en) Method for using facial expression to determine affective information in an imaging system
US10049324B2 (en) Generating deportment and comportment cohorts
US10185869B2 (en) Filter and shutter based on image emotion content
US20160358085A1 (en) System and method for multimodal human state recognition
US20200350057A1 (en) Remote computing analysis for cognitive state data metrics
CN108574701A (zh) 用于确定用户状态的系统和方法
JP2005110869A (ja) 記録装置、及び記録方法
Iosifidis et al. The MOBISERV-AIIA Eating and Drinking multi-view database for vision-based assisted living.
De Pessemier et al. Enhancing recommender systems for TV by face recognition
WO2006053375A1 (en) Computer-based method and system for identifying a potential partner
US11935140B2 (en) Initiating communication between first and second users
WO2019044135A1 (ja) 情報処理装置、情報処理方法、およびプログラム
Kumar et al. A Deep Learning based System for Detecting Stress Level and Recommending Movie or Music
Ketcham et al. Emotional detection of patients major depressive disorder in medical diagnosis
US11935329B2 (en) Video analysis program
Singh et al. Study on Facial Recognition to Detect Mood and Suggest Songs
IT202100013115A1 (it) Metodo di acquisizione di immagini

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100413