JP2016529612A - 画像情動コンテンツに基づくフィルタ及びシャッター - Google Patents

画像情動コンテンツに基づくフィルタ及びシャッター Download PDF

Info

Publication number
JP2016529612A
JP2016529612A JP2016531951A JP2016531951A JP2016529612A JP 2016529612 A JP2016529612 A JP 2016529612A JP 2016531951 A JP2016531951 A JP 2016531951A JP 2016531951 A JP2016531951 A JP 2016531951A JP 2016529612 A JP2016529612 A JP 2016529612A
Authority
JP
Japan
Prior art keywords
interest
image
images
content
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2016531951A
Other languages
English (en)
Inventor
ハビエル,マーブルラン
デンマン,ケン
ジュスキント,ジョシュア
Original Assignee
エモティエント インコーポレイテッド
エモティエント インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エモティエント インコーポレイテッド, エモティエント インコーポレイテッド filed Critical エモティエント インコーポレイテッド
Publication of JP2016529612A publication Critical patent/JP2016529612A/ja
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body

Abstract

ラップトップ、デスクトップ、モバイルおよび着用可能な装置を用いて実行される方法を含む、画像フィルタリング用のコンピュータによって実行される方法。当該方法は、画像のためのコンテンツを生成するために各画像を分析する工程;前記コンテンツベクトルに関心オペレーターを適用する工程であって、該関心オペレーターが望ましい特性を備えた複数の写真に基づいており、これによって画像の関心インデックスを得る工程;画像用の関心インデックスを関心閾値と比較する工程;および、前記比較する工程の結果に基づいて1つ以上の動作を講ずるか1つ以上の動作を避ける工程を含む。また、関連するシステムおよび物品に関する。【選択図】図2

Description

この明細書は、一般的に画像の情動コンテンツに基づいて画像をフィルタリングし、電子的にシャッタリングするための装置、方法および物品に関する。
ディジタル媒体記憶装置は高価でなくなった。ディジタル・カメラとスマートフォンなどの画像取り込装置の広範囲の使用と結び付けられて、人々は、まさに低価格で、安い媒体記憶装置によって容易に何千もの画像を蓄積することができる。これは、しばしばユーザに関心をほとんど又はまったく提示しない多くの記憶画像と共に、多くのクラッタを作成する。例えば、大画像の収集を作成すること、例えばユーザ及び/又は他の人に関心が殆どない画像を除去することを支援する必要がある。
多少関連する問題は、まず第1の場所における進行中のシーンから、どの画像を捕らえるべきであるか決めるかということである。多くの最新のディジタル・カメラは、1秒あたりさまざまな高解像度の画像を捕らえることができる。10秒未満などの短い時間間隔で捕られたどの画像が保存されるべきかである。それらがすべて保存される場合、非常に多くの過度に冗長な画像が生じるかもしれない。したがって、シャッタリングのために画像を選択することを支援する必要がある、すなわち、電子的なシャッター又は機械的シャッターさえも使用して捕らえるため、そして非一時的な記憶媒体で画像を保存するために画像を選ぶ。
この明細書に記載された実施形態は、上述のニーズ及び他のニーズの1つ以上を満たす方法、装置および物品に向けられている。
実施形態において、(ラップトップ、デスクトップ、モバイルおよび着用可能なデバイスを使用して実行する方法を含む)コンピュータで実行する画像フィルタリング方法は、画像のためのコンテンツベクトルを生成するために各画像を分析する工程;前記コンテンツベクトルに、望ましい特性を備えた複数の写真に基づく関心オペレーターを適用する工程;画像のための関心インデックスを関心閾値と比較する工程;および、前記比較する工程の結果に基づいて1つ以上の動作を講ずるか、1つ以上の動作を避ける工程を含んでいる。
実施形態において、コンピュータベースシステムは、画像のための関心インデックスを得るために、画像用のコンテンツベクトルを生成するために複数の画像の各画像を分析し、該コンテンツベクトルに好ましい特性を備えた複数の写真に基づく関心オペレーターを適用し、関心閾値と画像のための関心インデックスを比較し、前記比較の結果に基づいて1つ以上の動作を講ずるか、あるいは1つ以上の動作を避けるように構成されている。
一実施形態において、前記関心オペレーターは、主に複数の画像中の1つ以上のフェースの1つ以上の表情のコンテンツに基づいており、望ましい特性は表情での情緒的なコンテンツあるいは感傷的なコンテンツに関係がある。一実施形態において、複数の画像がイベントの聴衆を観察するカメラによって捕らえられる。
一実施形態において、関心オペレーターは、主に1人以上の人間の外観特性、動作の結合、及び/又は複数の画像の低レベルの特徴のコンテンツに基づいている。
一実施形態において、非一時的な機械可読のメモリには、画像・フィルタリングのためのコンピュータによって実行される方法の計算機コードが埋め込まれている。前記方法は、画像用のコンテンツベクトルを生成するために各画像を分析する工程;前記コンテンツベクトルに望ましい特性を備えた複数の写真に基づく関心オペレーターを適用し、これによって画像の関心インデックスを得る工程;画像用の関心インデックスを関心閾値と比較する工程;および、前記比較する工程の結果に基づいて1つ以上の動作を講ずる工程を含む。
本発明のこれら及び他の特徴および態様は、次の説明、図面および添付の特許請求の範囲と共に一層よく理解されるだろう。
図1は、本明細書の選択された態様に従って構成されたコンピュータベースシステムの簡略化されたブロック図である。 図2は、画像をフィルタ処理するプロセスの選択された工程/ブロックを示す。 図3は、画像をシャッタリング処理するプロセスの選択された工程/ブロックを示す。
本明細書において、「実施形態」、「変形例」、「実施例」、および類似の表情は特定の装置、プロセス、或いは物品を言い、必ずしも同一の装置、プロセス或いは物品を言わない。
したがって、1つの場所あるいは文脈において使用される「一実施形態」(あるいは類似の表情)は、特定の装置、プロセス或いは物品を言い得;異なる場所或いは文脈の中の同一又は類似の表情は、異なる装置、方法あるいは物品を言い得る。「他の実施形態」および類似の表情およびフレーズは多くの異なる可能な実施形態のうちの1つを示すために使用され得る。可能な実施形態/変形例/実施例の数は、必ずしも2つあるいはすべての他の量に限定されない。「典型的」とのアイテムの特徴づけは、アイテムが一例として使用されることを意味する。実施形態/変形例/実施例のそのような特徴は、実施形態/変形例/実施例が好ましいものであることを必ずしも意味せず;しかしながら、実施形態/変形例/実施例は好ましいものである必要は現在好ましい1つかもしれないが、そうである必要はない。実施形態/変形例/実施形態は全て例証のために記載され、必ずしも厳密に制限していない。
「結合する」、「接続する」、およびそれらの屈曲の形態素をもつ類似の表情は、必ずしも近い或いは直接の接続を意味しないが、中間の要素を介してそれらの意味内での接続を含んでいる。
「画像」、「写真」、「写真(photographs)」、「写真(photos)、「画像(picuture)」、および類似の用語/表情への言及は、画像/写真/画像(picture)のソースにかかわらず、交換して使用されてもよい。
本明細書に使用される「表情」は、(怒り、軽蔑、嫌悪、恐れ、幸福、悲嘆、驚き、中立など)感情の主要な表情;関心のある感情の状態(退屈、関心、衝突など)の表情;いわゆる「顔の動作ユニット」(顔の動作コード体系で使用される動作ユニットなどの個々の筋肉の運動を含む顔の筋肉の部分集合の運動);および、身振り/姿勢(頭を傾ける、眉の上げ下げ、瞬き、鼻のしわ、頬杖など)を意味する。
自動表情認識および関連の主題は、多数の共有に係る特許出願に記載されており、(1)「SYSTEM FOR COLLECTING MACHINE LEARNING TRAINING DATA FOR FACIAL EXPRESSION RECOGNITION」と題する、Javier R.Movellanらによって2013年2月8日に出願された米国出願第61/762,820号(代理人ドケット番号MPT−1010−PV);
(2)「ACTIVE DATA ACQUISITION FOR DEVELOPMENT AND CONTINUOUS IMPROVEMENT OF MACHINE PERCEPTION SYSTEMS」と題する、Javier R.Movellanらによって2013年2月11日に出願された米国出願第61/763,431号(代理人ドケット番号MPT−1012−PV);
(3)「EVALUATION OF RESPONSES TO SENSORY STIMULI USING FACIAL EXPRESSION RECOGNITION」と題する、Javier R.Movellanらによって2013年2月12日に出願された米国出願第61/763,657号(代理人ドケット番号MPT−1013−PV);
(4)「AUTOMATIC FACIAL EXPRESSION MEASUREMENT AND MACHINE LEARNING FOR ASSESSMENT OF MENTAL ILLNESS AND EVALUATION OF TREATMENT」と題する、Javier R.Movellanらによって2013年2月12日に出願された米国出願第61/763,694号(代理人ドケット番号MPT−1014−PV);
(5)「ESTIMATION OF AFFECTIVE VALENCE AND AROUSAL WITH AUTOMATIC FACIAL EXPRESSION MEASUREMENT」と題する、Javier R.Movellanらによって2013年2月13日に出願された米国出願第61/764,442号(代理人ドケット番号MPT−1016−PV;
(6)「FACIAL EXPRESSION TRAINING USING FEEDBACK FROM AUTOMATIC FACIAL EXPRESSION RECOGNITION」と題する、Javier R.Movellanらによって2013年2月15日に出願された米国出願第61/765,570号(代理人ドケット番号MPT−1017−PV);および
(7)「QUALITY CONTROL FOR LABELING MACHINE LEARNING TRAINING EXAMPLES」と題するJavier R.Movellanらによって2013年2月15日に出願された米国出願第61/765,671号(代理人ドケット番号MPT−1015−PV);
(8)「AUTOMATIC ANALYSIS OF NON−VERBAL RAPPORT」と題するJavier R.Movellanらによって2013年2月20日に出願された米国出願第61/766,866号(代理人ドケット番号MPT−1018−PV);および
(9)「SPATIAL ORGANIZATION OF IMAGES BASED ON EMOTION FACE CLOUDS」と題するJavier R.Movellanらによって2013年6月5日に出願された米国出願第61/831,610号(代理人ドケット番号MPT−1022)を含む。
これらの仮出願の各々は、参照によって該特許出願の特許請求の範囲、表、計算機コードおよび他のすべての問題を含む全体に本明細書に組み入れられる。
「人間の外観特性」は、民族性、性別、誘引性、外見上の年齢、および様式の特性(衣類、靴、ヘアスタイル)などの表情および追加の外観特徴を含んでいる。
「低レベルの特徴」は、それらが目、あご、ほお、眉、額、髪、鼻、耳、性別、年齢、民族性などの顔の情報について記載する日常生活の言語において使用される属性ではないという意味で、低レベルである。低レベルの特徴の例は、ガボール方向付けエネルギー、ガボール・スケール・エネルギー、ガボール位相およびハー・ウェーブレット・出力を含んでいる。
他の更なる明示的および黙示的定義及び定義の明確性は、この明細書全体にわたって見られうる。
添付の図面において例証されるいくつかの実施形態に詳細に言及されるだろう。同一の参照符号が、同一の装置の要素および方法の工程を参照するために、図面と説明において使用される。図面は単純化された形体であり縮尺したものではなく、記載されたシステムおよび方法に加えることができる装置の要素および方法の工程を省略している一方で、特定の任意要素および工程を含んでいる。
図1は、写真の顔及び/又は他の人の外観特徴及び/又は低レベル特徴の情動コンテンツに基づく画像をフィルタ処理するために本記載の選択された側面に従って構成されたコンピュータベースシステム(100)の簡略ブロック図である。図1はシステム(100)の多くのハードウェアおよびソフトウェアモジュールを示さず、物理的および論理結合を省略し得る。システム(100)は、本明細書に記載された方法の工程を実行するように構成された専用データ処理装置、汎用コンピュータ、計算機装置あるいは、ネットワーキングされたコンピュータあるいはコンピュータ・システムの群として実装され得る。いくつかの実施形態において、システム(100)は、ウィンテル(Wintel)PC、リナックス(Linux(登録商標))コンピュータあるいはマック(Mac)コンピュータなどのパーソナルコンピュータ・プラットホームに構築される。パーソナルコンピュータはデスクトップまたはノート型コンピュータであり得る。システム(100)はサーバコンピュータとして機能し得る。いくつかの実施形態において、システム(100)はネットワークによって相互に接続した複数のコンピュータとして実装される。実施形態において、システム(100)は、カメラまたはスマートフォンなどの画像取り込装置の一部として実装される。
図1に示されるように、システム(100)はプロセッサ(110)、読み取り専用メモリ(ROM)モジュール(120)、ランダムアクセス記憶装置(RAM)モジュール(130)、ネットワークインターフェイス(140)、大容量記憶装置(150)およびデータベース(160)を含んでいる。これらの構成部品は、バス(115)で互いに連結される。例証された実施形態において、プロセッサ(110)はマイクロプロセッサであり得、大容量記憶装置(150)は磁気ディスク装置であり得る。大容量記憶装置(150)、およびメモリ・モジュール(120)および(130)の各々は、プロセッサがこれらの記憶装置とメモリ装置からデータを書き込み、読み込むことを可能にするようにプロセッサ(110)に接続される。ネットワークインターフェイス(140)はネットワーク、例えば、インターネットにプロセッサ(110)を接続する。
データベース(160)は、フィルタ処理された画像を含む画像の1つ以上の収集の保存および体系づけのために使用され得る。データベース(160)はプロセッサ(110)に接続された物理的に個別のシステムであり得る。代替の実施形態において、プロセッサ(110)および大容量記憶装置(150)はデータベース(160)の機能を実行するように構成され得る。
プロセッサ(110)は、ROMモジュール(120)、RAMモジュール(130)および(または)記憶装置(150)に保存されたプログラムコード命令を読み込み、実行し得る。プログラムコードの管理下で、プロセッサ(110)は、本明細書に記載或いは言及された方法の工程を実行するためにシステム(100)を構成し得る。ROM/RAMモジュール(120)/(130)および記憶装置(150)に加えて、プログラムコード命令は、追加のハードドライブ、フレキシブルディスケット、CD−ROM、DVD、フラッシュ・メモリおよび類似のデバイスなどの機械的可読の非一時的な記憶媒体に保存され得る。プログラムコードも伝送媒体を通して、例えば、電気配線またはケーブル布線を通して、光ファイバーを通して、無線で或いは物理的な伝送の他の形態によって送信され得る。伝送は、電気通信装置間の専用のリンク上で、あるいはインターネット、イントラネット、エクストラネットあるいは他の公衆或いは私設ネットワークなどの、広域或いは局所ネットワークにより生じ得る。プログラムコードもネットワークインターフェイス(140)あるいは別のネットワークインターフェイスを通ってシステム(100)へダウンロードされ得る。
本明細書に記載された方法もネットワーク化された環境で実行されることができ、画像は1つのデバイス(あるいは1組のデバイス)に保存され、別のデバイス(あるいは別の1組のデバイス)によって分析され/フィルタ処理され、第1の1組のデバイスは、1つ以上のネットワークによって別のデバイス或いは別の1組のセットにより、又はその1組により接続される。したがって、当該方法はスタンド・アロンのユーザ装置−パーソナルコンピュータ、スマートフォン、タブレット、ディジタル・カメラあるいは他の計算装置−あるいはネットワーク上で実行され得る。
図2に、例えばデータベース(160)におけるシステム(100)の記憶装置のうちの1つに保存された画像の収集あるいはシステム(100)のメモリ装置をフィルタ処理するプロセス(200)の選択された工程を例証する。プロセス(200)において、フィルタ処理される画像の収集は、1つ以上の人の顔を含んでいる多数の画像を含んでいる。そして、フィルタリング処理は、顔における情緒的なコンテンツに少なくとも部分的に基づいて行われ得る。
フロー先端部(201)において、システム(100)は電力が多く供給され、プロセス(200)の工程を実行するように構成される。
工程(205)において、システム(100)は、各々の写真における情緒的なコンテンツおよび(または)他のコンテンツ(例えば、人間の外観特性、動作ユニット、低レベル特徴)のための収集画像を分析する。例えば、画像の各々は、表情および(または)低レベル特徴のクラシファイヤーの収集によって分析され得る。クラシファイヤーの各々は写真、動作ユニットおよび(または)低レベル特徴における顔(あるいは、場合によって複数の顔)によって表示された特別の情動の存在の有無に従って信号出力(連続的であれ離散的であれ)を生成するために構成され訓練され得る。クラシファイヤーの各々は異なる情動のために構成され訓練され得る。異なる情動は、例えば中立の表情および関心のある感情の状態(退屈、関心、衝突など)の表情と同様に、7つの主要な情動(怒り、軽蔑、嫌悪、恐れ、幸福、悲嘆、驚き)を含む。追加のクラシファイヤーは他の人間の外観特性に対応する信号出力を生成するために構成され、訓練され得、それは上述されている;例えば、追加のクラシファイヤーは顔の動作コード体系(FACS)から動作ユニットの構成の検知のために構成され得、動作ユニットの構成は識別可能な人間の表情のすべて(あるいは多数)の包括的な説明を与える。我々は、叙上の特許出願でのそのようなクラシファイヤーの特定の態様を記載した。それは参照によって組込まれている。
各画像については、クラシファイヤーの値(それらはベクトルで本質的に処理される)のベクトルは、このように得られる。
工程(210)で、システムは、望ましい情緒的なコンテンツおよび(または)他の望ましい人間の外観特性を備えた画像のリストを得る。実施形態において、システム(100)は、ユーザが望ましい情緒的なコンテンツおよび(または)他の望ましい人間の外観特性を備えた画像を選択する/示すことを可能にする。実施形態において、システムは、いくつかの局所記憶装置(例えば、データベース(160)、大容量記憶装置(150)、メモリ・モジュール(120)/(130))から或いは遠隔のソース(例えば、ネットワークインターフェイス(140)を介して)から望ましい特性をもつ個々の画像を特定するリスト又は情報を読み込む。
実施形態において、望ましい特性を備えた画像は、画像を削除するよりむしろ保存するためにユーザの選択に基づいて決定される。カメラにおいて、例えば、ユーザは各写真を撮った直後に画像を調査し得、ついで各画像を保存するか削除することを決める。保存された画像は望ましい特性を備えた画像であると考えられ得る。
望ましい特性を備えた画像は、ユーザ、他の人、2人以上の人(恐らくユーザを含む)によって選ばれるか、あるいは全人口のいくつかのサンプルあるいはその一部によってあらかじめ選択され得、彼らは1セットの画像の関心価値を評価する。望ましい特性を備えた画像はフィルタ処理される画像の収集の一部でもあるし、そうでないかもしれない。後者の場合において、望ましい特性を備えた画像は、望ましい特性を備えた画像の分析のために使用されたクラシファイヤーの処理された値のベクトルを得るために工程(205)の解析と同一か或いは類似した方法で分析され得る。
コラボラティブ・フィルタリング処理の実施形態において、望ましい特性を備えた画像は、画像プレファレンス、背景、人口統計および(または)他のユーザ特性における類似性を持った多数の人の表情されたプレファレンスに基づくかもしれない。実施例において、各人のために、人が好む画像のデータセット(あるいはそのようなデータセットから得られた情報。例えば、データセットにおける画像のベクトル)が維持される。このデータセットは新しい画像の関心を評価するために使用される。この人たちのうちの1人がもう一人の人に似ていれば、第1の人の画像関心が第2の人の画像関心に類似していると仮定され得る、およびその逆も仮定され得る。人はそれらの人口統計及びその示されたプレファレンスに基づいて「類似している」かもしれない。好ましい特性を備えた少数(即ち、5または10未満)の画像だけが特別の人に利用可能な場合、このアプローチは特に有用である;その人のための望ましい特性を備えた画像のセットは、その人に似ている1人以上の他の人の望ましい特性を備えた画像で補われ得る。
ユーザの選択が利用可能でない場合、関心オペレーターは情報理論原理に対してデフォルトであってもよい。特に各画像については、画像において表情を表わすベクトルは得られるかもしれない。各ベクトルvについては、ビットでその情報価値は計算されるかもしれない、例えばベクトルの確率の負の対数の底を2とする:
I(v)=−log2(p(v))。
実施形態において、確率は自然に発生する表情の大きなデータベースに関して評価され得る。実施形態において、確率は解析中の画像の特定の収集に関して計算され得る。見込み推定値は多次元のガウスモデルを使用して得られるかもしれない:独立成分分析、ガウス形の混合および(または)スパースコーディングモデルなどの一般化を用いて得られ得る。
工程(215)で、システム(100)は、望ましいコンテンツを備えた写真に基づく「関心オペレーター」を判定する。(変形例では、関心オペレーターは先決される。したがって、工程(215)の必要は有効でないかもしれない。)これは以下に詳細に記載される。
工程(220)で、システム(100)は画像のための関心インデックスを計算するために収集中の画像に「関心オペレーター」を適用する。これも以下に詳細に記載される。
判定ブロック(225)において、システム(100)は、関心インデックスが収集中の別の画像のために計算されるかどうかを判定する。例えば、別の画像は処理される必要があるかもしれない。また、収集中の画像の所定数又はすべてが処理されるまで計算されたその関心インデックス、およびそれらの関心インデックスを計算した。別の画像のための関心インデックスが計算される場合、プロセスフローは別の画像を選択する工程(227)に継続し、次に、工程(220)に戻る。
そうでなければ、プロセスフローは、判定ブロック(230)に続く(そこで、システム(100)は収集した写真のための関心インデックスを関心閾値と比較する)。関心閾値はシステム(100)の供給者によって先決され、例えばプリセットされて、あるいは、ユーザ(スライドコントロールによってなど)はそれを選択することができるか、別の方法でセットすることができる。画像の関心インデックスが閾値を越える場合(変形例において、等しいか又は超える)、画像は関心があるものと考えられ、プロセスフローは工程(235)へと進む。
工程(235)で、システム(100)は、(1)画像に関係のある1つ以上の第1の予め定義した動作を講じ、及び/又は画像に関係のある1つ以上の次の予め定義した動作を講ずることを避ける。例えば、画像のメタデータは画像が関心深いことを示すように変更され得、画像は保存されるか、或いは特定のファイル若しくはディレクトリに移動され得、画像は表示され得るか、或いは画像は単に消されない。
写真の関心インデックスが閾値を越えない場合(変形例において、関心を下回る)、システム(100)は工程(240)まで継続し、(3)写真についての1つ以上の第三の予め定義された動作を講じ、及び/又は(4)写真についての1つ以上の第4の予め定義された動作を講ずることを避ける。例えば、画像のメタデータは、写真が関心なく、写真が特定のファイル若しくはディレクトリに保存または移動され得、写真が消され得ることを示すように変更され得る。
工程(235)あるいは工程(240)から、場合に応じて、システム(100)は、別の画像が工程/ブロック(230)/(235)/(240)で処理されるか否かを決めるために判定ブロック(250)に進める。そうであるならば、プロセスフローは、別の画像を選択するためにプロセス(255)に続き、ついで判定ブロック(230)の入力に戻る。そうでなければ、処理(200)は必要に応じて繰り返されるためにフローポイント(299で終了する。
以前に言及された関心オペレーターは、画像の1つ以上の共通化とのその関係を判定するために与えられた画像(例えば収集からの画像)のベクトルに適用するためのプロセスおよび(または)望ましい特性を備えたパラメーターでありうる。1例において、望ましい特性を備えた画像のベクトルの予め定義した割合(例えば>30%、>40%、>50%、>60%、>70%、>80%)は、工程215(「プレファレンス点」)で計算されたある点の前もって定義したユークリッドの距離以内にそれらのエンドポイントがあるような状態である;そのポイントの予め定義されたユークリッド距離内の望ましい特性の写真のベクトルの数を最大化するように、あるいは望ましい特性を備えた画像ベクトルの平均の端点として、若しくはそうでないようにプレファレンスポイントは選択され得る。その後、関心オペレーターは、与えられた画像のベクトルとプレファレンスポイントの間の距離の逆数(inverse)であり得、判定ブロック(230)における関心閾値と比較され得る。
別の例において、関心インデックスは、与えられた画像のベクトル、およびプレファレンスポイントで終わるベクトルの内積であり得る。ついで、内積は判定ブロック(230)において関心閾値と比較される。
別の例において、望ましい特性を備えた画像の平均ベクトルの大きさが大きい場合、プレファレンス・オペレーターは与えられた画像のベクトルの大きさを計算することを含む。言いかえれば、望ましい特性を備えた画像が強い情動コンテンツを示す場合、関心オペレーターは与えられた画像のベクトルの大きさである。また、工程(235)のために収集から選ばれた画像は関心閾値の上の情動コンテンツを有するものである。関心閾値は、例えば所定値、あるいは望ましい特性を備えた画像のベクトルの平均の大きさの所定値又は予め定義された割合であり得る。
さらに別の例において、関心オペレーターは、与えられた画像のベクトルの方向と、所望の特性を備えた画像のベクトルの平均の方向の間の比較を含む。
他の関連する例において、平均の表情ベクトル、分散行列、各情動チャネル(クラシファイヤー)の最大値、写真の顔の数および(または)表情チャネル/クラシファイヤーのための出力の和は、関心オペレーターの全体あるいは部分として使用され得る。
いくつかのオペレーター(上述されたもの)が適用され得る。また、結果は与えられた画像のための関心インデックスを得るために平均されるか、そうでなければ組み合わせられる。
図3は、画像センサ上の画像をシャッタリングするためのプロセス(300)の選択された工程を示す。システム(100)と類似しているか同一であるシステムはこのプロセスを行なうために使用されてもよい;特定の例において、プロセス(300)は、カメラ(専用の画像化装置であり得る)或いはスマートフォン若しくはモバイル・デバイスのような別のシステムの一部によって実行される。
フローポイント(301)において、システムは出力が増大され、プロセス(300)の工程を実行するように構成される。
工程(305)で、システムは、センサ上の画像を分析する。それは、上述されて、プロセス(200)の工程(205)で分析と同一か類似している方法で行われるかもしれない。従がってクラシファイヤーの処理された値のベクトルは、センサ・画像のために得られる。
工程(320)において、システムは画像のための関心インデックスを計算するために画像に関心オペレーターを適用する。工程(320)は上述したプロセス(200)の工程(220)と同一又は類似している可能性がある。
判定ブロック(330)では、画像の関心インデックスは、プロセス(200)の判定ブロック(230)のオペレーションと同一か類似しているやり方で関心閾値と比較される。画像の関心インデックスが関心閾値を超える場合(変形例において同等又は超える)、画像は関心深いと考えられ、工程(335)において非一時的なメモリ装置に結果的に保存される;工程(335)の一部として、他の動作も実行され得る。また、システムはさらに別の動作を避け得る。そうでなければ、画像は工程(340)で、廃棄され、また、恐らく、他の動作は実行される。
その後、プロセスフローはフローポイント(399)で終了し、必要に応じて繰り返される。
システムの可能な適用、および本明細書に記載されたプロセスの特徴の例は後続する。
システムとプロセスの特徴はこれらの例に限定されない。
第1の例において、静止或いはビデオカメラは、スポーツイベント、コンサートあるいは他のイベントを見る聴衆を捕らえ得る。多くの人々の画像は、カメラによって直ちに捕らえられるかもしれない。各人あるいは小集団は例えば、表情あるいは他の画像特徴の特定のタイプを持った人々若しくは小集団の画像を選択するために別々にフィルタ処理され得る(即ち、あたかも、個別画像が各人あるいはグループに捕らえられたかのように)。
第2の例において、ディジタル・カメラは、グループの写真を撮り得る。ユーザはダースあるいは何百もの画像をとるために、カメラ・シャッターボタンを下げておき、カメラをトリガリングする。その後、カメラは、特定のタイプの表情あるいは他の画像の特徴を含むもののための画像をフィルタ処理し得る。
第三の例において、カメラの収集は小売店環境あるいは他の公共の場所で人々を追跡するかもしれない。カメラの収集は、1人以上の人々による便利なレビューのためにあまりにも多くのビデオを集団的に生成し得る。本明細書に述べられているようなフィルタ処理は情緒的なコンテンツ(例えば、腹を立てた需要者、幸福な需要者など)の点で興味のある、画像かビデオの残りを消しながら、分析者のもとへそれらを送る画像あるいはビデオ・セグメントを選択するために使用されてもよい。
本明細書全体に亘って記載されたシステムおよびプロセスの特徴は、個々に存在し得る、あるいは任意の順列若しくは組み合わせで存在し得る。但し、特定の特徴/要素/限定の存在あるいは欠如が固有的に要求されるか、明示的に示されるか、或いはさもなければコンテキストから明らかになる場合を除く。
プロセスの工程および判定(判定ブロックが存在する場合)が本明細書に連続的に述べられるが、ある特定の工程及び/又は判定は結合的に又は平行して、非同期に、若しくは同期して、パイプラインのやり方で、あるいは、そうでないやり方で別々の要素によって実行され得る。本明細書がリストアップしているか或いは図面が示している同一の順序で工程及び判定が実行される特定の要件は存在しない。但し、特定の処理が固有的に要求されるか、あるいは、明示的に示されるか、若しくはそうでなければコンテキストから明らかになる場合を除く。更に、すべての例証された工程および判定ブロックは、本明細書において記載されたコンセプトに従うすべての実施形態において要求されるとは限らないが、一方で具体的に例証されていない幾つかの工程および判定ブロックがコンセプトに従った幾つかの実施例において望まれるか或いは必要であり得る。しかしながら、特定の実施形態/変形例/実施例が工程および判定(適用可能な場合)が示され、及び/又は記載される、特定の順序)を使用することは注目されるべきである。
本明細書に開示された実施形態、変形例および実施例の方法の工程に対応する命令(機械的に実行可能なコード)は、ハードウェア、ソフトウェア、ファームウェア、あるいはその組み合わせで直接具体化され得る。ソフトウェアモジュールは揮発性メモリ、フラッシュ・メモリ、読み出し専用メモリ(ROM)、電気的にプログラム可能なROM(EPROM)、電気的に消去可能なプログラム可能なROM(EEPROM)、ハードディスク、CD−ROM、DVD−ROM、あるいは揮発性か不揮発性かにかかわらず、当該技術において既知の非一時的な記憶メディアの他の形体で保存され得る。1つ以上のプロセッサが記憶媒体或いはメディアから情報を読み、そこに情報を書き出すことができるように、典型的な記憶媒体あるいはメディアは1つ以上のプロセッサに結合され得る。代替において、記憶媒体またはメディアは1つ以上のプロセッサに統合され得る。
本明細書は、相互作用の質を評価するため、及び将来の相互作用を改善するための示唆を与えるために、発明性のある装置、方法、及び物品について詳細に記述する。これは例証の目的だけのためになされた。特定の実施形態あるいはそれらの特徴は、本明細書の開示の基礎となる一般的な原理を必ずしも制限しない。本明細書に記載された特定の特徴は、本明細書に記載されるような発明の精神および範囲から逸脱せずに、他の中ではなくいくつかの実施形態中で使用され得る。構成要素および様々な工程の配列の物理的な構成も、本開示の意図した範囲内にある。多くの追加の修正が叙上の開示で意図される。また、いくつかの例において、幾つかの特徴が他の特徴の対応する使用がない状態で使用されるであろうことは、当業者に認識されるだろう。したがって、例証的な実施例は、必ずしも本発明の境界及び範囲を定義せず、また本発明に生じる法的保護を定義するものではない。

Claims (20)

  1. 画像をフィルタリング処理するための、コンピュータで実行する方法であって、当該方法は、
    画像用のコンテンツベクトルを生成するために複数の画像の各画像を分析する工程;
    前記コンテンツベクトルに関心オペレーターを適用する工程であって、該関心オペレーターが望ましい特性を備えた複数の写真に基づいており、これによって画像の関心インデックスを得る工程;
    画像用の関心インデックスを関心閾値と比較する工程;および
    前記比較する工程の結果に基づいて1つ以上の動作を講ずる工程
    を含むコンピュータで実行する方法。
  2. 前記関心オペレーターが、前記複数の画像の1以上の顔の1以上の表情のコンテンツに主として基づいている請求項1に記載のコンピュータで実行する方法。
  3. 前記望ましい特性が前記表情における情緒的なコンテンツ又は感傷に関係する請求項2に記載のコンピュータで実行する方法。
  4. 前記関心オペレーターが前記複数の画像における1人以上の人間の外観特性のコンテンツに主として基づいている請求項1に記載のコンピュータで実行する方法。
  5. 前記関心オペレーターが前記複数の画像中の1以上の動作ユニットのコンテンツに主として基づいている請求項1に記載のコンピュータで実行する方法。
  6. 前記関心オペレーターが前記複数の画像中の1つ以上の低レベルの特徴のコンテンツに主として基づいている請求項1に記載のコンピュータで実行する方法。
  7. 前記複数の画像がイベントの聴衆を観察するカメラによって画像が捕らえられる請求項1に記載のコンピュータで実行する方法。
  8. コンピュータベースシステムであって、
    画像用のコンテンツベクトルを生成するために複数の画像の各画像を分析するように構成され;
    画像の関心インデックスを得るために前記コンテンツベクトルに、望ましい特性を備えた複数の写真に基づく関心オペレーターを適用し、
    前記画像用の前記関心インデックスと前記関心閾値との間の比較の結果を得るために画像のための関心インデックスと関心閾値と比較し、及び
    前記結果に基づいて1つ以上の動作を講じるように構成されるコンピュータベースシステム。
  9. 前記関心オペレーターが前記複数の画像における1以上の顔の1以上の表情のコンテンツに主として基づいている請求項8に記載のコンピュータベースシステム。
  10. 前記望ましい特性が前記表情の情緒的コンテンツ又は感傷に関係する請求項9に記載のコンピュータベースシステム。
  11. 前記関心オペレーターが前記複数の画像中の1人以上の人間の外観特性のコンテンツに主として基づいている請求項8に記載のコンピュータベースシステム。
  12. 前記関心オペレーターが前記複数の画像中の1以上の動作ユニットのコンテンツに主として基づいている請求項8に記載のコンピュータベースシステム。
  13. 前記関心オペレーターが前記複数の画像中の1つ以上の低レベルの特徴のコンテンツに主として基づいている請求項8に記載のコンピュータベースシステム。
  14. 前記複数の画像が、イベントの聴衆を観察するカメラによって捕らえられる請求項8に記載のコンピュータベースシステム。
  15. 画像フィルタリングのためにコンピュータによって実行される方法のコンピュータコードが埋め込まれた非一時的な機械的可読メモリを含む物品であって、前記方法が、
    画像用のコンテンツベクトルを生成するために各画像を分析する工程;
    前記コンテンツベクトルに関心オペレーターを適用する工程であって、該関心オペレーターが望ましい特性を備えた複数の写真に基づいており、これによって画像の関心インデックスを得る工程;
    画像用の関心インデックスを関心閾値と比較する工程;
    および、前記比較する工程の結果に基づいて1つ以上の動作を講ずる工程を含んでなる
    ことを特徴する物品。
  16. 前記関心オペレーターが前記複数の画像中の1つ以上の顔の1つ以上の表情のコンテンツに主として基づいている請求項15に記載の物品。
  17. 前記望ましい特性は表情における情緒的なコンテンツあるいは感傷に関係している請求項16に記載の物品。
  18. 前記関心オペレーターが、前記複数の画像中の1人以上の人間の外観特性のコンテンツの関心オペレーターに主として基づいている請求項15に記載の物品。
  19. 前記関心オペレーターが前記複数の画像中の1以上の動作ユニットのコンテンツに主として基づいている請求項15に記載の物品。
  20. 前記関心オペレーターが前記複数の画像中の1つ以上の低レベルの特徴のコンテンツに主として基づいている請求項15に記載の物品。
JP2016531951A 2013-08-02 2014-08-04 画像情動コンテンツに基づくフィルタ及びシャッター Ceased JP2016529612A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361861868P 2013-08-02 2013-08-02
US61/861,868 2013-08-02
PCT/US2014/049654 WO2015017868A1 (en) 2013-08-02 2014-08-04 Filter and shutter based on image emotion content

Publications (1)

Publication Number Publication Date
JP2016529612A true JP2016529612A (ja) 2016-09-23

Family

ID=52427728

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016531951A Ceased JP2016529612A (ja) 2013-08-02 2014-08-04 画像情動コンテンツに基づくフィルタ及びシャッター

Country Status (4)

Country Link
US (2) US9443167B2 (ja)
JP (1) JP2016529612A (ja)
CN (1) CN105917305B (ja)
WO (1) WO2015017868A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102094723B1 (ko) * 2012-07-17 2020-04-14 삼성전자주식회사 견고한 얼굴 표정 인식을 위한 특징 기술자
US9817960B2 (en) 2014-03-10 2017-11-14 FaceToFace Biometrics, Inc. Message sender security in messaging system
US10275583B2 (en) 2014-03-10 2019-04-30 FaceToFace Biometrics, Inc. Expression recognition in messaging systems
US10223645B2 (en) * 2015-10-06 2019-03-05 International Business Machines Corporation Trading goods based on image processing for interest, emotion and affinity detection
US10783431B2 (en) * 2015-11-11 2020-09-22 Adobe Inc. Image search using emotions
US10534955B2 (en) * 2016-01-22 2020-01-14 Dreamworks Animation L.L.C. Facial capture analysis and training system
US10949461B2 (en) 2016-04-18 2021-03-16 International Business Machines Corporation Composable templates for managing disturbing image and sounds
US9767349B1 (en) * 2016-05-09 2017-09-19 Xerox Corporation Learning emotional states using personalized calibration tasks
WO2018051809A1 (ja) * 2016-09-16 2018-03-22 ソニーセミコンダクタソリューションズ株式会社 撮像装置、及び、電子機器
US20180330152A1 (en) * 2017-05-11 2018-11-15 Kodak Alaris Inc. Method for identifying, ordering, and presenting images according to expressions
CN107578014B (zh) * 2017-09-06 2020-11-03 上海寒武纪信息科技有限公司 信息处理装置及方法
WO2019050508A1 (en) * 2017-09-06 2019-03-14 Hitachi Data Systems Corporation EMOTION DETECTION ACTIVATED VIDEO CUSHIONING
US11048745B2 (en) * 2018-06-22 2021-06-29 International Business Machines Corporation Cognitively identifying favorable photograph qualities
US10972656B2 (en) 2018-06-22 2021-04-06 International Business Machines Corporation Cognitively coaching a subject of a photograph
KR20200040625A (ko) 2018-10-10 2020-04-20 삼성전자주식회사 사용자의 발화를 처리하는 사용자 단말 및 그 제어 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1648166A2 (en) * 2004-10-18 2006-04-19 Omron Corporation Image pickup unit
JP2007213378A (ja) * 2006-02-10 2007-08-23 Fujifilm Corp 特定表情顔検出方法、撮像制御方法および装置並びにプログラム
JP2008042319A (ja) * 2006-08-02 2008-02-21 Sony Corp 撮像装置および方法、表情評価装置およびプログラム
JP2010103877A (ja) * 2008-10-27 2010-05-06 Sony Corp 画像処理装置、画像処理方法およびプログラム
WO2012176317A1 (ja) * 2011-06-23 2012-12-27 サイバーアイ・エンタテインメント株式会社 画像認識システムを組込んだ関連性検索によるインタレスト・グラフ収集システム

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH067344B2 (ja) 1987-06-24 1994-01-26 株式会社 エイ・ティ・ア−ル自動翻訳電話研究所 ベクトル量子化を用いた音声認識方式
US5710833A (en) * 1995-04-20 1998-01-20 Massachusetts Institute Of Technology Detection, recognition and coding of complex objects using probabilistic eigenspace analysis
US6151403A (en) * 1997-08-29 2000-11-21 Eastman Kodak Company Method for automatic detection of human eyes in digital images
US6084595A (en) 1998-02-24 2000-07-04 Virage, Inc. Indexing method for image search engine
US6345274B1 (en) * 1998-06-29 2002-02-05 Eastman Kodak Company Method and computer program product for subjective image content similarity-based retrieval
US6751343B1 (en) * 1999-09-20 2004-06-15 Ut-Battelle, Llc Method for indexing and retrieving manufacturing-specific digital imagery based on image content
US6782395B2 (en) * 1999-12-03 2004-08-24 Canon Kabushiki Kaisha Method and devices for indexing and seeking digital images taking into account the definition of regions of interest
JP3955170B2 (ja) * 2000-07-03 2007-08-08 富士フイルム株式会社 画像検索システム
TW501035B (en) * 2001-03-20 2002-09-01 Ulead Systems Inc Interactive image searching method based on local object
US6847733B2 (en) * 2001-05-23 2005-01-25 Eastman Kodak Company Retrieval and browsing of database images based on image emphasis and appeal
US6879709B2 (en) * 2002-01-17 2005-04-12 International Business Machines Corporation System and method for automatically detecting neutral expressionless faces in digital images
CA2397424A1 (en) * 2002-08-09 2004-02-09 Mohammed Lamine Kherfi Content-based image retrieval using positive and negative examples
US7065521B2 (en) * 2003-03-07 2006-06-20 Motorola, Inc. Method for fuzzy logic rule based multimedia information retrival with text and perceptual features
CN1839410B (zh) * 2003-07-18 2015-05-20 佳能株式会社 图像处理设备、摄像设备、图像处理方法
EP2955662B1 (en) * 2003-07-18 2018-04-04 Canon Kabushiki Kaisha Image processing device, imaging device, image processing method
US7715597B2 (en) * 2004-12-29 2010-05-11 Fotonation Ireland Limited Method and component for image recognition
US7450740B2 (en) * 2005-09-28 2008-11-11 Facedouble, Inc. Image classification and information retrieval over wireless digital networks and the internet
CN100397410C (zh) * 2005-12-31 2008-06-25 北京中星微电子有限公司 基于视频的面部表情识别方法及装置
US20070288453A1 (en) * 2006-06-12 2007-12-13 D&S Consultants, Inc. System and Method for Searching Multimedia using Exemplar Images
CN100447808C (zh) * 2007-01-12 2008-12-31 郑文明 人脸表情图像的分类及语义评判量化方法
JP4999570B2 (ja) * 2007-06-18 2012-08-15 キヤノン株式会社 表情認識装置及び方法、並びに撮像装置
CN100560025C (zh) * 2007-07-26 2009-11-18 上海交通大学 带有弱分类器的组合系数的人脸检测方法
US8190604B2 (en) * 2008-04-03 2012-05-29 Microsoft Corporation User intention modeling for interactive image retrieval
JP4914398B2 (ja) * 2008-04-09 2012-04-11 キヤノン株式会社 表情認識装置、撮像装置、方法及びプログラム
US8189945B2 (en) 2009-05-27 2012-05-29 Zeitera, Llc Digital video content fingerprinting based on scale invariant interest region detection with an array of anisotropic filters
US20110109770A1 (en) * 2008-07-17 2011-05-12 Satoshi Katoh Imaging apparatus, imaging method, and program
US8798374B2 (en) * 2008-08-26 2014-08-05 The Regents Of The University Of California Automated facial action coding system
US9619469B2 (en) * 2009-12-22 2017-04-11 Apple Inc. Adaptive image browsing
US9588992B2 (en) * 2010-09-30 2017-03-07 Microsoft Technology Licensing, Llc Displaying images interesting to a user
US9317533B2 (en) * 2010-11-02 2016-04-19 Microsoft Technology Licensing, Inc. Adaptive image retrieval database
WO2014107193A1 (en) * 2013-01-03 2014-07-10 Board Of Regents, The University Of Texas System Efficiently identifying images, videos, songs or documents most relevant to the user based on attribute feedback
WO2015024002A1 (en) * 2013-08-15 2015-02-19 Emotient Emotion and appearance based spatiotemporal graphics systems and methods

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1648166A2 (en) * 2004-10-18 2006-04-19 Omron Corporation Image pickup unit
JP2007213378A (ja) * 2006-02-10 2007-08-23 Fujifilm Corp 特定表情顔検出方法、撮像制御方法および装置並びにプログラム
JP2008042319A (ja) * 2006-08-02 2008-02-21 Sony Corp 撮像装置および方法、表情評価装置およびプログラム
JP2010103877A (ja) * 2008-10-27 2010-05-06 Sony Corp 画像処理装置、画像処理方法およびプログラム
WO2012176317A1 (ja) * 2011-06-23 2012-12-27 サイバーアイ・エンタテインメント株式会社 画像認識システムを組込んだ関連性検索によるインタレスト・グラフ収集システム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
松川 徹、外2名: "顔表情と向きの投票による観客映像の識別", 情報処理学会研究報告, vol. 第2009巻,第29号, JPN6017031160, 6 March 2009 (2009-03-06), JP, pages 1 - 6, ISSN: 0003776707 *
桜木 美春: "小型・高速化を実現した顔表情推定技術 OKAO Vision表情推定ソフトウエア", 画像ラボ 第24巻 第7号, JPN6018013059, 10 July 2013 (2013-07-10), JP, pages 9 - 15, ISSN: 0003776708 *

Also Published As

Publication number Publication date
US20150036934A1 (en) 2015-02-05
US9443167B2 (en) 2016-09-13
US20160350588A1 (en) 2016-12-01
CN105917305A (zh) 2016-08-31
CN105917305B (zh) 2020-06-26
US10185869B2 (en) 2019-01-22
WO2015017868A1 (en) 2015-02-05

Similar Documents

Publication Publication Date Title
JP2016529612A (ja) 画像情動コンテンツに基づくフィルタ及びシャッター
US11321385B2 (en) Visualization of image themes based on image content
US7327505B2 (en) Method for providing affective information in an imaging system
JP6282769B2 (ja) エンゲージメント値処理システム及びエンゲージメント値処理装置
Bilakhia et al. The MAHNOB Mimicry Database: A database of naturalistic human interactions
EP3491963A1 (en) Systems and methods for identification and virtual application of cosmetic products
US20150313530A1 (en) Mental state event definition generation
JP7454105B2 (ja) 顔画像品質評価方法及び装置、コンピュータ機器並びにコンピュータプログラム
US20120243751A1 (en) Baseline face analysis
CN110956691B (zh) 一种三维人脸重建方法、装置、设备及存储介质
JP7242848B2 (ja) 深層学習を使用して個人用の製品推奨を提供するためのシステムおよび方法
US11430561B2 (en) Remote computing analysis for cognitive state data metrics
Fiss et al. Candid portrait selection from video
CN109784277B (zh) 一种基于智能眼镜的情绪识别方法
CN111183455A (zh) 图像数据处理系统与方法
Girges et al. Categorizing identity from facial motion
US20230290082A1 (en) Representation of users based on current user appearance
Kostoulas et al. Dynamic time warping of multimodal signals for detecting highlights in movies
Ngo et al. Identity unbiased deception detection by 2d-to-3d face reconstruction
US11163822B2 (en) Emotional experience metadata on recorded images
US20200226012A1 (en) File system manipulation using machine learning
EP2905678A1 (en) Method and system for displaying content to a user
JP7206741B2 (ja) 健康状態判定システム、健康状態判定装置、サーバ、健康状態判定方法、及びプログラム
Nguyen et al. Human emotion estimation using wavelet transform and t-ROIs for fusion of visible images and thermal image sequences
Nguyen et al. Fusion of Visible Images and Thermal Image Sequences for Automated Facial Emotion Estimation.

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160622

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160831

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170203

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180416

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180717

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181015

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190228

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20190627