JP5619156B2 - 閲覧者の要因および反応に応じた画像表示制御を行う方法および装置 - Google Patents

閲覧者の要因および反応に応じた画像表示制御を行う方法および装置 Download PDF

Info

Publication number
JP5619156B2
JP5619156B2 JP2012517484A JP2012517484A JP5619156B2 JP 5619156 B2 JP5619156 B2 JP 5619156B2 JP 2012517484 A JP2012517484 A JP 2012517484A JP 2012517484 A JP2012517484 A JP 2012517484A JP 5619156 B2 JP5619156 B2 JP 5619156B2
Authority
JP
Japan
Prior art keywords
image
viewer
images
display
image display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012517484A
Other languages
English (en)
Other versions
JP2012532366A5 (ja
JP2012532366A (ja
Inventor
エレナ エー フェドロブスカヤ
エレナ エー フェドロブスカヤ
カーマンジェラード ノイステェドター
カーマン ジェラード ノイステェドター
Original Assignee
インテレクチュアル ベンチャーズ ファンド 83 エルエルシー
インテレクチュアル ベンチャーズ ファンド 83 エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インテレクチュアル ベンチャーズ ファンド 83 エルエルシー, インテレクチュアル ベンチャーズ ファンド 83 エルエルシー filed Critical インテレクチュアル ベンチャーズ ファンド 83 エルエルシー
Publication of JP2012532366A publication Critical patent/JP2012532366A/ja
Publication of JP2012532366A5 publication Critical patent/JP2012532366A5/ja
Application granted granted Critical
Publication of JP5619156B2 publication Critical patent/JP5619156B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Game Theory and Decision Science (AREA)
  • Multimedia (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像の適応的選択および表示に関し、より具体的には、デジタル媒体フレーム、または電子フレームその他の表示装置等、他の画像表示システムまたは装置内のビデオクリップ等、個別画像と連続画像の両方を含む画像を、閲覧者の感情的および行動的な反応または画像閲覧者の推定された意図または願望を含む、検知された画像閲覧者の存在および反応に応じて選択および表示することに関する。
例えば写真やビデオクリップ等、静止および連続画像の潜在的に極めて膨大な集合から所望の画像を索引付け、分類、保存および選択的に表示するには、共通の且つ長期にわたる問題があった。この問題は、フィルムを用いる方法に比べて殆ど労力をかけずに極めて膨大な数の新規画像を容易に生成できるデジタル画像処理技術の発展に伴い極めて深刻になっている。
従来、画像を識別、分類、索引付けする作業は手作業で、すなわち、人が各々の画像を見て、画像の内容を認識し、それらの内容および画像が得られた場所や時間等、他の何らかの関連する基準に従い画像を分類して索引を付ける。公知のように、この方法は時間を要し、退屈で間違いを犯しやすい上に、画像の識別および分類に用いた基準が変わるたびに繰り返さなければならない。
従来技術には、画像の索引付けおよび分類を容易にする多くの方法および装置が含まれており、それらの例が米国特許第7,236,960号、第5,946,444号、第6,608、563号、および米国特許出願公開第2007/0177805号、第2007/0098303号、第2004/0126038号、第2004/0126038号、並びに他の多くの類似且つ関連する出版物に示されている。従来技術のこれらの方法および装置は全て、画像の内容に基づく基準に従い、画像の集合に含まれる画像の識別、分類、編成または索引付けを目的としている。例えば、典型的な基準として、画像を取得した日付、時刻、場所、および画像の内容に関連する情報が含まれていてよい。次いで画像内容は、例えば画像特徴認識技術等の各種画像解析法、撮像装置、内蔵GPS装置により生成された画像メタデータ、あるいは、例えばRFIDタグ付けまたは音声検知を介して撮像時に画像内の人物または物体から読み込みまたは記録された情報により得ることができる。索引付けされたならば、通常は画像の識別および分類に用いる基準に基づく画像索引内に保存されているかまたは索引を形成する情報に従い画像の集合から画像を選択して、ページまたはアルバム形式の定義等、ユーザーが定めた追加的な基準に従い表示することができる。
しかし、上述の従来技術のこれらの方法および装置は、当初からユーザーまたはサービスプロバイダ、あるいはシステムが処理、特に画像を解析、識別、分類、索引付け、および表示する特定の基準の選択および定義に意識的且つ直接的に関ることを要求とする。この要求は特に、稀にしか画像の集合の識別、分類、編成、および表示を行わないユーザーにとって重荷である。これは、そのようなユーザーは通常、画像の識別、分類、索引付けの基準に、またはそのような基準の効果的な選択や組合せに慣れておらず、しばしば不満足な結果しか得られないためである。
1個以上の集合から画像を表示する際にも関連する問題が存在する。例えば、オンラインサービスからパーソナルコンピュータ、更にはiPod等の機器を含む携帯機器にわたる多くの画像保存および表示システムでは、表示したい画像または画像の組をユーザーが直接的且つ能動的に選択することが要求される。このようなシステムや機器は多くの場合、ユーザーに少なくとも意図的に表示を開始することを要求するか、あるいはユーザーに「スライドショー」における画像の連続表示間隔等、画像の表示を能動的に制御することを要求する。また、新規な表示動作の開始を必要であるか、あるいはデジタル額縁等のある種の装置において、全く新規な画像の組を装置にロードすることが必要なため、多くの場合表示されている画像または画像の組を変更することも困難である。
米国特許第7,174,029号に、個人による表示の効果を改良すべく特定のコンテンツ/プログラムを調整するように一人以上の個人の特徴を検知して情報の自動選択および表示を提供するディスプレイを含む方法および装置が開示されている。デジタルカメラ、運動センサ、フロアマットの感圧センサ、音声センサ、RFIDカード等を含む検知装置を用いて、人口統計、心理学的属性、コホート群、および属性に基づいて、個人毎に安定している本質的に静的な特徴を検知することができる。個人のこれらの固定的な特徴は、例えば、年齢、性別、髭、眼鏡、および身長等である。この参考文献は、これらの静的特徴を用いて個人のニーズおよび各種製品に対する嗜好の違いに関しては個人を分類することができ、従い、恐らくは異なる広告情報プログラムの画像に反応できるであろうと強調している。個人を分類するために複数の静的特徴を用いる場合であっても、その分類に基づく画像表示は、当該個人が表示との対話している間は変化しない。
Burrowsによる2006年の参照文献「Ubiquitous interactive art displays:are they wanted and intuitive?」において、ディスプレイと閲覧者の近接度およびディスプレイに相対的な閲覧者の顔面位置を査定すべくビデオカメラを含む対話型芸術作品展示システムについて記述されている。これらの査定を用いて、閲覧者が芸術作品の展示に近寄るか、立ち止まるか、または離れて行くのに対応して段階的にビデオシーケンスを表示する。この参考文献では、閲覧者の近接度および閲覧者の顔面の検知に基づいて情報を提示している。しかし、個々の閲覧者の特徴、感情、反応、または行動に基づいた情報のカスタマイゼーションは行なわれていない。
これらの参考文献はいずれも、表示されているコンテンツに対する個人の直接的な感情的および行動的な反応だけでなく、ニーズ、嗜好、および異なる種類の情報に反応して処理する能力が、一時的であって。集中的、感情的、精神的、および物理的な状態、特定の活動や対話への関与等の局所的且つ短期的出来事に関係する、個人の外発的および内発的行動条件にかなりの程度依存し得ることを認識も開示もしていない。更に、以下で表示制御と呼ぶ、ペース、繰り返し、方式(静止画、ビデオ、音声、触感)の選択、特殊効果、遷移等の個人化された画像および情報全般を提示する方法および処理も、これら外発的および内発的条件を考慮する必要がある。従い、ユーザーの関心、感情、行動、意図、および社会的且つ環境的事情を認識することで、ユーザーのニーズ、個人的嗜好および関心に反応する対話型システムの有効な特性が得られる。
これらのユーザーの対話的要件を満たす試みにおいて、現行の多くの画像保存および表示システムは、画像をランダムに提示するオプションを提供しているが、そのようなランダム表示はユーザーの現在の精神状態、意図、または閲覧している事情とは無関係な場合がある。個人のある特徴を考慮している場合であっても、そのような特徴は固定的すなわち時間が経っても変化しないため、画像に対する閲覧者の反応を測定する方法が無い。
Comenarez他による米国特許第6,931,147号「Mood based virtual photo album」に、閲覧者の検知された雰囲気に基づく、雰囲気に応じた写真提示を提供するシステムが開示されている。当該方法は、カメラを用いて閲覧者の顔画像を取得し、その表情を雰囲気のリストに関連付けられた表情の予め保存された複数の画像と比較することにより閲覧者の雰囲気を判定するパターン認識アルゴリズムを用いて画像を解析し、閲覧者の表情に関連付けられた感情的な識別に基づいて記憶装置から写真の組を取り出すステップを含んでいる。当該システムは、カメラ、ユーザーインターフェース、閲覧者の雰囲気を判定するために用いる予め選択された顔表情画像の組と比較すべく閲覧者の顔画像を解析するプロセッサ、および閲覧者の雰囲気に対応するデジタル写真の組の表示に用いるディスプレイを含んでいる。
米国特許第7,236,960号明細書 米国特許第5,946,444号明細書 米国特許第6,608、563号明細書 米国特許出願公開第2007/0177805号明細書 米国特許出願公開第2007/0098303号明細書 米国特許出願公開第2004/0126038号明細書 米国特許出願公開第2004/0126038号明細書 米国特許第7,174,029号明細書 米国特許第6,931,147号明細書
Burrows,"Ubiquitous interactive art displays:are they wanted and intuitive?",2006 R.J.Prance、S.Beardsmore−Rust、A.Aydin、C.J.HarlandおよびH.Prance、" Biological and medical applications",Proc.ESA Annual Meeting on Electrostatics 2008,Paper N2 Jones,M.J.;Viola,P.,"Fast Multi−view Face Detection",IEEE Conference on Computer Vision and Pattern Recognition(CVPR),June 2003 A.Savakis,M.Erhard,J.Schimmel,J.Hnatow,"A Multi−Camera System for Real−Time Pose Estimation",Proc.SPIE Defense and Security Symposium,Intelligent Computing:Theory and Applications V,Orlando,FL,April 2007 A.Torralba,A.Oliva,M.Castelhano,J.M.Henderso,"Conextual Guidance of Attention in Natural scenes:The role of Global features on object search"(Psychological Review.VoI 113(4)766−786、Oct,2006) Shimojo et al."Gaze bias both reflects and influences preference",Nature Neuroscience,6,pp.1317−1322,2003 A.Gallagher,A.Blose,T.Chen,"Jointly Estimating Demographics and Height with a Calibrated Camera",IEEE Internatinal Conference on Computer Vision(ICCV),2009
上述のシステムは、画像を提示して判定された閲覧者の雰囲気に従いそれらを更新することにより閲覧者の顔の表情および導き出された雰囲気に反応するものであり、従い、ユーザー属性の要素に全く関連していないか、あるいは性別や年齢等の安定した特徴に反応する検索機構を用いる現在普及している方法およびシステムの制約を克服することを試みている。しかし、当該システムにはいくつかの短所がある。第一に、これは顔の表情から区別される閲覧者の雰囲気に影響を及ぼすことだけを明示的に指向しているため、閲覧者の感情の顔の表情を取得してこれに反応することにその機能および対話モードを限定している。その結果、動作、会話、特定の行為、環境(事情)条件等、他の有意味な状況およびユーザーの行動から適切な表示内容の修正結果が得られない。例えば、ユーザーが予定されている会議の時刻を確認すべく急ぎ足で対話型表示システムに近づいて来て、且つ遅刻するかも知れないと不安な表情を浮かべている場合、そのようなシステムは、犬の画像と前向きな感情の間の所定の対応関係に基づいて例えばチョコレートまたは犬の画像の前向きな感情を引き出す画像を表示することによりユーザーの雰囲気を変える試みを続けるであろう。
第2に、当該システムにおいて感情は、ビデオカメラを介して得られるユーザーの顔画像に基づいて認識される。しかし、他のユーザー関連信号から導き引き出すことができる複数の感情的な反応が存在する。そのような信号は特に、例えばジェスチャー、手および体の姿勢、歩調、音声および発話信号、生物電気信号、および眼球運動に対応している。
第3に、ユーザーの関与および関心を検知および監視する方法が無いため、そのような表示システムは、ユーザーの関与に反応してこれを維持する能力に限定される。例えば、当該システムは、ユーザーがディスプレイを見ていて、システムとの対話に関心があるか否かを推定する手段を有していない。
第4に、当該システムは、異なる閲覧者同士を区別する手段を有していない。このように、異なる家族メンバーが同一画像に対して異なる対話ニーズおよび感情的な反応を有することが認識されない。
例えば、幼い子供やティーンエイジャーは恐らく自分の画像を見ることに肯定的に反応して大いに関心を示すが自分以外の家族の画像を見ることには余り関心を示さないのに対し、大人は自分の子供の画像を楽しむであろう。
本発明は、モダリティの検知、個々のニーズおよび対話意図に合わせた魅力的な対話機能の提供、および所定の時間にわたるユーザーの動作に関連する行動、顔面その他のモダリティの変化に基づいて画像、マルチメディアおよび他の情報提供資料の提示することによるユーザーへの反応を組み合わせることにより、ユーザーの属性および反応を認識する手段に基づいてこれらおよび他の短所を克服するものである。すなわち、マルチメディア、ビデオ、および表示システムが知的な方法で閲覧者の対話意図、精神状態、および属性特徴を適切に考慮できるようにする他の情報プログラムを提示して対話する知的な方法である。
本発明は、従来技術のこれらおよび他の問題に対処して解決策を提供するものである。
本発明は、画像閲覧者の行動的および感情的な反応を通じて表される閲覧者の属性、意図、および動作の態様の検知および解釈に従い画像および情報プログラムを選択および表示する装置、システム、および方法を指向するものであり、画像または情報プログラム表示装置に表示させるべく画像または情報プログラムのライブラリから少なくとも1個の画像または情報プログラムを選択する表示、推定、および制御機構、並びに閲覧者の対話意図および現在表示されている画像または情報プログラムに対する反応を判定して現在表示されている画像に対する閲覧者の反応を識別する応答出力を提供する画像または情報プログラムの制御機構を含んでいる。
閲覧者の意図および反応に従い画像および情報プログラムを表示する本発明は、画像表示装置の閲覧者を潜在的に含む空間領域の閲覧者画像を取得する撮像装置と、閲覧者画像を解析して潜在的閲覧者が表示画面を見ているか、または表示を見て対話するつもりであるかを判定する閲覧者検知機構とを含んでいる。撮像装置は、閲覧者のマルチモーダル画像を取得する音声、運動、近接度、熱、電磁場、および化学センサを含む多数のセンサを含んでいる。本発明は、閲覧者の顔の表情、ボディーランゲージ、行動的表現、ジェスチャー、および注視(閲覧者の電子カレンダ、予定表または同様のデータベースあるいは他の何らかの手段によりシステムが知り得る過去の反応の履歴および将来の行動に関する情報と組み合わせて)から明らかになる閲覧者の行動的、身体的、および感情的な反応並びに嗜好の解析により、閲覧者の属性、対話意図、および現在表示されている画像および/または情報プログラムに対する反応を識別する頭部、顔面、目、およびボディーランゲージに関する行動解析機構を含んでいる。表示する画像または情報プログラムの選択は次いで、示された閲覧者の反応に従い、必要に応じて修正される。
本発明は、画像閲覧者の顔面に表れた反応に従い表示すべき画像を選択する画像表示機構であって、画像表示装置に表示させるべく画像ライブラリから少なくとも1個の画像を選択する表示制御機構と、現在表示されている画像に対する閲覧者の反応を判定して現在表示されている画像に対する閲覧者の反応を識別する応答出力を提供する画像制御機構とを含んでいる。
本発明はまた、画像表示装置に表示させるべく画像ライブラリから少なくとも1個の画像を選択する表示制御機構と、および現在表示されている画像に対する閲覧者の注目度を判定して、現在表示されている画像に対する閲覧者の顔の表情および行動的な反応の少なくとも一方に従い応答出力を提供する画像制御機構とを含んでいて、画像閲覧者の顔の表情および行動的な反応に従い表示すべき画像を選択する画像表示機構にも関する。
本発明は更に、画像表示装置に表示させるべく画像ライブラリから少なくとも1個の画像を選択するステップと、画像閲覧者の顔の表情および注視パターンの解析により現在表示されている画像に対する閲覧者の反応を判定して、現在表示されている画像に対する閲覧者の反応に基づく応答出力を提供するステップとを含む、画像閲覧者の顔の表情および行動的な反応に従い表示すべき画像を選択する方法に関する。
本発明はまた更に、少なくとも1組の画像内の少なくとも1個の画像を保存する画像ライブラリと、画像ディスプレイと、画像ディスプレイに表示させるべく画像ライブラリから少なくとも1個の画像を選択する表示制御機構と、現在表示されている画像に対する閲覧者の反応を判定して、現在表示されている画像に対する閲覧者の反応に従い応答出力を提供する画像制御機構とを含み画像表示装置に関する。
本明細書は特に本発明の主題を指摘して明示的に権利請求する請求項で締め括られているが、本発明は添付の図面と合わせて以下の説明からよりよく理解されよう。
例示的な画像表示装置の構成図である。 画像表示装置の電子部品およびメモリ制御装置の構成図である。 画像表示制御機構の構成図である。 閲覧者の存在検知および閲覧者の注視判定のフロー図である。 注視判定に基づいて注意および閲覧意図を評価するフロー図である。
上で簡潔に述べたたように、本発明は、画像および情報プログラムを適応的に選択および表示する、より具体的には、閲覧者の感情的な反応または、画像または情報プログラムの閲覧者の推定された意図あるいは願望を含む画像閲覧者の検知された存在および反応に従い、サービスプロバイダに接続された電子フレーム、パーソナルコンピュータまたはコンピュータ/端末、フラットパネルディスプレイまたは携帯電話やPDAを含む個人携帯機器のディスプレイ等の画像表示システムまたは装置におけるビデオクリップ等の個別画像および連続画像の両方を含む画像を選択および表示する方法およびシステムに関する。
図1、2に各々、本発明が実装された例示的な画像表示装置10、画像表示装置10に搭載された画像表示システム12、および画像表示システム12に搭載された画像表示制御機構12Cの構成図を示す。図1、2および3に示す例示的な画像表示装置10、画像表示システム12、および画像表示制御機構12Cは、例えば電子デジタル画像フレームディスプレイを含んでいるように表されているが、パーソナルコンピュータ、遠隔サービスプロバイダから接続される端末として機能するパーソナルコンピュータ、ノートブックコンピュータまたはノートパッドあるいはiPodまたは電話型機器等の携帯機器等、静止および連続画像を表示可能な任意のシステムまたは装置を含んでいてよい。
図1に示すように、表示装置10とも称される例示的な画像表示装置10は、例えば、フラット表示画面10Bを支持するフレーム10A、表示画面10Bに接続されていて画像および情報プログラム10Eの1個以上の組10Dを保存して表示画面10Bを介して表示する電子部品およびメモリ装置10C、並びに電子部品およびメモリ装置10Cに接続されていて装置10をユーザーが直接制御すべく所定のデータをデータ記憶媒体に保存可能なローカル制御入力部10Fを含んでいる。表示装置10は更に、サービスプロバイダ10Jへの接続部10I等、電子部品およびメモリ装置10Cに接続されていてリモートノード10Hから画像および情報プログラム10Eをダウンロードする無線モデム10G、電子部品およびメモリ装置10Cに接続されたディスクドライブ装置等のローカル媒体機器10K、または電子部品およびメモリ装置10Cと何らかの形式のパーソナルコンピュータ等のローカル画像ソース10Mとの間の接続部10Lを含んでいてよい。
本発明によれば、表示装置10は、デジタルカメラまたは撮像センサ、またはデジタルカメラの組、あるいは撮像センサ等の撮像装置10Nを更に含んでいて、波長の可視範囲で動作できるかまたは赤外線等のより広範囲の波長を検知できる。また、デジタルカメラは、環境のスペクトル画像を取得可能なマルチまたはハイパースペクトルカメラ、または光スペクトルのいくつかの範囲で動作するデジタルカメラの組合せであってよい。表示装置10は更に、以下に詳述するように、表示装置10を制御すべく電子部品およびメモリ装置10Cに画像およびデータ入力10Oを提供する他の電子および/または化学センサ10Pを含んでいてよい。表示装置10および表示システム12の他の要素、例えば各種方式の電力供給およびそれらの各種の実装が装置10およびシステム12に含まれるが、そのような要素は従来技術では公知であるため更なる説明は割愛することを当業者には理解されよう。
図2を参照するに、電子部品およびメモリ装置10Cは通常、例えば無線モデム10Gを介してリモートノード10Hから、接続部10Iを介してサービスプロバイダ10Jから、ローカル媒体機器10Kから、またはローカル画像ソース10Mから受信した画像および情報プログラム10Eの1個以上の組10Dを保存するメモリ12Aを含んでいる。メモリ装置10Cにはまた、装置10の一般的な動作を制御するプログラムモジュールを通常含むシステム制御機構12Bと、後述するように画像10Eの選択および表示を制御するプログラムモジュールを通常含む画像表示制御機構12Cとが存在する。システムおよび画像表示制御機構12B、12Cはプロセッサ装置12Dを制御し、当該プロセッサ装置12Dは次いでメモリ12、フラット表示画面10B、撮像装置10N、ローカル制御入力10Fの電子および/または化学10Pセンサ等、無線モデム10G、サービスプロバイダ10Jへの接続部10I、ローカル媒体機器10K、および装置10に実装可能なローカル画像ソース10Mの動作を制御する。
プロセッサ装置12D、メモリ12A、フラット表示画面10B、ローカル制御入力10F、無線モデム10G、サービスプロバイダ10Jへの接続部、ローカル媒体機器10K、およびローカル画像ソース10Mを制御するシステム制御機構12Bの構造、機能、および動作は当業者には公知であるため、本明細書ではこれ以上詳しく記述する必要がない。従って以下の説明は、画像および情報プログラム10Eの選択および表示を制御する画像表示制御機構12Cの構造、機能、および動作に焦点を当てる。
従って図3に示すような画像表示制御機構12Cを参照するに、通常は複数のプログラムモジュールを含んでいて、以下に複数のプログラムモジュールを含む前提で図示および議論する画像表示制御機構12Cは、表示すべき画像および情報プログラム10Eの1個以上の組10Dから選択する画像および情報プログラム10Eの画像識別子14Bを含む画像リスト14Aに反応する表示制御機構14を含んでいる。この点に関して、以下に詳述するように、表示制御機構14は、例えば表示されている画像および情報プログラム10Eの異なる潜在的閲覧者、または表示されている画像および情報プログラム10Eの異なるテーマ、話題、または主題に関連付けられた複数の画像リスト14Aを含んでいてよい。
表示制御機構14はまた、選択された画像および情報プログラム10Eをいつどのように表示画面10Bを介して表示するかを制御する表示パラメータ14Dを含む表示定義事項14Cも含んでいてよい。表示パラメータ14Dは、例えば、画像および情報プログラム10Eを規定されたシーケンスで、または無作為に選択して表示するか否か、連続画像間のタイミング、シーケンス内の画像数、フェードイン/フェードアウト、ズームイン/ズームアウト等の画像間遷移、または他の表示遷移、例えば、閲覧者が画面を見ていることが検知された際の周辺明度の調整、識別された閲覧者の嗜好に応じたディスプレイ全体および画像固有の明度および色レンダリングの変更、表示背景および音声付加等の補助表示パラメータを含む、閲覧者の嗜好に合わせたグラフィカルユーザーインターフェースの自動変更等が含まれていてよい。しかし、これらの機構は当業者によく理解されていて、各種のよく知られた方法および製品のいずれを用いても実装可能であるため、表示制御機構14についてこれ以上詳細に記述する必要はない。
しかし、画像表示制御機構12Cは更に、図に示すように、閲覧者の注意、感情的および行動的な反応に従い表示制御機構14を制御して、注意、感情的および行動的信号におけるそのような変化、すなわち一定期間内の閲覧者の一時的な注意、感情的および身体的なジェスチャーまたは動作に対して当該装置およびシステムがどのように反応すべきかを判定する画像制御機構16を含んでいる。これらの特徴は、表示される画像および情報プログラム10Eの選択、例えば表示シーケンス開始等の少なくともいくつかの表示動作パラメータ、色および明度レンダリング、表示シーケンスの種類および間隔等の少なくともいくつかの表示パラメータを動的に適応させる。本発明によれば、画像制御機構16は、画像閲覧者の検知された存在、注意、行動的および感情的な反応、あるいは推定された意図または願望に従い、且つ閲覧者による直接的または意識的な入力が無くてもそのような画像制御パラメータを制御する。
これらの目的のため、画像制御機構16は、典型的には例えば1個以上のデジタルカメラまたは撮像センサ、および音響、運動、振動、温度、電子場、化学または近接度センサ等の電子センサ10Pである撮像装置10Nを含んでいてこれに接続されている。撮像装置10Nはフレーム10Aの上または内部に搭載されていて、閲覧者の身体、顔面、および表示画面10Bに近づいているかまたは観察している閲覧者の特徴を含んでいる確率が高くなるように選択された、フレーム10A前方の空間を検知、視認、および走査する。
図3に示すように、画像制御機構16は撮像装置10Nから閲覧者画像16Aを受け取り、閲覧者画像16Aは後述する解析のため画像制御機構16の画像解析機構16Bへ渡される。上で示したように、閲覧者画像16Aは、閲覧者が実際に存在する場合に表示画面10Bの閲覧者の身体、頭部、顔面および特徴を含む確率が比較的高くなるように選択されているフレーム10A前方の空間の画像である。閲覧者画像16Aは、後述する画像解析装置16Bの動作および閲覧者の外見および画像10Eに対する閲覧者の反応に対する画像制御機構16の望ましい反応時間に応じて周期的または連続的に更新することができる。
図3に示すように、画像解析機構16Bの画像解析手順16Cは、閲覧者画像16Aに対して一連の画像解析動作を繰り返し実行して表示画面10Bを介した画像および/または情報プログラム10Eの表示を連続的且つ動的に制御する。例えば、閲覧者検知処理18Aは現在の閲覧者画像16Aの内容を解析し、通常は閲覧者画像16Aの形態およびスペクトルヒストグラムの解析により、現在の閲覧者画像16A画像が、顔面または頭部として識別可能な画像または領域を含んでいるか否か、およびそれにより表示画面10Bの潜在的な閲覧者が含まれるか否かを判定する。閲覧者検知処理18Aが、所定の確率閾値を超えて閲覧者画像16Aが表示画面10Bの潜在的閲覧者を含んでいるか恐らく含んでいるものと判定したならば、閲覧者識別処理18Aは閲覧者存在20Aを生成する。閲覧者存在出力20Aは次いで、例えば閲覧者画像16A解析処理における次のステップを開始し、この場合も例えば表示画面10Bを介して画像および情報プログラム10Eの初期表示を開始することができる。
閲覧者存在出力20Aを受け取ったならば、顔面識別処理18Bは次いで、現在の閲覧者画像16Aを解析し、この場合も通常は閲覧者画像16Aの形態およびスペクトルヒストグラムの解析により、閲覧者画像16Aが顔面として識別可能な領域または画像を含んでいるか否かを判定する。本処理により、閲覧者画像16Aの領域が顔面を含んでいることを識別したならば、顔面識別処理18Bは、顔面が検知されたことを示し、且つ閲覧者画像16Aの対応する領域を識別する顔面識別出力20Bを生成する。
画像解析手順16Cは更に、閲覧者撮像装置10Nにより撮像された空間領域に存在する閲覧者を個別に識別することを試みる閲覧者識別処理18Cを含んでいて、存在する閲覧者が分かっていれば、1個以上の対応する画像リスト14Aまたは画像識別子14Bとマッチングして、当該閲覧者に関連付けられた画像および/または情報プログラム10Eの表示を開始することができる。当該マッチングまたは関連付けは各種の方法、例えば閲覧者の名前、各種形式の閲覧者ID、閲覧者の外見、閲覧者と所定の関係を有する他人および物品、または他の適当な形式の関連付けにより行うことができる。しかし、画像に対する閲覧者の検知された反応に従い画像の表示を制御するために画像解析手順16Cが閲覧者識別処理18Cを含んでいる必要がないことが認識されよう。
この目的のため、閲覧者識別処理18Cは、顔面識別出力20Bを受け取ったならば、閲覧者画像16Aを解析し、この場合も通常は閲覧者画像16Aの形態およびスペクトルヒストグラムの解析により、閲覧者画像16Aに存在する顔面の固有の特徴を識別する。閲覧者識別処理18Cは次いで、閲覧者画像16Aから識別された顔特徴を、閲覧者顔面ライブラリ16Dに保存されている以前に識別された1個以上の閲覧者顔特徴と比較し、対応する閲覧者識別出力20Cを生成して表示制御機構14に渡すことができる。閲覧者識別処理18Cにより閲覧者画像16Aに特定の閲覧者が存在することが識別されたならば、表示制御機構14は画像リスト14Aを選択するか、または各種の形式および関連付け規則を介して識別された閲覧者に対応する画像または情報プログラム10E、あるいは画像または情報プログラム10Eの1個以上の組10Dを適宜選択すべく画像リスト14A修正することができる。特定の実施形態において、当該関連付けは、閲覧者の外見と画像および/または情報プログラム10Eで表された人物の外見とのマッチング、およびマッチング結果に基づく画像の選択を利用するか、あるいは他の実施形態において、画像および情報プログラム10Eの追加的な解析を実行して、人物、動物被写体、または出来事等、閲覧者と共に画像に最も頻繁に登場する撮像された被写体を発見して閲覧者の関係および嗜好を推定することができる。また、閲覧者に関連付けられた画像および/または情報プログラムを解析して、それらに共通する特徴および特性、例えば色の分布、コントラスト、明度に関する低レベルの特性、屋内/屋外等の撮影場所、例えばビーチ等の場所、地理的位置、ロマンス、スポーツ等のテーマ等を判定して、画像および/または情報プログラムと閲覧者および閲覧者の反応とのマッチングおよび関連付けに対する新たな規則を確立することができる。閲覧者識別処理18Cが、閲覧者画像16A内で識別された顔特徴に合致する特定の閲覧者を識別ができなかった場合、閲覧者識別出力20Cがこの事実を表している。表示制御機構14は次いで、画像リスト14Aを選択するか、あるいは1個以上の無作為または既定値の画像およびまたは情報プログラム表示の10E、あるいは画像およびまたは情報プログラム10Eの組10Dを表示すべく画像リスト14Aを修正することができる。
最後に、閲覧者の検知および識別処理に関して、無線周波数識別(RFID)チップまたは潜在的閲覧者がもたらす他の識別信号等、画像解析以外の方法を用いて閲覧者の存在および識別を判定してもよい点に注意されたい。
閲覧者存在出力20Aはまた、画像理解方法を用いて閲覧者画像16Aに存在する閲覧者の他の顔特徴のうち目および目の瞳孔を含む顔特徴を検知する視線処理18Dにも渡される。視線処理18Dはこの情報を用いて閲覧者が表示画面10Bおよび現在そこに表示されている画像または情報プログラム10Eを実際に見ているか否かを判定し、そうであれば、対応する表示観察出力20Dを生成する。
表示観察出力20Dが、閲覧者が表示画面10Bおよびそこに表示されている画像または情報プログラム10Eを実際に見ていることを示している場合、閲覧者反応処理18Eは顔の表情解析アルゴリズムを用いて、特に表示されている画像および/または情報プログラム10Eに対する閲覧者の感情的な反応を含む、表示されている画像および/または情報プログラム10Eに対する閲覧者の反応を少なくともある程度確認する。表示されている画像および/または情報プログラム10Eに対する閲覧者の感情的な反応に関連する情報は次いで、表示されている画像および/または情報プログラム10Eに関する閲覧者の願望または意図の推定に利用可能な情報を含んでいる。
閲覧者反応処理18Eは、現在表示されている画像および/または情報プログラム10Eに対する閲覧者の反応を表す閲覧者応答出力20Eを生成し、応答出力20Eは表示制御機構14に渡される。表示制御機構14は次いで、適宜現在の画像リスト14Aを修正するか、または表示されている画像および/または情報プログラム10Eに対する閲覧者の反応を最適化する画像および/または情報プログラム10E、あるいは画像または情報プログラム10Eの1個以上の組10Dを選択すべく画像リスト14Aを選択する。
例えば、現在の画像リスト14A内で識別された画像および/または情報プログラム10Eに対する閲覧者の反応が一般に肯定的である場合、表示制御機構14は、現在の画像リスト14A内で識別された画像および/または情報プログラム10Eの表示を続けることができる。閲覧者の反応は、閲覧者の顔特徴、体の位置、頭部および身体の姿勢、ディスプレイへ向かうまたはそこから離れる移動、立ち止まる、歩き回ることを含む動き等のボディーランゲージ特徴、および/または笑い、感嘆、コメント等の動作、音声および言語的反応という行動的表現において検知された一時的な変化と理解され、これらの変化は、例えば、閲覧者の顔の表情が笑いの無い、すなわちニュートラルな表情から微笑み、すなわち幸福な表示に変化するように、通常は閲覧者が画像および/または情報プログラム10Eを見ている所定の極めて短い時間スパン内で生じる。
しかし、閲覧者の反応が所定の時間スパンで否定的な傾向がある場合、表示制御機構14は、例えば、且つ上述のように画像リストに14A関連付けられていて表示制御機構14に保存された閲覧者嗜好情報により恐らくは誘導された、他の画像および/または情報プログラム10E、あるいは画像および/または情報プログラム10Eの別の組10Dを選択することができる。
閲覧者の反応が混合している傾向がある場合、表示制御機構14は、画像リスト14Aを修正して否定的な反応に関連付けられた画像識別子14Bを他の画像識別子14Bと代替することにより、当該閲覧者に関連付けられる新たな画像リスト14Aを効果的に生成することができる。例えば、現在表示されていて好ましい反応を受け取る画像10Eに類似した画像を求めて画像および情報プログラム10E、あるいは画像および情報プログラム10Eの組10Dを探索することにより、新たな画像および/または情報プログラム10E、あるいは画像および/または情報プログラム10Eの組10Dを選択して、好ましくない反応を受け取る画像および/または情報プログラム10Eを代替する処理を実行することができる。当分野でよく知られ且つ理解されているように、類似の画像は、例えば共通または類似の日付、時間、および取得場所、例えば色ヒストグラム、テクスチャまたは領域等の類似の低レベル機能、例えば画像形態に基づく類似の内容、構図または遠近法等の美的属性、およびテーマ、出来事、特定の対象、場所またはシーン等の意味論的属性を備えた画像を求めることにより識別することができる。
最後に、表示すべき画像の選択に関して、上述のように、所与の閲覧者の反応に従う画像の1個以上の組10Dの変更により、当該閲覧者に合わせて調整された画像および/または情報プログラム10Eを含む新たな組10Dが得られる点に注意されたい。また、画像および/または情報プログラム10Eの1個以上の組10Dの内容を変更する必要がなく、その代わり、例えば対応する画像リストの14Aの対応する画像識別子14Bに対応するデータを追加することにより、肯定的、否定的、またはその中間であるかに拘わらず、組10Dの画像10Eに対する閲覧者の反応に着目できる点にも注意されたい。そのような処理から得られた画像リスト14Aは、これにより、1個以上の画像リスト14Aの10E画像に対する閲覧者の反応を集計または調査することができる。また、画像リスト14Aは必ずしも、肯定的な結果を有するリストを提供するためだけに変更される訳ではなく、閲覧者が否定的または中立的な反応を示した画像10Eの組10Dを提供すべく変更することにより、閲覧者が好む画像のリストではなく閲覧者が好まない画像のリストを形成してもよい点に注意されたい。
本発明の別の実施形態において、上述のシステムは、1台のホームに存在するかまたは多くの場所に分散された画像フレーム(1個以上の他の接続されたフレームと対話している閲覧者の存在、感情、行動的反応の検知に基づいて、接続されたフレームの少なくとも一部で内容が異なる)等の接続されたディスプレイのネットワークに組み込むことができる点を理解されたい。例えば、閲覧者が自分の配偶者の画像を見て微笑み、その結果、仕事中の妻の机上に置かれた閲覧者のディスプレイに接続された別のディスプレイ画像フレームが彼女の夫の画像を表示する。このように、上述のシステムは、感情的および行動的反応を「あなたのことを思っている」画像の送信として伝える。
別の関連する実施形態において、本対話型システムは、ユーザーの感情、意図、行動、および事情に応じて多くの動作オプションをユーザーに提示する。例えば、閲覧者がソファーからディスプレイを見ていて疲れている場合(時刻、ユーザーの外見および状況、すなわちソファーから推察されるように)、ディスプレイは最終的な選択のオプションとしてリラックスした余暇的な閲覧のためにいくつかの情報プログラムを提案する。動作オプション実施形態の別の例において、食事中のユーザーが個人用ディスプレイを眺め、システムは、最新のビデオ、電子メールまたは他のメッセージをレビューして、それらの扱い方、すなわち閲覧、反応、削除、保存等の命令を与える。
現在記述しているシステムの他の態様は、複数の画像を直ちに表示し、次いで閲覧者の感情的および行動的な動作に従いそれらを再配置して関心および注意の対象である項目を強調するようにズームするプレゼンテーションモダリティの潜在的能力を含んでいる。知的フレームシステムへの他の種類の反応には以下のものが含まれる。すなわち、近傍での存在の検知に基づいてシステムを休眠状態から復帰させるかまたはコンテンツを変更する、ユーザーに最新媒体/画像メッセージを提示する、媒体アニメーションを提示する、例えば静止画像として表されたビデオの再生および/またはコンピュータグラフィックの追加、注目している閲覧者により多くの特定の被写体を提示すべく被写体のリンクを辿る、音楽の再生または音楽の変更、関心、注意、認識、または理解の確認を遠隔ユーザーに送信する、ユーザーIDの認識に基づいて個人化されたコンテンツを表示する、ユーザーの感情に反応する、画像内の閲覧者を反映させながら、強調、誘導、修正等を行い、画像に関する関心深い情報を提供する、他の人物の画像/マルチメディアコンテンツに接続する、関連する画像およびマルチメディアを持ち込んで媒体強調された対話を提供すべくそこに居る人々の会話をサポートすること等である。
本システムが単に閲覧者の顔特徴の認識および解析以上の機能を組み込むことだけでなく、実際にはその解析に複数の追加的な物理的および行動的特徴および要因、特に表示内容に反応する閲覧者の顔の表情以外の生理的行動との対話および変更を指向していることが本発明の重要な態様である。図4および5に関して議論したように、本システムは顔面の認識に先立って、またはこれと合わせて、ステップ10I、103において閲覧者の存在およびディスプレイに相対的な位置、並びにそのような行動を示す閲覧者の存在および位置の変化を検知して判定する。これは、システムが自身および表示内容を変更して閲覧者の注意およびディスプレイとの対話を継続並びにより良く関与して向上できるように、ユーザーがディスプレイに注目しているか否かの重大な判定における第1のステップである。
本発明の一実施形態において、図4に示すように、本システムは、撮像装置10Nにより、またはビデオ動画、熱、化学品等の1個以上の検知モダリティ10P、および運動検知、すなわち近接度、振動、音声および遠隔電場検知により、個人の存在を検知する。ビデオカメラが、上述のように人物および顔面認識アルゴリズムを用いて人間被写体の存在を検知する。ステップ103におけるディスプレイに相対的な閲覧者の位置の判定は近接度センサにより行うことができ、例えば低周波電磁場を用いる非接触近接度センサを用いて人物の存在を検知することができる。
受動赤外線センサ(PIR)等の運動センサを用いて、人間の閲覧者等、特定の温度を有する赤外線発生源が、壁など他の温度を有する赤外線発生源の前を通過した際に、閲覧者の存在を検知することもできる。また、超音波距離測定器およびレーザー等の距離センサは、前方で最も近くに居る人物または閲覧者の距離を正確に測定することができる。そのようなセンサは一般に、10センチメートル〜7メートルの範囲の距離を測定できる。
本発明はまた、本質的に振動衝撃センサに基づく運動検知および位置特定システムである振動センサの利用も考慮している。当該システムの動作原理は、移動中の人物は全て、床面の異なる位置に配置されたセンサにより検知される表面に沿って伝播する振動音響波を誘発するという事実に基づいている。データ処理アルゴリズムは、ニューラルネットワークの応用に基づいている。本システムはステップ105において、自身は決して気付かれないまま、閲覧者の移動の軌道を定義できるようにする。軌道が重要なのは、閲覧者の速度または軌道の変化に基づく判断処理およびアルゴリズムの開発を可能にするためである。例えば、ディスプレイ平面に垂直な角度で次第にディスプレイに近づく閲覧者は恐らく、ディスプレイに表示されているコンテンツまたは情報に関心を持ち始めているだろう。歩みを遅くすることなくディスプレイ平面に平行な軌道に沿って足早に通り過ぎる閲覧者は恐らく、ディスプレイ上のコンテンツおよび情報に魅力を感じていないだろう。この場合、本システムはステップ109において、情報およびコンテンツを変更または修正して、再び位置および軌道に基づいて閲覧者の存在または最初の関心を検知しようと試みてもよい。しかし、ステップ103、105および107はオプションであって代替的な実施形態では割愛でき、直接ステップ111における顔の特徴判定へ進んでもよいことに注意されたい。この場合、情報およびコンテンツの変更または修正に関るステップ109は、ディスプレイに相対的な閲覧者の位置および表示コンテンツに対する閲覧者の関心の検知を指向する本発明の異なるステップで実行することができる。
音響または音声センサを用いて、ディスプレイの近傍で携帯電話、MP3プレーヤ等の機器を使用しながら行なう歩行や会話等の人間関連の物理的活動を表す音響信号を検知することができる。電場センサを用いて、人間を示す生物電気活動を検知することにより、人間閲覧者の存在を検知することができる。そのようなセンサの例として、心臓の電気的活動または離れた箇所における他の種類の生物信号を検知可能な新型の、低ノイズ、高入力インピーダンスプローブであってよい。このセンサの記述は、R.J.Prance、S.Beardsmore−Rust、A.Aydin、C.J.HarlandおよびH.Pranceによる「Biological and medical applications」,Proc.ESA Annual Meeting on Electrostatics 2008,Paper N2に見られる。
閲覧者の検知および相対位置および/または速度が得られて判定されたならば、本システムは、ユーザーがディスプレイに注目しているか否かをより詳細に判定しようと試みる。表示されている情報にユーザーまたは閲覧者が魅力を感じているかまたは注目しているか否かを判定する好適な方法は、閲覧者の注視がディスプレイに向けられているか否かを検知することである。このために、ステップ111において表示システムの一部をなすビデオカメラその他の撮像装置により閲覧者の顔画像が取得されて顔特徴検知が実行される。人間の顔面を検知する方法は、デジタル画像処理分野で公知である。例えば、画像内で人間の顔を見出す顔面検知方法が以下の記事に記載されている。Jones,M.J.;Viola,P,「Fast Multi−view Face Detection」,IEEE Conference on Computer Vision and Pattern Recognition(CVPR),June 2003。
本システムにより顔面の位置が識別されたならば、顔特徴(例:目、鼻、口等)もまた、例えば口、目および虹彩/強膜境界の位置を特定するテンプレートマッチングによるエネルギー最小化を含む公知の方法を用いて特定することができる。顔特徴はまた、動的形状モデルを用いて、および好適な実施形態において、ステップ113で目、口、鼻、眉等に関する多数の顔特徴点を識別し、輪郭、すなわち閲覧者の目、口および鼻の形状および全体的な顔面構造を定義するアルゴリズムに従い、人間の顔の有効な形状モデルに基づいて顔特徴点を特定する方法を用いて見出すことができる。閲覧者の特徴の輪郭および全体的な顔面構造、顔面の比率および対称データに関する知識に基づいて、ステップ115においてカメラに相対的な、従って表示されているコンテンツに相対的な閲覧者の頭部姿勢を推定することができる。オプションとして、表示されているコンテンツに関連付けられ得る閲覧者の頭部姿勢に何らか変化があれば検知を試みるべく、頭部姿勢の推定に続いてコンテンツの変更および修正を行うことができる。
頭部姿勢は、ヨー、ピッチ、およびロールの3個の角度成分を含んでいる。ヨーは、頭部が垂直軸の回りに右または左に回転した角度を指す。ピッチは、頭部が横軸の回り上または下に向けられた角度を指す。ロールは、頭部が前頭面に垂直な軸の回り右または左に傾けられた角度を指す。ヨーおよびピッチは、顔が向いている方向が前頭面に関して変化するため、面外回転と呼ばれる。対照的にロールは、顔が向いている方向が前頭面に関して変化しないため、面内回転と呼ばれる。
姿勢を推定するモデルに基づく技術は通常、画像から個人の3次元頭部形状を再形成および生成し、次いでステップ117〜121で所定の3次元モデルを用いて頭部の向きを推定する。本システムの好適な実施形態において、最初にエッジ曲線(例:目、唇、および眉の輪郭)を3次元モデル用に定義する。次に、モデル内で定義されたものに対応する曲線を求めて入力画像を探索する。ステップ119においてモデル内のエッジ曲線と入力画像の間の対応関係を確立した後で、各種の姿勢角度を介して3次元モデルを反復的に調整して、入力画像に最も近い曲線適応を示す調整を決定することによりステップ121で頭部姿勢が推定される。最も近い曲線適応を示す姿勢角度が入力画像の姿勢角度であると判定される。このように、複合3次元モデルの閲覧者輪郭は、3次元モデルの精度および閲覧者の識別制度を向上させる更なる姿勢推定のための重要なツールである。
代替的な実施形態において、ステップ113〜121で実行されたモデルに基づく姿勢推定に代えてまたは加えて、外見に基づく方法、特徴に基づく技術、またはいくつかの技術の組合せを姿勢推定のために用いることができる。外見に基づく姿勢推定技術は、個人の頭部を、既知の方向を向いた顔面のテンプレート画像の集合と比較することにより、頭部姿勢を推定することができる。個人の頭部は、それが最も良く似ているテンプレート画像と同じ方向を共有するものと考えられている。他の外見に基づく技術はニューラルネットワークまたはサポートベクトルマシンあるいは他の分類方法を用いて頭部姿勢を分類する。姿勢推定の特徴に基づく方法は、A.Savakis、M.Erhard、J.Schimmel、およびJ.Hnatowによる論文「A Multi−Camera System for Real−Time Pose Estimation」,Proc.SPIE Defense and Security Symposium,Intelligent Computing:Theory and Applications V,Orlando,FL,April 2007に記載されている。当該論文において、両目および口の抽出により人間の生物的制約に付随する幾何学モデルからヨーの推定につながる一方、ピッチおよびロールは小さいと仮定される。
頭部姿勢推定が極めて重要なのは、これをステップ123における注視判定および閲覧者がディスプレイの方を見ているか否かの判定に用いることができためである。これは、注視方向が通常は頭部姿勢と共線方向であるとの観察に基づいている。図5を参照するに、注視判定をより確固たるものにすべくステップ125において目の中心に相対的な瞳孔位置の識別が必要である。閲覧者がディスプレイに表示されたコンテンツおよび情報を見て、当該情報に注目しているか更に判定すべく、ステップ129でディスプレイに表示されている情報および画像との関連で眼球運動のパターンをステップ127である時間にわたり査定する。閲覧者頭部姿勢および瞳孔位置に基づいて推定された眼球運動は、視線の固定として表され、表示されている画像および/または情報プログラムに相対的な位置、それらの空間および時間シーケンス、並びに持続期間に関して解析されて、閲覧者の頭部姿勢およびディスプレイを長時間注視していることで閲覧者がステップ131において情報およびコンテンツに注目していることを示す。代替的な実施形態において、ステップ127における眼球運動のパターンおよび対応する眼球の固定は、ステップ123において頭部姿勢の推定から直接導かれた注視判定から直接に査定することができ、従ってステップ125は割愛される。そのような場合、眼球運動および眼球固定のパターンの査定は近似的であって、頭部姿勢−注視方向の共線性に関する上述の観察に基づいている。
表示されている画像属性および提示された情報提供資料の視覚的特徴に関して視線固定が生じる場所は、閲覧者の視覚的注意に関係している。いくつかの注意制御機構が存在し、一般に、外発的注意および内発的注意と呼ばれる。内発的注意は、表示されている情報およびコンテンツの要素に関係し、タスクおよび/または経験依存であって、通常はオブジェクト駆動型である。
一方、外発的注意は、局所的コントラスト、色、運動等、低レベルの視覚的特徴に支配されていて、一般にコンテンツ自体の主題または閲覧者の目標および動機には無関係であるか影響外にある。これらの低レベルの視覚的特性は、意志的に向けられる内発的注意に比べて非自発的に外発的注意を掴む。外発的注意制御のモデルは、所与の位置の相対的な重要性または活性化を示す顕著性マップを仮定する。そのような顕著性マップは、すなわち色、向き、局所的コントラスト等、低レベルの視覚的特徴のマップを抽出すべく画像解析を介して計算することができる。計算された局所的特徴の強度は次いで、各々の位置について合算され、その結果として顕著性マップが得られる。既存のモデルによれば、顕著性マップは次いで、視野における注意制御を、およびその結果として、視覚的処理がボトムアップ的にしか生じない眼球運動を定義する。しかしボトムアップ的起動は、例えばトップダウンゲイン、または特定の特徴マップの現在のタスクおよび環境における顕著性に対する寄与度を反映および強調する内発的特徴に基づく制御機構のような内発的制御機構により調整される。また、シーンに基づく内発的制御が生じる場合があり、タスクおよび粗い空間的属性またはシーンの概要に基づいて関連する確率が高い視野領域へ注意を導く(例えば、A.Torralba、A.Oliva、M.CastelhanoおよびJ.M.Henderso、「Conextual Guidance of Attention in Natural scenes:The role of Global features on object search」(Psychological Review.VoI 113(4)766−786、Oct,2006を参照されたい)。
視覚的注意は、注視と関係しており、ステップ133で視覚的環境において人が何を見ているかに基づいて解析できる。従って、対話型表示システムを介して得られた注視情報および人が視線固定していた画像の対応する特徴は、画像および情報提供資料のコンテンツと特徴に閲覧者の注意およびその視覚的関心の焦点を推定する基礎を提供する。
人がどこに注目しているかを検知して、その環境に居るユーザーの注意の焦点を推論することに基づく知的表示システムと対話するアルゴリズムは、ユーザーの注視方向を判定するステップ、注視(視線固定)の空間位置およびパターンを判定するステップ、および注視情報に基づいてユーザーがディスプレイに注目しているか否かを判定するステップとして例示することができる。そのような情報により、本システムは、注意、関心、および注意制御の特徴を解釈すべく、固定に関係する現在の視覚的表示情報を解析する更なるステップを行うことができる。この解析に基づいて本システムは、先行ステップに従い表示されている情報またはコンテンツの特徴を変更することができる。
例えばステップ133において、最初に判定された閲覧者の視線固定は、閲覧者が顕著な低レベル特徴である色、コントラスト、エッジに引き付けられていることを示す場合がある。パターンは外発的であって、特定の対象に対する関心または優先的閲覧を示してはいない。潜在的に関心のある対象を見る可能性は時間と共に増大する訳ではなく、表示された対象に人が肯定的に反応することを示す可能性が高いであろう。(例えば、Shimojo他「Gaze bias both reflects and influences preference」、Nature Neuroscience,6,pp.1317−1322,2003を参照されたい)。代替的な実施形態において、感情の顔の表情を用いても、閲覧者の肯定的な反応の欠如を検証することができる。閲覧者の注意を引くために、ステップ135で主題が変更される間、ユーザーに画面を見続けさせるべくディスプレイの情報およびコンテンツ並びに特徴が極めて顕著な特徴と共に提示される。
別の実施形態において、閲覧者の視線固定は、注意制御の主に内発的性質を露呈し、コンテンツ内の特定の提示対象に集中していると判定されており、単にボトムアップ型の顕著特徴に従う訳ではない。これは、表示された主題および対象にユーザーが関心を持っていると解釈することができる。ステップ137において同じ対象よび主題を有するより多くの画像を示すことができるか、または閲覧を支援して閲覧者の注目度相当に応答すべく表示または提示特徴を変更することができる。代替的に、閲覧者の閲覧意図および感情的な反応をより正確に判定すべく閲覧者の視線固定解析と合わせて顔の表情認識を利用することができる。
本システムは、継続的に対話を進めるような仕方でコンテンツを変更することにより閲覧者の注目度相応に応答する。表示されているプログラムにそのような対話性と関連コンテンツおよび情報を盛り込むことでユーザー関心が高まり、より効果的な情報処理が可能になることが知られている。その鍵は、どの情報が関連性を有するかの決定にある。画像および文脈理解機能を有する閲覧者検知システムは、関連性を有する情報を提供し、次いで当該情報を用いて目的とするコンテンツ変更および適切な対話を行う。
本発明を利用可能にするいくつかの技術を自動的に用いることができる。例えば、一実施形態において、複数の情報プログラムが大型ディスプレイ上に同時に提示される。それらのプログラムの一つに対する閲覧者の嗜好が閲覧者の注視、体のジェスチャー、および動作により反映され、表示されているコンテンツおよび情報を再配置することにより、閲覧者ユーザーが最も関心を示しているかまたは意識を集中させているプログラムコンテンツをディスプレイの中央位置または被写体に最も近い位置に移すように確定される。他のプログラムコンテンツは、依然として見える状態に保つことができるが、閲覧者の嗜好に応じて相対的なサイズまたは位置が調整される。例えば閲覧者が注視しているコンテンツおよび情報を強調表示する等、ユーザーの関心を高める他の手段を用いてもよい。ユーザーの関心相当に応答すべく表示されている情報を再配置するより複雑な方法は、異なるクラスのユーザーにういて観察された、情報処理において実験的に示された嗜好に従いコンテンツを適応させることである。例えば性差に関して、女性の閲覧者は、視覚的環境内でランドマーク等の局所的特徴に自分の注意を集中させることにより空間環境内で自身を方向付ける傾向があるのに対し、男性は大域的環境を評価して、その大域的構造により注意を払う傾向があることが分かっている。従って、閲覧者の性別が検知されたならば、閲覧者にとって好都合な情報処理能力に従い表示されている情報の視覚的設計およびコンテンツを再配置するために判定を行ってその提示を保証することができる。閲覧者の性別は、例えば、デジタルカメラまたは撮像センサにより取得された閲覧者の画像を、A.Gallagher、A.Blose、T.Chen「Jointly Estimating Demographics and Height with a Calibrated Camera」、IEEE Internatinal Conference on Computer Vision(ICCV)、2009に記載されたアルゴリズムを用いて解析することにより判定することができる。
本システムで測定されたこれらの追加的な物理および環境的特徴もまた、視覚的コンテンツおよび情報に対する閲覧者の関心レベルの変更の基礎になり得る。表示されている任意の情報プログラムの視覚的コンテンツは、例えば、情報プログラムのコンテンツに関する関心レベルが分かっている閲覧者について確定されている所定の経路に沿って閲覧者の注視を誘導すべく局所的領域の明度および色を変えることによりこれらの局所的領域を強調する等の空間および時間的な変更に従い変更することができる。
多くのオンライン広告会社はバナーやポップアップウインドウを用いて、閲覧者の注意を引く目的で画面の特定の位置へユーザーの注視を引き付ける。しかしデータが示すように、ユーザーまたは閲覧者はこれに魅力を感じず、却って鬱陶しいと思うため、この技術は往々にして逆効果をもたらす。同時に、心理実験によるそのようなデータは、うまくまたは適切にコンテンツおよび情報の変更に反応した前の閲覧者または閲覧者群の注視を繰り返すように閲覧者の注視を誘導することによりこの問題を解決する可能性があることを示している。
閲覧者の関心レベルのそのような変更方法は以下のように機能する。本システムは、ステップ123〜135、137のように、情報プログラムに対する目標関心レベルを示す第1の閲覧者に対応する注視および眼球運動のパターンを取得する。本システムは次いで、情報プログラムに関心を持つ可能性がある任意の閲覧者の注視を誘導すべくステップ139、141において注視パターンアルゴリズムを生成する。ステップ143において第2の閲覧者を識別した後で、当該アルゴリズムはステップ145において、情報プログラムに対する目標関心レベルを有する第1の閲覧者の注視走査経路に対応する、表示されている情報コンテンツの一部を強調表示すべく、特定の表示領域を逐次強調するステップからなる。各々の連続する閲覧者に関連付けられた注視パターンを用いて、各閲覧者の後で統計解析および各閲覧者の顕著性な特徴との比較に基づいてアルゴリズムを更新および変更することができる。このように、最も関連性を有する情報およびコンテンツを閲覧者に提示するために、異なる仕方で分類された閲覧者に応用すべく多くの異なるアルゴリズムを開発することができる。
本発明の別の態様において、本システムは、閲覧者を記述する要素を組み込むことによりディスプレイ上のコンテンツまたは情報を変更することができる。心理実験から、閲覧者はなじみのある画像をより好むことが知られている。なじみのある画像はまた、閲覧者により長く見られる傾向がある。他の実験では、閲覧者が自分および自分に近い親戚の顔面に似た顔を好むことが示されている。政治指導者でさえも、当該指導者の顔(群)が閲覧者の顔とモーフィングされていれば、より有能で信頼できるとの判断を閲覧者から下される傾向がある。従って、情報プログラムは、なじみのある画像およびマルチメディア資料を用いていれば、所望の影響を及ぼしながら、より効率的に閲覧者の注意、関心、および好意的な批評を誘発および維持できるようになることが期待される。
従って、要約すれば、画像の適応的表示を行う本発明の方法およびシステムは、画像に対する閲覧者の感情的および他の反応を判定すべく閲覧者の特徴の顔の表情解析により、画像に対する閲覧者の反応を連続的に判定し、これに基づきユーザーに表示されている画像の組を適応させる。
本発明について、特定の好適な実施態様を具体的に参照しながら詳述してきたが、本発明の主旨と範囲内で変型および変更が可能である点を理解されたい。
10 画像表示装置、10A フレーム、10B 表示画面、10C メモリ装置、10D 画像の組、10E 画像、10F ローカル制御入力、10G 無線モデム、10H リモートノード、10I 接続部、10J サービスプロバイダ、10K ローカル媒体機器、10L 接続部、10M ローカル画像ソース、10N 撮像装置、10O 画像入力、10P センサ、12 画像表示システム、12A メモリ、12B システム制御機構、12C 画像表示制御機構、12D プロセッサ装置、14 表示制御機構
、14A 画像リスト、14B 画像識別、14C 表示定義事項、14D 表示パラメータ、16 画像制御機構、16A 閲覧者画像、16B 画像解析機構、16C 画像解析手順、16D 閲覧者顔面ライブラリ、18A 閲覧者検知処理、18B 顔面識別処理、18C 閲覧者識別処理、18D 視線処理、18E 閲覧者反応処理、20A 閲覧者存在出力、20B 顔面識別出力、20C 閲覧者識別出力、20D 表示観察出力、20E 閲覧者応答出力。

Claims (17)

  1. 表示された画像に対する閲覧者の注意すべき特性に従い、画像表示装置上での画像の表示を制御するための画像表示システムであって、
    前記閲覧者の移動の軌道を検知し、
    前記閲覧者の頭部姿勢を推定し、少なくとも前記頭部姿勢に基づいて前記閲覧者の眼球運動を推定することにより視線固定を判定し、
    前記画像表示装置上に現在表示されている画像に対する前記閲覧者の注意すべき特性を判定し、
    前記注意すべき特性を外因性の注意または内因性の注意として分類し、
    前記注意すべき特性が外因性の注意であるか、または内因性の注意であるかに応じて、前記画像表示装置上の一つまたはそれ以上の画像の表示を制御する、
    画像表示システム。
  2. 前記画像表示システムは、
    前記画像表示装置の閲覧者を潜在的に含む空間領域内で少なくとも1個の閲覧者画像を取得する撮像装置と、
    前記少なくとも1個の閲覧者画像を解析して、画像表示画面の閲覧者が前記空間領域内に存在するか否かを判定する閲覧者検知工程と、
    前記空間領域内に存在する閲覧者が前記画像表示画面を注視しているか否かを判定する視線処理工程と、を含み
    前記閲覧者の注意すべき特性は、前記空間領域内に存在する前記閲覧者が前記画像表示画面を注視しているか否かの指標を含んで判定される、
    請求項1に記載の画像表示システム。
  3. 前記画像表示システムは、
    前記画像表示画面を注視している閲覧者の注視パターンを判定するための注視パターン解析工程を含み、
    前記閲覧者の注意すべき特性は、前記判定された注視パターンを含む、
    請求項1に記載の画像表示システム。
  4. 前記一つまたはそれ以上の画像の表示は、
    少なくとも一つの画像を変更するか、
    連続する画像の前記表示間のタイミングを制御するか、
    画像間の移行を制御するか、
    一式の画像の表示シーケンスを制御するか、
    音響伴奏を付加するか、または
    画像ライブラリからの1つの画像もしくは一式の画像の選択を制御するか、
    によって制御される、
    請求項1に記載の画像表示システム。
  5. 前記閲覧者の注意すべき特性は、
    前記閲覧者の移動の軌道、前記閲覧者の顔特徴、ボディランゲージの特性、音声もしくは言葉上の反応、注視パターン、または、これらの組み合わせに基づいて判定される、
    請求項1に記載の画像表示システム。
  6. 前記画像表示システムは、さらに
    少なくとも一人のユーザーの顔特徴を保管するための閲覧者顔面ライブラリと、
    前記閲覧者の画像から閲覧者の顔特徴を抽出し、前記閲覧者の画像からの前記閲覧者の顔特徴を、前記少なくとも一人のユーザーの顔特徴と比較する閲覧者特定工程と、を含み
    前記閲覧者特定工程は、前記閲覧者の画像から抽出された前記閲覧者の顔特徴と所定のユーザーの顔特徴との間の対応を特定し、
    前記一つまたはそれ以上の画像の表示は、前記所定のユーザーに関する画像セットから、表示されるべき少なくとも一つの画像を選択することによって制御される、
    請求項2に記載の画像表示システム。
  7. 前記所定のユーザーに関する画像セットは、既定の手段において前記所定のユーザーと一致する画像化された対象を含む、
    請求項6に記載の画像表示システム。
  8. 前記所定のユーザーに関する個人化されたコンテンツが、前記画像表示装置上に表示される、
    請求項7に記載の画像表示システム。
  9. コンピューターにより、閲覧者の注意すべき特性に従い、画像の表示を制御するための方法であって、
    前記閲覧者の移動の軌道を検知するステップと、
    前記閲覧者の頭部姿勢を推定し、少なくとも前記頭部姿勢に基づいて前記閲覧者の眼球運動を推定することにより視線固定を判定するステップと、
    画像表示装置上に画像ライブラリからの少なくとも一つの画像を表示するステップと、
    前記表示された少なくとも一つの画像に対して前記閲覧者の注意すべき特性を判定するステップと、
    前記注意すべき特性を外因性の注意または内因性の注意として分類するステップと、
    前記注意すべき特性が外因性の注意であるか、または内因性の注意であるかに応じて、前記画像表示装置上の一つまたはそれ以上の画像の表示を制御するステップと、
    を含む方法。
  10. 前記画像表示装置上の一つまたはそれ以上の画像の表示の前記制御は、
    前記閲覧者によって閲覧されている表示された画像の解析に対応している、
    請求項9に記載の方法。
  11. 前記方法は、さらに
    前記画像表示装置の閲覧者を潜在的に含む空間領域内で少なくとも1個の閲覧者画像を取得するステップと、
    前記少なくとも1個の閲覧者画像を解析して、前記画像表示画面の閲覧者が前記空間領域内に存在するか否かを判定するステップと、
    前記空間領域が顔面として識別可能な領域を含むか否かを判定するステップと、
    前記空間領域内に存在する閲覧者が前記画像表示画面を観察しているか否かを判定するステップと、
    前記空間領域内に存在する前記閲覧者の注視パターンを判定し、前記画像表示画面を観察するステップと、を含み
    前記画像表示装置上の前記一つまたはそれ以上の画像の表示の前記制御は、さらに、前記判定された注視パターンに対応している、
    請求項9に記載の方法。
  12. 前記一つまたはそれ以上の画像の表示の前記制御は、
    前記画像ライブラリからの画像の選択を、前記判定された注視パターンに従って変更するステップ、
    を含む請求項9に記載の方法。
  13. 前記注意すべき特性の外因性の注意または内因性の注意として前記分類は、外因性の注意または内因性の注意に係るデータ保管媒体に保管された既定のデータに従って行われる、
    請求項11に記載の方法。
  14. 前記一つまたはそれ以上の画像の表示は、
    少なくとも一つの画像を変更するか、
    連続する画像の前記表示間のタイミングを制御するか、
    画像間の移行を制御するか、
    一式の画像の表示シーケンスを制御するか、
    音響伴奏を付加するか、または
    画像ライブラリから1つの画像もしくは一式の画像の選択を制御するか、
    によって制御される、
    請求項9に記載の方法。
  15. 前記一つまたはそれ以上の画像の表示の前記制御は、前記注意すべき特性に従って現在の画像に対する既定の関係を有する画像を選択するステップを含む、
    請求項9に記載の方法。
  16. 前記方法は、さらに
    前記少なくとも一人のユーザーの顔特徴を保管するために閲覧者顔面ライブラリにアクセスするステップと、
    前記閲覧者の画像から閲覧者の顔特徴を抽出し、前記閲覧者の画像からの前記閲覧者の顔特徴を、前記少なくとも一人のユーザーの前記顔特徴と比較することによってユーザーを特定するステップと、
    前記特定されたユーザーに関する少なくとも一つの次の画像を選択または変更するステップと、
    を含む請求項9に記載の方法。
  17. 前記方法は、さらに
    前記ユーザーと既定の関係を有する画像の対象に対応する画像セットから、表示されるべき画像を選択するステップ、
    を含む請求項16に記載の方法。
JP2012517484A 2009-06-30 2010-06-16 閲覧者の要因および反応に応じた画像表示制御を行う方法および装置 Expired - Fee Related JP5619156B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/495,411 US8154615B2 (en) 2009-06-30 2009-06-30 Method and apparatus for image display control according to viewer factors and responses
US12/495,411 2009-06-30
PCT/US2010/001724 WO2011008236A1 (en) 2009-06-30 2010-06-16 Method and apparatus for image display control according to viewer factors and responses

Publications (3)

Publication Number Publication Date
JP2012532366A JP2012532366A (ja) 2012-12-13
JP2012532366A5 JP2012532366A5 (ja) 2013-08-01
JP5619156B2 true JP5619156B2 (ja) 2014-11-05

Family

ID=42938230

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012517484A Expired - Fee Related JP5619156B2 (ja) 2009-06-30 2010-06-16 閲覧者の要因および反応に応じた画像表示制御を行う方法および装置

Country Status (5)

Country Link
US (1) US8154615B2 (ja)
EP (1) EP2449514A1 (ja)
JP (1) JP5619156B2 (ja)
CN (1) CN102473264B (ja)
WO (1) WO2011008236A1 (ja)

Families Citing this family (136)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5070990B2 (ja) * 2007-08-21 2012-11-14 ソニー株式会社 情報提示装置及び情報提示方法
JP5402018B2 (ja) * 2009-01-23 2014-01-29 株式会社ニコン 表示装置及び撮像装置
KR101816113B1 (ko) * 2009-07-16 2018-01-08 블루핀 랩스, 인코포레이티드 컴퓨터 실행 방법, 시스템 및 컴퓨터 판독 가능 매체
JP4900739B2 (ja) * 2009-09-04 2012-03-21 カシオ計算機株式会社 電子写真立て、その制御方法及びプログラム
US10013641B2 (en) * 2009-09-28 2018-07-03 Oracle International Corporation Interactive dendrogram controls
US10552710B2 (en) 2009-09-28 2020-02-04 Oracle International Corporation Hierarchical sequential clustering
US9879992B2 (en) * 2009-12-29 2018-01-30 Trimble Inc. Virtual perspective center aligned with measurement center
US9229227B2 (en) 2010-02-28 2016-01-05 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
US9341843B2 (en) 2010-02-28 2016-05-17 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a small scale image source
US9097891B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment
US9129295B2 (en) 2010-02-28 2015-09-08 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear
US9097890B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc Grating in a light transmissive illumination system for see-through near-eye display glasses
US9223134B2 (en) 2010-02-28 2015-12-29 Microsoft Technology Licensing, Llc Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
KR20130000401A (ko) 2010-02-28 2013-01-02 오스터하우트 그룹 인코포레이티드 대화형 머리­장착식 아이피스 상의 지역 광고 컨텐츠
US8488246B2 (en) 2010-02-28 2013-07-16 Osterhout Group, Inc. See-through near-eye display glasses including a curved polarizing film in the image source, a partially reflective, partially transmitting optical element and an optically flat film
US9182596B2 (en) 2010-02-28 2015-11-10 Microsoft Technology Licensing, Llc See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light
US9285589B2 (en) 2010-02-28 2016-03-15 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered control of AR eyepiece applications
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US9759917B2 (en) 2010-02-28 2017-09-12 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered AR eyepiece interface to external devices
US9366862B2 (en) 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
US9134534B2 (en) 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
US9091851B2 (en) 2010-02-28 2015-07-28 Microsoft Technology Licensing, Llc Light control in head mounted displays
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
WO2011148213A1 (en) * 2010-05-26 2011-12-01 Sony Ericsson Mobile Communications Ab Adaptive media object reproduction based on social context
US10398366B2 (en) * 2010-07-01 2019-09-03 Nokia Technologies Oy Responding to changes in emotional condition of a user
US20120011477A1 (en) * 2010-07-12 2012-01-12 Nokia Corporation User interfaces
JP2012073998A (ja) * 2010-08-31 2012-04-12 Casio Comput Co Ltd 画像配信システム、画像表示装置、画像配信サーバー、及びプログラム
EP2431919A1 (en) * 2010-09-16 2012-03-21 Thomson Licensing Method and device of determining a saliency map for an image
US8760517B2 (en) 2010-09-27 2014-06-24 Apple Inc. Polarized images for security
US8736660B2 (en) * 2011-03-14 2014-05-27 Polycom, Inc. Methods and system for simulated 3D videoconferencing
EP2693348A4 (en) * 2011-03-30 2014-12-03 Nec Corp DATA-SAVING ESTIMATION DEVICE, DATA-PARENT ESTIMATING METHOD, AND RECORDING MEDIUM
US9026476B2 (en) * 2011-05-09 2015-05-05 Anurag Bist System and method for personalized media rating and related emotional profile analytics
US20120287031A1 (en) 2011-05-12 2012-11-15 Apple Inc. Presence sensing
CN103534664B (zh) * 2011-05-12 2016-08-31 苹果公司 存在感测
US20130035054A1 (en) * 2011-07-14 2013-02-07 Faceon Mobile Phone with multi-portal access for display during incoming and outgoing call
US8966512B2 (en) 2011-07-22 2015-02-24 American Megatrends, Inc. Inserting advertisement content in video stream
WO2013032955A1 (en) * 2011-08-26 2013-03-07 Reincloud Corporation Equipment, systems and methods for navigating through multiple reality models
JP5106669B1 (ja) * 2011-09-29 2012-12-26 株式会社東芝 画像情報処理装置及び画像情報処理方法
AU2011253977B2 (en) * 2011-12-12 2015-04-09 Canon Kabushiki Kaisha Method, system and apparatus for selecting an image captured on an image capture device
US8922481B1 (en) 2012-03-16 2014-12-30 Google Inc. Content annotation
US9519640B2 (en) * 2012-05-04 2016-12-13 Microsoft Technology Licensing, Llc Intelligent translations in personal see through display
US9317832B2 (en) * 2012-06-19 2016-04-19 Federal Express Corporation System and methods for providing user services at remote locations
US20140007148A1 (en) * 2012-06-28 2014-01-02 Joshua J. Ratliff System and method for adaptive data processing
US9014509B2 (en) * 2012-06-29 2015-04-21 Intellectual Ventures Fund 83 Llc Modifying digital images to increase interest level
US9014510B2 (en) 2012-06-29 2015-04-21 Intellectual Ventures Fund 83 Llc Method for presenting high-interest-level images
US20140002644A1 (en) * 2012-06-29 2014-01-02 Elena A. Fedorovskaya System for modifying images to increase interestingness
US10890965B2 (en) 2012-08-15 2021-01-12 Ebay Inc. Display orientation adjustment using facial landmark information
CN102842327A (zh) * 2012-09-03 2012-12-26 深圳市迪威视讯股份有限公司 一种多媒体数据流的剪辑方法及系统
WO2014039337A1 (en) * 2012-09-07 2014-03-13 Tractus Corporation Methods, apparatus, and systems for viewing multiple-slice medical images
CN102917120A (zh) * 2012-09-20 2013-02-06 北京百纳威尔科技有限公司 移动终端显示信息的刷新方法及移动终端
KR101479471B1 (ko) 2012-09-24 2015-01-13 네이버 주식회사 사용자의 시선에 기초하여 광고를 제공하는 방법 및 시스템
US9143823B2 (en) 2012-10-01 2015-09-22 Google Inc. Providing suggestions for optimizing videos to video owners
US9019174B2 (en) 2012-10-31 2015-04-28 Microsoft Technology Licensing, Llc Wearable emotion detection and feedback system
US20140118240A1 (en) * 2012-11-01 2014-05-01 Motorola Mobility Llc Systems and Methods for Configuring the Display Resolution of an Electronic Device Based on Distance
US20140164988A1 (en) * 2012-12-06 2014-06-12 Microsoft Corporation Immersive view navigation
US9806934B2 (en) * 2012-12-10 2017-10-31 Foneclay, Inc Automated delivery of multimedia content
US9060162B2 (en) * 2012-12-21 2015-06-16 Ati Technologies Ulc Providing multiple viewer preferences on a display device
WO2014101165A1 (en) * 2012-12-31 2014-07-03 Thomson Licensing Method and system for determining concentration level of a viewer of displayed content
CN104007807B (zh) * 2013-02-25 2019-02-05 腾讯科技(深圳)有限公司 获取用户端使用信息的方法及电子设备
CN103247282B (zh) * 2013-04-24 2015-03-25 天津三星电子有限公司 一种显示终端屏幕亮度的控制方法及其显示终端
JP2014217704A (ja) * 2013-05-10 2014-11-20 ソニー株式会社 画像表示装置並びに画像表示方法
CN103425247A (zh) * 2013-06-04 2013-12-04 深圳市中兴移动通信有限公司 一种基于用户反应的操控终端及其信息处理方法
US10074199B2 (en) 2013-06-27 2018-09-11 Tractus Corporation Systems and methods for tissue mapping
CN103365657B (zh) 2013-06-28 2019-03-15 北京智谷睿拓技术服务有限公司 显示控制方法、装置及包括该装置的显示设备
CN103390143B (zh) * 2013-06-28 2017-03-15 北京智谷睿拓技术服务有限公司 显示控制方法、装置及包括该装置的显示设备
JP6307807B2 (ja) 2013-07-29 2018-04-11 オムロン株式会社 プログラマブル表示器、表示制御方法、およびプログラム
US10820293B2 (en) * 2013-10-10 2020-10-27 Aura Home, Inc. Digital picture frame with improved display of community photographs
CN103593650B (zh) * 2013-10-28 2017-01-25 浙江大学 一种基于表情识别系统生成艺术图像的方法
AU2013273829A1 (en) * 2013-12-23 2015-07-09 Canon Kabushiki Kaisha Time constrained augmented reality
CN104914975A (zh) * 2014-03-10 2015-09-16 鸿富锦精密工业(武汉)有限公司 电脑节能系统及方法
US9639231B2 (en) * 2014-03-17 2017-05-02 Google Inc. Adjusting information depth based on user's attention
US20170180616A1 (en) * 2014-04-02 2017-06-22 Fst21 Ltd Light indication device for face recognition systems and method for using same
US9367740B2 (en) * 2014-04-29 2016-06-14 Crystal Morgan BLACKWELL System and method for behavioral recognition and interpretration of attraction
US9778628B2 (en) 2014-08-07 2017-10-03 Goodrich Corporation Optimization of human supervisors and cyber-physical systems
US20160055370A1 (en) * 2014-08-21 2016-02-25 Futurewei Technologies, Inc. System and Methods of Generating User Facial Expression Library for Messaging and Social Networking Applications
US10223998B2 (en) 2015-03-18 2019-03-05 The Painted City Incorporated Dynamic content analysis and engagement system for shared displays
US9852355B2 (en) * 2015-04-21 2017-12-26 Thales Avionics, Inc. Facial analysis for vehicle entertainment system metrics
CN107615236A (zh) * 2015-06-01 2018-01-19 华为技术有限公司 多媒体处理方法及装置
JP6553418B2 (ja) * 2015-06-12 2019-07-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 表示制御方法、表示制御装置及び制御プログラム
US9600715B2 (en) * 2015-06-26 2017-03-21 Intel Corporation Emotion detection system
US9474042B1 (en) * 2015-09-16 2016-10-18 Ivani, LLC Detecting location within a network
US11533584B2 (en) * 2015-09-16 2022-12-20 Ivani, LLC Blockchain systems and methods for confirming presence
US10382893B1 (en) 2015-09-16 2019-08-13 Ivani, LLC Building system control utilizing building occupancy
US10665284B2 (en) 2015-09-16 2020-05-26 Ivani, LLC Detecting location within a network
US10321270B2 (en) 2015-09-16 2019-06-11 Ivani, LLC Reverse-beacon indoor positioning system using existing detection fields
US11350238B2 (en) 2015-09-16 2022-05-31 Ivani, LLC Systems and methods for detecting the presence of a user at a computer
CN105279242A (zh) * 2015-09-29 2016-01-27 浪潮(北京)电子信息产业有限公司 一种个性化推荐方法与系统
CN106562792B (zh) * 2015-10-08 2021-08-06 松下电器(美国)知识产权公司 信息提示装置的控制方法和信息提示装置
JP5925373B1 (ja) * 2015-10-09 2016-05-25 Lykaon株式会社 コミュニケーション支援システム
CN105244008B (zh) * 2015-11-09 2017-12-15 深圳市华星光电技术有限公司 一种显示设备及其亮度调节方法
JP6158903B2 (ja) * 2015-12-10 2017-07-05 ヤフー株式会社 情報表示プログラム、情報表示装置、情報表示方法及び配信装置
CN105956174B (zh) * 2016-05-24 2019-10-29 甘肃百合物联科技信息有限公司 一种构建记忆链条及将其用于加强记忆的方法
JP6966443B2 (ja) * 2016-07-19 2021-11-17 富士フイルム株式会社 画像表示システム、並びにヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム
US20180082338A1 (en) * 2016-09-22 2018-03-22 International Business Machines Corporation Cognitive advertisement optimization
US10979472B2 (en) * 2016-09-29 2021-04-13 International Business Machines Corporation Dynamically altering presentations to maintain or increase viewer attention
US10950052B1 (en) 2016-10-14 2021-03-16 Purity LLC Computer implemented display system responsive to a detected mood of a person
EP3512804A1 (en) 2016-10-25 2019-07-24 Nextchem S.r.l. A process and relating apparatus to make pure hydrogen from a syngas originated from wastes gasification
JP6996514B2 (ja) * 2016-10-26 2022-01-17 ソニーグループ株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
US10657718B1 (en) * 2016-10-31 2020-05-19 Wells Fargo Bank, N.A. Facial expression tracking during augmented and virtual reality sessions
WO2018134853A1 (en) 2017-01-17 2018-07-26 Processi Innovativi Srl A process and relating apparatus to make pure bio- methanol from a syngas originated from wastes gasification
CN108338798B (zh) * 2017-01-25 2020-11-06 北京数字新思科技有限公司 一种注意力测量方法和系统
CN106911962B (zh) * 2017-04-01 2020-03-13 上海进馨网络科技有限公司 基于场景的移动视频智能播放交互控制方法
US10880086B2 (en) 2017-05-02 2020-12-29 PracticalVR Inc. Systems and methods for authenticating a user on an augmented, mixed and/or virtual reality platform to deploy experiences
TWI632811B (zh) * 2017-07-31 2018-08-11 中華電信股份有限公司 Film and television interactive system and method
WO2019058496A1 (ja) * 2017-09-22 2019-03-28 株式会社電通 表情記録システム
US10817594B2 (en) 2017-09-28 2020-10-27 Apple Inc. Wearable electronic device having a light field camera usable to perform bioauthentication from a dorsal side of a forearm near a wrist
JP6319506B1 (ja) * 2017-11-02 2018-05-09 オムロン株式会社 評価装置、評価システム、車両、およびプログラム
CN108174293A (zh) * 2017-12-01 2018-06-15 咪咕视讯科技有限公司 信息处理方法及装置、服务器及存储介质
CN108632671A (zh) * 2018-03-29 2018-10-09 北京恒信彩虹信息技术有限公司 一种推荐方法及系统
JP7204283B2 (ja) * 2018-04-02 2023-01-16 積水ハウス株式会社 雰囲気推測装置およびコンテンツの提示方法
US12020505B1 (en) 2018-05-10 2024-06-25 Wicket, Llc System and method for facial recognition accuracy
US11544965B1 (en) 2018-05-10 2023-01-03 Wicket, Llc System and method for access control using a plurality of images
US11010597B1 (en) 2018-05-10 2021-05-18 Ism Connect, Llc Entry prevention of persons of interest from venues and events using facial recognition
US11949943B2 (en) 2018-07-16 2024-04-02 Arris Enterprises Llc Gaze-responsive advertisement
GB2576910B (en) * 2018-09-06 2021-10-20 Sony Interactive Entertainment Inc User profile generating system and method
IT201800009364A1 (it) 2018-10-11 2020-04-11 Nextchem Srl “metodo ed apparato per produrre bio-metano da rifiuti, preferibilmente rifiuti industriali od urbani, ed i loro prodotti derivati”
TWI715091B (zh) * 2019-06-28 2021-01-01 宏碁股份有限公司 耳機之抗噪功能的控制方法與應用其之電子裝置
KR20190100090A (ko) * 2019-08-08 2019-08-28 엘지전자 주식회사 로봇 및 그를 이용한 무드 인식 방법
US11263634B2 (en) 2019-08-16 2022-03-01 Advanced New Technologies Co., Ltd. Payment method and device
CN111353366A (zh) * 2019-08-19 2020-06-30 深圳市鸿合创新信息技术有限责任公司 一种情绪检测方法及装置、电子设备
CN110825225B (zh) * 2019-10-30 2023-11-28 深圳市掌众信息技术有限公司 一种广告展示方法及系统
US11119572B2 (en) 2019-11-06 2021-09-14 International Business Machines Corporation Selective display of objects based on eye gaze attributes
JPWO2021095573A1 (ja) * 2019-11-15 2021-05-20
JP6824457B1 (ja) * 2020-04-30 2021-02-03 ベルフェイス株式会社 プログラム、携帯電話装置、情報処理システム及び情報処理方法
KR102180576B1 (ko) * 2020-05-18 2020-11-18 주식회사 일루니 사용자의 플레잉에 기초하여 재프로그래밍되는 인터랙티브 콘텐츠 제공 방법 및 장치
US11151390B1 (en) * 2020-05-21 2021-10-19 Ism Connect, Llc Self-correcting face detection pipeline-based method and apparatus for censusing a crowd
EP4176403A1 (en) 2020-07-01 2023-05-10 Bakhchevan, Gennadii A system and a method for personalized content presentation
JP6906169B1 (ja) * 2020-09-25 2021-07-21 パナソニックIpマネジメント株式会社 撮像装置
JP7568913B2 (ja) 2020-11-24 2024-10-17 富士通株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
WO2022120925A1 (zh) * 2020-12-07 2022-06-16 安徽鸿程光电有限公司 信息处理方法、装置、设备及存储介质
US11610365B2 (en) 2021-03-31 2023-03-21 Sy Interiors Pvt. Ltd. Methods and systems for provisioning a virtual experience of a building based on user profile data
US11698707B2 (en) 2021-03-31 2023-07-11 Sy Interiors Pvt. Ltd. Methods and systems for provisioning a collaborative virtual experience of a building
CN113095208B (zh) * 2021-04-08 2024-01-26 吉林工商学院 应用于大学英语教学课堂的注意力观测与提醒系统
US11947720B2 (en) * 2021-12-21 2024-04-02 Dot Incorporation Intelligent barrier-free kiosk and method of controlling the same

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2127765C (en) 1993-08-24 2000-12-12 James Gifford Evans Personalized image recording system
JP2001100879A (ja) * 1999-09-27 2001-04-13 Olympus Optical Co Ltd 情報閲覧システム
AU2248501A (en) 1999-12-17 2001-06-25 Promo Vu Interactive promotional information communicating system
US6608563B2 (en) 2000-01-26 2003-08-19 Creative Kingdoms, Llc System for automated photo capture and retrieval
US20030067476A1 (en) * 2001-10-04 2003-04-10 Eastman Kodak Company Method and system for displaying an image
US7174029B2 (en) 2001-11-02 2007-02-06 Agostinelli John A Method and apparatus for automatic selection and presentation of information
US6931147B2 (en) 2001-12-11 2005-08-16 Koninklijke Philips Electronics N.V. Mood based virtual photo album
US7236960B2 (en) 2002-06-25 2007-06-26 Eastman Kodak Company Software and system for customizing a presentation of digital images
US20040044564A1 (en) 2002-08-27 2004-03-04 Dietz Paul H. Real-time retail display system
US20040126038A1 (en) 2002-12-31 2004-07-01 France Telecom Research And Development Llc Method and system for automated annotation and retrieval of remote digital content
US7274832B2 (en) 2003-11-13 2007-09-25 Eastman Kodak Company In-plane rotation invariant object detection in digitized images
JP4411393B2 (ja) * 2004-11-02 2010-02-10 独立行政法人産業技術総合研究所 解析システム
US7396129B2 (en) * 2004-11-22 2008-07-08 Carestream Health, Inc. Diagnostic system having gaze tracking
US7460150B1 (en) * 2005-03-14 2008-12-02 Avaya Inc. Using gaze detection to determine an area of interest within a scene
JP2006324809A (ja) * 2005-05-17 2006-11-30 Sony Corp 情報処理装置,情報処理方法,およびコンピュータプログラム
US20070098303A1 (en) 2005-10-31 2007-05-03 Eastman Kodak Company Determining a particular person from a collection
US7711145B2 (en) 2006-01-27 2010-05-04 Eastman Kodak Company Finding images with multiple people or objects
JP4162015B2 (ja) * 2006-05-18 2008-10-08 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2008072739A1 (ja) * 2006-12-15 2008-06-19 Visual Interactive Sensitivity Research Institute Co., Ltd. 視聴傾向管理装置、システム及びプログラム
US20090112696A1 (en) 2007-10-24 2009-04-30 Jung Edward K Y Method of space-available advertising in a mobile device
JP2010004118A (ja) * 2008-06-18 2010-01-07 Olympus Corp デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体

Also Published As

Publication number Publication date
US8154615B2 (en) 2012-04-10
CN102473264A (zh) 2012-05-23
US20100328492A1 (en) 2010-12-30
CN102473264B (zh) 2016-04-20
WO2011008236A1 (en) 2011-01-20
JP2012532366A (ja) 2012-12-13
EP2449514A1 (en) 2012-05-09

Similar Documents

Publication Publication Date Title
JP5619156B2 (ja) 閲覧者の要因および反応に応じた画像表示制御を行う方法および装置
EP4128672B1 (en) Combining first user interface content into second user interface
US12067214B2 (en) Updating avatar clothing for a user of a messaging system
US12087086B2 (en) Method for identifying, ordering, and presenting images according to expressions
US20210306451A1 (en) Avatar recommendation and reply
US20210409535A1 (en) Updating an avatar status for a user of a messaging system
US20090112713A1 (en) Opportunity advertising in a mobile device
US20160224591A1 (en) Method and Device for Searching for Image
CN114138993A (zh) 基于用户行为的内容推荐的系统和方法
TW201404127A (zh) 多媒體評價系統、其裝置以及其方法
KR101905501B1 (ko) 컨텐츠를 추천하는 방법 및 장치
US11528512B2 (en) Adjacent content classification and targeting
Kannan et al. What do you wish to see? A summarization system for movies based on user preferences
US11651019B2 (en) Contextual media filter search
US12008811B2 (en) Machine learning-based selection of a representative video frame within a messaging application
WO2022005841A1 (en) Travel-based augmented reality content for reviews
US20240282110A1 (en) Machine learning-based selection of a representative video frame within a messaging application
Zhang et al. Asynchronous reflections: theory and practice in the design of multimedia mirror systems

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130614

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130614

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140819

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140916

R150 Certificate of patent or registration of utility model

Ref document number: 5619156

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees