JP7118697B2 - 注視点推定処理装置、注視点推定モデル生成装置、注視点推定処理システム、注視点推定処理方法、プログラム、および注視点推定モデル - Google Patents

注視点推定処理装置、注視点推定モデル生成装置、注視点推定処理システム、注視点推定処理方法、プログラム、および注視点推定モデル Download PDF

Info

Publication number
JP7118697B2
JP7118697B2 JP2018068120A JP2018068120A JP7118697B2 JP 7118697 B2 JP7118697 B2 JP 7118697B2 JP 2018068120 A JP2018068120 A JP 2018068120A JP 2018068120 A JP2018068120 A JP 2018068120A JP 7118697 B2 JP7118697 B2 JP 7118697B2
Authority
JP
Japan
Prior art keywords
image
point
estimation
regard
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018068120A
Other languages
English (en)
Other versions
JP2019179390A (ja
JP2019179390A5 (ja
Inventor
田 昌 昭 福
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Preferred Networks Inc
Original Assignee
Preferred Networks Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Preferred Networks Inc filed Critical Preferred Networks Inc
Priority to JP2018068120A priority Critical patent/JP7118697B2/ja
Priority to US16/370,528 priority patent/US11341680B2/en
Publication of JP2019179390A publication Critical patent/JP2019179390A/ja
Publication of JP2019179390A5 publication Critical patent/JP2019179390A5/ja
Priority to US17/732,056 priority patent/US11748904B2/en
Application granted granted Critical
Publication of JP7118697B2 publication Critical patent/JP7118697B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、注視点推定処理装置、注視点推定モデル生成装置、注視点推定処理システム、注視点推定処理方法、プログラム、および注視点推定モデルに関する。
複数のカメラを用いてアイトラッキングを行い、アイトラッキングの対象者の注視点を推定する技術の開発が進められている。対象者の注視点を認識することができれば、対象者が注視している物体に関連する情報を提供するといったサービスを行うことができる。
しかし、対象者の注視点を推定するには、対象者の特徴点の位置情報を収集するための複数の装置が必要となる。例えば、目を撮影するカメラ、頭部の向きを検出するカメラ、対象者の目と基準点との距離を測定する装置などが必要となる。そのため、当該装置が設置された環境でしか注視点を算出することができない。また、対象者が移動している場合、対象者が群衆にまぎれてしまう場合などでは、アイトラッキングによる推定精度が低下してしまう。
特許6187155号公報
Phillip Isola、外3名、"Image-to-Image Translation with Conditional Adversarial Networks"、[online]、平成29年11月22日、Berkeley AI Research (BAIR) Laboratory University of California、[平成30年3月1日検索]、インターネット(URL:https://arxiv.org/pdf/1611.07004.pdf)
アイトラッキングが困難な環境下では、人の注視点を推定し、推定された注視点に基づくサービスを提供することが困難である。
本発明の一実施形態である注視点推定処理装置は、注視点推定モデルを記憶する記憶部と、注視点推定部と、を備える。学習用画像と前記学習用画像に対する第1注視点に関する情報とに基づく学習により生成された注視点推定モデルを記憶する。前記注視点推定部は、前記注視点推定モデルを用いて、推定用画像から、前記推定用画像に対する第2注視点に関する情報を推定する。
第1の実施形態に係る注視点推定処理システムの一例を示すブロック図。 学習用画像および検出注視点画像を説明する図。 第1の実施形態に係る注視点推定処理システムの処理の概略フローチャート。 第1の実施形態に係る注視点推定モデル生成装置の処理の概略フローチャート。 第1の実施形態に係る注視点推定処理装置の処理の概略フローチャート。 第2の実施形態に係る注視点推定処理システムの一例を示すブロック図。 第2の実施形態に係る注視点推定処理装置の処理の概略フローチャート。 第3の実施形態に係る注視点推定処理システムの一例を示すブロック図。 第3の実施形態に係る注視点推定処理装置の処理の概略フローチャート。 第4の実施形態に係る注視点推定処理システムの一例を示すブロック図。 注視点推定処理装置との会話について説明する図。 第4の実施形態に係る注視点推定処理装置の処理の概略フローチャート。 本発明の一実施形態におけるハードウェア構成の一例を示すブロック図。
以下、図面を参照しながら、本発明の実施形態について説明する。
(第1の実施形態)
図1は、第1の実施形態に係る注視点推定処理システムの一例を示すブロック図である。図1に示された注視点推定処理システム1は、学習用画像表示装置11と、注視点検出装置12と、属性データ提供装置13と、注視点推定モデル生成装置14と、推定用データ提供装置15と、注視点推定処理装置16と、出力先装置17と、を備える。注視点推定モデル生成装置14は、学習用画像データ記憶部141と、検出注視点画像データ記憶部142と、属性データ記憶部143と、学習用画像解析部(オプティカルフロー算出部)144と、注視点推定モデル生成部(学習部)145と、を備える。注視点推定処理装置16は、注視点推定モデル記憶部161と、推定用画像解析部(オプティカルフロー算出部)162と、注視点推定部163と、を備える。
第1の実施形態に係る注視点推定処理システムは、推定用データ提供装置15から画像が入力されると、当該画像を見た視聴者が示すと推定される当該画像内の注視点を推定し、当該注視点に関する情報を出力するというシステムである。具体的には、まず、注視点推定モデル生成装置14が、ディープラーニングにより、注視点を推定するための注視点推定モデルを生成する。そして、注視点推定処理装置16が、注視点推定モデルを用いて、推定用データ提供装置15から入力された画像から、注視点を推定する。処理の詳細は、各装置および各構成要素とともに説明する。
なお、上記では、注視点を推定するために必要と思われる主な装置および構成要素を記載しており、その他の装置および構成要素が含まれていてもよい。また、装置および構成要素が細分化されていてもよいし、一つにまとめられていてもよい。また、各装置は、通信ネットワークを介したデータの送受が可能であり、各装置の入力および出力に係る構成要素(つまり、入力部および出力部)は、省略されている。また、装置および構成要素に係る処理が省略される場合には、当該装置および構成要素も省略されてよい。
例えば、一つの注視点推定モデル生成装置が、生成した注視点推定モデルを複数に複製して、複数の注視点推定処理装置16に送信し、各注視点推定処理装置16は、注視点推定モデルをソフトウェアの一部であるプログラムモジュールとして使用することが想定される。そのため、図1では、注視点推定モデル生成装置14と、注視点推定処理装置16と、が異なる装置として示されている。しかし、注視点推定モデル生成装置14および注視点推定処理装置16が、同一の装置であってもよい。また、例えば、注視点推定モデルへの入力情報として、オプティカルフローなどの画像解析結果を用いない場合は、学習用画像解析部144および推定用画像解析部162は省略されてよい。
なお、本説明において、「学習」という用語は、機械学習を意味してもよいし、ディープラーニングを意味してもよい。また、「画像」という用語は、静止画および動画の両方を包括する概念であり、特に問題がなければ、静止画または動画に置き換えられて読まれてもよい。つまり、注視点推定処理システムにより用いられる画像は、動画でも静止画でもよい。また、装置内において、画像はデータとして扱われるが、画像データの表現形式は特に限られるものではない。また、位置およびその位置に対応する情報が示されたデータは画像データとして扱ってよい。ヒートマップなどのグラフも画像に含まれる。なお、画像の表示とともに音が提供されることもある。音のような画像とともに付随する情報により、注視点が変化することもあり得る。そこで、本説明における「画像」には、画像に付随する情報も含まれるものとする。
各装置について説明する。
学習用画像表示装置11は、視聴者に対し、学習用画像を表示する装置である。学習用画像表示装置11は、表示した学習用画像を注視点推定モデル生成装置14に送信する。なお、学習用画像の視聴者を第1視聴者と記載する。第1視聴者は、複数人を想定するが、1人でもよい。
注視点検出装置12は、学習用画像を視聴中の第1視聴者に対して、アイトラッキングを行い、学習用画像上の第1視聴者の注視点を検出する。例えば、注視点を検出可能なヘッドマウントディスプレイが製品化されている。当該ヘッドマウントディスプレイを学習用画像表示装置11および注視点検出装置12として用いてもよい。
注視点の検出後、注視点検出装置12は、検出結果に基づき、学習用画像上の第1視聴者の注視点を示す画像を生成し、当該画像を注視点推定モデル生成装置14に送信する。当該画像を、検出注視点画像と記載する。検出注視点画像は、学習用画像内の各ピクセルが注視点である可能性(スコア)を示す画像である。スコアは、確率分布などで示すことが可能である。検出注視点画像は、ヒートマップ、等高線図、3次元グラフといった画像となり得る。
図2は、学習用画像および検出注視点画像を説明する図である。左上側と左下側にある画像は、学習用画像を示す。当該学習用画像は、ある商品のコマーシャルのための画像であることを想定している。左上側の画像には人が、左下側の画像には商品とその人が、表されている。右上側と右下側にある画像は、検出注視点画像を示す。図2の例の検出注視点画像では、各ピクセルが注視点である可能性を濃淡で表しており、濃いほうが注視点である可能性が高く、薄いほうが注視点である可能性が低いことを示す。右上側の検出注視点画像が左上側の学習用画像に対応し、右下側の検出注視点画像が左下側の学習用画像に対応している。これにより、人だけが表されている左上の学習用画像では、その人の顔が注視される可能性が高いことが分かる。また、商品と人が表されている左下の学習用画像では、商品が注視される可能性は高いが、人だけが表されている学習用画像における人の顔と比較して、注視される可能性が低いことが示されている。
図2のような、学習用画像と、学習用画像に対応し学習用画像上の注視点を示す検出注視点画像と、が注視点推定モデル生成装置14に送信される。なお、学習用画像と、検出注視点画像と、は、予め対応づけがされており、注視点推定モデル生成装置14が学習用画像と検出注視点画像との組み合わせを認識できるものとする。例えば、検出注視点画像の識別子が学習用画像の識別子の一部を含むように、注視点検出装置12が、検出注視点画像に識別子を付与すればよい。あるいは、学習用画像の表示時刻と、検出注視点画像の注視点の検出時刻と、に基づき、対応関係が把握されてもよい。
なお、本実施形態は、検出注視点画像を注視点検出装置12が生成しているが、注視点推定モデル生成装置14が生成してもよい。例えば、注視点検出装置12は、検出注視点画像ではなく、ピクセルごとのスコアが示されたデータといった注視点に関するデータを注視点推定モデル生成装置14に送信し、注視点推定モデル生成装置14が、その内部で当該データから検出注視点画像を生成してもよい。
属性データ提供装置13は、第1視聴者の属性を示すデータを注視点推定モデル生成装置14に提供する。当該データを単に属性データと記載する。例えば、学習用画像表示装置11が画像を表示する前に、第1視聴者が属性データ提供装置13に対し第1視聴者の属性を入力する。そして、第1視聴者の属性も、学習用画像および検出注視点画像と同様に、これらと対応付けられる。用いられる属性は、特に限られず、適宜に定めてよい。
学習用画像における第1視聴者の注視点は、第1視聴者が興味を示す対象上にあると想定されるが、当該対象は、第1視聴者の属性により異なる。例えば、性別、年齢、出身地、住所、職業、家族構成、年収、趣味、状態などが異なれば、興味を示す対象が異なる傾向がある。例えば、スポーツ選手の画像が表示されたときに、第1視聴者が興味を示すか否かは、第1視聴者の趣味に影響されやすい。また、第1視聴者の疲労度が高い場合、第1視聴者の注意力が散漫となり、画像を注視しないこともあり得る。ゆえに、第1視聴者の属性が、学習用画像および検出注視点画像と対応付けられたほうが好ましい。なお、必ずしも属性が対応付けられていなくともよい。
また、第1視聴者の学習用画像を見る直前の行動、第1視聴者の学習用画像を見る場所、第1視聴者の学習用画像を見る時間帯なども、注視点に影響すると考えられる。これらの情報も属性として用いてもよい。例えば、第1視聴者に対するライフログが記録されている場合、注視点推定モデル生成装置14は、ライフログ記録装置からライフログを受信し、受信されたライフログを属性データとして用いてよい。つまり、ライフログ記録装置は、属性データ提供装置13に該当する。
注視点推定モデル生成装置14は、学習用画像および検出注視点画像を入力情報として学習を行い、注視点推定モデルを生成する。
なお、属性も入力情報に含めてよい。あるいは、注視点推定モデルが、属性ごとに分けて、生成されてもよい。例えば、学習用画像と、男性の第1視聴者による検出注視点画像と、を用いて、男性用の注視点推定モデルを生成してもよい。
注視点推定モデル生成装置14が備える、学習用画像データ記憶部141、検出注視点画像データ記憶部142、および属性データ記憶部143はそれぞれ、学習用画像、検出注視点画像、および属性データを記憶する。
学習用画像解析部(オプティカルフロー算出部)144は、学習用画像を解析することにより、学習用画像に関する情報を生成する。本実施形態では、当該解析により、時系列の学習用画像から、オプティカルフローが算出されることを想定する。なお、オプティカルフロー以外の情報を算出してもよい。
オプティカルフローは、動画像などの時系列の画像における(フレーム間における)速度ベクトルの分布状態を示す。つまり、算出されたオプティカルフローは、学習用画像に表された物体の動きを示す。
物体が急に表示された場合、表示された物体が移動した場合などでは、当該物体は注視される傾向にある。つまり、学習用画像に表された物体の動きは、注視点に影響を与える。そのため、オプティカルフローは、注視点推定モデルの生成の際の入力情報として用いられる。なお、本説明において、「物体」には、ヒトなどの生体も含まれる。
オプティカルフローの算出方法としては、様々な方法が知られている。例えば、勾配法、Lucas-Kanade法、マッチング、グラディエント、パーティクルフィルタといったものがある。本実施形態で用いられるオプティカルフローの算出方法は、特に限られるものではなく、公知手法から適宜に定めてよい。
注視点推定モデル生成部145は、少なくとも、学習用画像および検出注視点画像に基づく学習を行うことにより、注視点推定モデルを生成する。なお、前述の通り、属性も学習の入力情報に含めてよい。注視点推定モデルは、与えられた画像から別の画像を生成するための、多層のニューラルネットワーク(ディープニューラルネットワーク:DNN)のモデルである。学習用画像、オプティカルフローなどがニューラルネットワークの入力層に入力され、各中間層における演算を経ることにより、模擬画像が出力層から出力される。注視点推定モデル生成部145は、模擬画像が検出注視点画像に近づくように、各中間層における演算の重み付け係数(パラメータ)を更新する。模擬画像が検出注視点画像に近づいているかは、特徴ベースマッチング、領域バースマッチングといった既存のマッチング手法を用いて判断してもよい。こうして、学習済みのニューラルネットワークは、推定用画像から推定注視点画像を生成可能となる。
ニューラルネットワークも様々な種類が提唱されているが、適宜に選んでよい。例えば、敵対生成ネットワーク(GAN)を用いると、与えられた画像から別の画像を精度よく生成できることが知られている。
敵対生成ネットワークを用いた場合、注視点推定モデルは、学習用画像から模擬画像を生成する画像生成モデルと、与えられた画像が模擬画像なのか検出注視点画像なのかを識別する識別モデルと、を含む。学習により、検出注視点画像であると識別モデルが識別してしまうような模擬画像を画像生成モデルが生成できるように、画像生成モデルのパラメータが更新されていく。その一方で、学習により、識別モデルが正しく模擬画像と識別できるように、識別モデルのパラメータも更新されていく。このようにして、画像生成モデルおよび識別モデルのパラメータの更新が繰り返されることにより、生成される模擬画像が、検出注視点画像に近づくこととなる。つまり、学習用画像から検出注視点画像を生成可能となる。
また、敵対生成ネットワークに条件を加えた、条件付き敵対生成ネットワーク(cGAN)を用い、さらに中間層のネットワーク構造を、Encoder-Decorder構造からU-net構造に変えることにより、画像生成の精度が高まることが知られている。このようなニューラルネットワークを用いることにより、入力された画像から、注視点を示す画像を生成するモデルを生成することが可能である。
また、注視点推定モデルの出力は、必ずしも画像データとは限られない。例えば、注視点推定モデルのニューラルネットワークが第1および第2のニューラルネットワークに別れており、第1のニューラルネットワークにおいて画像データが出力され、第2のニューラルネットワークにおいて当該画像に対する処理が行われて、注視点推定モデルの出力として、注視点とされるピクセルまたは領域が出力されてもよい。また、第1および第2のニューラルネットワークによる機能を1つのニューラルネットワークで実現してもよい。
推定用データ提供装置15は、注視点推定処理装置に、注視点の推定の対象の画像を提供する装置である。当該画像を推定用画像と記載する。また、推定用画像を視聴すると想定された視聴者を、第2視聴者と記載して、学習用画像の第1視聴者と区別する。なお、第2視聴者が、第1視聴者と同じであってもよい。
また、推定用データ提供装置15は、推定用画像だけでなく、推定用画像を解析することにより得られたデータを、注視点推定処理装置16に提供してもよい。当該データを推定用データと記載する。例えば、画像認識モデルを用いて、推定用画像に表された物体を認識し、推定用画像とともに当該物体の名称、輪郭などを提供してもよい。また、注視点推定モデルが属性ごとに生成されている場合は、第2視聴者の属性が推定用データに含まれていてもよい。また、以降、推定用画像も推定用データに含まれるものとして記載する。
注視点推定処理装置16は、注視点推定モデルを用いて、推定用画像から、第2視聴者の注視点に関する情報を推定する。
注視点推定モデル記憶部161は、注視点推定モデルを属性ごとに分類して記憶する。これにより、注視点推定部163が、属性に応じた注視点推定モデルを抽出することができる。
推定用画像解析部(オプティカルフロー算出部)162は、推定用画像を解析することにより、推定用画像に関する情報を生成する。本実施形態では、学習用画像解析部144と同様に、当該解析により、時系列の推定用画像から、推定用画像に対するオプティカルフローが算出されることを想定する。
注視点推定部163は、注視点推定モデル記憶部161から注視点推定モデルを取得する。推定用データ提供装置15から第2視聴者の属性を取得した場合は、複数の注視点推定モデルのうちから、当該属性に応じた注視点推定モデルを抽出する。そして、注視点推定モデルを用いて、推定用画像から、推定用画像内の各ピクセルが注視点である可能性を示す情報を生成する。当該情報は、各ピクセルが注視点であるか否かを示す情報であればよく、画像を示すデータでもよいし、当該画像に基づき加工が行われたデータでもよい。
なお、ここでは、画像が生成されるとして説明を行う。当該画像を、推定注視点画像と記載する。注視点推定モデルの入力層に推定用画像が入力されると、推定モデルの各中間層において、学習済みのパラメータに基づく演算が行われ、注視点推定モデルの出力層から推定用注視点画像が出力される。推定用画像とオプティカルフローから、推定注視点画像を生成してもよい。
推定注視点画像は、推定用画像内の各ピクセルが注視点である可能性(スコア)を示す画像である。推定注視点画像は、ヒートマップ、等高線図、3次元グラフなどのような、検出注視点画像と同じ表示形態の画像となる。
生成された推定注視点画像を推定された注視点とみなしてもよいが、注視点推定部163は、推定注視点画像に基づき、推定注視点画像の一部を注視点として認定してもよい。注視点は、1つのピクセルとしてもよいし、複数のピクセルを含む領域としてもよい。例えば、推定注視点画像のスコアが最も高いピクセルを注視点としてもよい。あるいは、所定の単位円または単位矩形を用いて、単位円または単位矩形内のスコアの合計が最も高い領域を算出し、当該領域の中心のピクセルを注視点としてもよいし、当該領域を注視点としてもよい。あるいは、含まれる全てのピクセルのスコアが閾値以上である領域を注視点としてもよい。例えば、推定注視点画像がヒートマップで表されている場合に、最も濃い領域を注視点としてもよい。
推定注視点画像、注視点といった注視点に関する情報は、指定された出力先装置17に出力される。出力先装置17は、特に限られるものではない。これにより、出力先装置17において、推定された注視点に関する情報に基づき、様々な処理を実行することができる。また、注視点は、画像で表示されてもよいし、位置座標などで表示されてもよい。
例えば、出力先装置17が、モニタなどの画像表示装置であって、注視点推定処理装置16による処理結果がモニタなどに表示されてもよい。あるいは、外部装置または外部装置を制御する制御装置に推定結果が送信されて、推定結果に基づき、当該外部装置が制御されてもよい。
例えば、推定用データ提供装置15および出力先装置17が同一の撮影装置(例えばデジタルカメラ)であるとする。当該撮影装置が注視点推定処理装置16に推定用画像を提供し、注視点が当該撮影装置に返される場合、当該撮影装置が、注視点を含む物体または注視点に含まれる物体(注視点が領域の場合)を精度よく撮影するために、設定を変更することが可能になる。例えば、フォーカスを合わせる、ズームアップするといった制御が可能になる。
また、出力先装置17が、ドローン、レスキューロボットといった移動体の制御装置である場合、移動体に搭載されたカメラからの画像を推定用画像として用いることが考えられる。そして、推定注視点画像を当該制御装置に送信することにより、制御装置が推定注視点画像に基づき、移動体の移動を制御することが可能となる。例えば、当該移動体を注視点のほうに移動させるといった制御を行うこともできる。これにより、人による操縦なしで、当該移動体を人が興味を持つほうへ移動させることもできる。
次に、本実施形態の処理の流れについて説明する。図3は、第1の実施形態に係る注視点推定処理システム1の処理の概略フローチャートである。本フローチャートでは、属性データを用いる場合を記載する。
属性データ提供装置13が、学習用画像を視聴する第1視聴者の属性を取得する(S101)。学習用画像表示装置11が学習用画像を第1視聴者に表示する(S102)。注視点検出装置12が学習用画像上の第1視聴者の注視点を測定し、検出注視点画像を生成する(S103)。そして、第1視聴者の属性、学習用画像、および検出注視点画像の各データが各装置から送信され、注視点推定モデル生成装置14がこれらのデータを受信する(S104)。
注視点推定モデル生成装置14は、これらの受信データから注視点推定モデルを生成する(S105)。生成された注視点推定モデルは、注視点推定処理装置16に送られる。その後、推定用画像、第2視聴者の属性といった推定用データが、推定用データ提供装置15から送られ、注視点推定処理装置16が当該推定用データを受信する(S106)。注視点推定処理装置16は、第2視聴者の属性に応じた注視点推定モデルを用いて、推定用画像から注視点を推定する(S107)。そして、注視点に関する情報が出力先装置17に送信されて、出力先装置17が注視点に関する情報を用いて処理を実行する(S108)。このようにして、推定された注視点に基づくサービスが提供される。
次に、注視点推定モデル生成装置14の処理の流れについて説明する。図4は、第1の実施形態に係る注視点推定モデル生成装置14の処理の概略フローチャートである。本フローチャートでは、敵対生成ネットワークを用いる場合を記載する。
学習用画像解析部144が、時系列の推定用画像からオプティカルフローを算出する(S201)。一方、注視点推定モデル生成部145は、属性データと対応する注視点推定モデルを選択する(S202)。注視点推定モデル生成部145が、選択された注視点推定モデルを用いて、学習用画像および対応するオプティカルフローに基づき、模擬画像を生成する(S203)。注視点推定モデル生成部145が、模擬画像を検出注視点画像として認識可能か判定する(S204)。注視点推定モデル生成部145が判定結果に基づき、注視点推定モデルのパラメータを更新する(S205)。これらの処理が何度も行われることにより、注視点推定モデルのパラメータが改善されていき、注視点推定モデルの精度が向上する。
次に、注視点推定処理装置16の処理の流れについて説明する。図5は、第1の実施形態に係る注視点推定処理装置16の処理の概略フローチャートである。
推定用画像解析部162が、時系列の推定用画像からオプティカルフローを算出する(S301)。一方、注視点推定部163は、注視点推定モデル記憶部161に記憶されている複数の注視点推定モデルから、属性に応じた注視点推定モデルを選択する(S302)。注視点推定部163が、選択された注視点推定モデルを用いて、推定用画像および対応するオプティカルフローに基づき、推定注視点画像を生成する(S303)。さらに、注視点推定部163が推定注視点画像に基づき、注視点を認定する(S304)。こうして、注視点に関する情報が生成される。
なお、本説明におけるフローチャートは一例であり、上記の例に限られるものではない。実施形態の求められる仕様、変更などに応じて、手順の並び替え、追加、および省略が行われてもよい。例えば、オプティカルフローを用いない場合は、オプティカルフローの算出は省略される。また、上記では、説明の便宜上、順番に処理が行われたが、オプティカルフローの算出と、注視点推定モデルの選択と、は並行に処理されてもよい。以降のフローチャートについても同様である。
以上のように、本実施形態によれば、画像に基づき、注視点を推定することができる。アイトラッキングを行う場合は、視聴者を撮影するためのカメラなどの装置が必要であり、視聴者と基準点との相対的位置関係を認識し続けなければならないといった欠点があったが、本実施形態は、これらの欠点を有しない。
また、第1視聴者の属性に応じた注視点推定モデルを生成することもでき、第2視聴者の属性に応じた注視点推定モデルを用いて注視点推定を行うことにより、注視点の推定の精度が向上する。
また、オプティカルフローを考慮した注視点推定モデルを生成することもでき、画像内の物体の動きに対応した注視点推定が行われるため、注視点の推定の精度が向上する。
(第2実施形態)
図6は、第2の実施形態に係る注視点推定処理システムの一例を示すブロック図である。図6に示された注視点推定処理システム1では、注視点推定処理装置16が、画像加工部164をさらに備える。なお、第1の実施形態と同様な点は、説明を省略する。
画像加工部164は、推定用画像内の注視点に基づき、推定用画像を加工する。そして、加工された推定用画像は、出力先装置17に出力される。つまり、本実施形態の注視点推定処理装置16は、画像加工装置でもあり、出力先装置17は画像表示装置を想定する。また、推定用画像は、出力先装置17にて表示される予定の画像である。
推定用画像の加工は、予め定められた規則に基づき、行われればよい。当該規則は、推定用データ提供装置15から提供されてもよいし、予め注視点推定処理装置16内に設定されていてもよい。
加工規則は適宜に定めてよい。例えば、推定用データ提供装置15から、推定用画像内の物体の輪郭を示す情報を受け取り、推定用画像内の注視点に基づき、推定用画像内の物体のいずれかを、精細にレンダリングするといった加工を行ってもよい。
例えば、ロボットなどの移動体からの送信画像を見ながら、人が遠隔通信にて当該移動体を操作する場合に、送信画像を推定用画像として用いて注視点を検出した上で、当該送信画像を注視点に基づき加工し、操縦士に表示することが想定される。当該想定においては、注視点から離れている物体は、操縦士が認識していない可能性があり、移動体が当該物体にぶつかる恐れがある。ゆえに、画像加工部164が、注視点から離れている物体を強調するように、送信画像を加工するといったことが考えられる。このような処理を行うことにより、運転、操作などの補助を行うことができる。
また、推定用画像の注視点の周辺の画像を、推定用画像に対応する属性に応じた広告に、変更してもよい。当該広告は、推定用データに含まれていればよい。また、推定用データに複数の広告が含まれている場合に、画像加工部164が第2視聴者の属性に応じた広告を抽出してもよい。これにより、推定用画像を提供する業者、広告業者などのニーズに応えることができる。
また、第2視聴者の注視点に応じて、これから表示する画像の一部または全体を変更してもよい。例えば、推定用画像に物体Aと物体Bとが表示されている場合に、画像加工部164が、注視点に基づき、第2視聴者が物体Aのほうを注視すると認識したとする。その場合において、次に加工する推定用画像として、物体Aに係る推定用画像と、物体Bに係る推定用画像と、を受け取ったときは、画像加工部164は、物体Aに係る推定用画像を用いる。あるいは、その場合において、画像加工部164は、次に加工する推定用画像から物体Bを消去する加工を行う。こうして、推定用画像を第2視聴者用に特化することにより、第2視聴者の画像に対する満足度、集中度などが向上する。
図7は、第2の実施形態に係る注視点推定処理装置16の処理の概略フローチャートである。本実施形態の注視点推定処理装置16の処理の流れは、S301からS304までは、図5に示したフローチャートと同じである。そして、注視点推定部163が注視点を認定した後(S304)に、画像加工部164が推定注視点画像または注視点に基づき、推定用画像を加工する(S401)。これにより、出力先装置17が加工された推定用画像を用いて処理を実行することができる。
以上のように、本実施形態によれば、注視点推定処理装置16が注視点に基づき推定用画像の加工まで行う。これにより、推定用画像の第2視聴者が注視する物体などに応じて、推定用画像を変更することができ、第2視聴者または提供者のニーズに応えた画像を提供することができる。
(第3実施形態)
図8は、第3の実施形態に係る注視点推定処理システムの一例を示すブロック図である。図8に示された注視点推定処理システム1では、注視点推定処理装置16が、画像評価部165をさらに備える。なお、第1の実施形態と同様な点は、説明を省略する。
画像評価部165は、推定用画像内の注視点に基づき、推定用画像を評価する。そして、画像評価部165による評価が、出力先装置17に出力される。つまり、本実施形態の注視点推定処理装置16は、画像評価装置でもある。
推定用画像の評価は、所定の評価規則に基づき、行われればよい。評価規則は、推定用データ提供装置15から提供されてもよいし、予め注視点推定処理装置16に設定登録されていてもよい。
評価規則内容は適宜に定めてよい。例えば、推定用データ提供装置15から、注視点として好ましい領域が指定されて、当該領域と、推定された注視点との差分により、評価されてもよい。また、評価は、スコアで表されてもよいし、優、良、可、不可といった所定の分類項目に分類されてもよい。
図9は、第3の実施形態に係る注視点推定処理装置16の処理の概略フローチャートである。本実施形態の注視点推定処理装置16の処理の流れは、S301からS304までは、図5に示したフローチャートと同じである。そして、そして、注視点推定部163が注視点を認定した後(S304)に、画像評価部165が推定注視点画像または注視点に基づき、推定用画像を評価する(S501)。これにより、出力先装置17が推定用画像の評価を用いて処理を実行することができる。
以上のように、本実施形態によれば、注視点推定処理装置16が注視点に基づき推定用画像の評価まで行う。これにより、推定用画像の提供者は、推定用画像を第2視聴者に見せる前に、推定用画像の客観的な評価を得ることができ、推定用画像の改善を行うことができる。
(第4実施形態)
図10は、第4の実施形態に係る注視点推定処理システムの一例を示すブロック図である。図10に示された注視点推定処理システム1では、音データ提供装置18をさらに備える。また、注視点推定処理装置16が、注視物導出部166と、返答生成部167と、をさらに備える。なお、第1の実施形態と同様な点は、説明を省略する。
本実施形態では、画像と音声の両方を利用するマルチモーダル機能を有するシステムを想定し、推定された注視点に関する情報が、装置と人との会話に応用される。ここでは、第2視聴者と会話する装置が、推定された注視点に関する情報を利用して、第2視聴者が示唆する物体を認識することを想定する。
人の指示は、不明確になることが多い。例えば「あれを取ってください」というような指示があるが、「あれ」が意味する物体が何であるかを他者が理解することは困難である。しかし、このような指示代名詞を用いた指示を出す場合、指示者は「あれ」が意味する物体を注視している可能性が高い。ゆえに、本実施形態では、注視点に関する情報を、特定が困難な語句に対する補助情報として用いることにより、ユーザが伝えようとする物体を特定する。
音データ提供装置18は、マイクなどによって拾われた音データ化して、注視点推定処理装置16に送信する装置である。当該データは、例えば、第2視聴者の音声をテキスト化したものでもよい。あるいは、音データ提供装置18は、マイクに拾われた音が何の音であることを判定し、判定された結果が注視点推定処理装置16に送信されてもよい。音のデータ化は、汎用の音認識ソフトにより行うことが可能である。
なお、本実施形態では、音データに含まれている、「この」、「あの」といった指示語と、当該指示語に対応する語句と、を必要とする。ゆえに。音データ提供装置18は、音データを全て送信してもよいし、必要とされる語句に関するデータだけを送信してもよい。なお、当該指示語に対応する語句は、単に、指示語の後に続く語句としてもよい。例えば、「あのレストランについて教えて」という音データが得られた場合、音データ提供装置18は、少なくとも、「あの」および「レストラン」を、注視点推定処理装置16に送信する。なお、音データが全て送信される場合は、注視点推定処理装置16が、予め登録されたリストに含まれる指示語と、マッチングを行うことにより、指示語と、指示語に対応する語句を抽出すればよい。
注視点推定処理装置16の注視物導出部166は、推定用画像内の注視点に基づき、第2視聴者が注視すると推定される物体を導出する。当該物体を注視物と記載する。注視点を含む物体を注視物としてもよい。注視点が領域である場合は、当該領域内の物体のいずれかにしてもよい。例えば、当該領域内の物体のうち、最も大きく表示されている物体としてもよい。
注視物導出部166は、注視物の名称を導出する。注視物の名称は、推定用データから導出すればよい。あるいは、注視物導出部166が、予め生成済みの画像認識モデルを用いて、当該物体の名称を推定してもよい。
また、注視物導出部166は、注視物の位置を示す語句を導出する。位置を示す語句は、ピクセルの座標値などではなく、日常会話においてよく用いられる語句にする方が好ましい。例えば、注視点のピクセルが、推定用画像の中心座標を基準とした四象限の第1象限にある場合、ユーザ認識推定部は、第1象限に予め割り当てられていた語句「右上」を導出する。割り当て語句は、予め記憶された、位置および割り当て語句の対応関係を示すリストから導出されればよい。
返答生成部167は、指示語と対応する語句と、注視物の名称と、が一致しているかを判定する。一致している場合は、指示語と対応する語句が、注視物を指しているとして、注視物に関する返答を、音データ、推定用データに含まれる注視物の情報などを用いて、生成する。
図11は、注視点推定処理装置16との会話について説明する図である。図11の例では、第2視聴者が車両を運転中の運転手であることを想定している。図11(A)は、運転手が見ている画像が示されている。当該画像は、車両に搭載されたカメラから取得される。そして、当該画像が推定用画像として、注視点推定処理装置16に送信されているとする。図11(B)は、注視点推定部163が生成した推定注視点画像を示す図である。図11(B)の左側に、黒の濃度が高い領域が存在する。当該領域を注視点とすると、注視物導出部166は、例えば、「注視物」が「レストラン」であり、「注視物の位置」が「左側」であると導出して、返答生成部167に出力する。
返答生成部167に、上記の注視点に関する情報が入力されているときに、「あのレストランについて教えて」という音データが返答生成部167に入力されたとする。返答生成部167は、当該音データに注視物の名称「レストラン」が含まれていることを認識し、返信を生成する。例えば、音データに含まれる「あのレストラン」と、注視点に関する情報に含まれる「左側」と、を用いて、「あのレストランは左側のレストランですか」という質問文を生成する。
あるいは、推定用データ提供装置15から提供された、推定用画像内の物体の情報を用いて、回答文を生成してもよい。例えば、推定用データに、前述のレストランの分類区分(例えば、和食、イタリアン、ファストフードなど)、企業名、営業時間などが含まれていることが考えられる。これらの情報を用いて、「左側のレストランは、和食レストランです」という回答を生成することもできる。
図11(A)には、右側にもレストランが示されている。注視点に関する情報がなければ、第2視聴者が言う「あのレストラン」がどちらのレストランを示唆しているかを認識することはできない。そのため、どのレストランかを確認するための質問文を生成することになるが、「あのレストランは左側のレストランですか」といった同意だけを求める質問文は、第2視聴者に与える不満は少ないと想定される。例えば、第2視聴者に対して「どちらのレストランですか」と質問すると、第2視聴者がレストランを説明することになるため、第2視聴者の不満が増加する。また、「左側のレストランですか、右側のレストランですか」と質問することも考えられるが、第2視聴者が右側のレストランを認識していないと、第2視聴者が反応できない恐れもある。また、根拠なく「あのレストランは左側のレストランですか」と聞いた場合には、注視していないほうを尋ねる可能性が本実施形態よりも高い。つまり、本実施形態よりも、第2視聴者の不満が増加する可能性が高い。
したがって、音データに含まれる名称に係る物体が、第2視聴者が見ている画像内に複数ある場合にも、同意だけを求める質問文、または、回答文を生成できる本実施形態は、第2視聴者に与える不満を抑え、円滑な会話を可能にする。
返答生成部167は生成した返答データを出力先装置17に送信する。本実施形態では、出力先装置17が音声生成装置であることを想定する。出力先装置17は返答データを音声に変換して、スピーカ等で出力する。これにより、第2視聴者との会話が成立する。音声生成装置は、テキストから音声を合成する汎用ソフトを用いて実現することが可能である。
図12は、第4の実施形態に係る注視点推定処理装置16の処理の概略フローチャートである。注視点の推定に係るS301からS304までの処理は、これまでの実施形態と同じであり、ここではS304の後の処理を説明する。
注視物導出部166が推定された注視点に基づき、注視物の名称を導出する(S601)。注視物導出部166が、注視物の位置を示す語句を導出する(S602)。返答生成部167が、注視物導出部166から注視物の名称および位置を、音データ提供装置18から音データを取得する(S603)。指示語と対応する語句が、物体の名称と一致している場合(S604のYES)に、返答生成部167が物体に係る返答を生成する(S605)。こうして、返答が生成されて、音声生成装置に送られることにより、第2視聴者との会話が成立する。
なお、上記では、注視物の導出と、返答の生成と、を注視点推定処理装置16が行うとしたが、注視点推定処理装置16が注視物の導出までを行い、導出された注視物を出力先装置17に送信し、返答の生成は、出力先装置17が行ってもよい。
なお、上記では、装置と人との会話が、音声により行われることを想定した。しかし、耳が不自由な人、言語が異なる人に対しては、音声ではなく、手話、筆談(テキスト)などにより会話を行う場合もあり得る。そのような場合においては、音データ提供装置18の代わりに、カメラにより撮影されたジェスチャーを解読するジェスチャー解読装置、またはカメラにより撮影された文字を解読する光学文字認識装置(OCR)を用いる。そして、音データの代わりに、これらの装置が解読した内容を示すデータが、注視点推定処理装置16に送信されればよい。これにより、注視点推定処理装置16が返答を生成する処理は上記と同様に行うことができる。つまり、返答生成部167への入力データは、音データに限られるものではない。なお、返答の送信先は、画像表示装置でもよいし、音声生成装置でもよい。返答内容を異なる言語に置き換えることは、返答の送信先で行われればよい。
以上のように、本実施形態によれば、ロボットなどの装置に音声で指示を出すような場合において、注視点に関する情報が補助情報として用いられる。これにより、指示代名詞などが含まれ特定が困難な語句に対しても、ユーザが伝えようとする物体を特定して返答することができる。
なお、上記の各実施形態は、組み合わせられてもよい。例えば、第2の実施形態の画像加工部164と、第3の実施形態の画像評価部165と、の両方を備える注視点推定処理装置に係る実施形態も存在する。画像評価部165による評価に基づき、画像加工部164が加工内容を変化させてもよい。
なお、上記の実施形態では、注視点推定処理装置16は、注視点に関する情報を各ピクセルに対するスコアで表現していたが、注視点に関する情報を各ピクセルの座標で表現してもよい。例えば、注視点が存在する領域をバウンディングボックスで表現する場合、注視点推定部163が、矩形に対応する4つの座標に関する情報を出力するように構成してもよい。この場合、注視点推定モデル生成装置14では、注視点に係るバウンディングボックスの座標に関する情報を出力するように注視点推定モデルを学習する。また、注視点に関する情報として、矩形領域とその領域に対応するスコアの情報とを出力するようにしてもよい。
なお、上記の実施形態の少なくとも一部は、プロセッサ、メモリなどを実装しているIC(Integrated Circuit:集積回路)などの専用の電子回路(すなわちハードウェア)により実現されてもよい。また、上記の実施形態の少なくとも一部は、ソフトウェア(プログラム)を実行することにより、実現されてもよい。例えば、汎用のコンピュータ装置を基本ハードウェアとして用い、コンピュータ装置に搭載された中央処理装置(CPU:Central Processing Unit)、画像処理装置(GPU:Graphics Processing Unit)などのプロセッサ(処理回路)にプログラムを実行させることにより、上記の実施形態の処理を実現することが可能である。言い換えると、当該プログラムの実行により、プロセッサ(処理回路)が、注視点推定モデル生成装置14、注視点推定処理装置16などの各処理を実行できるように構成される。
例えば、コンピュータが読み取り可能な記憶媒体に記憶された専用のソフトウェアをコンピュータが読み出すことにより、コンピュータを上記の実施形態の装置とすることができる。記憶媒体の種類は特に限定されるものではない。また、通信ネットワークを介してダウンロードされた専用のソフトウェアをコンピュータがインストールすることにより、コンピュータを上記の実施形態の装置とすることができる。こうして、ソフトウェアによる情報処理が、ハードウェア資源を用いて、具体的に実装される。
図13は、本発明の一実施形態におけるハードウェア構成の一例を示すブロック図である。注視点推定モデル生成装置14および注視点推定処理装置16は、プロセッサ21と、主記憶装置22と、補助記憶装置23と、ネットワークインタフェース24と、デバイスインタフェース25と、を備え、これらがバス26を介して接続されたコンピュータ装置2として実現できる。
なお、図13のコンピュータ装置2は、各構成要素を一つ備えているが、同じ構成要素を複数備えていてもよい。また、図13では、1台のコンピュータ装置2が示されているが、ソフトウェアが複数のコンピュータ装置にインストールされて、当該複数のコンピュータ装置それぞれがソフトウェアの異なる一部の処理を実行してもよい。
プロセッサ21は、コンピュータの制御装置および演算装置を含む電子回路(処理回路)である。プロセッサ21は、コンピュータ装置2の内部構成の各装置などから入力されたデータやプログラムに基づいて演算処理を行い、演算結果や制御信号を各装置などに出力する。具体的には、プロセッサ21は、コンピュータ装置2のOS(オペレーティングシステム)や、アプリケーションなどを実行することにより、コンピュータ装置2を構成する各構成要素を制御する。プロセッサ21は、上記の処理を行うことができれば特に限られるものではない。注視点推定モデル生成装置14および注視点推定処理装置16内の画像解析部(144および162)、注視点推定モデル生成部145、注視点推定部163などは、プロセッサ21により実現される。また、プロセッサ21は、注視点推定モデルを読み込むと、推定用画像から推定注視点画像などを出力するように機能する。
主記憶装置22は、プロセッサ21が実行する命令および各種データなどを記憶する記憶装置であり、主記憶装置22に記憶された情報がプロセッサ21により直接読み出される。補助記憶装置23は、主記憶装置22以外の記憶装置である。なお、これらの記憶装置は、電子情報を格納可能な任意の電子部品を意味するものとし、メモリでもストレージでもよい。また、メモリには、揮発性メモリと、不揮発性メモリがあるが、いずれでもよい。注視点推定モデル生成装置14および注視点推定処理装置16内の各記憶部(141、142、143、161)は、主記憶装置22または補助記憶装置23により実現されてもよい。
ネットワークインタフェース24は、無線または有線により、通信ネットワーク3に接続するためのインタフェースである。ネットワークインタフェース24は、既存の通信規格に適合したものを用いればよい。ネットワークインタフェース24より、通信ネットワーク3を介して、コンピュータ装置2と外部装置4Aとを接続することができる。
デバイスインタフェース25は、外部装置4Bと直接接続するUSBなどのインタフェースである。つまり、コンピュータ装置2と外部装置4との接続は、ネットワークを介してでもよいし、直接でもよい。
なお、外部装置4(4Aおよび4B)は、注視点推定モデル生成装置14および注視点推定処理装置16以外の各装置でもよいし、外部記憶媒体でもよいし、ストレージ装置でもよい。
なお、外部装置4は入力装置でもよい。入力装置は、キーボード、マウス、タッチパネルなどのデバイスを備え、これらのデバイスにより入力された情報をコンピュータ装置2に与える。入力装置からの信号はプロセッサ21に出力される。
上記に、本発明の一実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1:注視点推定処理システム、11:学習用画像表示装置、12:注視点検出装置、13:属性データ提供装置、14:注視点推定モデル生成装置、141:学習用画像データ記憶部、142:検出注視点画像データ記憶部、143:属性データ記憶部、144:学習用画像解析部(オプティカルフロー算出部)、145:注視点推定モデル生成部(学習部)、15:推定用データ提供装置、16:注視点推定処理装置、161:注視点推定モデル記憶部、162:推定用画像解析部(オプティカルフロー算出部)、163:注視点推定部、164:画像加工部、165:画像評価部、166:注視物導出部、167:返答生成部、17:出力先装置、18:音データ提供装置、2:コンピュータ装置、21:プロセッサ、22:主記憶装置、23:補助記憶装置、24:ネットワークインタフェース、25:デバイスインタフェース、26:バス、3:通信ネットワーク、4(4A、4B):外部装置

Claims (31)

  1. 推定用画像に対するアイトラッキング情報をニューラルネットワークに入力することなく、前記ニューラルネットワークを用いて前記推定用画像から前記推定用画像に対する注視点に関する情報を推定する注視点推定部と、
    複数のニューラルネットワークを記憶する記憶部と、を備え、
    前記注視点推定部が、前記推定用画像の視聴者の属性に基づき、前記複数のニューラルネットワークから前記注視点に関する情報の推定に用いる前記ニューラルネットワークを選択する、
    推定装置。
  2. 推定用画像に対するアイトラッキング情報をニューラルネットワークに入力することなく、前記ニューラルネットワークを用いて前記推定用画像から前記推定用画像に対する注視点に関する情報を推定する注視点推定部、を備え、
    前記注視点推定部は、前記推定用画像の視聴者の属性を用いて、前記注視点を推定する、
    推定装置。
  3. 推定用画像に対するアイトラッキング情報をニューラルネットワークに入力することなく、前記ニューラルネットワークを用いて前記推定用画像から前記推定用画像に対する注視点に関する情報を推定する注視点推定部と、
    前記注視点に関する情報に基づき、前記推定用画像を加工する画像加工部と、を備える、
    推定装置。
  4. 推定用画像に対するアイトラッキング情報をニューラルネットワークに入力することなく、前記ニューラルネットワークを用いて前記推定用画像から前記推定用画像に対する注視点に関する情報を推定する注視点推定部と、
    前記注視点に関する情報に基づき、前記推定用画像を評価する評価部と、を備える、
    推定装置。
  5. 推定用画像に対するアイトラッキング情報をニューラルネットワークに入力することなく、前記ニューラルネットワークを用いて前記推定用画像から前記推定用画像に対する注視点に関する情報を推定する注視点推定部と、
    前記推定用画像と前記注視点に関する情報とに基づき、前記推定用画像の視聴者の注視物を導出する注視物導出部と、を備える、
    推定装置。
  6. 推定用画像に対するアイトラッキング情報をニューラルネットワークに入力することなく、前記ニューラルネットワークを用いて前記推定用画像から前記推定用画像に対する注視点に関する情報を推定する注視点推定部、を備え、
    前記注視点に関する情報は、前記推定用画像内のピクセルが前記注視点である可能性を示す画像であって、
    前記画像は、ヒートマップ、等高線図、及び、3次元グラフのうちの少なくとも一つである、
    推定装置。
  7. 推定用画像に対するアイトラッキング情報をニューラルネットワークに入力することなく、前記ニューラルネットワークを用いて前記推定用画像から前記推定用画像に対する注視点に関する情報を推定する注視点推定部、を備え、
    前記注視点に関する情報は、前記推定用画像内における領域に関する情報を含む、
    推定装置。
  8. 前記推定用画像からオプティカルフローを算出する算出部
    をさらに備え、
    前記注視点推定部は、前記オプティカルフローを用いて、前記注視点に関する情報を推定する
    請求項1ないし7のいずれか一項に記載の推定装置。
  9. 複数のニューラルネットワークを記憶する記憶部
    をさらに備え、
    前記注視点推定部が、前記推定用画像の視聴者の属性に基づき、前記複数のニューラルネットワークから前記注視点に関する情報の推定に用いる前記ニューラルネットワークを選択する、
    請求項2ないし8のうち1に従属しないいずれか一項に記載の推定装置。
  10. 前記注視点推定部は、前記推定用画像の視聴者の属性を用いて、前記注視点を推定する
    請求項1、3ないし9のうち2に従属しないいずれか一項に記載の推定装置。
  11. 前記注視点に関する情報に基づき、前記推定用画像を加工する画像加工部
    をさらに備える請求項1、2、4ないし10のうち3に従属しないいずれか一項に記載の推定装置。
  12. 前記注視点に関する情報に基づき、前記推定用画像を評価する評価部
    をさらに備える
    請求項1ないし3、5ないし11のうち4に従属しないいずれか一項に記載の推定装置。
  13. 前記推定用画像と前記注視点に関する情報とに基づき、前記推定用画像の視聴者の注視物を導出する注視物導出部
    をさらに備える請求項1ないし4、6ないし12のうち5に従属しないいずれか一項に記載の推定装置。
  14. 前記推定用画像の視聴者に関する入力データに前記注視物に関する情報が含まれている場合、前記注視物に関する返答を生成する返答生成部
    をさらに備える請求項5または13に記載の推定装置。
  15. 前記注視点に関する情報は、前記推定用画像内のピクセルが前記注視点である可能性を示す情報を含む、
    請求項1ないし5、7ないし14のうち6に従属しないいずれか一項に記載の推定装置。
  16. 前記注視点に関する情報は、前記推定用画像内のピクセルが前記注視点である可能性を示す画像である、
    請求項1ないし5、7ないし15のうち6に従属しないいずれか一項に記載の推定装置。
  17. 前記画像は、ヒートマップ、等高線図、及び、3次元グラフのうちの少なくとも一つである、
    請求項16に記載の推定装置。
  18. 前記注視点に関する情報は、前記推定用画像内における領域に関する情報を含む、
    請求項1ないし17のいずれか一項に記載の推定装置。
  19. 前記推定用画像の視聴者は、前記推定用画像を見る人である、
    請求項1、2、5のいずれか一項、または、8ないし18のうち1、2、5、9、10、13、14のいずれかに従属するいずれか一項に記載の推定装置。
  20. 請求項6、または、8ないし19のうち6、16のいずれかに従属するいずれか一項に記載の推定装置を用いて、前記注視点である可能性を示す画像を生成する方法。
  21. 画像を撮影する撮影装置と、
    請求項1ないし19のいずれか一項に記載の推定装置と、
    を備え、
    前記推定装置が、前記撮影装置によって撮影された画像を、前記推定用画像として受け取り、
    前記推定装置が、前記注視点に関する情報を前記撮影装置に送信し、
    前記撮影装置が、前記注視点の位置または周辺にある物体を撮影するために自装置の設定を変更する
    システム。
  22. 推定用画像に対するアイトラッキング情報をニューラルネットワークに入力することなく、前記ニューラルネットワークを用いて前記推定用画像から前記推定用画像に対する注視点に関する情報を推定する注視点推定部、を備え、移動体に搭載された撮影画像により撮影された画像を前記推定用画像として受け取る推定装置と、
    前記推定装置により推定された前記注視点に関する情報に基づき、前記移動体を移動させるように制御する制御装置と、
    を備えるシステム。
  23. 移動体に搭載された撮影装置により撮影された画像を前記推定用画像として受け取る請求項1ないし19のいずれか一項に記載の推定装置と、
    前記推定装置により推定された前記注視点に関する情報に基づき、前記移動体を移動させるように制御する制御装置と、
    を備えるシステム。
  24. ニューラルネットワークを記憶する少なくとも1つのメモリと、
    少なくとも1つのプロセッサと、を備え、
    前記少なくとも1つのプロセッサは、
    対象画像を前記ニューラルネットワークに入力することによって評価スコアを生成し、
    前記対象画像に対するアイトラッキング情報を前記ニューラルネットワークに入力することなく、前記対象画像内のピクセルが注視点である可能性を示す画像を生成し、
    生成された前記画像が、ヒートマップ、等高線図、及び、3次元グラフのうちの少なくとも一つである、
    評価装置。
  25. 学習用画像と前記学習用画像に対する注視点に関する情報とに基づく学習を行うことにより、ニューラルネットワークを生成するモデル生成方法であって、
    前記ニューラルネットワークは、前記学習用画像に対するアイトラッキング情報が入力されることなく、前記学習用画像が前記ニューラルネットワークに入力されることにより、前記注視点に関する情報を出力し、
    前記注視点に関する情報は、前記学習用画像内のピクセルが前記注視点である可能性を示す画像であって、
    前記画像は、ヒートマップ、等高線図、及び、3次元グラフのうちの少なくとも一つである、
    モデル生成方法。
  26. 推定用画像に対するアイトラッキング情報をニューラルネットワークに入力することなく、前記ニューラルネットワークを用いて前記推定用画像から前記推定用画像に対する注視点に関する情報を推定するステップ、を備え、
    前記注視点に関する情報は、前記推定用画像内のピクセルが前記注視点である可能性を示す画像であって、
    前記画像は、ヒートマップ、等高線図、及び、3次元グラフのうちの少なくとも一つである、
    画像の生成方法。
  27. 対象画像をニューラルネットワークに入力することによって評価スコアを生成するステップと、
    前記対象画像に対するアイトラッキング情報を前記ニューラルネットワークに入力することなく、前記対象画像内のピクセルが注視点である可能性を示す画像を生成するステップと、
    を備え、
    生成された前記画像が、ヒートマップ、等高線図、及び、3次元グラフのうちの少なくとも一つである、
    評価方法。
  28. 複数のニューラルネットワークから、前記対象画像の視聴者の属性に基づき、前記ニューラルネットワークを選択するステップ
    をさらに備える
    請求項27に記載の評価方法。
  29. 前記対象画像の視聴者の属性が、性別、年齢、出身地、住所、職業、家族構成、年収、趣味、及び、状態のうちの少なくとも一つである、
    請求項28に記載の評価方法。
  30. 前記対象画像の視聴者は、前記対象画像を見る人である、
    請求項28または29に記載の評価方法。
  31. 請求項25から請求項30のいずれかに記載の方法を少なくとも1台のコンピュータに実行させるプログラム。
JP2018068120A 2018-03-30 2018-03-30 注視点推定処理装置、注視点推定モデル生成装置、注視点推定処理システム、注視点推定処理方法、プログラム、および注視点推定モデル Active JP7118697B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018068120A JP7118697B2 (ja) 2018-03-30 2018-03-30 注視点推定処理装置、注視点推定モデル生成装置、注視点推定処理システム、注視点推定処理方法、プログラム、および注視点推定モデル
US16/370,528 US11341680B2 (en) 2018-03-30 2019-03-29 Gaze point estimation processing apparatus, gaze point estimation model generation apparatus, gaze point estimation processing system, and gaze point estimation processing method
US17/732,056 US11748904B2 (en) 2018-03-30 2022-04-28 Gaze point estimation processing apparatus, gaze point estimation model generation apparatus, gaze point estimation processing system, and gaze point estimation processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018068120A JP7118697B2 (ja) 2018-03-30 2018-03-30 注視点推定処理装置、注視点推定モデル生成装置、注視点推定処理システム、注視点推定処理方法、プログラム、および注視点推定モデル

Publications (3)

Publication Number Publication Date
JP2019179390A JP2019179390A (ja) 2019-10-17
JP2019179390A5 JP2019179390A5 (ja) 2021-09-09
JP7118697B2 true JP7118697B2 (ja) 2022-08-16

Family

ID=68056486

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018068120A Active JP7118697B2 (ja) 2018-03-30 2018-03-30 注視点推定処理装置、注視点推定モデル生成装置、注視点推定処理システム、注視点推定処理方法、プログラム、および注視点推定モデル

Country Status (2)

Country Link
US (2) US11341680B2 (ja)
JP (1) JP7118697B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7118697B2 (ja) * 2018-03-30 2022-08-16 株式会社Preferred Networks 注視点推定処理装置、注視点推定モデル生成装置、注視点推定処理システム、注視点推定処理方法、プログラム、および注視点推定モデル
EP3660733B1 (en) * 2018-11-30 2023-06-28 Tata Consultancy Services Limited Method and system for information extraction from document images using conversational interface and database querying
CN110728256A (zh) * 2019-10-22 2020-01-24 上海商汤智能科技有限公司 基于车载数字人的交互方法及装置、存储介质
EP3944159A1 (en) * 2020-07-17 2022-01-26 Tata Consultancy Services Limited Method and system for defending universal adversarial attacks on time-series data
JP7481205B2 (ja) 2020-08-26 2024-05-10 川崎重工業株式会社 ロボットシステム、ロボットの制御方法、情報処理装置、コンピュータプログラム、学習装置、及び学習済みモデルの生成方法
GB2599900B (en) * 2020-10-09 2023-01-11 Sony Interactive Entertainment Inc Data processing system and method for image enhancement
CN116965010A (zh) * 2021-02-26 2023-10-27 索尼集团公司 投射系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017155663A1 (en) 2016-03-11 2017-09-14 Qualcomm Incorporated Recurrent networks with motion-based attention for video understanding
JP2018022360A (ja) 2016-08-04 2018-02-08 株式会社リコー 画像解析装置、画像解析方法およびプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7515173B2 (en) * 2002-05-23 2009-04-07 Microsoft Corporation Head pose tracking system
US7306337B2 (en) * 2003-03-06 2007-12-11 Rensselaer Polytechnic Institute Calibration-free gaze tracking under natural head movement
US8885882B1 (en) * 2011-07-14 2014-11-11 The Research Foundation For The State University Of New York Real time eye tracking for human computer interaction
US9025880B2 (en) * 2012-08-29 2015-05-05 Disney Enterprises, Inc. Visual saliency estimation for images and video
KR20150122666A (ko) 2013-02-27 2015-11-02 톰슨 라이센싱 교정-프리 응시 추정을 위한 방법 및 디바이스
JP6187155B2 (ja) 2013-10-28 2017-08-30 株式会社デンソーアイティーラボラトリ 注視対象物推定装置
US9891707B2 (en) 2013-11-01 2018-02-13 Sony Corporation Information processing device, information processing method, and program for controlling a state of an application by gaze position
US9684827B2 (en) * 2014-03-26 2017-06-20 Microsoft Technology Licensing, Llc Eye gaze tracking based upon adaptive homography mapping
US10620700B2 (en) 2014-05-09 2020-04-14 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
CN104951084B (zh) * 2015-07-30 2017-12-29 京东方科技集团股份有限公司 视线追踪方法及装置
JP6713434B2 (ja) 2016-05-30 2020-06-24 日本電信電話株式会社 注目範囲推定装置、学習装置、それらの方法およびプログラム
US9898082B1 (en) * 2016-11-01 2018-02-20 Massachusetts Institute Of Technology Methods and apparatus for eye tracking
US10325396B2 (en) * 2017-02-14 2019-06-18 Linden Research, Inc. Virtual reality presentation of eye movement and eye contact
JP7118697B2 (ja) * 2018-03-30 2022-08-16 株式会社Preferred Networks 注視点推定処理装置、注視点推定モデル生成装置、注視点推定処理システム、注視点推定処理方法、プログラム、および注視点推定モデル
US20190324528A1 (en) * 2018-04-20 2019-10-24 Microsoft Technology Licensing, Llc Adjusting gaze point based on determined offset adjustment

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017155663A1 (en) 2016-03-11 2017-09-14 Qualcomm Incorporated Recurrent networks with motion-based attention for video understanding
JP2018022360A (ja) 2016-08-04 2018-02-08 株式会社リコー 画像解析装置、画像解析方法およびプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
TILKE Judd et al.,Learning to predict where humans look,2009 IEEE 12th International Conference on Computer Vision,IEEE,2009年09月29日,pp. 2106-2113,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=5459462
渡辺 隆,シグモイド型パルスジェネレータを取り入れたPulse-Coupled Neural Networkによる注視点探索法,計測自動制御学会論文集 第38巻 第8号,日本,計測自動制御学会,2002年08月31日,pp. 726-732

Also Published As

Publication number Publication date
US11341680B2 (en) 2022-05-24
US11748904B2 (en) 2023-09-05
JP2019179390A (ja) 2019-10-17
US20190304136A1 (en) 2019-10-03
US20220254063A1 (en) 2022-08-11

Similar Documents

Publication Publication Date Title
JP7118697B2 (ja) 注視点推定処理装置、注視点推定モデル生成装置、注視点推定処理システム、注視点推定処理方法、プログラム、および注視点推定モデル
US10573313B2 (en) Audio analysis learning with video data
US20240215882A1 (en) Systems and Methods for Using Mobile and Wearable Video Capture and Feedback Plat-Forms for Therapy of Mental Disorders
US11206450B2 (en) System, apparatus and method for providing services based on preferences
KR102425578B1 (ko) 객체를 인식하는 방법 및 장치
US20190133510A1 (en) Sporadic collection of affect data within a vehicle
JP6617013B2 (ja) ロボット広告システム、ロボット、ロボット広告方法及びプログラム
US11700420B2 (en) Media manipulation using cognitive state metric analysis
US11327320B2 (en) Electronic device and method of controlling the same
CN112632349B (zh) 展区指示方法、装置、电子设备及存储介质
US11657288B2 (en) Convolutional computing using multilayered analysis engine
KR20190118965A (ko) 시선 추적 시스템 및 방법
US20230334907A1 (en) Emotion Detection
CN112087590A (zh) 图像处理方法、装置、系统及计算机存储介质
KR20210051349A (ko) 전자장치 및 그 제어방법
EP3942552A1 (en) Methods and systems that provide emotion modifications during video chats
US20230360548A1 (en) Assist system, assist method, and assist program
JP7150688B2 (ja) コンテンツの顕著性を考慮してユーザの属性を推定する装置、プログラム及び方法
KR102675910B1 (ko) 자율 주행 기반의 안내 로봇 시스템 및 그 제어 방법
JP7354344B2 (ja) 画像解析装置、画像解析方法、およびプログラム
US20240342901A1 (en) Learning device, learning method, and program
JP7123028B2 (ja) 情報処理システム、情報処理方法、及びプログラム
EP4213105A1 (en) Gaze estimation system and method thereof
KR20220151596A (ko) 나이 추정 장치 및 나이를 추정하는 방법
KR20240016815A (ko) 얼굴 인식 기반 상호작용 상대방에 대한 사용자의 관계 감정 지수를 측정하는 시스템 및 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210726

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220715

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220803

R150 Certificate of patent or registration of utility model

Ref document number: 7118697

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150