JP7118697B2 - 注視点推定処理装置、注視点推定モデル生成装置、注視点推定処理システム、注視点推定処理方法、プログラム、および注視点推定モデル - Google Patents
注視点推定処理装置、注視点推定モデル生成装置、注視点推定処理システム、注視点推定処理方法、プログラム、および注視点推定モデル Download PDFInfo
- Publication number
- JP7118697B2 JP7118697B2 JP2018068120A JP2018068120A JP7118697B2 JP 7118697 B2 JP7118697 B2 JP 7118697B2 JP 2018068120 A JP2018068120 A JP 2018068120A JP 2018068120 A JP2018068120 A JP 2018068120A JP 7118697 B2 JP7118697 B2 JP 7118697B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- point
- estimation
- regard
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Human Computer Interaction (AREA)
- Ophthalmology & Optometry (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Signal Processing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Controls And Circuits For Display Device (AREA)
Description
図1は、第1の実施形態に係る注視点推定処理システムの一例を示すブロック図である。図1に示された注視点推定処理システム1は、学習用画像表示装置11と、注視点検出装置12と、属性データ提供装置13と、注視点推定モデル生成装置14と、推定用データ提供装置15と、注視点推定処理装置16と、出力先装置17と、を備える。注視点推定モデル生成装置14は、学習用画像データ記憶部141と、検出注視点画像データ記憶部142と、属性データ記憶部143と、学習用画像解析部(オプティカルフロー算出部)144と、注視点推定モデル生成部(学習部)145と、を備える。注視点推定処理装置16は、注視点推定モデル記憶部161と、推定用画像解析部(オプティカルフロー算出部)162と、注視点推定部163と、を備える。
図6は、第2の実施形態に係る注視点推定処理システムの一例を示すブロック図である。図6に示された注視点推定処理システム1では、注視点推定処理装置16が、画像加工部164をさらに備える。なお、第1の実施形態と同様な点は、説明を省略する。
図8は、第3の実施形態に係る注視点推定処理システムの一例を示すブロック図である。図8に示された注視点推定処理システム1では、注視点推定処理装置16が、画像評価部165をさらに備える。なお、第1の実施形態と同様な点は、説明を省略する。
図10は、第4の実施形態に係る注視点推定処理システムの一例を示すブロック図である。図10に示された注視点推定処理システム1では、音データ提供装置18をさらに備える。また、注視点推定処理装置16が、注視物導出部166と、返答生成部167と、をさらに備える。なお、第1の実施形態と同様な点は、説明を省略する。
Claims (31)
- 推定用画像に対するアイトラッキング情報をニューラルネットワークに入力することなく、前記ニューラルネットワークを用いて前記推定用画像から前記推定用画像に対する注視点に関する情報を推定する注視点推定部と、
複数のニューラルネットワークを記憶する記憶部と、を備え、
前記注視点推定部が、前記推定用画像の視聴者の属性に基づき、前記複数のニューラルネットワークから前記注視点に関する情報の推定に用いる前記ニューラルネットワークを選択する、
推定装置。 - 推定用画像に対するアイトラッキング情報をニューラルネットワークに入力することなく、前記ニューラルネットワークを用いて前記推定用画像から前記推定用画像に対する注視点に関する情報を推定する注視点推定部、を備え、
前記注視点推定部は、前記推定用画像の視聴者の属性を用いて、前記注視点を推定する、
推定装置。 - 推定用画像に対するアイトラッキング情報をニューラルネットワークに入力することなく、前記ニューラルネットワークを用いて前記推定用画像から前記推定用画像に対する注視点に関する情報を推定する注視点推定部と、
前記注視点に関する情報に基づき、前記推定用画像を加工する画像加工部と、を備える、
推定装置。 - 推定用画像に対するアイトラッキング情報をニューラルネットワークに入力することなく、前記ニューラルネットワークを用いて前記推定用画像から前記推定用画像に対する注視点に関する情報を推定する注視点推定部と、
前記注視点に関する情報に基づき、前記推定用画像を評価する評価部と、を備える、
推定装置。 - 推定用画像に対するアイトラッキング情報をニューラルネットワークに入力することなく、前記ニューラルネットワークを用いて前記推定用画像から前記推定用画像に対する注視点に関する情報を推定する注視点推定部と、
前記推定用画像と前記注視点に関する情報とに基づき、前記推定用画像の視聴者の注視物を導出する注視物導出部と、を備える、
推定装置。 - 推定用画像に対するアイトラッキング情報をニューラルネットワークに入力することなく、前記ニューラルネットワークを用いて前記推定用画像から前記推定用画像に対する注視点に関する情報を推定する注視点推定部、を備え、
前記注視点に関する情報は、前記推定用画像内のピクセルが前記注視点である可能性を示す画像であって、
前記画像は、ヒートマップ、等高線図、及び、3次元グラフのうちの少なくとも一つである、
推定装置。 - 推定用画像に対するアイトラッキング情報をニューラルネットワークに入力することなく、前記ニューラルネットワークを用いて前記推定用画像から前記推定用画像に対する注視点に関する情報を推定する注視点推定部、を備え、
前記注視点に関する情報は、前記推定用画像内における領域に関する情報を含む、
推定装置。 - 前記推定用画像からオプティカルフローを算出する算出部
をさらに備え、
前記注視点推定部は、前記オプティカルフローを用いて、前記注視点に関する情報を推定する
請求項1ないし7のいずれか一項に記載の推定装置。 - 複数のニューラルネットワークを記憶する記憶部
をさらに備え、
前記注視点推定部が、前記推定用画像の視聴者の属性に基づき、前記複数のニューラルネットワークから前記注視点に関する情報の推定に用いる前記ニューラルネットワークを選択する、
請求項2ないし8のうち1に従属しないいずれか一項に記載の推定装置。 - 前記注視点推定部は、前記推定用画像の視聴者の属性を用いて、前記注視点を推定する
請求項1、3ないし9のうち2に従属しないいずれか一項に記載の推定装置。 - 前記注視点に関する情報に基づき、前記推定用画像を加工する画像加工部
をさらに備える請求項1、2、4ないし10のうち3に従属しないいずれか一項に記載の推定装置。 - 前記注視点に関する情報に基づき、前記推定用画像を評価する評価部
をさらに備える
請求項1ないし3、5ないし11のうち4に従属しないいずれか一項に記載の推定装置。 - 前記推定用画像と前記注視点に関する情報とに基づき、前記推定用画像の視聴者の注視物を導出する注視物導出部
をさらに備える請求項1ないし4、6ないし12のうち5に従属しないいずれか一項に記載の推定装置。 - 前記推定用画像の視聴者に関する入力データに前記注視物に関する情報が含まれている場合、前記注視物に関する返答を生成する返答生成部
をさらに備える請求項5または13に記載の推定装置。 - 前記注視点に関する情報は、前記推定用画像内のピクセルが前記注視点である可能性を示す情報を含む、
請求項1ないし5、7ないし14のうち6に従属しないいずれか一項に記載の推定装置。 - 前記注視点に関する情報は、前記推定用画像内のピクセルが前記注視点である可能性を示す画像である、
請求項1ないし5、7ないし15のうち6に従属しないいずれか一項に記載の推定装置。 - 前記画像は、ヒートマップ、等高線図、及び、3次元グラフのうちの少なくとも一つである、
請求項16に記載の推定装置。 - 前記注視点に関する情報は、前記推定用画像内における領域に関する情報を含む、
請求項1ないし17のいずれか一項に記載の推定装置。 - 前記推定用画像の視聴者は、前記推定用画像を見る人である、
請求項1、2、5のいずれか一項、または、8ないし18のうち1、2、5、9、10、13、14のいずれかに従属するいずれか一項に記載の推定装置。 - 請求項6、または、8ないし19のうち6、16のいずれかに従属するいずれか一項に記載の推定装置を用いて、前記注視点である可能性を示す画像を生成する方法。
- 画像を撮影する撮影装置と、
請求項1ないし19のいずれか一項に記載の推定装置と、
を備え、
前記推定装置が、前記撮影装置によって撮影された画像を、前記推定用画像として受け取り、
前記推定装置が、前記注視点に関する情報を前記撮影装置に送信し、
前記撮影装置が、前記注視点の位置または周辺にある物体を撮影するために自装置の設定を変更する
システム。 - 推定用画像に対するアイトラッキング情報をニューラルネットワークに入力することなく、前記ニューラルネットワークを用いて前記推定用画像から前記推定用画像に対する注視点に関する情報を推定する注視点推定部、を備え、移動体に搭載された撮影画像により撮影された画像を前記推定用画像として受け取る推定装置と、
前記推定装置により推定された前記注視点に関する情報に基づき、前記移動体を移動させるように制御する制御装置と、
を備えるシステム。 - 移動体に搭載された撮影装置により撮影された画像を前記推定用画像として受け取る請求項1ないし19のいずれか一項に記載の推定装置と、
前記推定装置により推定された前記注視点に関する情報に基づき、前記移動体を移動させるように制御する制御装置と、
を備えるシステム。 - ニューラルネットワークを記憶する少なくとも1つのメモリと、
少なくとも1つのプロセッサと、を備え、
前記少なくとも1つのプロセッサは、
対象画像を前記ニューラルネットワークに入力することによって評価スコアを生成し、
前記対象画像に対するアイトラッキング情報を前記ニューラルネットワークに入力することなく、前記対象画像内のピクセルが注視点である可能性を示す画像を生成し、
生成された前記画像が、ヒートマップ、等高線図、及び、3次元グラフのうちの少なくとも一つである、
評価装置。 - 学習用画像と前記学習用画像に対する注視点に関する情報とに基づく学習を行うことにより、ニューラルネットワークを生成するモデル生成方法であって、
前記ニューラルネットワークは、前記学習用画像に対するアイトラッキング情報が入力されることなく、前記学習用画像が前記ニューラルネットワークに入力されることにより、前記注視点に関する情報を出力し、
前記注視点に関する情報は、前記学習用画像内のピクセルが前記注視点である可能性を示す画像であって、
前記画像は、ヒートマップ、等高線図、及び、3次元グラフのうちの少なくとも一つである、
モデル生成方法。 - 推定用画像に対するアイトラッキング情報をニューラルネットワークに入力することなく、前記ニューラルネットワークを用いて前記推定用画像から前記推定用画像に対する注視点に関する情報を推定するステップ、を備え、
前記注視点に関する情報は、前記推定用画像内のピクセルが前記注視点である可能性を示す画像であって、
前記画像は、ヒートマップ、等高線図、及び、3次元グラフのうちの少なくとも一つである、
画像の生成方法。 - 対象画像をニューラルネットワークに入力することによって評価スコアを生成するステップと、
前記対象画像に対するアイトラッキング情報を前記ニューラルネットワークに入力することなく、前記対象画像内のピクセルが注視点である可能性を示す画像を生成するステップと、
を備え、
生成された前記画像が、ヒートマップ、等高線図、及び、3次元グラフのうちの少なくとも一つである、
評価方法。 - 複数のニューラルネットワークから、前記対象画像の視聴者の属性に基づき、前記ニューラルネットワークを選択するステップ
をさらに備える
請求項27に記載の評価方法。 - 前記対象画像の視聴者の属性が、性別、年齢、出身地、住所、職業、家族構成、年収、趣味、及び、状態のうちの少なくとも一つである、
請求項28に記載の評価方法。 - 前記対象画像の視聴者は、前記対象画像を見る人である、
請求項28または29に記載の評価方法。 - 請求項25から請求項30のいずれかに記載の方法を少なくとも1台のコンピュータに実行させるプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018068120A JP7118697B2 (ja) | 2018-03-30 | 2018-03-30 | 注視点推定処理装置、注視点推定モデル生成装置、注視点推定処理システム、注視点推定処理方法、プログラム、および注視点推定モデル |
US16/370,528 US11341680B2 (en) | 2018-03-30 | 2019-03-29 | Gaze point estimation processing apparatus, gaze point estimation model generation apparatus, gaze point estimation processing system, and gaze point estimation processing method |
US17/732,056 US11748904B2 (en) | 2018-03-30 | 2022-04-28 | Gaze point estimation processing apparatus, gaze point estimation model generation apparatus, gaze point estimation processing system, and gaze point estimation processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018068120A JP7118697B2 (ja) | 2018-03-30 | 2018-03-30 | 注視点推定処理装置、注視点推定モデル生成装置、注視点推定処理システム、注視点推定処理方法、プログラム、および注視点推定モデル |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019179390A JP2019179390A (ja) | 2019-10-17 |
JP2019179390A5 JP2019179390A5 (ja) | 2021-09-09 |
JP7118697B2 true JP7118697B2 (ja) | 2022-08-16 |
Family
ID=68056486
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018068120A Active JP7118697B2 (ja) | 2018-03-30 | 2018-03-30 | 注視点推定処理装置、注視点推定モデル生成装置、注視点推定処理システム、注視点推定処理方法、プログラム、および注視点推定モデル |
Country Status (2)
Country | Link |
---|---|
US (2) | US11341680B2 (ja) |
JP (1) | JP7118697B2 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7118697B2 (ja) * | 2018-03-30 | 2022-08-16 | 株式会社Preferred Networks | 注視点推定処理装置、注視点推定モデル生成装置、注視点推定処理システム、注視点推定処理方法、プログラム、および注視点推定モデル |
EP3660733B1 (en) * | 2018-11-30 | 2023-06-28 | Tata Consultancy Services Limited | Method and system for information extraction from document images using conversational interface and database querying |
CN110728256A (zh) * | 2019-10-22 | 2020-01-24 | 上海商汤智能科技有限公司 | 基于车载数字人的交互方法及装置、存储介质 |
EP3944159A1 (en) * | 2020-07-17 | 2022-01-26 | Tata Consultancy Services Limited | Method and system for defending universal adversarial attacks on time-series data |
JP7481205B2 (ja) | 2020-08-26 | 2024-05-10 | 川崎重工業株式会社 | ロボットシステム、ロボットの制御方法、情報処理装置、コンピュータプログラム、学習装置、及び学習済みモデルの生成方法 |
GB2599900B (en) * | 2020-10-09 | 2023-01-11 | Sony Interactive Entertainment Inc | Data processing system and method for image enhancement |
CN116965010A (zh) * | 2021-02-26 | 2023-10-27 | 索尼集团公司 | 投射系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017155663A1 (en) | 2016-03-11 | 2017-09-14 | Qualcomm Incorporated | Recurrent networks with motion-based attention for video understanding |
JP2018022360A (ja) | 2016-08-04 | 2018-02-08 | 株式会社リコー | 画像解析装置、画像解析方法およびプログラム |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7515173B2 (en) * | 2002-05-23 | 2009-04-07 | Microsoft Corporation | Head pose tracking system |
US7306337B2 (en) * | 2003-03-06 | 2007-12-11 | Rensselaer Polytechnic Institute | Calibration-free gaze tracking under natural head movement |
US8885882B1 (en) * | 2011-07-14 | 2014-11-11 | The Research Foundation For The State University Of New York | Real time eye tracking for human computer interaction |
US9025880B2 (en) * | 2012-08-29 | 2015-05-05 | Disney Enterprises, Inc. | Visual saliency estimation for images and video |
KR20150122666A (ko) | 2013-02-27 | 2015-11-02 | 톰슨 라이센싱 | 교정-프리 응시 추정을 위한 방법 및 디바이스 |
JP6187155B2 (ja) | 2013-10-28 | 2017-08-30 | 株式会社デンソーアイティーラボラトリ | 注視対象物推定装置 |
US9891707B2 (en) | 2013-11-01 | 2018-02-13 | Sony Corporation | Information processing device, information processing method, and program for controlling a state of an application by gaze position |
US9684827B2 (en) * | 2014-03-26 | 2017-06-20 | Microsoft Technology Licensing, Llc | Eye gaze tracking based upon adaptive homography mapping |
US10620700B2 (en) | 2014-05-09 | 2020-04-14 | Google Llc | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
CN104951084B (zh) * | 2015-07-30 | 2017-12-29 | 京东方科技集团股份有限公司 | 视线追踪方法及装置 |
JP6713434B2 (ja) | 2016-05-30 | 2020-06-24 | 日本電信電話株式会社 | 注目範囲推定装置、学習装置、それらの方法およびプログラム |
US9898082B1 (en) * | 2016-11-01 | 2018-02-20 | Massachusetts Institute Of Technology | Methods and apparatus for eye tracking |
US10325396B2 (en) * | 2017-02-14 | 2019-06-18 | Linden Research, Inc. | Virtual reality presentation of eye movement and eye contact |
JP7118697B2 (ja) * | 2018-03-30 | 2022-08-16 | 株式会社Preferred Networks | 注視点推定処理装置、注視点推定モデル生成装置、注視点推定処理システム、注視点推定処理方法、プログラム、および注視点推定モデル |
US20190324528A1 (en) * | 2018-04-20 | 2019-10-24 | Microsoft Technology Licensing, Llc | Adjusting gaze point based on determined offset adjustment |
-
2018
- 2018-03-30 JP JP2018068120A patent/JP7118697B2/ja active Active
-
2019
- 2019-03-29 US US16/370,528 patent/US11341680B2/en active Active
-
2022
- 2022-04-28 US US17/732,056 patent/US11748904B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017155663A1 (en) | 2016-03-11 | 2017-09-14 | Qualcomm Incorporated | Recurrent networks with motion-based attention for video understanding |
JP2018022360A (ja) | 2016-08-04 | 2018-02-08 | 株式会社リコー | 画像解析装置、画像解析方法およびプログラム |
Non-Patent Citations (2)
Title |
---|
TILKE Judd et al.,Learning to predict where humans look,2009 IEEE 12th International Conference on Computer Vision,IEEE,2009年09月29日,pp. 2106-2113,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=5459462 |
渡辺 隆,シグモイド型パルスジェネレータを取り入れたPulse-Coupled Neural Networkによる注視点探索法,計測自動制御学会論文集 第38巻 第8号,日本,計測自動制御学会,2002年08月31日,pp. 726-732 |
Also Published As
Publication number | Publication date |
---|---|
US11341680B2 (en) | 2022-05-24 |
US11748904B2 (en) | 2023-09-05 |
JP2019179390A (ja) | 2019-10-17 |
US20190304136A1 (en) | 2019-10-03 |
US20220254063A1 (en) | 2022-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7118697B2 (ja) | 注視点推定処理装置、注視点推定モデル生成装置、注視点推定処理システム、注視点推定処理方法、プログラム、および注視点推定モデル | |
US10573313B2 (en) | Audio analysis learning with video data | |
US20240215882A1 (en) | Systems and Methods for Using Mobile and Wearable Video Capture and Feedback Plat-Forms for Therapy of Mental Disorders | |
US11206450B2 (en) | System, apparatus and method for providing services based on preferences | |
KR102425578B1 (ko) | 객체를 인식하는 방법 및 장치 | |
US20190133510A1 (en) | Sporadic collection of affect data within a vehicle | |
JP6617013B2 (ja) | ロボット広告システム、ロボット、ロボット広告方法及びプログラム | |
US11700420B2 (en) | Media manipulation using cognitive state metric analysis | |
US11327320B2 (en) | Electronic device and method of controlling the same | |
CN112632349B (zh) | 展区指示方法、装置、电子设备及存储介质 | |
US11657288B2 (en) | Convolutional computing using multilayered analysis engine | |
KR20190118965A (ko) | 시선 추적 시스템 및 방법 | |
US20230334907A1 (en) | Emotion Detection | |
CN112087590A (zh) | 图像处理方法、装置、系统及计算机存储介质 | |
KR20210051349A (ko) | 전자장치 및 그 제어방법 | |
EP3942552A1 (en) | Methods and systems that provide emotion modifications during video chats | |
US20230360548A1 (en) | Assist system, assist method, and assist program | |
JP7150688B2 (ja) | コンテンツの顕著性を考慮してユーザの属性を推定する装置、プログラム及び方法 | |
KR102675910B1 (ko) | 자율 주행 기반의 안내 로봇 시스템 및 그 제어 방법 | |
JP7354344B2 (ja) | 画像解析装置、画像解析方法、およびプログラム | |
US20240342901A1 (en) | Learning device, learning method, and program | |
JP7123028B2 (ja) | 情報処理システム、情報処理方法、及びプログラム | |
EP4213105A1 (en) | Gaze estimation system and method thereof | |
KR20220151596A (ko) | 나이 추정 장치 및 나이를 추정하는 방법 | |
KR20240016815A (ko) | 얼굴 인식 기반 상호작용 상대방에 대한 사용자의 관계 감정 지수를 측정하는 시스템 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210127 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210127 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210726 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220218 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220418 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220715 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220803 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7118697 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |