JP7219788B2 - 情報処理装置、情報処理方法、学習方法、およびプログラム - Google Patents
情報処理装置、情報処理方法、学習方法、およびプログラム Download PDFInfo
- Publication number
- JP7219788B2 JP7219788B2 JP2021066697A JP2021066697A JP7219788B2 JP 7219788 B2 JP7219788 B2 JP 7219788B2 JP 2021066697 A JP2021066697 A JP 2021066697A JP 2021066697 A JP2021066697 A JP 2021066697A JP 7219788 B2 JP7219788 B2 JP 7219788B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- image
- sight
- line
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Ophthalmology & Optometry (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
そこで、本発明は、人物の目の画像に基づいて当該人物の視線を推定する際の推定精度を向上させるために有利な技術を提供することを目的とする。
ステップS11では、情報処理装置1(通信部1b)は、人物の撮影画像10を撮影部2から取得する。次いで、ステップS12では、情報処理装置1(生成部1c)は、ステップS11で取得した撮影画像10に対して公知の画像処理技術を適用することにより、撮影画像10から、人物の顔を含む部分画像を抽出画像11aとして、人物の左目を含む部分画像を抽出画像12aとして、および、人物の右目を含む部分画像を抽出画像13aとしてそれぞれ抽出する。
ステップS21では、撮影部2に人物を撮影させることで得られた撮影画像と、そのときの当該人物の視線の情報とを取得する。例えば、前述したように、人物の視線を所定箇所(目標箇所)に向けさせた状態で撮影部2に当該人物を撮影させることにより、撮影画像と人物の視線の情報とを取得することができる。本ステップS21で取得された人物の視線の情報は、教師データT(45)として用いられる。
また、上記実施形態で説明された1以上の機能を実現するプログラムは、ネットワーク又は記憶媒体を介してシステム又は装置に供給され、該システム又は装置のコンピュータにおける1以上のプロセッサは、このプログラムを読み出して実行することができる。このような態様によっても本発明は実現可能である。
1.上記実施形態の情報処理装置は、
人物の視線を推定する情報処理装置(例えば1)であって、
前記人物の顔の画像(例えば11b)を入力すると前記人物の顔の向きの演算結果を出力するように構成された第1モデル(例えばM1)を用いて、前記人物の顔の向きを推定する第1演算手段(例えば1d)と、
前記人物の目の画像(例えば12b、13b)を入力すると前記人物の視線の演算結果を出力するように構成された第2モデル(例えばM2、M3)を用いて、前記人物の視線を推定する第2演算手段(例えば1d)と、
を備え、
前記第2演算手段は、前記第1演算手段により推定された顔の向きに応じて、前記第2モデルの係数を変更する。
この実施形態によれば、人物の顔の向きに応じて変わりうる当該人物の視線を精度よく推定することが可能となる。
前記第2モデルは、前記目の画像の特徴量マップに重み付けを行うAttention機構(例えば25、29)を有し、
前記第2演算手段は、前記第1演算手段により推定された顔の向きに応じて、前記Attention機構における重み付け係数を変更する。
この実施形態によれば、人物の顔の向きに応じて変わりうる当該人物の視線を精度よく推定することが可能となる。
撮影手段(例えば2)で得られた前記人物の画像(例えば10)を取得する取得手段(例えば1b、1c)と、
前記取得手段で取得された前記人物の画像から、前記第1モデルに入力される前記人物の顔の画像(例えば11b)を生成するとともに、前記第2モデルに入力される前記人物の目の画像(例えば12b、13b)を生成する生成手段(例えば1c)と、を更に備える。
この実施形態によれば、撮影手段(カメラ)で得られた1つの人物の画像から、人物の顔の画像および目の画像をそれぞれ得ることができ、それらの画像に基づいて当該人物の画像を精度よく推定することが可能となる。
前記第2演算手段は、前記人物の目の画像を反転させた反転画像(例えば13b)を前記第2モデル(例えばM3)に入力し、前記第2モデルから出力された視線情報を反転させて得られる情報(例えば33)に基づいて、前記人物の視線を推定する。
この実施形態によれば、人物の左目の視線と右目の視線とを共通のモデルを用いて推定することができ、その場合であっても、左目の視線および右目の視線を、当該人物の顔の向きに応じて精度よく推定することができる。
前記第2演算手段は、前記第1演算手段により推定された顔の向きを反転させて(例えば23)得られる顔の向きに応じて、前記第2モデルの係数を変更する。
この実施形態によれば、人物の左目の視線と右目の視線とを共通のモデルを用いて推定する場合において、左目の視線および右目の視線を、当該人物の顔の向きに応じて精度よく推定することができる。
Claims (8)
- 人物の視線を推定する情報処理装置であって、
前記人物の顔の画像を入力すると前記人物の顔の向きの演算結果を出力するように構成された第1モデルを用いて、前記人物の顔の向きを推定する第1演算手段と、
前記人物の目の画像を入力すると前記人物の視線の演算結果を出力するように構成された第2モデルを用いて、前記人物の視線を推定する第2演算手段と、
を備え、
前記第2モデルは、前記目の画像の特徴量マップに重み付けを行うAttention機構を有し、
前記第2演算手段は、前記第1演算手段により推定された顔の向きに応じて、前記Attention機構における重み付け係数を変更する、
ことを特徴とする情報処理装置。 - 撮影手段で得られた前記人物の画像を取得する取得手段と、
前記取得手段で取得された前記人物の画像から、前記第1モデルに入力される前記人物の顔の画像を生成するとともに、前記第2モデルに入力される前記人物の目の画像を生成する生成手段と、
を更に備えることを特徴とする請求項1に記載の情報処理装置。 - 前記第2演算手段は、前記人物の目の画像を反転させた反転画像を前記第2モデルに入力し、前記第2モデルから出力された視線情報を反転させて得られる情報に基づいて、前記人物の視線を推定する、ことを特徴とする請求項1又は2に記載の情報処理装置。
- 前記第2演算手段は、前記第1演算手段により推定された顔の向きを反転させて得られる顔の向きに応じて、前記第2モデルの係数を変更する、ことを特徴とする請求項3に記載の情報処理装置。
- 情報処理装置により人物の視線を推定する情報処理方法であって、
前記人物の顔の画像を入力すると顔の向きの演算結果を出力するように構成された第1モデルを用いて、前記人物の顔の向きを推定する第1演算工程と、
前記人物の目の画像を入力すると視線の演算結果を出力するように構成された第2モデルを用いて、前記人物の視線を推定する第2演算工程と、
を含み、
前記第2モデルは、前記目の画像の特徴量マップに重み付けを行うAttention機構を有し、
前記第2演算工程では、前記第1演算工程で推定された顔の向きに応じて、前記Attention機構における重み付け係数を変更する、
ことを特徴とする情報処理方法。 - 請求項5に記載の情報処理方法の各工程をコンピュータに実行させるためのプログラム。
- 人物の視線を推定する情報処理装置における学習方法であって、
前記人物の画像から、前記人物の顔の画像と、前記人物の目の画像とを抽出する抽出工程と、
請求項5に記載の情報処理方法により、前記抽出工程で抽出された前記顔の画像および前記目の画像に基づいて、前記人物の視線を前記情報処理装置に推定させる推定工程と、
前記人物の画像が得られたときの前記人物の視線の情報を教師データとして取得する取得工程と、
前記推定工程で推定された前記人物の視線と、前記教師データとしての前記取得工程で取得された前記人物の視線とのずれ量が低減するように、前記情報処理装置に学習させる学習工程と、
を含むことを特徴とする学習方法。 - 請求項7に記載の学習方法の各工程をコンピュータに実行させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021066697A JP7219788B2 (ja) | 2021-04-09 | 2021-04-09 | 情報処理装置、情報処理方法、学習方法、およびプログラム |
US17/674,472 US20220326768A1 (en) | 2021-04-09 | 2022-02-17 | Information processing apparatus, information processing method, learning method, and storage medium |
CN202210176018.1A CN115205829A (zh) | 2021-04-09 | 2022-02-25 | 信息处理装置、信息处理方法、学习方法以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021066697A JP7219788B2 (ja) | 2021-04-09 | 2021-04-09 | 情報処理装置、情報処理方法、学習方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022161690A JP2022161690A (ja) | 2022-10-21 |
JP7219788B2 true JP7219788B2 (ja) | 2023-02-08 |
Family
ID=83509265
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021066697A Active JP7219788B2 (ja) | 2021-04-09 | 2021-04-09 | 情報処理装置、情報処理方法、学習方法、およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220326768A1 (ja) |
JP (1) | JP7219788B2 (ja) |
CN (1) | CN115205829A (ja) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007265367A (ja) | 2006-03-30 | 2007-10-11 | Fujifilm Corp | 視線検出方法および装置ならびにプログラム |
JP2010282339A (ja) | 2009-06-03 | 2010-12-16 | Seiko Epson Corp | 目における瞳の位置を補正する画像処理装置、画像処理方法、画像処理プログラム、および、印刷装置 |
WO2018078857A1 (ja) | 2016-10-31 | 2018-05-03 | 日本電気株式会社 | 視線推定装置、視線推定方法及びプログラム記録媒体 |
JP2019028843A (ja) | 2017-08-01 | 2019-02-21 | オムロン株式会社 | 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法 |
JP2019519859A (ja) | 2016-06-29 | 2019-07-11 | シーイング マシーンズ リミテッド | 視線追跡を実行するシステム及び方法 |
WO2019206038A1 (zh) | 2018-04-24 | 2019-10-31 | 北京市商汤科技开发有限公司 | 一种关注信息的处理方法及装置、存储介质、电子设备 |
JP2020038432A (ja) | 2018-09-03 | 2020-03-12 | Zホールディングス株式会社 | 画像解析装置、画像解析方法、およびプログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101644015B1 (ko) * | 2009-11-27 | 2016-08-01 | 삼성전자주식회사 | 시스템과 다수 사용자 간의 대화 인터페이스 장치 |
US11301677B2 (en) * | 2019-06-14 | 2022-04-12 | Tobil AB | Deep learning for three dimensional (3D) gaze prediction |
JP7219787B2 (ja) * | 2021-04-09 | 2023-02-08 | 本田技研工業株式会社 | 情報処理装置、情報処理方法、学習方法、およびプログラム |
CN115393388A (zh) * | 2021-05-24 | 2022-11-25 | 南京大学 | 一种基于位置不确定性估计的单目标跟踪方法 |
-
2021
- 2021-04-09 JP JP2021066697A patent/JP7219788B2/ja active Active
-
2022
- 2022-02-17 US US17/674,472 patent/US20220326768A1/en active Pending
- 2022-02-25 CN CN202210176018.1A patent/CN115205829A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007265367A (ja) | 2006-03-30 | 2007-10-11 | Fujifilm Corp | 視線検出方法および装置ならびにプログラム |
JP2010282339A (ja) | 2009-06-03 | 2010-12-16 | Seiko Epson Corp | 目における瞳の位置を補正する画像処理装置、画像処理方法、画像処理プログラム、および、印刷装置 |
JP2019519859A (ja) | 2016-06-29 | 2019-07-11 | シーイング マシーンズ リミテッド | 視線追跡を実行するシステム及び方法 |
WO2018078857A1 (ja) | 2016-10-31 | 2018-05-03 | 日本電気株式会社 | 視線推定装置、視線推定方法及びプログラム記録媒体 |
JP2019028843A (ja) | 2017-08-01 | 2019-02-21 | オムロン株式会社 | 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法 |
WO2019206038A1 (zh) | 2018-04-24 | 2019-10-31 | 北京市商汤科技开发有限公司 | 一种关注信息的处理方法及装置、存储介质、电子设备 |
JP2020038432A (ja) | 2018-09-03 | 2020-03-12 | Zホールディングス株式会社 | 画像解析装置、画像解析方法、およびプログラム |
Non-Patent Citations (2)
Title |
---|
Anjith George et al.,"Real-time Eye Gaze Direction Classification Using Convolutional Neural Network",2016 International Conference on Signal Processing and Communications (SPCOM),米国,IEEE,2016年06月12日,pp.1-6 |
渡邉 隆介、外4名,"インナーミラー内蔵撮像システムによる視線の検出",電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会,2006年05月18日,Vol.106, No.72,pp.65-69 |
Also Published As
Publication number | Publication date |
---|---|
CN115205829A (zh) | 2022-10-18 |
JP2022161690A (ja) | 2022-10-21 |
US20220326768A1 (en) | 2022-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021503134A (ja) | 画像深度とエゴモーション予測ニューラルネットワークの教師なし学習 | |
JP2019028843A (ja) | 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法 | |
KR20190098003A (ko) | 장치의 자세 추정 방법 및 그 장치 | |
JP7345664B2 (ja) | 不確実性を有するランドマーク位置推定のための画像処理システムおよび方法 | |
JP7219787B2 (ja) | 情報処理装置、情報処理方法、学習方法、およびプログラム | |
WO2020150077A1 (en) | Camera self-calibration network | |
JP2018097573A (ja) | 顔向き推定用コンピュータプログラム、顔向き推定装置及び顔向き推定方法 | |
CN111680573B (zh) | 人脸识别方法、装置、电子设备和存储介质 | |
JP5062531B2 (ja) | 画像処理装置および画像処理方法 | |
JP7219788B2 (ja) | 情報処理装置、情報処理方法、学習方法、およびプログラム | |
JPWO2020085028A1 (ja) | 画像認識装置および画像認識方法 | |
JP2018149990A (ja) | 運転者の着座判定装置 | |
JP2021051347A (ja) | 距離画像生成装置及び距離画像生成方法 | |
JP6737212B2 (ja) | 運転者状態推定装置、及び運転者状態推定方法 | |
JP2022018333A (ja) | プログラム、情報処理方法、情報処理装置及びモデル生成方法 | |
CN114078155A (zh) | 用未标记成对图像训练神经网络以得出对象视角的方法及系统 | |
JP5215615B2 (ja) | 3次元位置情報復元装置およびその方法 | |
CN116934829B (zh) | 无人机目标深度估计的方法、装置、存储介质及电子设备 | |
JP2021033938A (ja) | 顔向き推定装置及び方法 | |
JP7371154B2 (ja) | 顔の姿勢を検出する装置及び方法、画像処理システム、並びに記憶媒体 | |
JP7419993B2 (ja) | 信頼度推定プログラム、信頼度推定方法、および信頼度推定装置 | |
JP7124746B2 (ja) | 物体の部分位置推定プログラム、物体の部分位置推定用ニューラルネットワーク構造、物体の部分位置推定方法、および物体の部分位置推定装置 | |
WO2023155043A1 (zh) | 一种基于历史信息的场景深度推理方法、装置及电子设备 | |
CN117456124B (zh) | 一种基于背靠背双目鱼眼相机的稠密slam的方法 | |
US11443455B2 (en) | Prior informed pose and scale estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221128 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230123 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230127 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7219788 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |