WO2021256288A1 - 顔構造推定装置、顔構造推定方法、および顔構造推定プログラム - Google Patents

顔構造推定装置、顔構造推定方法、および顔構造推定プログラム Download PDF

Info

Publication number
WO2021256288A1
WO2021256288A1 PCT/JP2021/021273 JP2021021273W WO2021256288A1 WO 2021256288 A1 WO2021256288 A1 WO 2021256288A1 JP 2021021273 W JP2021021273 W JP 2021021273W WO 2021256288 A1 WO2021256288 A1 WO 2021256288A1
Authority
WO
WIPO (PCT)
Prior art keywords
face
face image
face structure
estimation
feature points
Prior art date
Application number
PCT/JP2021/021273
Other languages
English (en)
French (fr)
Inventor
ジェチョル キム
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to EP21826406.7A priority Critical patent/EP4170586A4/en
Priority to CN202180043887.0A priority patent/CN115917591A/zh
Priority to US18/000,487 priority patent/US20230215016A1/en
Publication of WO2021256288A1 publication Critical patent/WO2021256288A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/771Feature selection, e.g. selecting representative features from a multi-dimensional feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • G06V10/7792Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being an automated module, e.g. "intelligent oracle"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Definitions

  • the present invention relates to a face structure estimation device, a face structure estimation method, and a face structure estimation program.
  • the face structure estimation device from the first viewpoint is The acquisition part that acquires the face image and A control unit that outputs the face structure of the face image is provided.
  • the control unit It functions as an estimation unit that estimates the face structure of the face image based on the face image acquired by the acquisition unit.
  • the starting feature points constituting the face structure are tracked by a predetermined tracking algorithm in the face image of the frame after the frame of the face image used for estimating the face structure, and the tracked feature points are tracked in the face image of the original frame.
  • Face images in which the distance between the result feature points and the start feature points obtained by tracking with a predetermined tracking algorithm is equal to or less than the threshold value are selected for learning.
  • the estimation unit is trained using a face image selected for learning and a face structure estimated by the estimation unit based on the face image.
  • the face structure estimation method from the second viewpoint is The acquisition process to acquire the face image and The output process for outputting the face structure of the face image is provided.
  • the output process is An estimation step of estimating the face structure of the face image based on the face image acquired in the acquisition step, and an estimation step.
  • the start feature points constituting the face structure are tracked by a predetermined tracking algorithm in the face image of the frame after the frame of the face image used for estimating the face structure, and the tracked feature points are predetermined in the face image of the original frame.
  • the face structure estimation program from the third viewpoint is Computer,
  • the acquisition part that acquires the face image and It functions as a control unit that outputs the face structure of the face image.
  • the control unit It functions as an estimation unit that estimates the face structure of the face image based on the face image acquired by the acquisition unit.
  • the start feature points constituting the face structure are tracked by a predetermined tracking algorithm in the face image of the frame after the frame of the face image used for estimating the face structure, and the tracked feature points are predetermined in the face image of the original frame. Face images in which the distance between the result feature points and the start feature points obtained by tracking with the tracking algorithm of the above are equal to or less than the threshold are selected for learning.
  • the estimation unit is trained using a face image selected for learning and a face structure estimated by the estimation unit based on the face image.
  • the face structure estimation device is provided, for example, in a moving body.
  • the moving body may include, for example, a vehicle, a ship, an aircraft, and the like.
  • Vehicles may include, for example, automobiles, industrial vehicles, rail vehicles, living vehicles, fixed-wing aircraft traveling on runways, and the like.
  • Automobiles may include, for example, passenger cars, trucks, buses, motorcycles, trolley buses and the like.
  • Industrial vehicles may include, for example, industrial vehicles for agriculture and construction.
  • Industrial vehicles may include, for example, forklifts and golf carts.
  • Industrial vehicles for agriculture may include, for example, tractors, cultivators, porting machines, binders, combines, lawnmowers and the like.
  • Industrial vehicles for construction may include, for example, bulldozers, scrapers, excavators, cranes, dump trucks, road rollers and the like.
  • the vehicle may include a vehicle that travels manually.
  • the classification of vehicles is not limited to the above examples.
  • an automobile may include an industrial vehicle capable of traveling on a road.
  • the same vehicle may be included in multiple categories.
  • Vessels may include, for example, marine jets, boats, tankers and the like.
  • Aircraft may include, for example, fixed-wing aircraft, rotary-wing aircraft, and the like.
  • the face structure estimation device 10 includes an acquisition unit 11, a memory 12, and a control unit 13.
  • the acquisition unit 11 acquires, for example, a face image which is an image of the occupant's face captured by the camera 14.
  • the camera 14 is attached, for example, to a position where an image can be taken around the face of an occupant at a specific position of a moving body such as a driver's seat. Further, the camera 14 captures a face image at, for example, 30 fps.
  • the memory 12 includes any storage device such as a RAM (Random Access Memory) and a ROM (Read Only Memory).
  • the memory 12 stores various programs for functioning the control unit 13 and various information used by the control unit 13.
  • the control unit 13 includes one or more processors and a memory.
  • the processor may include a general-purpose processor that loads a specific program and performs a specific function, and a dedicated processor specialized for a specific process.
  • the dedicated processor may include an application specific integrated circuit (ASIC).
  • the processor may include a programmable logic device (PLD; Programmable Logic Device).
  • the PLD may include an FPGA (Field-Programmable Gate Array).
  • the control unit 13 may be either a System (System-on-a-Chip) in which one or a plurality of processors cooperate, or a SiP (System In a Package).
  • the control unit 13 controls the operation of each component of the face structure estimation device 10.
  • the control unit 13 outputs the face structure of the face image acquired by the acquisition unit 11 to the external device 15.
  • the face structure is a feature that specifies a facial expression that changes according to a person's condition, and is, for example, a collection of feature points. Feature points are defined on the contour of the face, such as the tip of the chin, on the contour of the eye, such as the inner and outer corners of the eye, and on the bridge of the nose, from the tip of the nose to the base of the nose. And so on.
  • the output of the face structure by the control unit 13 will be described in detail below.
  • the control unit 13 functions as an estimation unit 16 and an evaluation unit 17.
  • the estimation unit 16 estimates the structure of the face image based on the face image acquired by the acquisition unit 11.
  • the face structure estimated by the estimation unit 16 is output from the control unit 13.
  • the estimation unit 16 is composed of, for example, a multi-layered neural network.
  • the estimation unit 16 is constructed by performing supervised learning as described later.
  • the evaluation unit 17 calculates the validity of the face structure estimated by the estimation unit 16. As will be described later, the evaluation unit 17 changes the threshold value used for training the estimation unit 16 based on validity.
  • the evaluation unit 17 is composed of, for example, a multi-layered neural network.
  • the evaluation unit 17 is constructed by performing supervised learning as described later.
  • the supervised learning of the estimation unit 16 and the evaluation unit 17 will be described below.
  • supervised learning is executed at the time of manufacturing the face structure estimation device 10.
  • the estimation unit 16 and the evaluation unit 17 are constructed for a single face structure estimation device 10, and the other face structure estimation device 10 has data for constructing the estimation unit 16 and the evaluation unit 17. May be remembered.
  • a face image and a plurality of sets of labeled face structures for the face image are used for constructing the estimation unit 16 and the evaluation unit 17 by machine learning.
  • the labeled face structure is a face structure that is the correct answer for the face image.
  • the labeled face structure is, for example, created at the discretion of a person based on the definition as described above.
  • the primary estimation unit 16a is constructed by supervised learning using the labeled face structure lFS as the correct answer to the face image FI.
  • the constructed primary general-purpose estimation unit 18 estimates the face structure gFS from the face image FI included in the plurality of sets CB1.
  • the control unit 13 calculates the validity of the estimated face structure gFS using the labeled face structure lFS corresponding to the face image FI used for estimating the face structure gFS.
  • the validity is the consistency of the estimated face structure gFS with the labeled face structure lFS, for example, the distance between the points constituting the estimated face structure gFS and the points constituting the labeled face structure lFS is large. It is calculated so that it is as low as it is and becomes higher as it approaches zero.
  • a face image FI, a labeled face structure lFS, and a plurality of valid sets of CB2 are used to construct the evaluation unit 17.
  • the evaluation unit 17a is constructed by performing supervised learning using the validity as the correct answer of the face image FI and the labeled face structure lFS.
  • Machine learning is further advanced for the primary estimation unit 16a. Further machine learning for the primary estimation unit 16a is not limited to the time of manufacture, but may be performed at the time of use. For further machine learning of the primary estimation unit 16a, a mere face image FI without a labeled face structure lFS is used. The face image FI used for further machine learning is selected as follows.
  • face image FIs of a plurality of frames captured at a speed of, for example, 30 fps for the same person are used.
  • a 4-frame face image FI is used.
  • the primary estimation unit 16a estimates the face structure gFS of the face image FI based on the face image FI of the first frame among the face image FIs of a plurality of frames.
  • the control unit 13 uses each feature point constituting the estimated face structure gFS as a start feature point sFP, and determines whether or not each feature point has been moved to this position in the face image FI after the frame. , Estimate using a given tracking algorithm.
  • the predetermined tracking algorithm is, for example, a gradient method, more specifically the Lucas-Kaneda method.
  • the control unit 13 tracks the start feature point sFP in order in a plurality of frames, and calculates the position of the tracked feature point tFP.
  • the control unit 13 uses the same predetermined tracking algorithm to determine whether or not the position of the tracked feature point tFP in the face image FI of the last frame has been moved to this position in the face image FI before the frame. presume.
  • the control unit 13 sequentially tracks the tracked feature point tFP in the last frame in a plurality of frames, and calculates the position of the result feature point gFP in the face image FI of the first frame.
  • the control unit 13 calculates the interval between the start feature point sFP and the result feature point gFP.
  • the control unit 13 compares the calculated interval with the threshold value.
  • the threshold may be varied based on validity, as described above.
  • the evaluation unit 17 may estimate the validity based on at least one face image FI in the face image FIs of a plurality of frames.
  • the control unit 13 may set a threshold value so that the higher the validity, the smaller the threshold value.
  • the control unit 13 selects at least one of the face image FIs of the plurality of frames as the face image FI used for further machine learning.
  • the interval is calculated for each of the plurality of feature points constituting the face structure gFS, and the threshold value may be compared with the representative value such as the average value, the median value, and the maximum value of the plurality of intervals.
  • the control unit 13 combines the face structure gFS estimated by the estimation unit 16 based on the selected face image FI as a pseudo-labeled face structure blFS with the face image FI.
  • the control unit 13 creates a face structure composed of the points obtained by averaging the start feature points sFP and the result feature points gFP of the face structure gFS based on the selected face image FI, in other words, the midpoint, with a pseudo-labeled face.
  • the structure blFS may be combined with the face image FI.
  • the face structure gFS is estimated using more face image FIs than the face image FI with the true labeled face structure lFS, and a pseudo-labeled face structure blFS and face image FI set CB3 is generated. ..
  • supervised learning is advanced for the primary estimation unit 16a using a plurality of sets CB3 of the face image FI and the pseudo-labeled face structure blFS, and the secondary estimation unit is used.
  • 16b is constructed. Data for forming the secondary estimation unit 16b is generated, and the control unit 13 functions as the estimation unit 16 based on the data.
  • the construction process executed by the control unit 13 at the time of manufacturing the present embodiment will be described with reference to the flowchart of FIG.
  • a state in which a plurality of sets CB1 of a face image FI and a labeled face structure lFS and a face image FI of a plurality of frames imaged for the same person can be supplied to the face structure estimation device 10. Then, it starts when the control unit 13 recognizes the operation input for starting the construction.
  • step S100 the control unit 13 executes supervised learning of the face image FI using the true labeled face structure lFS as the correct answer. After performing supervised learning, the process proceeds to step S101.
  • step S101 the control unit 13 stores in the memory 12 the data for forming the primary estimation unit 16a constructed by the supervised learning in step S100. After storage, the process proceeds to step S102.
  • step S102 the control unit 13 causes the primary estimation unit 16a constructed in step S101 to estimate the face structure gFS based on the face image FI. Further, the control unit 13 calculates the validity using the estimated face structure gFS and the labeled face structure lFS. After the calculation, the process proceeds to step S103.
  • step S103 the control unit 13 executes supervised learning of the face image FI and the labeled face structure lFS using the validity calculated in step S102 as the correct answer. After performing supervised learning, the process proceeds to step S104.
  • step S104 the control unit 13 stores in the memory 12 the data for constituting the evaluation unit 17, which is constructed by the supervised learning in step S103. After storage, the process proceeds to step S105.
  • step S105 the control unit 13 reads out the face image FIs of a plurality of frames for the same person. After reading, the process proceeds to step S106.
  • step S106 the control unit 13 estimates the face structure gFS of the face image FI of the first frame among the face image FIs of the plurality of frames read in step S105 to the primary estimation unit 16a constructed in step S101. Let me. Further, the control unit 13 causes the evaluation unit 17 to estimate the validity of the face image FI and the face structure gFS. After estimation, the process proceeds to step S107.
  • step S107 the control unit 13 determines the threshold value based on the validity estimated in step S106. After the decision, the process proceeds to step S108.
  • step S108 the position in the face image FI is calculated with the feature points constituting the face structure gFS estimated in step S106 as the start feature points sFP. Further, the control unit 13 estimates the movement position of the start feature point sFP in the subsequent frame by using a predetermined tracking algorithm. Further, the control unit 13 estimates the position of the result feature point gFP by estimating the movement position of the tracked feature point tFP in the face image FI of the first frame using a predetermined tracking algorithm. Further, the control unit 13 calculates the interval between the start feature point sFP and the result feature point gFP. After the calculation, the process proceeds to step S109.
  • step S109 the control unit 13 determines whether or not the interval calculated in step S108 is equal to or less than the threshold value determined in step S107. If it is less than or equal to the threshold, the process proceeds to step S110. If not greater than or equal to the threshold, the process proceeds to step S111.
  • step S110 the control unit 13 combines at least one frame of the face image FI of the plurality of frames read in step S105 with the face structure gFS estimated for the face image FI of the frame.
  • the control unit 13 uses the midpoint of the start feature point sFP and the result feature point gFP estimated in step S108 for the face image FI of the frame.
  • the configured face structure may be combined with the face image FI. After the combination, the process proceeds to step S112.
  • step S111 the control unit 13 discards the face image FIs of the plurality of frames read in step S105. After disposal, the process proceeds to step S112.
  • step S112 the control unit 13 determines whether or not the face image FI and the set CB3 of the face structure gFS are sufficiently accumulated. Whether or not it is sufficiently accumulated may be determined, for example, by whether or not the number of sets CB3 exceeds the threshold value. If not sufficiently accumulated, the process returns to step S105. If sufficient, the process proceeds to step S113.
  • step S113 the control unit 13 supervises the face image FI as a correct answer for the primary estimation unit 16a constructed in step S101 so that the face structure gFS in the set CB3 is a pseudo-labeled face structure blFS. Yes, proceed with learning. After performing supervised learning, the process proceeds to step S114.
  • step S114 the control unit 13 stores in the memory 12 the data for forming the secondary estimation unit 16b constructed by the supervised learning in step S113. After storage, the construction process ends.
  • the face structure estimation device 10 of the present embodiment uses the start feature point sFP constituting the face structure gFS as the face image FI of the frame after the frame of the face image FI used for estimating the face structure gFS. Is tracked by a predetermined tracking algorithm. Further, the face structure estimation device 10 determines that the tracked feature point tFP is tracked by a predetermined tracking algorithm in the face image FI of the original frame, and the distance between the result feature point gFP and the start feature point sFP is equal to or less than the threshold value. A certain face image FI is selected for learning.
  • the face image FI from which the face structure gFS to be estimated is estimated is used for learning of the estimation unit 16.
  • the face structure gFS composed of feature points having a large difference from the surroundings tends to have a small difference from the labeled face structure lFS that is assumed to be created for the face image FI used for estimating the face structure gFS.
  • the face structure estimation device 10 trains the estimation unit 16 by using the face image FI selected for learning and the face structure gFS estimated by the estimation unit 16 based on the face image FI. Therefore, the face structure estimation device 10 can improve the estimation accuracy of the face structure gFS based on the face image FI. Further, since the face structure estimation device 10 generates a large amount of learning data without assigning a correct answer label, an increase in annotation cost can be reduced.
  • the face structure estimation device 10 of the present embodiment estimates the validity of the face structure gFS estimated by the estimation unit 16, and changes the threshold value based on the validity.
  • the difference between the face structure gFS composed of feature points having a large difference from the surroundings and the virtual labeled face structure lFS created for the face image FI used for estimating the face structure gFS is always small. is not it.
  • the difference between the face structure gFS and the labeled face structure lFS is considered to be small.
  • the face structure estimation device 10 since the threshold value is changed based on the validity, the face image in which the interval between the start feature point sFP and the result feature point gFP is small even if the validity by estimation is low. Both the FI and the facial image FI, which has a large estimation validity even if the interval between the start feature point sFP and the result feature point gFP is large, can be selected for use in the learning of the estimation unit 16. Therefore, the face structure estimation device 10 can select more face image FIs so as to reduce leakage while maintaining high estimation accuracy of the face structure gFS.
  • Face structure estimation device 11 Acquisition unit 12 Memory 13 Control unit 14 Camera 15 External device 16 Estimator unit 16a Primary estimation unit 16b Secondary estimation unit 17 Evaluation unit CB1 Face image and labeled face structure set CB2 Face image , Labeled face structure, and validity set CB3 Face image and pseudo-labeled face structure set FI Face image gFP Result feature point gFS Estimated face structure lFS Labeled face structure sFP Start feature point blFS Pseudo Labeled face structure

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

顔構造推定装置10は取得部11と制御部13とを有する。取得部11は顔画像を取得する。制御部13は推定部16として機能する。推定部16は顔画像に基づき顔構造を推定する。制御部13は顔構造を構成する開始特徴点を当該顔構造の推定に用いた顔画像のフレーム以後のフレームの顔画像において所定の追跡アルゴリズムで追跡する。制御部13は追跡した特徴点をもとのフレームの顔画像において所定のアルゴリズムで追跡することにより結果特徴点を求める。制御部13は結果特徴点と開始特徴点との間隔が閾値会である顔画像を学習用に選別する。制御部13は推定部を学習用に選別した顔画像と当該顔画像に基づき推定部16に推定させた顔構造とを用いて学習させる。

Description

顔構造推定装置、顔構造推定方法、および顔構造推定プログラム 関連出願の相互参照
 本出願は、2020年6月19日に日本国に特許出願された特願2020-106439の優先権を主張するものであり、この先の出願の開示全体をここに参照のために取り込む。
 本発明は、顔構造推定装置、顔構造推定方法、および顔構造推定プログラムに関するものである。
 例えば、眠気のある乗員に対して休息を促したり、自動運転に移行するなど、車内の運転手の状態に応じて、多様な機能を実行させる装置などが検討されている。このような装置においては、乗員の状態を簡易に認識することが求められている。乗員のように人の状態は、状態に応じた顔構造を推定することにより把握することが検討されている。例えば、深層学習により、顔画像から顔構造を推定することが知られている(特許文献1参照)。
国際公開2019-176994号公報
 上述した諸課題を解決すべく、第1の観点による顔構造推定装置は、
 顔画像を取得する取得部と、
 前記顔画像の顔構造を出力する制御部と、を備え、
 前記制御部は、
 前記取得部が取得した顔画像に基づき該顔画像の顔構造を推定する推定部として機能し、
 前記顔構造を構成する開始特徴点を、該顔構造の推定に用いた顔画像のフレーム以後のフレームの顔画像において所定の追跡アルゴリズムで追跡し、追跡した特徴点を元のフレームの顔画像において所定の追跡アルゴリズムで追跡することにより求めた結果特徴点と前記開始特徴点との間隔が閾値以下である顔画像を学習用に選別し、
 前記推定部を、学習用に選別した顔画像と、該顔画像に基づき該推定部に推定させた顔構造とを用いて学習させる。
 第2の観点による顔構造推定方法は、
 顔画像を取得する取得工程と、
 前記顔画像の顔構造を出力する出力工程と、を備え、
 前記出力工程は、
 前記取得工程において取得した顔画像に基づき該顔画像の顔構造を推定する推定工程と、
 前記顔構造を構成する開始特徴点を該顔構造の推定に用いた顔画像のフレーム以後のフレームの顔画像において所定の追跡アルゴリズムで追跡し、追跡した特徴点を元のフレームの顔画像において所定の追跡アルゴリズムで追跡することにより求めた結果特徴点と前記開始特徴点との間隔が閾値以下である顔画像を学習用に選別する選別工程と、
 学習用に選別した顔画像と、該顔画像に基づき該推定工程に推定させた顔構造とを用いて前記推定工程を学習させる学習工程と、を含む。
 第3の観点による顔構造推定プログラムは、
 コンピュータを、
 顔画像を取得する取得部と、
 前記顔画像の顔構造を出力する制御部と、として機能させ、
 前記制御部は、
 前記取得部が取得した顔画像に基づき該顔画像の顔構造を推定する推定部として機能し、
 前記顔構造を構成する開始特徴点を該顔構造の推定に用いた顔画像のフレーム以後のフレームの顔画像において所定の追跡アルゴリズムで追跡し、追跡した特徴点を元のフレームの顔画像において所定の追跡アルゴリズムで追跡することにより求めた結果特徴点と前記開始特徴点との間隔が閾値以下である顔画像を学習用に選別し、
 前記推定部を、学習用に選別した顔画像と、該顔画像に基づき該推定部に推定させた顔構造とを用いて学習させる。
本実施形態に係る顔構造推定装置の概略構成を示すブロック図である。 図1の推定部を一次的に構築するための学習を説明する概念図である。 図1の推定部による顔構造とラベル付き顔構造に基づく、正解となる妥当性の算出方法を説明する概念図である。 図1の評価部を構築するための学習を説明する概念図である。 結果特徴点の推定方法および結果特徴点と開始特徴点との関係を説明するための図である。 図1の推定部を二次的に構築するための学習を説明する概念図である。 図1の制御部が実行する構築処理を説明するためのフローチャートである。
 以下、本開示を適用した顔構造推定装置の実施形態について、図面を参照して説明する。なお、以下の本開示を適用した顔構造推定装置の実施形態の説明は、本開示を適用した顔構造推定方法および顔構造推定プログラムの実施形態の説明を兼ねる。
 本開示の一実施形態に係る顔構造推定装置は、例えば、移動体に設けられる。移動体は、例えば車両、船舶、および航空機等を含んでよい。車両は、例えば自動車、産業車両、鉄道車両、生活車両、および滑走路を走行する固定翼機等を含んでよい。自動車は、例えば乗用車、トラック、バス、二輪車、およびトロリーバス等を含んでよい。産業車両は、例えば農業および建設向けの産業車両等を含んでよい。産業車両は、例えばフォークリフトおよびゴルフカート等を含んでよい。農業向けの産業車両は、例えばトラクター、耕耘機、移植機、バインダー、コンバイン、および芝刈り機等を含んでよい。建設向けの産業車両は、例えばブルドーザー、スクレーバー、ショベルカー、クレーン車、ダンプカー、およびロードローラ等を含んでよい。車両は、人力で走行するものを含んでよい。車両の分類は、上述した例に限られない。例えば、自動車は、道路を走行可能な産業車両を含んでよい。複数の分類に同じ車両が含まれてよい。船舶は、例えばマリンジェット、ボート、およびタンカー等を含んでよい。航空機は、例えば固定翼機および回転翼機等を含んでよい。
 図1に示すように、本開示の一実施形態に係る顔構造推定装置10は、取得部11、メモリ12、および制御部13を含んで構成される。
 取得部11は、例えば、カメラ14が撮像した乗員の顔の画像である顔画像を取得する。なお、カメラ14は、例えば、運転席などの移動体の特定の位置にいる乗員の顔周辺を撮像可能な位置に取付けられる。また、カメラ14は、例えば、30fpsで顔画像を撮像する。
 メモリ12は、例えば、RAM(Random Access Memory)およびROM(Read Only Memory)など、任意の記憶デバイスを含む。メモリ12は、制御部13を機能させる多様なプログラム、および制御部13が用いる多様な情報を記憶する。
 制御部13は、1以上のプロセッサおよびメモリを含む。プロセッサは、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、および特定の処理に特化した専用のプロセッサを含んでよい。専用のプロセッサは、特定用途向けIC(ASIC;Application Specific Integrated Circuit)を含んでよい。プロセッサは、プログラマブルロジックデバイス(PLD;Programmable Logic Device)を含んでよい。PLDは、FPGA(Field-Programmable Gate Array)を含んでよい。制御部13は、1つまたは複数のプロセッサが協働するSoC(System-on-a-Chip)、およびSiP(System In a Package)のいずれかであってもよい。制御部13は、顔構造推定装置10の各構成要素の動作を制御する。
 制御部13は、取得部11が取得した顔画像の顔構造を外部機器15に出力する。顔構造は、人の状態に応じて変化する表情などを特定する特徴であって、例えば、特徴点の集合体である。特徴点は、例えば、顎先などのように顔の輪郭上において定義づけられる点、目頭および目じりのように目の輪郭上において定義づけられる点、鼻尖から鼻根までの鼻梁において定義づけられる点などである。制御部13による顔構造の出力について、以下に詳細に説明する。制御部13は、推定部16、および評価部17として機能する。
 推定部16は、取得部11が取得した顔画像に基づき、当該顔画像の構造を推定する。推定部16が推定した顔構造が、制御部13から出力される。推定部16は、例えば、多層構造のニューラルネットワークにより構成されている。推定部16は、後述するように、教師あり学習を実施することにより構築される。
 評価部17は、推定部16が推定する顔構造の妥当性を算出する。評価部17は、後述するように、推定部16を学習させるために用いる閾値を、妥当性に基づいて変化させる。評価部17は、例えば、多層構造のニューラルネットワークにより構成されている。評価部17は、後述するように、教師あり学習を実施することにより構築される。
 以下に、推定部16および評価部17の教師あり学習について説明する。推定部16および評価部17の構築には、顔構造推定装置10の製造時に、教師あり学習が実行される。なお、推定部16および評価部17の構築は、単一の顔構造推定装置10に対して行われ、他の顔構造推定装置10には推定部16および評価部17を構築するためのデータが記憶されてよい。
 推定部16および評価部17の構築について、以下に説明する。機械学習による推定部16および評価部17の構築には、顔画像、および当該顔画像に対するラベル付き顔構造の複数の組が用いられる。ラベル付き顔構造は、顔画像に対する正解である顔構造である。ラベル付き顔構造は、例えば、前述のような定義に基づいて、人の判断により作成される。
 図2に示すように、一次的な推定部16aは、ラベル付き顔構造lFSを顔画像FIに対する正解として用いて、教師あり学習を行うことにより構築される。図3に示すように、構築された一次的な汎用推定部18は、当該複数の組CB1に含まれる顔画像FIから顔構造gFSを推定する。
 制御部13は、推定された顔構造gFSの妥当性を、顔構造gFSの推定に用いた顔画像FIに対応するラベル付き顔構造lFSを用いて算出する。妥当性は、推定された顔構造gFSのラベル付き顔構造lFSとの一致性であり、例えば、推定された顔構造gFSを構成する点とラベル付き顔構造lFSを構成する点との距離が大きくなるほど低く、ゼロに近づくほど高くなるように算出される。
 図4に示すように、顔画像FI、ラベル付き顔構造lFS、および妥当性の複数の組CB2が評価部17の構築に用いられる。妥当性を顔画像FIおよびラベル付き顔構造lFSの正解として用いて、教師あり学習を行うことにより評価部17aが構築される。
 一次的な推定部16aに対してさらに機械学習が進められる。なお、一次的な推定部16aに対するさらなる機械学習は、製造時に限定されず、使用時に行われもてよい。一次的な推定部16aのさらなる機械学習には、ラベル付き顔構造lFSのない、単なる顔画像FIが用いられる。さらなる機械学習に用いる顔画像FIは、以下のように選別される。
 さらなる機械学習に用いる顔画像FIの選別のために、同一の人物に対して、例えば、30fpsなどの速度で撮像された複数のフレームの顔画像FIが用いられる。本実施形態においては、例えば、4フレームの顔画像FIが用いられる。一次的な推定部16aは、複数のフレームの顔画像FIの中で最初のフレームの顔画像FIに基づいて、当該顔画像FIの顔構造gFSを推定する。
 図5に示すように、制御部13は、推定された顔構造gFSを構成する各特徴点を、開始特徴点sFPとして、当該フレーム以後の顔画像FIにおいて、いずこの位置に移動したかを、所定の追跡アルゴリズムを用いて推定する。所定の追跡アルゴリズムは、例えば、勾配法、さらに具体的にはLucas-Kaneda法である。
 制御部13は、複数のフレームにおいて順番に、開始特徴点sFPを追跡して、追跡した特徴点tFPの位置を算出する。制御部13は、最後のフレームの顔画像FIにおける追跡した特徴点tFPの位置の算出後、当該フレーム以前の顔画像FIにおいていずこの位置に移動したかを、同じ所定の追跡アルゴリズムを用いて推定する。制御部13は、複数のフレームにおいて順番に、最後のフレームにおける追跡した特徴点tFPを追跡して、最初のフレームの顔画像FIにおける結果特徴点gFPの位置を算出する。
 制御部13は、開始特徴点sFPおよび結果特徴点gFPの間隔を算出する。制御部13は、算出した間隔を閾値と比較する。閾値は、前述のように、妥当性に基づいて変化させてよい。評価部17は、複数のフレームの顔画像FIの中の少なくとも1つの顔画像FIに基づいて、妥当性を推定してよい。制御部13は、妥当性が高くなるほど、小さくなるように閾値を定めてよい。制御部13は、算出した間隔が閾値以下である場合、複数のフレームの顔画像FIの少なくともいずれかを、さらなる機械学習に用いる顔画像FIとして選別する。なお、顔構造gFSを構成する複数の特徴点毎に間隔が算出され、複数の間隔の平均値、中央値、最大値など代表値と閾値が比較されてよい。
 制御部13は、選別した顔画像FIに基づいて推定部16により推定された顔構造gFSを、疑似的なラベル付き顔構造vlFSとして、当該顔画像FIと組合せる。制御部13は、選別した顔画像FIに基づく顔構造gFSの開始特徴点sFPおよび結果特徴点gFPを平均させた点、言換えると中点によって構成される顔構造を、疑似的なラベル付き顔構造vlFSとして、当該顔画像FIと組合せてもよい。真のラベル付き顔構造lFSのある顔画像FIよりも多数の顔画像FIを用いて顔構造gFSの推定が行われ、疑似的なラベル付き顔構造vlFSと顔画像FIの組CB3が生成される。
 図6に示すように、顔画像FIおよび疑似的なラベル付き顔構造vlFSの複数の組CB3を用いて、一次的な推定部16aに対して教師あり学習が進められ、二次的な推定部16bが構築される。当該二次的な推定部16bを構成するためのデータが生成され、制御部13は当該データに基づいて推定部16として機能する。
 次に、本実施形態の製造時において制御部13が実行する、構築処理について、図7のフローチャートを用いて説明する。構築処理は、例えば、顔画像FIおよびラベル付き顔構造lFSの複数の組CB1と、同一の人物に対して撮像された複数のフレームの顔画像FIとを顔構造推定装置10に供給可能な状態で、構築を開始する操作入力を制御部13が認識するときに開始する。
 ステップS100において、制御部13は、真のラベル付き顔構造lFSを正解として用いて顔画像FIの教師あり学習を実行する。教師あり学習の実行後、プロセスはステップS101に進む。
 ステップS101では、制御部13は、ステップS100における教師あり学習により構築される、一次的な推定部16aを構成するためのデータをメモリ12に格納する。格納後、プロセスはステップS102に進む。
 ステップS102では、制御部13は、顔画像FIに基づく顔構造gFSを、ステップS101において構築した一次的な推定部16aに推定させる。さらに、制御部13は、推定した顔構造gFSとラベル付き顔構造lFSを用いて妥当性を算出する。算出後、プロセスはステップS103に進む。
 ステップS103において、制御部13は、ステップS102において算出した妥当性を正解として用いて顔画像FIおよびラベル付き顔構造lFSの教師あり学習を実行する。教師あり学習の実行後、プロセスはステップS104に進む。
 ステップS104では、制御部13は、ステップS103における教師あり学習により構築される、評価部17を構成するためのデータをメモリ12に格納する。格納後、プロセスはステップS105に進む。
 ステップS105では、制御部13は、同一の人物別の複数のフレームの顔画像FIを読出す。読出し後、プロセスはステップS106に進む。
 ステップS106では、制御部13は、ステップS105において読出した複数のフレームの顔画像FIの中で最初のフレームの顔画像FIの顔構造gFSを、ステップS101において構築した一次的な推定部16aに推定させる。さらに、制御部13は、当該顔画像FIおよび顔構造gFSに対する妥当性を、評価部17に推定させる。推定後、プロセスはステップS107に進む
 ステップS107では、制御部13は、ステップS106において推定した妥当性に基づいて閾値を決定する。決定後、プロセスはステップS108に進む
 ステップS108では、ステップS106において推定した顔構造gFSを構成する特徴点を開始特徴点sFPとして顔画像FIにおける位置を算出する。さらに、制御部13は、開始特徴点sFPの、以後のフレームにおける移動位置を所定の追跡アルゴリズムを用いて推定する。さらに、制御部13は、追跡した特徴点tFPの、最初のフレームの顔画像FIにおける移動位置を所定の追跡アルゴリズムを用いて推定することにより、結果特徴点gFPの位置を推定する。さらに、制御部13は、開始特徴点sFPと結果特徴点gFPとの間隔を算出する。算出後、プロセスはステップS109に進む。
 ステップS109では、制御部13は、ステップS108において算出した間隔が、ステップS107において決定した閾値以下であるか否かを判別する。閾値以下である場合、プロセスはステップS110に進む。閾値以上でない場合、プロセスはステップS111に進む。
 ステップS110では、制御部13は、ステップS105において読出した複数のフレームの顔画像FIの少なくとも1フレームと、当該フレームの顔画像FIに対して推定した顔構造gFSとを組合せる。制御部13は、当該フレームの顔画像FIに対して推定した顔構造gFSの代わりに、当該フレームの顔画像FIに対してステップS108において推定した開始特徴点sFPおよび結果特徴点gFPの中点によって構成される顔構造を当該顔画像FIに組合せてもよい。組合せ後、プロセスはステップS112に進む。
 ステップS111では、制御部13は、ステップS105において読出した複数のフレームの顔画像FIを廃棄する。廃棄後、プロセスはステップS112に進む。
 ステップS112では、制御部13は、顔画像FIおよび顔構造gFSの組CB3が十分に蓄積されているか否かを判別する。十分に蓄積されているか否かは、例えば、組CB3の数が閾値を超えるか否かによって判別されてよい。十分に蓄積されていない場合、プロセスはステップS105に戻る。十分に蓄積されている場合、プロセスはステップS113に進む。
 ステップS113では、制御部13は、ステップS101において構築された一次的な推定部16aに対して、組CB3における顔構造gFSを疑似的なラベル付き顔構造vlFSとする正解として、顔画像FIの教師あり学習を進める。教師あり学習の実行後、プロセスはステップS114に進む。
 ステップS114では、制御部13は、ステップS113における教師あり学習により構築される、二次的な推定部16bを構成するためのデータをメモリ12に格納する。格納後、構築処理は終了する。
 以上のような構成の本実施形態の顔構造推定装置10は、顔構造gFSを構成する開始特徴点sFPを、当該顔構造gFSの推定に用いた顔画像FIのフレーム以後のフレームの顔画像FIにおいて所定の追跡アルゴリズムで追跡する。さらに、顔構造推定装置10は、追跡した特徴点tFPを元のフレームの顔画像FIにおいて所定の追跡アルゴリズムで追跡することにより求めた結果特徴点gFPと開始特徴点sFPとの間隔が閾値以下である顔画像FIを学習用に選別する。一般的に、追跡アルゴリズムでは、追跡対象の領域における輝度値などの値と、周囲の領域の値との差異が大きくなるほど、追跡精度が向上する。したがって、上述のような構成の顔構造推定装置10では、開始特徴点sFPと結果特徴点gFPとの間隔が閾値以下である顔画像FIを選別するので、周囲との差異の大きな特徴点により構成される顔構造gFSが推定される顔画像FIが、推定部16の学習に用いられる。周囲との差異が大きな特徴点により構成される顔構造gFSは、当該顔構造gFSの推定に用いる顔画像FIに対して作成したと仮想したラベル付き顔構造lFSとの差異が小さい傾向がある。また、顔構造推定装置10は、学習用に選別した顔画像FIと当該顔画像FIに基づき推定部16に推定された顔構造gFSとを用いて推定部16を学習させる。したがって、顔構造推定装置10は、顔画像FIに基づく顔構造gFSの推定精度を向上し得る。また、顔構造推定装置10は、正解ラベルの付与付けをすることなく多数の学習データを生成するのでアノテーションコストの増加を低減し得る。
 また、本実施形態の顔構造推定装置10は、推定部16が推定する顔構造gFSの妥当性を推定し、当該妥当性に基づいて閾値を変化させる。周囲との差異が大きな特徴点により構成される顔構造gFSと、当該顔構造gFSの推定に用いる顔画像FIに対して作成したものと仮想したラベル付き顔構造lFSとの差異は、必ず小さいわけではない。一方で推定による妥当性および顔構造gFSを構成する特徴点の周囲との差異のいずれかが大きければ、当該顔構造gFSとラベル付き顔構造lFSの差異は小さくなると考えられる。そこで、上述のような構成の顔構造推定装置10では、妥当性に基づいて閾値を変化させるので、推定による妥当性が低くても開始特徴点sFPと結果特徴点gFPとの間隔が小さな顔画像FI、および開始特徴点sFPと結果特徴点gFPとの間隔が大きくても推定による妥当性が大きな顔画像FIのいずれも推定部16の学習に用いるために選別され得る。したがって、顔構造推定装置10は、漏れを小さくするようにより多くの顔画像FIを、顔構造gFSの推定精度を高く維持させながら、選別し得る。
 本発明を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。
 10 顔構造推定装置
 11 取得部
 12 メモリ
 13 制御部
 14 カメラ
 15 外部機器
 16 推定部
 16a 一次的な推定部
 16b 二次的な推定部
 17 評価部
 CB1 顔画像およびラベル付き顔構造の組
 CB2 顔画像、ラベル付き顔構造、および妥当性の組
 CB3 顔画像および疑似的なラベル付き顔構造の組
 FI 顔画像
 gFP 結果特徴点
 gFS 推定された顔構造
 lFS ラベル付き顔構造
 sFP 開始特徴点
 vlFS 疑似的なラベル付き顔構造

Claims (5)

  1.  顔画像を取得する取得部と、
     前記顔画像の顔構造を出力する制御部と、を備え、
     前記制御部は、
     前記取得部が取得した顔画像に基づき該顔画像の顔構造を推定する推定部として機能し、
     前記顔構造を構成する開始特徴点を該顔構造の推定に用いた顔画像のフレーム以後のフレームの顔画像において所定の追跡アルゴリズムで追跡し、追跡した特徴点を元のフレームの顔画像において所定の追跡アルゴリズムで追跡することにより求めた結果特徴点と前記開始特徴点との間隔が閾値以下である顔画像を学習用に選別し、
     前記推定部を、学習用に選別した顔画像と、該顔画像に基づき該推定部に推定させた顔構造とを用いて学習させる
     顔構造推定装置。
  2.  請求項1に記載の顔構造推定装置において、
     前記制御部は、前記推定部が推定する顔構造の妥当性を推定し、且つ該妥当性に基づいて前記閾値を変化させる評価部として機能する
     顔構造推定装置。
  3.  請求項1または2に記載の顔構造推定装置において、
     前記制御部は、前記推定部の学習に、学習用に選別した顔画像と、該顔画像に基づき前記推定部に推定させた顔構造を構成する前記開始特徴点および前記結果特徴点の中点によって構成される顔構造とを用いる
     顔構造推定装置。
  4.  顔画像を取得する取得工程と、
     前記顔画像の顔構造を出力する出力工程と、を備え、
     前記出力工程は、
     前記取得工程において取得した顔画像に基づき該顔画像の顔構造を推定する推定工程と、
     前記顔構造を構成する開始特徴点を該顔構造の推定に用いた顔画像のフレーム以後のフレームの顔画像において所定の追跡アルゴリズムで追跡し、追跡した特徴点を元のフレームの顔画像において所定の追跡アルゴリズムで追跡することにより求めた結果特徴点と前記開始特徴点との間隔が閾値以下である顔画像を学習用に選別する選別工程と、
     学習用に選別した顔画像と、該顔画像に基づき該推定工程に推定させた顔構造とを用いて前記推定工程を学習させる学習工程と、を含む
     顔構造推定方法。
  5.  コンピュータを、
     顔画像を取得する取得部と、
     前記顔画像の顔構造を出力する制御部と、として機能させ、
     前記制御部は、
     前記取得部が取得した顔画像に基づき該顔画像の顔構造を推定する推定部として機能し、
     前記顔構造を構成する開始特徴点を該顔構造の推定に用いた顔画像のフレーム以後のフレームの顔画像において所定の追跡アルゴリズムで追跡し、追跡した特徴点を元のフレームの顔画像において所定の追跡アルゴリズムで追跡することにより求めた結果特徴点と前記開始特徴点との間隔が閾値以下である顔画像を学習用に選別し、
     前記推定部を、学習用に選別した顔画像と、該顔画像に基づき該推定部に推定させた顔構造とを用いて学習させる
     顔構造推定プログラム。
     
PCT/JP2021/021273 2020-06-19 2021-06-03 顔構造推定装置、顔構造推定方法、および顔構造推定プログラム WO2021256288A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP21826406.7A EP4170586A4 (en) 2020-06-19 2021-06-03 FACIAL STRUCTURE ESTIMATION DEVICE, FACIAL STRUCTURE ESTIMATION METHOD, AND FACIAL STRUCTURE ESTIMATION PROGRAM
CN202180043887.0A CN115917591A (zh) 2020-06-19 2021-06-03 脸部构造推定装置、脸部构造推定方法以及脸部构造推定程序
US18/000,487 US20230215016A1 (en) 2020-06-19 2021-06-03 Facial structure estimating device, facial structure estimating method, and facial structure estimating program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-106439 2020-06-19
JP2020106439A JP7345435B2 (ja) 2020-06-19 2020-06-19 顔構造推定装置、顔構造推定方法、および顔構造推定プログラム

Publications (1)

Publication Number Publication Date
WO2021256288A1 true WO2021256288A1 (ja) 2021-12-23

Family

ID=79244721

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/021273 WO2021256288A1 (ja) 2020-06-19 2021-06-03 顔構造推定装置、顔構造推定方法、および顔構造推定プログラム

Country Status (5)

Country Link
US (1) US20230215016A1 (ja)
EP (1) EP4170586A4 (ja)
JP (1) JP7345435B2 (ja)
CN (1) CN115917591A (ja)
WO (1) WO2021256288A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010225089A (ja) * 2009-03-25 2010-10-07 Toyota Motor Corp 運転者監視装置
JP2019079514A (ja) * 2017-10-19 2019-05-23 富士通株式会社 画像処理装置及び画像処理方法
WO2019176994A1 (ja) 2018-03-14 2019-09-19 オムロン株式会社 顔画像識別システム、識別器生成装置、識別装置、画像識別システム、及び識別システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010225089A (ja) * 2009-03-25 2010-10-07 Toyota Motor Corp 運転者監視装置
JP2019079514A (ja) * 2017-10-19 2019-05-23 富士通株式会社 画像処理装置及び画像処理方法
WO2019176994A1 (ja) 2018-03-14 2019-09-19 オムロン株式会社 顔画像識別システム、識別器生成装置、識別装置、画像識別システム、及び識別システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4170586A4

Also Published As

Publication number Publication date
CN115917591A (zh) 2023-04-04
EP4170586A4 (en) 2024-03-20
EP4170586A1 (en) 2023-04-26
JP2022002003A (ja) 2022-01-06
JP7345435B2 (ja) 2023-09-15
US20230215016A1 (en) 2023-07-06

Similar Documents

Publication Publication Date Title
JP6704971B2 (ja) 自動車のブラインドスポットモニタリング方法及びこれを利用したブラインドスポットモニタ
CN110588653B (zh) 自主车辆的控制系统、控制方法以及控制器
US11046273B2 (en) Seat belt status determining system and method
CN110531753B (zh) 自主车辆的控制系统、控制方法和控制器
CN109866778B (zh) 具有自动辅助的自主车辆操作
US11046307B2 (en) Parking control method and parking control device
JP3769442B2 (ja) 眼の状態検出装置
US20220230474A1 (en) Activity identification method and apparatus
WO2021256288A1 (ja) 顔構造推定装置、顔構造推定方法、および顔構造推定プログラム
US20200307611A1 (en) Vehicle control device, vehicle control method and computer-readable medium containing program
CN111886638B (zh) 图像处理装置、拍摄装置以及移动体
WO2021256287A1 (ja) 顔構造推定装置、顔構造推定方法、および顔構造推定プログラム
WO2021256289A1 (ja) 顔構造推定装置、顔構造推定方法、および顔構造推定プログラム
JP4531366B2 (ja) 進入判定装置および進入判定方法
JP2022019417A (ja) 電子機器、情報処理装置、覚醒度算出方法および覚醒度算出プログラム
JP7160867B2 (ja) 電子機器、情報処理装置、推定方法、および推定プログラム
WO2022014352A1 (ja) 電子機器、情報処理装置、推定方法、および推定プログラム
CN113204234B (zh) 车辆控制方法与车用控制系统
JP2022088962A (ja) 電子機器、情報処理装置、集中度算出プログラム、及び集中度算出方法
WO2022202780A1 (ja) 表示制御装置
Lemeret et al. Simulator of obstacle detection and tracking

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21826406

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021826406

Country of ref document: EP

Effective date: 20230119

NENP Non-entry into the national phase

Ref country code: DE