JP2020126638A - 運転者の状態に応じて特化型のキャリブレーションのために運転者補助装置を自動で調整する方法及び装置 - Google Patents
運転者の状態に応じて特化型のキャリブレーションのために運転者補助装置を自動で調整する方法及び装置 Download PDFInfo
- Publication number
- JP2020126638A JP2020126638A JP2020010079A JP2020010079A JP2020126638A JP 2020126638 A JP2020126638 A JP 2020126638A JP 2020010079 A JP2020010079 A JP 2020010079A JP 2020010079 A JP2020010079 A JP 2020010079A JP 2020126638 A JP2020126638 A JP 2020126638A
- Authority
- JP
- Japan
- Prior art keywords
- driver
- body image
- eye
- keypoint
- upper body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/02—Rear-view mirror arrangements
- B60R1/04—Rear-view mirror arrangements mounted inside vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/02—Rear-view mirror arrangements
- B60R1/025—Rear-view mirror arrangements comprising special mechanical means for correcting the field of view in relation to particular driving conditions, e.g. change of lane; scanning mirrors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
- B60R16/037—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Ophthalmology & Optometry (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Mounting And Adjusting Of Optical Elements (AREA)
- Rear-View Mirror Devices That Are Mounted On The Exterior Of The Vehicle (AREA)
Abstract
Description
Claims (20)
- 運転者の状態に応じて運転者補助装置の位置を調整する方法において、
(a)運転者が車両の運転席に着席して前記車両のエンジンを始動した後に前記運転者の少なくとも一つの上半身イメージ及び少なくとも一つの下半身イメージが取得されると、前記上半身イメージと前記下半身イメージとをポーズ予測ネットワークに入力するプロセスを遂行することで前記ポーズ予測ネットワークをもって、(i)前記上半身イメージ及び前記下半身イメージに位置する、前記運転者に対応する一つ以上の身体キーポイントを取得するようにし、(ii)前記身体キーポイントを参照して前記運転者の少なくとも一つの身体部位の長さを計算するようにし、(iii)前記運転者の前記計算された身体部位の長さを参照して前記運転席の位置を調整するようにする段階、及び
(b)前記位置調整装置が、前記運転席の位置が調整された状態で前記車両が運行中に、(i)前記上半身イメージを顔検出器に入力し、前記顔検出器をもって、前記上半身イメージから前記運転者の少なくとも一つの顔部分を検出するようにするプロセス、(ii)前記顔部分を目検出器に入力し、前記目検出器をもって、前記顔部分から前記運転者の少なくとも一つの目部分を検出するようにするプロセス、(iii)前記検出された目部分で前記運転者の少なくとも一つの目に対応する2D座標と前記調整された運転席の位置を3D座標変換器に入力し、前記3D座標変換器をもって、前記運転席の位置及び前記目の2D座標を参照して前記運転者の前記目の3D座標を生成するようにし、前記目の前記3D座標を参照して前記車両の少なくとも一つのミラーの少なくとも一つの位置を調整するようにする段階、
を含むことを特徴とする方法。 - 前記(a)段階で、
前記位置調整装置は、前記ポーズ予測ネットワークをもって、(i)特徴抽出器を通じて前記上半身イメージ及び前記下半身イメージ各々から一つ以上の特徴を抽出して一つ以上の特徴テンソル各々を生成するようにし、(ii)キーポイントヒートマップ(keypoint heatmap)及びパートアフィニティフィールド(part affinity field)抽出器を通じて前記特徴テンソル各々に対応する一つ以上のキーポイントヒートマップ及び一つ以上のパートアフィニティフィールド各々を生成するようにし、(iii)キーポイントグルーピング(grouping)レイヤを通じて前記キーポイントヒートマップ各々から一つ以上のキーポイントを抽出するようにし、前記パートアフィニティフィールド各々を参照して前記抽出されたキーポイント各々をグルーピングして前記運転者に対応する前記身体キーポイントを生成するようにする、請求項1に記載の方法。 - 前記位置調整装置は、前記ポーズ予測ネットワークをもって、前記特徴抽出器の少なくとも一つのコンボリューションレイヤを通じて、少なくとも一つのコンボリューション演算を前記上半身イメージ及び前記下半身イメージ各々に適用して前記特徴テンソル各々を生成するようにする、請求項2に記載の方法。
- 前記位置調整装置は、前記ポーズ予測ネットワークをもって、前記キーポイントヒートマップ及びパートアフィニティフィールド抽出器のフルコンボリューションネットワークまたは少なくとも一つの1×1コンボリューションレイヤを通じて、前記特徴テンソル各々に少なくとも一つの完全コンボリューション演算または少なくとも一つの1×1コンボリューション演算を適用することで前記特徴テンソル各々に対応する前記キーポイントヒートマップ各々及び前記パートアフィニティフィールド各々を生成するようにする、請求項2に記載の方法。
- 前記位置調整装置は、前記ポーズ予測ネットワークをもって、前記キーポイントグルーピングレイヤを通じて、前記キーポイントヒートマップ各々で最も高い地点各々を、前記キーポイントヒートマップ各々に対応する前記キーポイント各々として抽出するようにする、請求項2に記載の方法。
- 前記位置調整装置は、前記ポーズ予測ネットワークをもって、前記キーポイントグルーピングレイヤを通じて、前記パートアフィニティフィールド各々を参照し、前記抽出されたキーポイントのペアのうち互いに連結され得る確率が最も高いペアを各々連結することで、前記抽出されたキーポイントをグルーピングするようにする、請求項5に記載の方法。
- 前記(b)段階で、
前記位置調整装置は、前記顔検出器をもって、(i)コンボリューションレイヤを通じて前記上半身イメージに少なくとも一つのコンボリューション演算を適用して少なくとも一つの特徴マップを生成するようにし、(ii)RPN(region proposal network)を通じて前記特徴マップ上の一つ以上の物体に対応する一つ以上のプロポーザルボックスを生成するようにし、(iii)プーリングレイヤを通じて前記特徴マップ上の前記プロポーザルボックスに対応する一つ以上の領域に少なくとも一つのプーリング演算を適用して少なくとも一つの特徴ベクトルを生成するようにし、(iv)FC(fully−connected)レイヤを通じて前記特徴ベクトルに少なくとも一つのFC演算を適用して少なくとも一つのFC出力値を生成するようにし、(v)前記FCレイヤの前記FC出力値にクラシフィケーション演算及びリグレッション演算を適用して各々の前記物体に対するクラス情報及びリグレッション情報を出力するようにした後、クラシフィケーションレイヤ及びリグレッションレイヤを通じて前記上半身イメージ上の前記運転者の前記顔部分を検出するようにし、前記物体各々は前記プロポーザルボックス各々に対応する、請求項1に記載の方法。 - 前記(b)段階で、
前記位置調整装置は、前記目検出器をもって、前記顔部分を少なくとも一つのMCT(Modified Census Transform)イメージに変換するようにし、エイダブースト(Adaboost)アルゴリズムを用いて前記MCTイメージから取得された目検出用特徴データから前記運転者の前記目部分を検出するようにし、局部部分の明るさの平均と前記顔部分の明るさとの差が前記MCTイメージにエンコードされる、請求項7に記載の方法。 - 前記運転席の前記位置は、前記上半身イメージを取得する少なくとも一つのカメラと前記運転席との間の距離である、請求項1に記載の方法。
- 前記(a)段階で、
前記位置調整装置は、前記運転者の前記身体部位の長さを参照して前記車両の運転台の位置をさらに調整するプロセスを遂行する、請求項1に記載の方法。 - 運転者の状態に応じて運転者補助装置の位置を調整する位置調整装置において、
インストラクションを格納する少なくとも一つのメモリ、及び
(I)運転者が車両の運転席に着席して前記車両のエンジンを始動した後に前記運転者の少なくとも一つの上半身イメージ及び少なくとも一つの下半身イメージが取得されると、前記上半身イメージと前記下半身イメージをポーズ予測ネットワークに入力するプロセスを遂行することで前記ポーズ予測ネットワークをもって、(i)前記上半身イメージ及び前記下半身イメージに位置する、前記運転者に対応する一つ以上の身体キーポイントを取得するようにし、(ii)前記身体キーポイントを参照して前記運転者の少なくとも一つの身体部位の長さを計算し、(iii)前記運転者の前記計算された身体部位の長さを参照して前記運転席の位置を調整するようにするプロセス、及び(II)前記運転席の位置が調整された状態で前記車両が運行中に、(i)前記上半身イメージを顔検出器に入力し、前記顔検出器をもって、前記上半身イメージから前記運転者の少なくとも一つの顔部分を検出するようにするプロセス、(ii)前記顔部分を目検出器に入力し、前記目検出器をもって、前記顔部分から前記運転者の少なくとも一つの目部分を検出するようにするプロセス、(iii)前記検出された目部分で前記運転者の少なくとも一つの目に対応する2D座標と前記調整された運転席の位置を3D座標変換器に入力し、前記3D座標変換器をもって、前記運転席の位置及び前記目の2D座標を参照して前記運転者の前記目の3D座標を生成し、前記目の前記3D座標を参照して前記車両の少なくとも一つのミラーの少なくとも一つの位置を調整するようにするプロセス、を遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサ、
を含むことを特徴とする位置調整装置。 - 前記(I)プロセスで、
前記プロセッサは、前記ポーズ予測ネットワークをもって、(i)特徴抽出器を通じて前記上半身イメージ及び前記下半身イメージ各々から一つ以上の特徴を抽出して一つ以上の特徴テンソル各々を生成するようにし、(ii)キーポイントヒートマップ(keypoint heatmap)及びパートアフィニティフィールド(part affinity field)抽出器を通じて前記特徴テンソル各々に対応する一つ以上のキーポイントヒートマップ及び一つ以上のパートアフィニティフィールド各々を生成するようにし、(iii)キーポイントグルーピング(grouping)レイヤを通じて前記キーポイントヒートマップ各々から一つ以上のキーポイントを抽出するようにし、前記パートアフィニティフィールド各々を参照して前記抽出されたキーポイント各々をグルーピングして前記運転者に対応する前記身体キーポイントを生成するようにする、請求項11に記載の位置調整装置。 - 前記プロセッサは、前記ポーズ予測ネットワークをもって、前記特徴抽出器の少なくとも一つのコンボリューションレイヤを通じて、少なくとも一つのコンボリューション演算を前記上半身イメージ及び前記下半身イメージ各々に適用して前記特徴テンソル各々を生成するようにする、請求項12に記載の位置調整装置。
- 前記プロセッサは、前記ポーズ予測ネットワークをもって、前記キーポイントヒートマップ及びパートアフィニティフィールド抽出器のフルコンボリューションネットワークまたは少なくとも一つの1×1コンボリューションレイヤを通じて、前記特徴テンソル各々に少なくとも一つの完全コンボリューション演算または少なくとも一つの1×1コンボリューション演算を適用することで前記特徴テンソル各々に対応する前記キーポイントヒートマップ各々及び前記パートアフィニティフィールド各々を生成するようにする、請求項12に記載の位置調整装置。
- 前記プロセッサは、前記ポーズ予測ネットワークをもって、前記キーポイントグルーピングレイヤを通じて、前記キーポイントヒートマップ各々で最も高い地点各々を、前記キーポイントヒートマップ各々に対応する前記キーポイント各々として抽出するようにする、請求項12に記載の位置調整装置。
- 前記プロセッサは、前記ポーズ予測ネットワークをもって、前記キーポイントグルーピングレイヤを通じて、前記パートアフィニティフィールド各々を参照し、前記抽出されたキーポイントのペアのうち互いに連結され得る確率が最も高いペアを各々連結することで、前記抽出されたキーポイントをグルーピングするようにする、請求項15に記載の位置調整装置。
- 前記(II)プロセスで、
前記プロセッサは、前記顔検出器をもって、(i)コンボリューションレイヤを通じて前記上半身イメージに少なくとも一つのコンボリューション演算を適用して少なくとも一つの特徴マップを生成するようにし、(ii)RPN(region proposal network)を通じて前記特徴マップ上の一つ以上の物体に対応する一つ以上のプロポーザルボックスを生成するようにし、(iii)プーリングレイヤを通じて前記特徴マップ上の前記プロポーザルボックスに対応する一つ以上の領域に少なくとも一つのプーリング演算を適用して少なくとも一つの特徴ベクトルを生成するようにし、(iv)FC(fully−connected)レイヤを通じて前記特徴ベクトルに少なくとも一つのFC演算を適用して少なくとも一つのFC出力値を生成するようにし、(v)前記FCレイヤの前記FC出力値にクラシフィケーション演算及びリグレッション演算を適用して各々の前記物体に対するクラス情報及びリグレッション情報を出力するようにした後、クラシフィケーションレイヤ及びリグレッションレイヤを通じて前記上半身イメージ上の前記運転者の前記顔部分を検出するようにし、前記物体各々は前記プロポーザルボックス各々に対応する、請求項11に記載の位置調整装置。 - 前記(II)プロセスで、
前記プロセッサは、前記目検出器をもって、前記顔部分を少なくとも一つのMCT(Modified Census Transform)イメージに変換するようにし、エイダブースト(Adaboost)アルゴリズムを用いて前記MCTイメージから取得された目検出用特徴データから前記運転者の前記目部分を検出するようにし、局部部分の明るさの平均と前記顔部分の明るさとの差が前記MCTイメージにエンコードされる、請求項17に記載の位置調整装置。 - 前記運転席の前記位置は、前記上半身イメージを取得する少なくとも一つのカメラと前記運転席との間の距離である、請求項11に記載の位置調整装置。
- 前記(I)プロセスで、
前記プロセッサは、前記運転者の前記身体部位の長さを参照して前記車両の運転台の位置をさらに調整するプロセスを遂行する、請求項11に記載の位置調整装置。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962799296P | 2019-01-31 | 2019-01-31 | |
US62/799,296 | 2019-01-31 | ||
US16/738,579 | 2020-01-09 | ||
US16/738,579 US10821897B2 (en) | 2019-01-31 | 2020-01-09 | Method and device for adjusting driver assistance apparatus automatically for personalization and calibration according to driver's status |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020126638A true JP2020126638A (ja) | 2020-08-20 |
JP6938055B2 JP6938055B2 (ja) | 2021-09-22 |
Family
ID=69326348
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020010079A Active JP6938055B2 (ja) | 2019-01-31 | 2020-01-24 | 運転者の状態に応じて特化型のキャリブレーションのために運転者補助装置を自動で調整する方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10821897B2 (ja) |
EP (1) | EP3699814A1 (ja) |
JP (1) | JP6938055B2 (ja) |
KR (1) | KR102349995B1 (ja) |
CN (1) | CN111507171B (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11458915B2 (en) * | 2019-07-15 | 2022-10-04 | International Business Machines Corporation | Vehicle setting adjustment |
US11475589B2 (en) * | 2020-04-03 | 2022-10-18 | Fanuc Corporation | 3D pose estimation by a 2D camera |
US20220084238A1 (en) * | 2020-09-11 | 2022-03-17 | Fanuc Corporation | Multiple transparent objects 3d detection |
CN113044045B (zh) * | 2021-03-09 | 2023-07-04 | 吉林大学 | 一种智能座舱内座椅自适应调整方法 |
CN113043922A (zh) * | 2021-04-25 | 2021-06-29 | 武汉驰必得科技有限公司 | 基于用户特征识别和数据分析的电动汽车驾驶座椅智能调控方法、系统、设备和存储介质 |
DE102022106797B3 (de) | 2022-03-23 | 2023-04-27 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Verfahren zur automatischen Einstellung zumindest eines Rückspiegels eines Kraftfahrzeugs |
CN115891871B (zh) * | 2022-11-16 | 2024-05-17 | 阿维塔科技(重庆)有限公司 | 车辆座舱的控制方法、装置及计算机可读存储介质 |
CN117315726B (zh) * | 2023-11-30 | 2024-03-22 | 武汉未来幻影科技有限公司 | 一种驾驶员坐姿高低识别方法、装置以及处理设备 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100080416A1 (en) * | 2008-10-01 | 2010-04-01 | Gm Global Technology Operations, Inc. | Eye detection system using a single camera |
US20110128401A1 (en) * | 2009-11-30 | 2011-06-02 | Samsung Electronics Co., Ltd. | Digital photographing apparatus and method of controlling the same |
US20160368509A1 (en) * | 2015-06-17 | 2016-12-22 | Ford Global Technologies, Llc | Method for adjusting a position of a component of a vehicle |
JP2017502876A (ja) * | 2014-02-24 | 2017-01-26 | インテル コーポレイション | 車両のミラー調整 |
JP2017206227A (ja) * | 2016-03-23 | 2017-11-24 | トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド | 最適車両部品設定を決定するためのシステムおよび方法 |
US20180096457A1 (en) * | 2016-09-08 | 2018-04-05 | Carnegie Mellon University | Methods and Software For Detecting Objects in Images Using a Multiscale Fast Region-Based Convolutional Neural Network |
JP6392478B1 (ja) * | 2018-04-26 | 2018-09-19 | 株式会社 ディー・エヌ・エー | 情報処理装置、情報処理プログラム、及び、情報処理方法 |
CN108657029A (zh) * | 2018-05-17 | 2018-10-16 | 华南理工大学 | 一种基于肢体长度预测的汽车驾驶席座椅智能调节系统及方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9290146B2 (en) | 1992-05-05 | 2016-03-22 | Intelligent Technologies International, Inc. | Optical monitoring of vehicle interiors |
JP4908704B2 (ja) * | 2001-09-27 | 2012-04-04 | 株式会社東海理化電機製作所 | 車両室内監視装置 |
US8587703B2 (en) * | 2009-12-01 | 2013-11-19 | Aptina Imaging Corporation | Systems and methods for image restoration |
US20120053794A1 (en) * | 2010-08-25 | 2012-03-01 | Gm Global Technology Operations, Inc. | Individualizable convenience system for drivers |
US9881234B2 (en) * | 2015-11-25 | 2018-01-30 | Baidu Usa Llc. | Systems and methods for end-to-end object detection |
US10796452B2 (en) * | 2017-12-03 | 2020-10-06 | Facebook, Inc. | Optimizations for structure mapping and up-sampling |
-
2020
- 2020-01-09 US US16/738,579 patent/US10821897B2/en active Active
- 2020-01-20 KR KR1020200007637A patent/KR102349995B1/ko active IP Right Grant
- 2020-01-22 CN CN202010075360.3A patent/CN111507171B/zh active Active
- 2020-01-24 EP EP20153516.8A patent/EP3699814A1/en active Pending
- 2020-01-24 JP JP2020010079A patent/JP6938055B2/ja active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100080416A1 (en) * | 2008-10-01 | 2010-04-01 | Gm Global Technology Operations, Inc. | Eye detection system using a single camera |
US20110128401A1 (en) * | 2009-11-30 | 2011-06-02 | Samsung Electronics Co., Ltd. | Digital photographing apparatus and method of controlling the same |
JP2017502876A (ja) * | 2014-02-24 | 2017-01-26 | インテル コーポレイション | 車両のミラー調整 |
US20160368509A1 (en) * | 2015-06-17 | 2016-12-22 | Ford Global Technologies, Llc | Method for adjusting a position of a component of a vehicle |
JP2017206227A (ja) * | 2016-03-23 | 2017-11-24 | トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド | 最適車両部品設定を決定するためのシステムおよび方法 |
US20180096457A1 (en) * | 2016-09-08 | 2018-04-05 | Carnegie Mellon University | Methods and Software For Detecting Objects in Images Using a Multiscale Fast Region-Based Convolutional Neural Network |
JP6392478B1 (ja) * | 2018-04-26 | 2018-09-19 | 株式会社 ディー・エヌ・エー | 情報処理装置、情報処理プログラム、及び、情報処理方法 |
CN108657029A (zh) * | 2018-05-17 | 2018-10-16 | 华南理工大学 | 一种基于肢体长度预测的汽车驾驶席座椅智能调节系统及方法 |
Non-Patent Citations (1)
Title |
---|
村上達哉 外2名: "人体姿勢アノテーション困難な映像における類似姿勢学習の有用性", 情報処理学会研究報告, vol. Vol. 2018-CVIM-212, No. 13, JPN6021006740, 10 May 2018 (2018-05-10), pages 1 - 7, ISSN: 0004455642 * |
Also Published As
Publication number | Publication date |
---|---|
JP6938055B2 (ja) | 2021-09-22 |
CN111507171B (zh) | 2023-08-01 |
KR20200095384A (ko) | 2020-08-10 |
US20200247321A1 (en) | 2020-08-06 |
KR102349995B1 (ko) | 2022-01-12 |
EP3699814A1 (en) | 2020-08-26 |
US10821897B2 (en) | 2020-11-03 |
CN111507171A (zh) | 2020-08-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020126638A (ja) | 運転者の状態に応じて特化型のキャリブレーションのために運転者補助装置を自動で調整する方法及び装置 | |
CN111507170B (zh) | 通过车对车连接警告驾驶员的异常状态的方法和装置 | |
JP6695503B2 (ja) | 車両の運転者の状態を監視するための方法及びシステム | |
Rezaei et al. | Look at the driver, look at the road: No distraction! no accident! | |
US20150347831A1 (en) | Detection device, detection program, detection method, vehicle equipped with detection device, parameter calculation device, parameter calculating parameters, parameter calculation program, and method of calculating parameters | |
JP2020533662A (ja) | 自律運転している車両とコミュニケーションするための単純な2dカメラを採用したジェスチャー制御 | |
EP2757527B1 (en) | System and method for distorted camera image correction | |
US9606623B2 (en) | Gaze detecting apparatus and method | |
JP2003015816A (ja) | ステレオカメラを使用した顔・視線認識装置 | |
CN114041175A (zh) | 一种用于使用真实感合成数据估计头部姿势和视线的神经网络 | |
US20180208201A1 (en) | System and method for a full lane change aid system with augmented reality technology | |
CN105719311A (zh) | 用于检测目标的车辆系统及其操作方法 | |
JP2020061140A (ja) | ブラインドスポットモニタリングのためのcnnの学習方法、テスティング方法、学習装置、及びテスティング装置 | |
WO2024051345A1 (zh) | 驾驶员的视线识别方法及装置、车辆和存储介质 | |
JP2016115117A (ja) | 判定装置および判定方法 | |
CN113661495A (zh) | 视线校准方法及装置、设备、计算机可读存储介质、系统、车辆 | |
US11861842B2 (en) | Information processing method, program, and information processing system | |
Martin et al. | Monitoring head dynamics for driver assistance systems: A multi-perspective approach | |
CN115376113A (zh) | 驾驶员分心检测方法、驾驶员监控系统及存储介质 | |
US20120189161A1 (en) | Visual attention apparatus and control method based on mind awareness and display apparatus using the visual attention apparatus | |
JP6572538B2 (ja) | 下方視判定装置および下方視判定方法 | |
KR20200040187A (ko) | 자동차의 블라인드 스팟 모니터링을 위한 학습 방법과 테스팅 방법, 및 이를 이용한 학습 장치와 테스팅 장치 | |
Zabihi et al. | Frame-rate vehicle detection within the attentional visual area of drivers | |
CN113361441B (zh) | 基于头部姿态和空间注意力的视线区域估计方法及系统 | |
Jeong et al. | Facial landmark detection based on an ensemble of local weighted regressors during real driving situation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210302 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210527 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210817 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210825 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6938055 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |