JP7735948B2 - 画像記憶システムおよび画像記憶方法 - Google Patents

画像記憶システムおよび画像記憶方法

Info

Publication number
JP7735948B2
JP7735948B2 JP2022110667A JP2022110667A JP7735948B2 JP 7735948 B2 JP7735948 B2 JP 7735948B2 JP 2022110667 A JP2022110667 A JP 2022110667A JP 2022110667 A JP2022110667 A JP 2022110667A JP 7735948 B2 JP7735948 B2 JP 7735948B2
Authority
JP
Japan
Prior art keywords
subject
image
information
face
dimensional information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022110667A
Other languages
English (en)
Other versions
JP2024008641A (ja
Inventor
泰稔 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2022110667A priority Critical patent/JP7735948B2/ja
Priority to US18/343,034 priority patent/US12548369B2/en
Publication of JP2024008641A publication Critical patent/JP2024008641A/ja
Application granted granted Critical
Publication of JP7735948B2 publication Critical patent/JP7735948B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)

Description

本発明は、周辺環境を撮像した撮像画像を加工して記憶する技術に関する。
特許文献1に記載のドライブレコーダは、車両に搭載されたカメラによって撮影された画像から他車両が写された領域を抽出する画像抽出部と、他車両が写された領域に対して、車両の種別に関連する特徴を反映した車両特徴画像に変換し、車両の乗員の特徴を反映した乗員特徴画像を、車両特徴画像に重畳する画像処理部と、を備える。車両の乗員は、大人の男性や大人の女性に分類される。
特開2021-176235号公報
撮像画像上に道路上にいる対象者が含まれる場合、対象者のプライバシー保護のため対象者の顔をマスクすることが望ましいが、対象者の顔をマスクすることによって対象者の今後の進行方向を示す意図を読み取ることが困難になる。
本発明の目的は、対象者の顔をマスクしつつも、対象者の行動予測に有用な情報を残す技術を提供することにある。
上記課題を解決するために、本発明のある態様の画像記憶システムは、周辺環境をカメラによって撮像した撮像画像および光を照射して受光する光測距装置によって対象物の距離を測定した3次元情報を取得する取得部と、撮像画像に含まれる対象者の顔を検出し、検出した対象者の顔の向きを3次元情報から導出する導出部と、撮像画像に含まれる対象者の顔をマスクし、その顔の向きを示す情報を撮像画像のデータに付加した加工画像を生成する画像加工部と、画像加工部によって生成された加工画像のデータを記憶する記憶部と、を備える。撮像画像および3次元情報は、撮像画像および3次元情報にそれぞれ付加された検出時刻を示すタイムスタンプをもとに対応付けられる。導出部は、3次元情報をもとに対象者の顔の部位を導出し、導出した顔の部位の位置に応じて顔の向きを導出する。画像加工部は、加工画像のデータに対象者の位置情報を付加する。付加される対象者の位置情報は、車両の位置情報と、3次元情報に示す対象者の前記車両からの距離および方向とをもとに算出される。
本発明の別の態様は、画像記憶方法である。この方法は、コンピュータによって各ステップを実行される画像記憶方法であって、周辺環境をカメラによって撮像した撮像画像および光を照射して受光する光測距装置によって対象物の距離を測定した3次元情報を取得するステップと、撮像画像に含まれる対象者の顔を検出し、検出した対象者の顔の向きを3次元情報から導出するステップと、撮像画像に含まれる対象者の顔をマスクし、その顔の向きを示す情報を撮像画像のデータに付加して加工画像を生成するステップと、生成された加工画像のデータを記憶するステップと、を含む。取得される撮像画像および3次元情報は、撮像画像および3次元情報にそれぞれ付加された検出時刻を示すタイムスタンプをもとに対応付けられる。導出するステップでは、3次元情報をもとに対象者の顔の部位を導出し、導出した顔の部位の位置に応じて顔の向きを導出する。加工画像を生成するステップでは、加工画像のデータに対象者の位置情報を付加する。付加される対象者の位置情報は、車両の位置情報と、3次元情報に示す対象者の前記車両からの距離および方向とをもとに算出される。
本発明によれば、対象者の顔をマスクしつつも、対象者の行動予測に有用な情報を残す技術を提供できる。
車両の周辺環境を撮像した撮像画像を示す図である。 図1に示す撮像画像を加工した加工画像を示す図である。 画像記憶システムの機能構成を示す図である。 顔画像を示し、顔の向きを導出する処理について説明するための図である。 図1に示す撮像画像を加工した変形例の加工画像を示す図である。 実施例の画像記憶処理のフローチャートである。
図1は、車両の周辺環境を撮像した撮像画像10を示す図である。撮像画像10は、車両に搭載されたカメラによって車両前方を撮像して生成されたものである。図1では、車両前方の撮像画像10を示すが、これに限られず、車両後方や車両側方の撮像画像であってよい。
撮像画像10には、対象者12および対象者14が写り込んでいる。対象者12は、歩道に沿って正面に向かっており、対象者14は、歩道から道路に向かっている。撮像画像10は顔認識処理を施されており、対象者12の顔を囲む検出枠16と、対象者14の顔を囲む検出枠18が付加されている。
撮像画像10は、加工されてサーバ装置に送信され、車両の運転支援に用いられる。例えば、対象者14が道路に出ようとしていることが推定された場合に、運転支援情報として運転者に対象者14の存在を示す情報が通知される。運転支援情報は、スピーカやディスプレなどによって出力される。車両は自動運転可能であってよく、撮像画像10をもとに自動運転のための運転支援情報が生成されてよい。
図2は、図1に示す撮像画像10を加工した加工画像11を示す図である。図2では図1に示す撮像画像10の対象者12に着目した拡大図である。加工画像11に含まれる対象者12は、顔が位置していた箇所にマスキング処理を施してマスク領域20としている。これにより、車両を含むシステムが撮像画像10を利用する際に、撮像画像10に写り込んだ対象者を特定しづらくでき、個人情報を保護することができる。
対象者は進行方向に顔を向けることが多く、顔の向きを示す情報は衝突判定などに有用である。対象者12の顔はマスク領域20として特定不能にされている一方、対象者12の顔の向きを示す顔方向情報22が加工画像11に付加されている。これにより、車両のシステムが、対象者12の顔をマスクしても、対象者12の顔を向きが把握可能となり、顔方向情報22をもとに対象者12の進行方向を予測しやすくできる。このように撮像画像10を加工することによって、撮像画像10に写る対象者12の個人情報を保護しつつ、対象者12の行動予測をしやすくできる。図1および図2では、対象者12が歩行者である例を示したが、自転車の運転者であってもよい。
図3は、画像記憶システム1の機能構成を示す図である。画像記憶システム1の各機能は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたシステムソフトウェアやアプリケーションプログラムなどによって実現される。したがって画像記憶システム1の各機能はハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
画像記憶システム1は、画像記憶装置24、カメラ26、光学センサ28およびサーバ装置30を備える。画像記憶装置24は、取得部32、位置情報取得部34、処理部36、地図情報保持部38、記憶部40および通信部42を備える。
カメラ26は、車両に搭載され、車両の周辺環境を撮像し、撮像画像を画像記憶装置24に送る。カメラ26は、車両前方だけでなく、車両の後方および側方を撮像してよい。
光学センサ28は、例えばLiDAR(light detection and ranging)であり、光測距装置である。光学センサ28は、測定範囲にある対象物に対してレーザ等の照射光を照射し、照射光の照射に応じた対象物からの反射光を受光し、受光状態に応じた信号をもとに対象物までの距離を測定する。対象物までの距離は、照射光を照射した時刻と反射光を受光した時刻により算出される。対象物の方向は、照射光を照射した方向によって定まる。このように、光学センサ28は、車両の進行方向の対象物に対して照射することで、車両からの対象物の距離および方向を測定する。光学センサ28によって車両からの距離および方向を示す点群からなる3次元情報が得られる。カメラ26および光学センサ28は、検出結果を画像記憶装置24に送る。カメラ26および光学センサ28の検出結果には時刻同期されたタイムスタンプが付与されており、タイムスタンプによって両データを関連付けることができる。
画像記憶装置24は、カメラ26から撮像画像10を受け取って、撮像画像10にマスキング処理を施して加工画像11を生成し、加工画像11をサーバ装置30に送信する。画像記憶装置24から送信される情報は、加工画像11だけでなく、不図示の車載センサで検出した車両走行情報および周辺環境情報を含む。車載センサは、例えば、車速センサ、シフトポジション検出センサ、舵角センサ、ミリ波レーダ、超音波センサなどであってよい。サーバ装置30は、画像記憶装置24から受け取った加工画像11を解析して、運転支援情報を生成する。
画像記憶装置24の取得部32は、カメラ26から撮像画像を取得し、光学センサ28から3次元情報を取得する。撮像画像および3次元情報には、検出時刻を示すタイムスタンプが付加されている。そのため、撮像画像とほぼ同時刻で検出された3次元情報をその撮像画像に対応付けることができる。
位置情報取得部34は、全球測位衛星システム(GNSS)を用いて車両の位置情報を取得する。車両の位置情報にはタイムスタンプが付加される。車両の位置情報は緯度および経度で示される。地図情報保持部38は、住所や道路を示す地図情報を緯度および経度に関連付けて保持する。そのため、位置情報取得部34によって取得された位置情報から車両がいずれの道路を走行しているか導出できる。また、地図情報には、車両、歩道、横断歩道などの道路属性情報が含まれる。
処理部36は、画像処理を実行し、導出部44および画像加工部46を有する。導出部44は、撮像画像10に含まれる対象者の顔を検出し、検出した対象者の顔の向きを3次元情報から導出する。対象者の顔は、撮像画像10を既知の顔認識処理で解析することで検出する。撮像画像10から対象者の顔を検出する処理は、パターンマッチングの手法であってよく、機械学習によって学習したモデルによって実行されてよい。導出部44は、対象者の顔を検出して図1に示すように検出枠16,18を生成する。
図4は、顔画像50を示し、顔の向きを導出する処理について説明するための図である。導出部44は、3次元情報を用いて、検出した対象者の顔の向きを導出する。導出部44は、点群からなる3次元情報を用いて、対象者の顔の部位を導出する。導出部44は、例えば、顔に含まれる点群のうち最も隆起している部分を鼻であると導出し、窪んでいる部分を目であると導出する。導出部44は、顔の部位の位置関係を示す情報を用いてよく、特定の顔の部位が導出されれば、他の凹凸を示す点群の領域と顔の位置関係を示す情報とをもとに他の顔の部位を導出する。導出部44は、顔画像50に含まれる鼻52a、目52b、口52c、耳52dを導出する。なお、導出部44は、鼻52aのみ導出してもよい。鼻52aは、隆起を示す点群領域の中央位置であってよい。
導出部44は、顔画像50の基準位置54を設定し、基準位置54からの顔の部位との位置関係を導出し、導出した位置関係をもとに顔の向きを導出する。基準位置54は、顔の中心位置に設定されてよく、真正面を向いた顔における平均的な鼻52aの位置に設定されてよい。簡単には、導出部44は、鼻52aと基準位置54との位置関係をもとに顔の向きを導出する。仮に鼻52aと基準位置54の位置が同じならば顔は真正面を向いている。
図4に示すように、左右方向において鼻52aが基準位置54よりも左側に位置すれば顔は右側を向いており、上下方向において鼻52aが基準位置54と同じ高さに位置すれば顔は水平を向いている。このように、導出部44は、鼻52aと基準位置54の位置関係によって3次元方向の顔の向きを導出する。なお、導出部44は、2つの目52bの中間位置と基準位置との位置関係によって顔の向きを導出してよく、口52cと基準位置との位置関係によって顔の向きを導出してよい。基準位置は、顔の部位毎に設定されてよい。導出部44は、複数の顔の部位の位置と、それぞれの部位に設定した基準位置との位置関係によって顔の向きを導出してよい。いずれにしても、導出部44は、3次元情報をもとに対象者の顔の部位を導出し、導出した顔の部位の位置に応じて顔の向きを導出する。導出部44は、鼻52aと基準位置54との位置関係と顔の向きとを関連付けたマップまたは関数を保持し、そのマップまたは関数を鼻52aと基準位置54との位置関係を入力して顔の向きを導出する。
なお、光学センサ28の検出可能な距離は数10メートルであり、光学センサ28で検出できない距離に位置する人は、対象者から外れ、本処理から除かれる。
図3に戻る。画像加工部46は、撮像画像10に含まれる対象者の顔をマスクし、その顔の向きを示す情報を撮像画像10のデータに付加し、図2に示す加工画像11を生成する。対象者の顔をマスクするマスキング処理は、塗りつぶし処理、ぼかし処理、コンピュータグラフィックスの顔画像に変換する処理などであってよい。図2では、マスク領域20に塗りつぶし処理を施している。また、マスク領域20は、図1に示す顔認識処理で設定された検出枠16,18の内側の領域であってよい。対象者の顔画像はマスクされているものの、対象者の肩から下の体はそのまま加工せずに残されている。
画像加工部46は、撮像画像10に対して、対象者の顔をマスクしつつ、顔の向きを示す情報、すなわち3次元方向のベクトル情報を付加し、加工画像11を生成する。顔の向きを示す情報は、ヨー角、ピッチ角、ロール角が定められたベクトルであってよい。導出部44および画像加工部46は、1フレームの撮像画像毎に加工画像を生成する処理を実行する。図2では加工画像11に付加された顔の向きを示す情報を矢印で示すが、対象者12と関連付けたベクトルであってよい。
画像加工部46は、生成した加工画像11を記憶部40に送り、記憶部40は、画像加工部46によって生成された加工画像11のデータを記憶する。通信部42は、記憶部40に記憶された加工画像11をサーバ装置30に送信する。これにより、対象者を特定しづらくした加工画像11を送信できる。また、サーバ装置30は、対象者の顔の向きをもとに、対象者の将来の行動予測を精度良く推定できる。通信部42は、加工画像11を、プローブ情報に含ませてサーバ装置30に送信してよい。プローブ情報とは、車両ID、時刻、車速、車両加速度、車両位置情報などであり、周期的にサーバ装置30に送信されている。
図5は、図1に示す撮像画像10を加工した変形例の加工画像56を示す図である。図5に示す加工画像56は、図2に示す加工画像11と比べて、目線情報58と移動方向情報60とが付加されている点で相違する。
導出部44は、撮像画像10を解析して目における虹彩の位置をもとに目線情報58を導出する。また、導出部44は、時系列順の撮像画像10をもとに対象者12の移動方向を導出する。時系列順の撮像画像10に含まれる対象者12を追跡して、対象者12の移動方向を導出する。導出部44は、対象者毎にIDを付与して追跡する。画像加工部46は、加工画像56のデータに、対象者12の目線情報58と、対象者12の移動方向情報60とを付加する。これにより、対象者12が歩行中であるか、静止しているのか判別でき、対象者12の将来的な行動予測を精度よくできる。
画像加工部46は、加工画像56のデータに対象者12の位置情報を付加してよい。対象者12の位置情報は、車両の位置情報と、3次元情報に示す対象者の車両からの距離および方向とをもとに算出される。対象者12の位置情報は、緯度および経度だけでなく、車道、歩道、横断歩道などの道路属性情報を含んでよい。つまり、対象者12が道路上のどこにいるのか示す情報を対象者12の位置情報に含ませる。道路属性情報は、地図情報をもとに算出する。これにより、対象者12の位置情報をもとに、車両との衝突可能性を精度よく算出できる。また、運転者に通知する運転支援情報を地理的名称を用いて生成できる。
図6は、実施例の画像記憶処理のフローチャートである。取得部32は、カメラ26から車両の周辺環境を撮像した撮像画像を取得し(S10)、光学センサ28から車両の周辺環境を検出した3次元情報を取得する(S12)。
導出部44は、撮像画像に対して顔認識処理を実行し、対象者の顔の画像を検出する(S14)。導出部44は、対象者有りであるか、つまり対象者の顔画像が検出されたか判定する(S16)。また、対象者は3次元情報で検出されたものに限定してもよく、導出部44は、顔画像に対応する3次元情報が検出された対象者がいるか判定してもよい。
対象者がいない場合(S16のN)、画像加工部46は撮像画像を加工することなく、通信部42は撮像画像をサーバ装置30に送信する(S24)。対象者がいる場合(S16のY)、導出部44は3次元情報をもとに対象者の顔の部位を導出し、導出した顔の部位の位置に応じて顔の向きを導出する(S18)。
画像加工部46は、撮像画像のうち顔画像をマスクするマスキング処理を実行し(S20)、顔の向きを示す情報を付加して加工画像を生成する(S22)。通信部42は、生成された加工画像をサーバ装置30に送信する(S24)。この処理は撮像画像毎に繰り返される。
以上、本開示を実施例をもとに説明した。本開示は、上述の実施例に限定されるものではなく、当業者の知識に基づいて各種の設計変更等の変形を加えることも可能である。
例えば、実施例ではサーバ装置30が加工画像を受け取って運転支援情報を生成し、その運転支援情報を車両に送信する態様を示したが、この態様に限られない。例えば、サーバ装置30は、加工画像を事後的に解析して運転者の運転スキルや運転傾向を算出してもよい。
また、実施例では光学センサ28がLiDARである態様を示したが、この態様に限られない。例えば、光学センサ28はステレオカメラであってよい。いずれにしても光学センサ28の検出結果をもとに、対象者の顔の奥行きを算出して、顔の部位を特定できる。
また、実施例では車両側で加工画像を生成する態様を示したが、この態様に限られず、サーバ装置30側で加工画像を生成してもよい。
1 画像記憶システム、 10 撮像画像、 11 加工画像、 12,14 対象者、 16,18 検出枠、 20 マスク領域、 22 顔方向情報、 24 画像記憶装置、 26 カメラ、 28 光学センサ、 30 サーバ装置、 32 取得部、 34 位置情報取得部、 36 処理部、 38 地図情報保持部、 40 記憶部、 42 通信部、 44 導出部、 46 画像加工部。

Claims (5)

  1. 周辺環境をカメラによって撮像した撮像画像および光を照射して受光する光測距装置によって対象物の距離を測定した3次元情報を取得する取得部と、
    撮像画像に含まれる対象者の顔を検出し、検出した対象者の顔の向きを3次元情報から導出する導出部と、
    撮像画像に含まれる対象者の顔をマスクし、その顔の向きを示す情報を撮像画像のデータに付加した加工画像を生成する画像加工部と、
    前記画像加工部によって生成された加工画像のデータを記憶する記憶部と、を備え
    取得される撮像画像および3次元情報は、撮像画像および3次元情報にそれぞれ付加された検出時刻を示すタイムスタンプをもとに対応付けられ、
    前記導出部は、3次元情報をもとに対象者の顔の部位を導出し、導出した顔の部位の位置に応じて顔の向きを導出し、
    前記画像加工部は、加工画像のデータに対象者の位置情報を付加し、
    付加される対象者の位置情報は、車両の位置情報と、3次元情報に示す対象者の前記車両からの距離および方向とをもとに算出されることを特徴とする画像記憶システム。
  2. 前記導出部は、3次元情報をもとに対象者の顔の部位を導出し、顔画像上に設定された基準位置からの、導出した顔の部位の位置関係をもとに顔の向きを導出することを特徴とする請求項1に記載の画像記憶システム。
  3. 前記導出部は、時系列順の撮像画像をもとに対象者の移動方向を導出し、
    前記画像加工部は、加工画像のデータに対象者の移動方向を付加することを特徴とする請求項1または2に記載の画像記憶システム。
  4. 付加される対象者の位置情報は、対象者が道路上のどこにいるのか示す道路属性情報を含むことを特徴とする請求項1または2に記載の画像記憶システム。
  5. コンピュータによって各ステップを実行される画像記憶方法であって、
    周辺環境をカメラによって撮像した撮像画像および光を照射して受光する光測距装置によって対象物の距離を測定した3次元情報を取得するステップと、
    撮像画像に含まれる対象者の顔を検出し、検出した対象者の顔の向きを3次元情報から導出するステップと、
    撮像画像に含まれる対象者の顔をマスクし、その顔の向きを示す情報を撮像画像のデータに付加して加工画像を生成するステップと、
    生成された加工画像のデータを記憶するステップと、を含み、
    取得される撮像画像および3次元情報は、撮像画像および3次元情報にそれぞれ付加された検出時刻を示すタイムスタンプをもとに対応付けられ、
    前記導出するステップでは、3次元情報をもとに対象者の顔の部位を導出し、導出した顔の部位の位置に応じて顔の向きを導出し、
    前記加工画像を生成するステップでは、加工画像のデータに対象者の位置情報を付加し、
    付加される対象者の位置情報は、車両の位置情報と、3次元情報に示す対象者の前記車両からの距離および方向とをもとに算出されることを特徴とする画像記憶方法。
JP2022110667A 2022-07-08 2022-07-08 画像記憶システムおよび画像記憶方法 Active JP7735948B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022110667A JP7735948B2 (ja) 2022-07-08 2022-07-08 画像記憶システムおよび画像記憶方法
US18/343,034 US12548369B2 (en) 2022-07-08 2023-06-28 Image storage system and image storage method that masks the face of a subject included in the captured image and generates a processed image that indicates the orientation of the face

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022110667A JP7735948B2 (ja) 2022-07-08 2022-07-08 画像記憶システムおよび画像記憶方法

Publications (2)

Publication Number Publication Date
JP2024008641A JP2024008641A (ja) 2024-01-19
JP7735948B2 true JP7735948B2 (ja) 2025-09-09

Family

ID=89431603

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022110667A Active JP7735948B2 (ja) 2022-07-08 2022-07-08 画像記憶システムおよび画像記憶方法

Country Status (2)

Country Link
US (1) US12548369B2 (ja)
JP (1) JP7735948B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013032949A (ja) 2011-08-01 2013-02-14 Aisin Aw Co Ltd 車両用表示処理システムおよび車両用表示処理方法並びにプログラム
JP2017135695A (ja) 2016-01-25 2017-08-03 株式会社Jvcケンウッド 表示装置、表示方法、プログラム
JP2018106288A (ja) 2016-12-22 2018-07-05 パナソニックIpマネジメント株式会社 撮像状態検出装置、撮像状態検出方法、プログラム、および非一時的記録媒体
JP2018528536A (ja) 2015-08-31 2018-09-27 エスアールアイ インターナショナルSRI International 運転行動を監視する方法及びシステム
JP2021089529A (ja) 2019-12-03 2021-06-10 富士通株式会社 制御方法、情報処理装置、情報処理システム及びプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6915995B2 (ja) 2017-02-01 2021-08-11 株式会社デンソーテン ドライブレコーダ

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013032949A (ja) 2011-08-01 2013-02-14 Aisin Aw Co Ltd 車両用表示処理システムおよび車両用表示処理方法並びにプログラム
JP2018528536A (ja) 2015-08-31 2018-09-27 エスアールアイ インターナショナルSRI International 運転行動を監視する方法及びシステム
JP2017135695A (ja) 2016-01-25 2017-08-03 株式会社Jvcケンウッド 表示装置、表示方法、プログラム
JP2018106288A (ja) 2016-12-22 2018-07-05 パナソニックIpマネジメント株式会社 撮像状態検出装置、撮像状態検出方法、プログラム、および非一時的記録媒体
JP2021089529A (ja) 2019-12-03 2021-06-10 富士通株式会社 制御方法、情報処理装置、情報処理システム及びプログラム

Also Published As

Publication number Publication date
US20240013570A1 (en) 2024-01-11
US12548369B2 (en) 2026-02-10
JP2024008641A (ja) 2024-01-19

Similar Documents

Publication Publication Date Title
Cho et al. A multi-sensor fusion system for moving object detection and tracking in urban driving environments
CN107914708B (zh) 后方障碍物检测和距离估算
CN111164967B (zh) 图像处理设备和图像处理方法
WO2020115544A1 (en) Method and apparatus for enhanced camera and radar sensor fusion
JP6171612B2 (ja) 仮想レーン生成装置及びプログラム
US10336252B2 (en) Long term driving danger prediction system
WO2019026715A1 (ja) 制御装置、および制御方法、プログラム、並びに移動体
JP6520740B2 (ja) 物体検出方法、物体検出装置、およびプログラム
JP2013225295A (ja) 方位情報を考慮する衝突警告システム
CN105182364A (zh) 狭窄空间中的与静态目标的碰撞避免
CN101101333A (zh) 用于产生行进车辆的驾驶员辅助信息的设备和方法
JP5429986B2 (ja) 移動ロボットの遠方環境認識装置及び方法
Ruder et al. Highway lane change assistant
KR20230031344A (ko) 자동차를 둘러싼 영역 내 장애물을 검출하기 위한 시스템 및 방법
Rana et al. The perception systems used in fully automated vehicles: a comparative analysis
Virdi Using deep learning to predict obstacle trajectories for collision avoidance in autonomous vehicles
Fukuda et al. Blindspotnet: Seeing where we cannot see
JP7735948B2 (ja) 画像記憶システムおよび画像記憶方法
Riera et al. Detecting and tracking unsafe lane departure events for predicting driver safety in challenging naturalistic driving data
US20240013476A1 (en) Traffic event reproduction system, server, traffic event reproduction method, and non-transitory computer readable medium
US20240126268A1 (en) Track refinement networks
Kohara et al. Obstacle detection based on occupancy grid maps using stereovision system
KR20240140249A (ko) 카메라 거리 보정 장치 및 방법
Abhilash et al. Employing Stereo Convolutional Neural Networks for Precise 3D Object Localization in Autonomous Driving Technology
JP2023176765A (ja) 情報処理装置、情報処理方法、情報処理プログラム、死角推定モデルプログラム、自動運転システム及び運転教習システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240415

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20250122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250729

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250811

R150 Certificate of patent or registration of utility model

Ref document number: 7735948

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150