JP7095537B2 - 画像処理装置、プログラム、情報処理システム、及び制御方法 - Google Patents

画像処理装置、プログラム、情報処理システム、及び制御方法 Download PDF

Info

Publication number
JP7095537B2
JP7095537B2 JP2018187467A JP2018187467A JP7095537B2 JP 7095537 B2 JP7095537 B2 JP 7095537B2 JP 2018187467 A JP2018187467 A JP 2018187467A JP 2018187467 A JP2018187467 A JP 2018187467A JP 7095537 B2 JP7095537 B2 JP 7095537B2
Authority
JP
Japan
Prior art keywords
image
vehicle
reflected
detected
specific portion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018187467A
Other languages
English (en)
Other versions
JP2020057203A (ja
Inventor
和也 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018187467A priority Critical patent/JP7095537B2/ja
Priority to CN201910690383.2A priority patent/CN110995981B/zh
Priority to US16/527,378 priority patent/US11080536B2/en
Publication of JP2020057203A publication Critical patent/JP2020057203A/ja
Application granted granted Critical
Publication of JP7095537B2 publication Critical patent/JP7095537B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/06Protocols specially adapted for file transfer, e.g. file transfer protocol [FTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理装置、プログラム、情報処理システム、及び制御方法に関する。
従来、カメラ等を用いて撮像された映像を処理する画像処理技術が知られている。例えば、特許文献1には、動画像からキャプチャされた複数の第1の解像度画像に基づいて検出された同物体の動き情報に基づいて、第1の解像度画像よりも高解像度の第2の解像度画像に写る当該同物体における所定領域の位置を推定し、当該所定領域の位置に基づいて画像分析を行う技術が開示されている。
特開2017-211760号公報
近年、映像上の所定の物体(例えば、車両のナンバープレート)を認識し、認識された当該物体に対して視認性を低下させるマスク処理(例えば、モザイク処理)を実施することが一般的に行われている。マスク処理の実施は、例えば映像を不特定のユーザに提供するサービスにおいて、個人情報保護の観点から有用である。しかしながら、従来、マスク処理を必ずしも適切に実施できない場合がある。例えばカメラの撮像範囲内に物体が入り込んでくる場合、フレームに当該物体の全体が収まらず、一部のみが映り込み得る。物体の一部のみが映り込んでいる場合、当該物体を画像上で検出できず、結果としてマスク処理を必ずしも実施できない。したがって、映像上の所定の物体に対してマスク処理が実行される確実性の向上が望まれている。
かかる事情に鑑みてなされた本発明の目的は、映像上の所定の物体に対してマスク処理が実行される確実性を向上させることにある。
本発明の一実施形態に係る画像処理装置は、
通信部と、制御部と、を備え、
前記通信部は、第1車両の車外風景を撮像した第1映像を取得し、
前記制御部は、
第2車両が前記第1映像に映り込んだことを検出すると、前記第1映像上の前記第2車両の少なくとも一部に相当する第1画像領域に対して、映像の視認性を低下させる画像処理を実施し、
前記第2車両が前記第1映像に映り込んだ後、前記第2車両の特定部分が前記第1映像に映り込んだことを検出すると、前記第1画像領域に対する前記画像処理の実施を終了するとともに、前記第1映像上の前記第2車両の前記特定部分に相当する第2画像領域に対して、映像の視認性を低下させる画像処理を実施する。
本発明の一実施形態に係るプログラムは、
画像処理装置に、
第1車両の車外風景を撮像した第1映像を取得するステップと、
第2車両が前記第1映像に映り込んだことを検出すると、前記第1映像上の前記第2車両の少なくとも一部に相当する第1画像領域に対して、映像の視認性を低下させる画像処理を実施するステップと、
前記第2車両が前記第1映像に映り込んだ後、前記第2車両の特定部分が前記第1映像に映り込んだことを検出すると、前記第1画像領域に対する前記画像処理の実施を終了するとともに、前記第1映像上の前記第2車両の前記特定部分に相当する第2画像領域に対して、映像の視認性を低下させる画像処理を実施するステップと、を実行させる。
本発明の一実施形態に係る情報処理システムは、
第1車両と、前記第1車両と通信可能なサーバと、を備え、
前記第1車両は、車外風景を撮像した第1映像を前記サーバへ送信し、
前記第1車両又は前記サーバは、
第2車両が前記第1映像に映り込んだことを検出すると、前記第1映像上の前記第2車両の少なくとも一部に相当する第1画像領域に対して、映像の視認性を低下させる画像処理を実施し、
前記第2車両が前記第1映像に映り込んだ後、前記第2車両の特定部分が前記第1映像に映り込んだことを検出すると、前記第1画像領域に対する前記画像処理の実施を終了するとともに、前記第1映像上の前記第2車両の前記特定部分に相当する第2画像領域に対して、映像の視認性を低下させる画像処理を実施し、
前記サーバは、前記第1映像をクライアントへ送信する。
本発明の一実施形態に係る制御方法は、
画像処理装置の制御方法であって、
第1車両の車外風景を撮像した第1映像を取得するステップと、
第2車両が前記第1映像に映り込んだことを検出すると、前記第1映像上の前記第2車両の少なくとも一部に相当する第1画像領域に対して、映像の視認性を低下させる画像処理を実施するステップと、
前記第2車両が前記第1映像に映り込んだ後、前記第2車両の特定部分が前記第1映像に映り込んだことを検出すると、前記第1画像領域に対する前記画像処理の実施を終了するとともに、前記第1映像上の前記第2車両の前記特定部分に相当する第2画像領域に対して、映像の視認性を低下させる画像処理を実施するステップと、を含む。
本発明の一実施形態に係る画像処理装置、情報処理システム、及び制御方法によれば、映像上の所定の被写体に対してマスク処理が実行される確実性が向上する。
本発明の第1実施形態に係る情報処理システムの概略構成を示す図である。 本発明の第1実施形態に係る情報処理システムの概略構成を示す図である。 第1実施形態に係る第1車両の概略構成を示すブロック図である。 第1映像上の第1画像領域の例を示す図である。 第1映像上の第1画像領域の例を示す図である。 第1映像上の第2画像領域の例を示す図である。 サーバの概略構成を示すブロック図である。 第1実施形態に係る画像処理装置の動作を示すフローチャートである。 第1実施形態に係るサーバの動作を示すフローチャートである。 第2実施形態に係る第1車両の概略構成を示すブロック図である。 第2実施形態に係る画像処理装置の動作を示すフローチャートである。 第3実施形態に係る第1車両の概略構成を示すブロック図である。 第3実施形態に係る画像処理装置の動作を示すフローチャートである。
以下、本発明の実施形態について説明する。
(第1実施形態)
図1を参照して、本発明の第1実施形態に係る情報処理システム1の概要について説明する。情報処理システム1は、第1車両10と、サーバ20と、を備える。第1車両10は、例えば自動車であるが、これに限られず任意の車両であってもよい。図1では説明の簡便のため、第1車両10については1つのみを図示しているが、情報処理システム1は任意の数の第1車両10を備えてもよい。第1車両10は、例えば車載カメラを備えており、第1車両10から見て第1方向の車外風景を撮像した第1映像を生成可能である。本実施形態において「第1方向」は、第1車両10の前方であるものとして説明するが、これに限られない。また、第1車両10は、画像認識処理により、第1映像に映った物体を認識可能である。サーバ20は、1つ又は互いに通信可能な複数の情報処理装置(例えば、サーバ装置)を含む。第1車両10及びサーバ20は、例えば移動体通信網及びインターネット等を含むネットワーク30を介して通信可能である。
本実施形態の概要として、第1車両10は、例えば車載カメラを用いて、第1車両10から見て前方の車外風景を撮像した第1映像を生成する。図1において一点鎖線で示される範囲は、車載カメラの視野を示す。ここで、第2車両40が第1車両10を後方から追い越す場面を考える。図1に示すように、車載カメラの視野に第2車両40が入り込むと、第2車両40が第1映像に映り込む。以下、被写体としての第2車両40と、第1映像上の第2車両40とを区別して説明する場合、後者を「第2車両40i」ともいう。第1車両10は、第1映像に第2車両40が映り込んだことを検出すると、第1映像上の第2車両40iの少なくとも一部に相当する第1画像領域に対して、映像の視認性を低下させる画像処理(以下、「マスク処理」ともいう。)を実施する。マスク処理は、例えばモザイク処理、マスク画像を重畳させる処理、又は解像度を低下させる処理等であるが、これらに限られない。
その後、第1車両10に対して第2車両40が更に前方に進んだ場面を考える。図2に示すように、車載カメラの視野に第2車両40の特定部分41が入り込むと、当該特定部分41が第1映像に映り込む。以下、被写体としての特定部分41と、第1映像上の特定部分41とを区別して説明する場合、後者を「特定部分41i」ともいう。本実施形態において「特定部分」は、第2車両40の背面に設けられたナンバープレートであるものとして説明するが、これに限られない。第1車両10は、上述のように第1映像に第2車両40が映り込んだ後、第2車両40の特定部分41が第1映像に映り込んだことを検出すると、第1画像領域に対するマスク処理の実施を終了するとともに、第1映像上の第2車両40iの特定部分41iに相当する第2画像領域に対してマスク処理を実施する。
このように、本実施形態によれば、第1映像に第2車両40の特定部分41が映り込む前に第1映像上の第2車両40iに対してマスク処理が施される。このため、例えば第2車両40の特定部分41の一部のみが第1映像に映り込んでいる等、第1映像上で第2車両40iの特定部分41iの検出ができない場合であっても、第1映像上の当該特定部分41iに対してマスク処理が実施される確実性が向上する。
なお、第1車両10は、マスク処理を施した第1映像をサーバ20へ送信してもよい。サーバ20は、第1車両10から受信した第1映像を記憶し、例えばクライアントからの要求に応じて又は自動的に、記憶した第1映像をクライアントへ送信してもよい。かかる構成によれば、例えば第1映像を第三者に提供するサービスにおいて、第1映像に映った第2車両40のユーザの個人情報を保護し得る。
次に、情報処理システム1の各構成について、詳細に説明する。
(第1車両の構成)
図3に示すように、第1車両10は、通信装置11と、位置情報取得装置12と、第1撮像装置13と、画像処理装置14と、を備える。通信装置11、位置情報取得装置12、第1撮像装置13、及び画像処理装置14のそれぞれは、第1車両10に内蔵されてもよく、或いは第1車両10に着脱可能に設けられてもよい。通信装置11、位置情報取得装置12、第1撮像装置13、及び画像処理装置14は、例えばCAN(Controller Area Network)等の車載ネットワーク又は専用線を介して、互いに通信可能に接続される。
通信装置11は、例えばDCM(Data Communication Module)等の車載通信機である。具体的には、通信装置11は、ネットワーク30に接続する通信モジュールを含む。当該通信モジュールは、例えば4G(4th Generation)及び5G(5th Generation)等の移動体通信規格に対応する通信モジュールを含むが、これらに限られない。本実施形態において、第1車両10は、通信装置11を介してネットワーク30に接続される。通信装置11は、例えば第1車両10に関する任意の情報をプローブデータとしてサーバ20へ送信してもよい。具体的には、プローブデータは、第1車両10の識別情報、位置情報、走行経路情報、及び第1車両10が走行中の道路リンクを示す情報、並びに時刻情報等を含み得るが、これらに限られない。
位置情報取得装置12は、第1車両10の位置情報を取得する装置である。具体的には、位置情報取得装置12は、衛星測位システムに対応する受信機を含む。当該受信機は、例えばGPS(Global Positioning System)受信機を含んでもよい。本実施形態において、第1車両10は、位置情報取得装置12を用いて自車両の位置情報を取得する。
第1撮像装置13は、視野内の被写体を撮像した映像を生成する装置である。第1撮像装置13は、第1車両10から見て第1方向の車外風景を撮像可能となるように、第1車両10に備えられる。本実施形態において「第1方向」は、第1車両10から見て前方であるものとして説明するが、これに限られない。第1撮像装置13は、例えば、車両の運転支援に用いられる車載カメラ(フロントカメラ)、又はドライブレコーダ等であってもよい。本実施形態において、第1車両10は、第1撮像装置13を用いて、第1車両10から見て前方の車外風景を撮像した第1映像を生成する。
画像処理装置14は、画像処理機能を有する情報処理装置である。画像処理装置14は、例えばナビゲーション装置であってもよい。具体的には、画像処理装置14は、通信部141と、記憶部142と、制御部143と、を備える。
通信部141は、車載ネットワーク又は専用線を介して通信する通信モジュールを含む。本実施形態において、通信部141は、第1撮像装置13から第1映像を取得する。
記憶部142は、1つ以上のメモリを含む。本実施形態において「メモリ」は、例えば半導体メモリ、磁気メモリ、又は光メモリ等であるが、これらに限られない。記憶部142に含まれる各メモリは、例えば主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してもよい。記憶部142は、画像処理装置14の動作に用いられる任意の情報を記憶する。例えば、記憶部142は、システムプログラム、アプリケーションプログラム、及び組込みソフトウェア等を記憶してもよい。記憶部142に記憶された情報は、例えば通信装置11を介してネットワーク30から取得される情報で更新可能であってもよい。
制御部143は、1つ以上のプロセッサを備える。本実施形態において「プロセッサ」は、汎用のプロセッサ、特定の処理に特化した専用のプロセッサ等であるが、これらに限られない。例えば、第1車両10に搭載されたECU(Electronic Control Unit)が、制御部143として機能してもよい。制御部143は、画像処理装置14全体の動作を制御する。
例えば、制御部143は、第1映像への物体の映り込みを検出するための画像認識処理を開始する。本実施形態では、制御部143は、第1車両10を追い越す第2車両40の、第1映像への映り込みを検出するための画像認識処理を開始する。当該画像認識処理には、例えばパターンマッチング、特徴点抽出、又は機械学習等、任意の画像認識アルゴリズムが採用可能である。
制御部143は、第2車両40が第1映像に映り込んだことを検出すると、第1映像上の第2車両40iの少なくとも一部に相当する第1映像上の第1画像領域Aを決定し、当該第1画像領域Aに対してマスク処理を実施する。具体的には、第1画像領域Aは、図4に示すように第1映像上の第2車両40iの全体に相当する画像領域であってもよく、或いは第2車両40iの一部に相当する画像領域であってもよい。第1画像領域Aは、第1映像上の第2車両40iの少なくとも一部と厳密に一致しなくてもよい。例えば、第1画像領域Aは、第2車両40iの少なくとも一部を包含する任意形状(例えば、円形又は矩形等)の画像領域であってもよい。
制御部143は、第2車両40が第1映像に映り込んだ後、第2車両40の特定部分41(本実施形態では、ナンバープレート)が第1映像に映り込んだことを検出するまで、第1画像領域Aに対するマスク処理の実施を継続する。例えば図5は、第1車両10に対して第2車両40が更に前方に進んだことにより、第2車両40の特定部分41の一部が第1映像に映り込んだ様子を示す。第2車両40の特定部分41の全体が第1映像に映っていないため、制御部143は、第2車両40の特定部分41が第1映像に映り込んだことを必ずしも検出できない。しかしながら、第1画像領域Aに対するマスク処理が継続して実施されているため、第1映像上の第2車両40iの特定部分41iに対してもマスク処理が実施される確実性が向上する。
制御部143は、第2車両40が第1映像に映り込んだ後、第2車両40の特定部分41が第1映像に映り込んだことを検出すると、第1画像領域Aに対するマスク処理の実施を終了するとともに、例えば図6に示すように第1映像上の第2車両40iの特定部分41iに相当する第2画像領域Bを決定し、当該第2画像領域Bに対してマスク処理を実施する。第2画像領域Bは、第1映像上の第2車両40iの特定部分41iと厳密に一致しなくてもよい。例えば、第2画像領域Bは、第2車両40iの特定部分41iを包含する任意形状(例えば、円形又は矩形等)の画像領域であってもよい。かかる構成によれば、第1映像上の第2車両40iの特定部分41iに相当する第2画像領域Bに対して選択的にマスク処理が実施される。典型的には、第1映像上の第2車両40iの少なくとも一部に相当する第1画像領域Aよりも、第2車両40iの特定部分41iに相当する第2画像領域Bのほうが小さい。このため、第2車両40の特定部分41が第1映像に映り込んだことが検出される前と比較して、マスク処理が施される画像領域が小さくなるので、第1映像の視認性が向上する。制御部143は、第1映像上の第2車両40iの特定部分41iが検出できなくなるまで、第2画像領域Bに対するマスク処理の実施を継続する。
なお、第1画像領域Aに対するマスク処理と第2画像領域Bに対するマスク処理とは、処理内容が必ずしも同一でなくてよい。例えば、第1画像領域Aに対するマスク処理はモザイク処理であり、第2画像領域Bに対するマスク処理は解像度を低下させる処理であってもよい。また例えば、第1画像領域Aに対するマスク処理における解像度の低下量と、第2画像領域Bに対するマスク処理における解像度の低下量とが異なってもよい。
制御部143は、マスク処理が施された第1映像を、通信部141を介して出力する。画像処理装置14から出力された当該第1映像は、通信装置11によってサーバ20へ送信される。
(サーバの構成)
図7に示すように、サーバ20は、サーバ通信部21と、サーバ記憶部22と、サーバ制御部23と、を備える。
サーバ通信部21は、ネットワーク30に接続する通信モジュールを含む。当該通信モジュールは、例えば有線LAN(Local Area Network)規格に対応する通信モジュールを含むが、これに限られない。本実施形態において、サーバ20は、サーバ通信部21を介してネットワーク30に接続される。本実施形態において、サーバ通信部21は、第1車両10からプローブデータ及びマスク処理が施された第1映像を受信する。
サーバ記憶部22は、1つ以上のメモリを含む。サーバ記憶部22に含まれる各メモリは、例えば主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してもよい。サーバ記憶部22は、サーバ20の動作に用いられる任意の情報を記憶する。例えば、サーバ記憶部22は、システムプログラム、アプリケーションプログラム、道路地図情報、及び第1車両10から受信したプローブデータ及び第1映像を格納するデータベース等を記憶してもよい。サーバ記憶部22に記憶された情報は、例えばサーバ通信部21を介してネットワーク30から取得される情報で更新可能であってもよい。
サーバ制御部23は、1つ以上のプロセッサを含む。サーバ制御部23は、サーバ20全体の動作を制御する。例えば、サーバ制御部23は、サーバ通信部21を介して第1車両10からプローブデータを受信すると、当該プローブデータをサーバ記憶部22のデータベースに格納する。サーバ制御部23は、当該データベースを参照することにより、第1車両10の現在位置、走行履歴、及び経路情報等を認識可能である。
また例えば、サーバ制御部23は、サーバ通信部21を介して第1車両10から、マスク処理が施された第1映像を受信すると、当該第1映像をサーバ記憶部22のデータベースに格納する。サーバ制御部23は、データベースに格納された第1映像の少なくとも一部を、例えばクライアントからの要求に応じて又は自動的に、クライアントへ送信する。
(画像処理装置の動作フロー)
図8を参照して、画像処理装置14の動作フローについて説明する。
ステップS100:通信部141は、第1撮像装置13から第1映像を取得する。
ステップS101:制御部143は、第1映像への物体の映り込みを検出するための画像認識処理を開始する。
ステップS102:制御部143は、第2車両40が第1映像に映り込んだことを検出する。
ステップS103:制御部143は、第1映像上の第2車両40iの少なくとも一部に相当する第1映像上の第1画像領域Aを決定し、当該第1画像領域Aに対してマスク処理を実施する。
ステップS104:制御部143は、第2車両40が第1映像に映り込んだ後、第2車両の特定部分41が第1映像に映り込んだことを検出する。
ステップS105:制御部143は、第1画像領域Aに対するマスク処理の実施を終了する。
ステップS106:制御部143は、第1映像上の第2車両40iの特定部分41iに相当する第2画像領域Bを決定し、当該第2画像領域Bに対してマスク処理を実施する。
ステップS107:制御部143は、マスク処理が施された第1映像を、通信部141を介して出力する。
(サーバの動作フロー)
図9を参照して、サーバ20の動作フローについて説明する。
ステップS200:サーバ通信部21は、マスク処理が施された第1映像を第1車両10から受信する。
ステップS201:サーバ制御部23は、受信した第1映像をサーバ記憶部22に記憶する。
ステップS202:サーバ制御部23は、サーバ記憶部22に記憶された第1映像の少なくとも一部をクライアントへ送信する。
以上述べたように、第1実施形態に係る画像処理装置14は、第1車両10の車外風景を撮像した第1映像に第2車両40が映り込んだことを検出すると、第1映像上の第2車両40iの少なくとも一部に相当する第1画像領域Aに対してマスク処理を実施する。画像処理装置14は、第2車両40が第1映像に映り込んだ後、第2車両40の特定部分41が第1映像に映り込んだことを検出すると、第1画像領域Aに対するマスク処理の実施を終了するとともに、第1映像上の第2車両40iの特定部分41iに相当する第2画像領域Bに対してマスク処理を実施する。かかる構成によれば、第1映像に第2車両40の特定部分41が映り込む前に第1映像上の第2車両40iに対してマスク処理が施される。このため、例えば第2車両40の特定部分41の一部のみが第1映像に映り込んでいる等、第1映像上で第2車両40iの特定部分41iの検出ができない場合であっても、第1映像上の当該特定部分41iに対してマスク処理が実施される確実性が向上する。
(第2実施形態)
次に、本発明の第2実施形態に係る情報処理システム1について説明する。例えば図10に示すように、第2実施形態に係る第1車両100は、上述した第1実施形態に係る第1車両10と比較して、第2撮像装置15を更に備える点で相違する。通信装置11、位置情報取得装置12、第1撮像装置13、画像処理装置14、及び第2撮像装置15は、例えばCAN等の車載ネットワーク又は専用線を介して、互いに通信可能に接続される。また、第2実施形態では、画像処理装置14の動作の細部が第1実施形態と相違する。以下、第1実施形態と同一の構成については同一の符号を付し、説明は省略する。
第2撮像装置15は、視野内の被写体を撮像した映像を生成する装置である。第2撮像装置15は、第1車両100から見て第1方向とは異なる第2方向の車外風景を撮像した第2映像を生成する。本実施形態において「第1方向」及び「第2方向」は、それぞれ第1車両100から見て前方及び後方であるものとして説明するが、これらに限られない。第2撮像装置15は、例えば車両の運転支援に用いられる車載カメラ(リアカメラ)等であってもよい。第2実施形態において、第1車両100は、第2撮像装置15を用いて、第1車両100から見て前方の車外風景を撮像した第2映像を生成する。
画像処理装置14の通信部141は、第1撮像装置13及び第2撮像装置15から、それぞれ第1映像及び第2映像を取得する。
画像処理装置14の制御部143は、第2映像に映り込んだ車両を、第2車両40として検出する。ここで制御部143は、第2映像に映り込んだ、第1車両100に接近する車両を、第2車両40として検出してもよい。制御部143は、第2映像から第2車両40の特徴を示す特徴情報を抽出する。特徴情報は、例えば第2車両40の色及び装飾等の情報を含み得るが、これらに限られない。特徴情報の抽出は、任意の画像認識アルゴリズムを用いて実施可能である。
第2映像に映り込んだ車両を第2車両40として検出すると、制御部143は、第1映像への物体の映り込みを検出するための画像認識処理を開始する。かかる構成によれば、第2映像から第2車両40が検出されるまでの間、第1映像への物体の映り込みを検出するための画像認識処理が実行されない。このため、例えば第2映像から第2車両40が検出されていないときに、第1映像に映り込んだ物体を第2車両40であると誤検出する蓋然性が低下するので、第1映像への第2車両40の映り込みの検出精度が向上する。
制御部143は、物体が第1映像に映り込んだことを検出すると、上述した特徴情報を用いて、検出された当該物体が第2車両40であるか否かを判定する。当該物体が第2車両40であると判定すると、制御部143は、第2車両40が第1映像に映り込んだことを検出する。詳細には、制御部143は、第1映像上で検出された物体の特徴と、特徴情報に示される第2車両40の特徴との一致性に基づいて、当該物体と第2車両40との同一性を判定する。例えば、当該物体の特徴と第2車両40の特徴とが略一致した場合、当該物体が第2車両40であると判定し、第2車両40が第1映像に映り込んだことを検出する。かかる構成によれば、例えば第2車両40とは異なる物体が第1映像に映り込んだ場合であっても、当該物体を第2車両40であると誤検出する蓋然性が低下するので、第1映像への第2車両40の映り込みの検出精度が更に向上する。
第2車両40が第1映像に映り込んだことを検出した後の制御部143の動作は、上述した第1実施形態と同様である。即ち、制御部143は、第1映像上の第1画像領域Aに対してマスク処理を実施する。制御部143は、第2車両40が第1映像に映り込んだ後、第2車両40の特定部分41(本実施形態では、ナンバープレート)が第1映像に映り込んだことを検出するまで、第1画像領域Aに対するマスク処理の実施を継続する。そして制御部143は、第2車両40が第1映像に映り込んだ後、第2車両40の特定部分41が第1映像に映り込んだことを検出すると、第1画像領域Aに対するマスク処理の実施を終了するとともに、第1映像上の第2画像領域Bに対してマスク処理を実施する。
(画像処理装置の動作フロー)
図11を参照して、第2実施形態に係る画像処理装置14の動作フローについて説明する。
ステップS300:通信部141は、第1撮像装置13及び第2撮像装置15から、それぞれ第1映像及び第2映像を取得する。
ステップS301:制御部143は、第2映像に映り込んだ車両を第2車両40として検出する。
ステップS302:制御部143は、第2映像から第2車両40の特徴情報を抽出する。
ステップS303:制御部143は、第1映像への物体の映り込みを検出するための画像認識処理を開始する。
ステップS304:制御部143は、物体が第1映像に映り込んだか否かを判定する。物体が第1映像に映り込んだと判定した場合(ステップS304-Yes)、プロセスはステップS305に進む。一方、物体が第1映像に映り込んだと判定しない場合(ステップS304-No)、プロセスはステップS304を繰り返す。
ステップS305:制御部143は、ステップS302の特徴情報を用いて、検出された物体が第2車両40であるか否かを判定する。当該物体が第2車両40であると判定した場合(ステップS305-Yes)、プロセスはステップS306に進む。一方、当該物体が第2車両40ではないと判定した場合(ステップS305-No)、プロセスはステップS304に戻る。
ステップS306:制御部143は、第2車両40が第1映像に映り込んだことを検出する。
ステップS307:制御部143は、第1映像上の第2車両40iの少なくとも一部に相当する第1映像上の第1画像領域Aを決定し、当該第1画像領域Aに対してマスク処理を実施する。
ステップS308:制御部143は、第2車両40が第1映像に映り込んだ後、第2車両40の特定部分41が第1映像に映り込んだことを検出する。
ステップS309:制御部143は、第1画像領域Aに対するマスク処理の実施を終了する。
ステップS310:制御部143は、第1映像上の第2車両40iの特定部分41iに相当する第2画像領域Bを決定し、当該第2画像領域Bに対してマスク処理を実施する。
ステップS311:制御部143は、マスク処理が施された第1映像を、通信部141を介して出力する。
以上述べたように、第2実施形態に係る画像処理装置14は、第1車両100から見て第1方向及び第2方向の車外風景をそれぞれ撮像した第1映像及び第2映像を取得する。画像処理装置14は、第2映像に映り込んだ車両を第2車両40として検出し、第2映像から第2車両40の特徴情報を抽出する。画像処理装置14は、物体が第1映像に映り込んだことを検出すると、特徴情報を用いて、当該物体が第2車両40であるか否かを判定する。かかる構成によれば、例えば第2車両40とは異なる物体が第1映像に映り込んだ場合であっても、当該物体を第2車両40であると誤検出する蓋然性が低下する。このため、上述した第1実施形態と比較して、第1映像への第2車両40の映り込みの検出精度が向上する。
(第3実施形態)
次に、本発明の第3実施形態に係る情報処理システム1について説明する。例えば図12に示すように、第3実施形態に係る第1車両101は、上述した第1実施形態に係る第1車両10と比較して、検出装置16を更に備える点で相違する。通信装置11、位置情報取得装置12、第1撮像装置13、画像処理装置14、及び検出装置16は、例えばCAN等の車載ネットワーク又は専用線を介して、互いに通信可能に接続される。また、第3実施形態では、画像処理装置14の動作の細部が第1実施形態と相違する。以下、第1実施形態と同一の構成については同一の符号を付し、説明は省略する。
検出装置16は、第1車両101から見て第1方向とは異なる第2方向から第1車両101に接近する物体を検出する装置である。本実施形態において「第1方向」及び「第2方向」は、それぞれ第1車両101から見て前方及び後方であるものとして説明するが、これらに限られない。
例えば、検出装置16は、超音波ソナー又はミリ波レーダ等の距離センサを含んでもよい。かかる場合、検出装置16は、当該距離センサの出力信号に基づいて、第1車両101に接近する物体を検出可能である。また例えば、検出装置16は、車車間通信を行う通信モジュールを含んでもよい。かかる場合、検出装置16は、第1車両101の後方に存在する車両と車車間通信を行い、互いの位置情報に基づいて当該車両が第1車両101に接近していることを検出してもよく、或いは当該車両から第1車両101に接近していることの通知を受信してもよい。
検出装置16は、第1車両101から見て後方から第1車両101に接近する物体を検出すると、当該物体が検出されたことを画像処理装置14に通知する。
画像処理装置14の通信部141は、第1車両101から見て後方から第1車両101に接近する物体が検出されたことの通知を検出装置16から取得する。制御部143は、当該通知の取得に応じて、第1映像への第2車両40の映り込みを検出するための画像認識処理を開始する。かかる構成によれば、第2方向から第1車両101に接近する物体が検出されるまでの間、第1映像への第2車両40の映り込みを検出するための画像認識処理が実行されない。このため、例えば第2方向から第1車両101に接近する物体が検出されていないときに、第1映像に映り込んだ物体を第2車両40であると誤検出する蓋然性が低下するので、第1映像への第2車両40の映り込みの検出精度が向上する。また、制御部143は、検出装置16から通知を取得するまでの間、第1映像への第2車両40の映り込みを検出するための画像認識処理を実行する必要がない。このため、制御部143の処理負担が低減する。
第2車両40が第1映像に映り込んだことを検出した後の制御部143の動作は、上述した第1実施形態と同様である。即ち、制御部143は、第1映像上の第1画像領域Aに対してマスク処理を実施する。制御部143は、第2車両40が第1映像に映り込んだ後、第2車両40の特定部分41(本実施形態では、ナンバープレート)が第1映像に映り込んだことを検出するまで、第1画像領域Aに対するマスク処理の実施を継続する。そして制御部143は、第2車両40が第1映像に映り込んだ後、第2車両40の特定部分41が第1映像に映り込んだことを検出すると、第1画像領域Aに対するマスク処理の実施を終了するとともに、第1映像上の第2画像領域Bに対してマスク処理を実施する。
(画像処理装置の動作フロー)
図13を参照して、第3実施形態に係る画像処理装置14の動作フローについて説明する。
ステップS400:通信部141は、第1撮像装置13から第1映像を取得する。
ステップS401:通信部141は、第1車両101から見て第2方向から第1車両101に接近する物体が検出されたことの通知を検出装置16から取得する。
ステップS402:制御部143は、ステップ401の通知の取得に応じて、第1映像への物体の映り込みを検出するための画像認識処理を開始する。
ステップS403:制御部143は、第2車両40が第1映像に映り込んだことを検出する。
ステップS404:制御部143は、第1映像上の第2車両40iの少なくとも一部に相当する第1映像上の第1画像領域Aを決定し、当該第1画像領域Aに対してマスク処理を実施する。
ステップS405:制御部143は、第2車両40が第1映像に映り込んだ後、第2車両の特定部分41が第1映像に映り込んだことを検出する。
ステップS406:制御部143は、第1画像領域Aに対するマスク処理の実施を終了する。
ステップS407:制御部143は、第1映像上の第2車両40iの特定部分41iに相当する第2画像領域Bを決定し、当該第2画像領域Bに対してマスク処理を実施する。
ステップS408:制御部143は、マスク処理が施された第1映像を、通信部141を介して出力する。
以上述べたように、第3実施形態に係る画像処理装置14は、第1車両101から見て第1方向とは異なる第2方向から第1車両101に接近する物体が検出されたことの通知を取得する。画像処理装置14は、当該通知の取得に応じて、第1映像への第2車両40の映り込みを検出するための画像認識処理を開始する。かかる構成によれば、第2方向から第1車両101に接近する物体が検出されるまでの間、第1映像への第2車両40の映り込みを検出するための画像認識処理が実行されない。このため、例えば第2方向から第1車両101に接近する物体が検出されていないときに、第1映像に映り込んだ物体を第2車両40であると誤検出する蓋然性が低下するので、第1映像への第2車両40の映り込みの検出精度が向上する。また、画像処理装置14は、当該通知を取得するまでの間、第1映像への第2車両40の映り込みを検出するための画像認識処理を実行する必要がない。このため、画像処理装置14の処理負担が低減する。
本発明を諸図面及び実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形及び修正を行うことが容易であることに注意されたい。したがって、これらの変形及び修正は本発明の範囲に含まれることに留意されたい。例えば、各手段又は各ステップ等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の手段又はステップ等を1つに組み合わせたり、或いは分割したりすることが可能である。
例えば、上述した実施形態において、第1車両10、100、101が備える通信装置11、位置情報取得装置12、第1撮像装置13、画像処理装置14、第2撮像装置15、及び検出装置16それぞれの構成及び機能の一部を他の装置が有する構成であってもよい。また例えば、上述した実施形態において第1車両10、100、101において実行される一部の処理動作がサーバ20において実行されてもよく、サーバ20において実行される一部の処理動作が第1車両10、100、101において実行されてもよい。例えば、第1映像への第2車両40及び特定部分41の映り込みの検出処理、及び第1画像領域A及び第2画像領域Bに対するマスク処理等が、第1車両10、100、101ではなくサーバ20によって実行される構成も可能である。
また、上述した実施形態において、第2車両40の特定部分41がナンバープレートである構成について説明した。しかしながら、特定部分41はナンバープレートに限られず、個人情報保護の観点からマスク処理が施されるべき第2車両40の任意の部分であってもよい。例えば、第2車両40のウィンドウを特定部分41とすることが考えられる。
また、上述した実施形態において、第1方向及び第2方向が、それぞれ第1車両10、100、101の前方及び後方である例について説明した。しかしながら、第1方向及び第2方向はこれらに限られず、第1車両10から見て互いに異なる任意の方向であればよい。例えば、第1方向及び第2方向が、それぞれ第1車両10、100、101の後方及び前方であってもよく、右方及び左方であってもよい。
また、上述した第1実施形態において、第2車両40が、第1車両10を後方から追い越す車両である例について説明した。しかしながら、第2車両40は追い越し車両に限られない。例えば、第2車両40は、第1車両10の第1撮像装置13の死角から視野内に入り込む車両であってもよい。
また、上述した第3実施形態において、第1車両101から見て第1方向とは異なる第2方向から第1車両101に接近する物体を検出する検出装置16が、第1車両101に備えられる構成について説明した。しかしながら、検出装置16の機能をサーバ20が有する構成も可能である。かかる場合、サーバ制御部23は、例えばサーバ記憶部22のデータベースを参照して、第1車両101を含む複数の車両の相対的位置関係を認識することにより、第1車両101から見て第2方向から第1車両101に接近する車両が検出されたか否かを判定する。サーバ制御部23は、第1車両101から見て第2方向から第1車両101に接近する車両を検出すると、当該車両が検出されたことの通知を、サーバ通信部21を介して第1車両101へ送信する。ここで、サーバ記憶部22に当該車両の特徴情報が記憶されている場合、サーバ制御部23は、当該通知とともに当該特徴情報を第1車両101へ送信してもよい。かかる構成によれば、上述した第2実施形態と同様に、第1映像への第2車両40の映り込みの検出精度が向上する。
また、例えばスマートフォン又はコンピュータ等の汎用の情報処理装置を、上述した実施形態に係る通信装置11、位置情報取得装置12、第1撮像装置13、画像処理装置14、第2撮像装置15、検出装置16、又はサーバ20として機能させる構成も可能である。具体的には、実施形態に係る通信装置11等の各機能を実現する処理内容を記述したプログラムを、情報処理装置のメモリに格納し、情報処理装置のプロセッサによって当該プログラムを読み出して実行させる。したがって、本実施形態に係る発明は、プロセッサが実行可能なプログラムとしても実現可能である。
1 情報処理システム
10、100、101 第1車両
11 通信装置
12 位置情報取得装置
13 第1撮像装置
14 画像処理装置
141 通信部
142 記憶部
143 制御部
15 第2撮像装置
16 検出装置
20 サーバ
21 サーバ通信部
22 サーバ記憶部
23 サーバ制御部
30 ネットワーク
40、40i 第2車両
41、41i 特定部分
A 第1画像領域
B 第2画像領域

Claims (9)

  1. 通信部と、制御部と、を備え、
    前記通信部は、第1車両の車外風景を撮像した第1映像を取得し、
    前記制御部は、
    第2車両が前記第1映像に映り込んだことを検出すると、前記第1映像上の前記第2車両の少なくとも一部に相当する第1画像領域に対して、映像の視認性を低下させるマスク処理を実施し、
    前記第2車両が前記第1映像に映り込んだ後、前記第2車両の特定部分が前記第1映像に映り込んだことを検出すると、前記第1画像領域に対する前記マスク処理の実施を終了するとともに、前記第1映像上の前記第2車両の前記特定部分に相当する第2画像領域に対して、映像の視認性を低下させるマスク処理を実施する、画像処理装置。
  2. 請求項1に記載の画像処理装置であって、
    前記第2車両の前記特定部分は、前記第2車両のナンバープレート及びウィンドウの少なくとも一方を含む、画像処理装置。
  3. 請求項1又は2に記載の画像処理装置であって、
    前記第1映像は、前記第1車両から見て第1方向の車外風景を撮像した映像であり、
    前記通信部は、前記第1車両から見て前記第1方向とは異なる第2方向の車外風景を撮像した第2映像を更に取得し、
    前記制御部は、
    前記第2映像に映り込んだ車両を前記第2車両として検出し、
    前記第2映像から前記第2車両の特徴を示す特徴情報を抽出し、
    物体が前記第1映像に映り込んだことを検出すると、前記特徴情報を用いて、前記物体が前記第2車両であるか否かを判定する、画像処理装置。
  4. 請求項3に記載の画像処理装置であって、
    前記制御部は、前記第2映像に映り込んだ、前記第1車両に接近する車両を、前記第2車両として検出する、画像処理装置。
  5. 請求項3又は4に記載の画像処理装置であって、
    前記第2映像に映り込んだ車両を前記第2車両として検出すると、前記第1映像への物体の映り込みを検出するための画像認識処理を開始する、画像処理装置。
  6. 請求項1又は2に記載の画像処理装置であって、
    前記第1映像は、前記第1車両から見て第1方向の車外風景を撮像した映像であり、
    前記通信部は、前記第1車両から見て前記第1方向とは異なる第2方向から前記第1車両に接近する物体が検出されたことの通知を取得し、
    前記制御部は、前記通知の取得に応じて、前記第1映像への前記第2車両の映り込みを検出するための画像認識処理を開始する、画像処理装置。
  7. 画像処理装置に、
    第1車両の車外風景を撮像した第1映像を取得するステップと、
    第2車両が前記第1映像に映り込んだことを検出すると、前記第1映像上の前記第2車両の少なくとも一部に相当する第1画像領域に対して、映像の視認性を低下させるマスク処理を実施するステップと、
    前記第2車両が前記第1映像に映り込んだ後、前記第2車両の特定部分が前記第1映像に映り込んだことを検出すると、前記第1画像領域に対する前記マスク処理の実施を終了するとともに、前記第1映像上の前記第2車両の前記特定部分に相当する第2画像領域に対して、映像の視認性を低下させるマスク処理を実施するステップと、を実行させる、プログラム。
  8. 第1車両と、前記第1車両と通信可能なサーバと、を備え、
    前記第1車両は、車外風景を撮像した第1映像を前記サーバへ送信し、
    前記第1車両又は前記サーバは、
    第2車両が前記第1映像に映り込んだことを検出すると、前記第1映像上の前記第2車両の少なくとも一部に相当する第1画像領域に対して、映像の視認性を低下させるマスク処理を実施し、
    前記第2車両が前記第1映像に映り込んだ後、前記第2車両の特定部分が前記第1映像に映り込んだことを検出すると、前記第1画像領域に対する前記マスク処理の実施を終了するとともに、前記第1映像上の前記第2車両の前記特定部分に相当する第2画像領域に対して、映像の視認性を低下させるマスク処理を実施し、
    前記サーバは、前記第1映像をクライアントへ送信する、情報処理システム。
  9. 画像処理装置の制御方法であって、
    第1車両の車外風景を撮像した第1映像を取得するステップと、
    第2車両が前記第1映像に映り込んだことを検出すると、前記第1映像上の前記第2車両の少なくとも一部に相当する第1画像領域に対して、映像の視認性を低下させるマスク処理を実施するステップと、
    前記第2車両が前記第1映像に映り込んだ後、前記第2車両の特定部分が前記第1映像に映り込んだことを検出すると、前記第1画像領域に対する前記マスク処理の実施を終了するとともに、前記第1映像上の前記第2車両の前記特定部分に相当する第2画像領域に対して、映像の視認性を低下させるマスク処理を実施するステップと、を含む、制御方法。
JP2018187467A 2018-10-02 2018-10-02 画像処理装置、プログラム、情報処理システム、及び制御方法 Active JP7095537B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018187467A JP7095537B2 (ja) 2018-10-02 2018-10-02 画像処理装置、プログラム、情報処理システム、及び制御方法
CN201910690383.2A CN110995981B (zh) 2018-10-02 2019-07-29 图像处理装置及其控制方法、非暂时性可读记录介质、信息处理系统
US16/527,378 US11080536B2 (en) 2018-10-02 2019-07-31 Image processing device, non-transitory readable recording medium storing program, information processing system, and control method of image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018187467A JP7095537B2 (ja) 2018-10-02 2018-10-02 画像処理装置、プログラム、情報処理システム、及び制御方法

Publications (2)

Publication Number Publication Date
JP2020057203A JP2020057203A (ja) 2020-04-09
JP7095537B2 true JP7095537B2 (ja) 2022-07-05

Family

ID=69947904

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018187467A Active JP7095537B2 (ja) 2018-10-02 2018-10-02 画像処理装置、プログラム、情報処理システム、及び制御方法

Country Status (3)

Country Link
US (1) US11080536B2 (ja)
JP (1) JP7095537B2 (ja)
CN (1) CN110995981B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113313950A (zh) * 2021-07-28 2021-08-27 长沙海信智能系统研究院有限公司 车辆拥堵的检测方法、装置、设备及计算机存储介质
JP7632369B2 (ja) * 2022-03-28 2025-02-19 トヨタ自動車株式会社 車室内監視システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007164275A (ja) 2005-12-09 2007-06-28 Hitachi Ltd 画像処理装置および監視システム
JP2011505610A (ja) 2007-11-07 2011-02-24 テレ アトラス ベスローテン フエンノートシャップ 画像センサデータに距離センサデータをマッピングする方法及び装置
JP2011039983A (ja) 2009-08-18 2011-02-24 Toshiba Alpine Automotive Technology Corp 車両用画像表示装置
JP2018113622A (ja) 2017-01-12 2018-07-19 株式会社デンソーテン 画像処理装置、画像処理システム、及び、画像処理方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4291741B2 (ja) * 2004-06-02 2009-07-08 トヨタ自動車株式会社 車線逸脱警報装置
KR100966288B1 (ko) * 2009-01-06 2010-06-28 주식회사 이미지넥스트 주변 영상 생성 방법 및 장치
JP6120169B2 (ja) * 2012-07-25 2017-04-26 パナソニックIpマネジメント株式会社 画像編集装置
WO2014167701A1 (ja) * 2013-04-12 2014-10-16 トヨタ自動車 株式会社 走行環境評価システム及び走行環境評価方法及び運転支援装置及び走行環境の表示装置
CN104240515B (zh) * 2014-09-15 2016-09-28 郑州天迈科技股份有限公司 基于图像处理的公交专用道占道抓拍方法
US9350914B1 (en) * 2015-02-11 2016-05-24 Semiconductor Components Industries, Llc Methods of enforcing privacy requests in imaging systems
JP6683012B2 (ja) 2016-05-24 2020-04-15 沖電気工業株式会社 画像処理システム、画像処理方法および撮像装置
CN108205897A (zh) * 2016-12-16 2018-06-26 北京迪科达科技有限公司 一种车辆的车牌分析识别系统
JP7006527B2 (ja) * 2018-07-09 2022-01-24 トヨタ自動車株式会社 車載装置および車両捜索システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007164275A (ja) 2005-12-09 2007-06-28 Hitachi Ltd 画像処理装置および監視システム
JP2011505610A (ja) 2007-11-07 2011-02-24 テレ アトラス ベスローテン フエンノートシャップ 画像センサデータに距離センサデータをマッピングする方法及び装置
JP2011039983A (ja) 2009-08-18 2011-02-24 Toshiba Alpine Automotive Technology Corp 車両用画像表示装置
JP2018113622A (ja) 2017-01-12 2018-07-19 株式会社デンソーテン 画像処理装置、画像処理システム、及び、画像処理方法

Also Published As

Publication number Publication date
CN110995981B (zh) 2021-09-14
US11080536B2 (en) 2021-08-03
CN110995981A (zh) 2020-04-10
JP2020057203A (ja) 2020-04-09
US20200104605A1 (en) 2020-04-02

Similar Documents

Publication Publication Date Title
CN113168691B (zh) 信息处理装置、信息处理方法、程序、移动体控制装置和移动体
CN110831819B (zh) 泊车辅助方法以及泊车辅助装置
JP4561863B2 (ja) 移動体進路推定装置
US11631326B2 (en) Information providing system, server, onboard device, vehicle, storage medium, and information providing method
JP2018106676A (ja) 情報処理装置、被操作車両、情報処理方法及びプログラム
JP7063256B2 (ja) 情報処理システム、プログラム、及び情報処理方法
CN113167883B (zh) 信息处理装置、信息处理方法、程序、移动体控制装置和移动体
JP2021197009A (ja) リスク判定システム、リスク判定プログラム
US11189048B2 (en) Information processing system, storing medium storing program, and information processing device controlling method for performing image processing on target region
WO2015122124A1 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
CN113091756B (zh) 位置推定装置、以及位置推定方法
CN105022986A (zh) 移动体控制装置以及对象物检测装置
CN114299146A (zh) 辅助停车方法、装置、计算机设备和计算机可读存储介质
CN112602124A (zh) 用于车辆调度系统的通讯方法、车辆调度系统以及通讯装置
JP7095537B2 (ja) 画像処理装置、プログラム、情報処理システム、及び制御方法
JP7027279B2 (ja) 車両制御装置、車両制御方法、およびプログラム
WO2014136378A1 (ja) 車外画像保存システム、車外画像保存装置、及び車車間通信装置
JP2007034477A (ja) 車両用走行支援装置
US12475788B2 (en) Parking information processing device, storage medium for storing computer program for processing parking information, method for processing parking information, parking information processing system, and parking information processing server
WO2025108362A1 (zh) 车辆的泊车方法、装置、及车辆
CN114693803B (zh) 参数标定方法、装置、车辆及存储介质
CN115909795B (zh) 基于车场协同的自主泊车系统及方法
JP2023068009A (ja) 地図情報作成方法
JP7225819B2 (ja) 車両
JP2005339176A (ja) 車両認識装置、ナビゲーション装置および車両認識方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220606

R151 Written notification of patent or utility model registration

Ref document number: 7095537

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151