JP6022930B2 - カメラシステム、カメラモジュールおよびカメラ制御方法 - Google Patents

カメラシステム、カメラモジュールおよびカメラ制御方法 Download PDF

Info

Publication number
JP6022930B2
JP6022930B2 JP2012281745A JP2012281745A JP6022930B2 JP 6022930 B2 JP6022930 B2 JP 6022930B2 JP 2012281745 A JP2012281745 A JP 2012281745A JP 2012281745 A JP2012281745 A JP 2012281745A JP 6022930 B2 JP6022930 B2 JP 6022930B2
Authority
JP
Japan
Prior art keywords
camera
vehicle
image
unit
camera module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012281745A
Other languages
English (en)
Other versions
JP2014125029A (ja
Inventor
圭俊 中田
圭俊 中田
瑞己 鈴村
瑞己 鈴村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2012281745A priority Critical patent/JP6022930B2/ja
Priority to US14/655,028 priority patent/US10242254B2/en
Priority to PCT/JP2013/007510 priority patent/WO2014103272A1/ja
Priority to EP13867217.5A priority patent/EP2939877B1/en
Publication of JP2014125029A publication Critical patent/JP2014125029A/ja
Application granted granted Critical
Publication of JP6022930B2 publication Critical patent/JP6022930B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8033Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for pedestrian protection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning

Description

本発明は、カメラシステム、カメラモジュールおよびカメラ制御方法に関し、より詳細には、複数のカメラモジュールが撮像した複数の各カメラ画像を合成して車両周辺画像とし、これを車両に設けたディスプレイ等の表示手段に出力するものに関する。
従来、自動車の前後左右に取り付けた複数のカメラモジュールが撮像したカメラ画像を合成して車両周辺画像を生成し、これを車室内に設置したディスプレイ等の表示手段に表示して、車両の全周方向を1つの画面で視認できるようにしたカメラシステムが知られている。このようなカメラシステムとしては、各カメラ画像を視点変換加工することにより、車両周辺画像を俯瞰画像として表示するものも知られている(例えば特許文献1)。
また、表示手段に表示される車両周辺画像から物体認識処理により歩行や自転車等の物体を認識し、この認識物体にマーカーを付すようにした技術が知られている(例えば特許文献2)。
特許第4742733号公報 特開2012−113605号公報
従来のカメラシステムでは、各カメラモジュールが撮像した複数のカメラ画像を車両側のディスプレイ(例えばナビゲーションシステム等)の制御装置に入力する構成とし、その制御装置により、各カメラ画像の合成、俯瞰処理、物体認識処理および認識物体へのマーカー付与処理を行うようにしている。そのため、このようなカメラシステムの構築には、車両側のディスプレイの制御装置に高度な処理能力が必要となり、システムが高価となる、あるいは汎用性の低いシステムとなる。
そこで、各カメラモジュールに、撮像したカメラ画像を俯瞰処理する機能、そのカメラ画像から物体認識処理により認識物体を検出する機能および当該カメラ画像の認識物体にマーカーを付する機能を設けることにより、表示手段として画像の表示機能のみを有する安価なものを用いることを可能とする安価なカメラシステムが考えられる。
かかる事情に鑑みてなされた本発明の目的は、高度な処理能力を有さないようなディスプレイにおいて画像表示する場合であっても、物体認識に伴う表示を行い易くするカメラシステムを安価に提供することにある。
上記課題を解決するため、本発明のカメラシステムは、車両の周辺を撮像する複数のカメラモジュールを備え、複数の前記カメラモジュールが撮像した各カメラ画像を出力し、前記車両内の表示手段にて各画像を合成した車両周辺画像が表示されるカメラシステムであって、複数の前記カメラモジュールは、それぞれ自己の撮像したカメラ画像から物体認識処理を行う物体認識部と、前記車両に設けられた車両ネットワークを介した通信を行う通信部と、を有し、前記通信部は、それぞれ前記物体認識部で認識した認識物体の座標情報を前記車両ネットワークに出力し、前記複数のカメラモジュールの少なくとも一つは、前記車両ネットワークを介して他のカメラモジュールから前記認識物体の座標情報を取得することを特徴とする。
本発明に係るカメラシステムにおいては、前記複数のカメラモジュールの少なくとも一つは、前記取得した座標情報を用いて前記車両周辺画像中の前記認識物体に対するマーカーを付すのが好ましい。
本発明に係るカメラシステムにおいては、複数の前記カメラモジュールの少なくとも一つは、互いに隣接する一対のカメラ画像の双方に前記認識物体が位置する場合に、前記座標情報を用いて、一方のカメラ画像と他方のカメラ画像との双方に跨る滑らかなマーカーを生成するのが好ましい。
本発明に係るカメラシステムにおいては、複数の前記カメラモジュールの少なくとも一つは、前記マーカーの位置、大きさおよび形状の少なくとも一つを変更するのが好ましい。
本発明に係るカメラシステムにおいては、複数の前記カメラモジュールは、それぞれ制御部を有し、該制御部のいずれか一つが主制御部となって、前記座標情報を用いた前記車両周辺画像へのマーカー付加処理を行うのが好ましい。
本発明に係るカメラシステムにおいては、前記主制御部は、複数の前記カメラモジュールのそれぞれに設けられた他の制御部を、前記車両ネットワークを介して統括制御するのが好ましい。
本発明に係るカメラシステムにおいては、複数の前記カメラモジュールは、それぞれ前記車両ネットワークを介して接続される前記車両の処理ユニットにより識別情報が割り当てられ、該識別情報に応じて前記主制御部が決定されるのが好ましい。
本発明に係るカメラシステムにおいては、前記識別情報の割り当ては、前記車両ネットワークの規格におけるネゴシエーションのプロトコルに準拠して行われるのが好ましい。
本発明に係るカメラシステムにおいては、前記カメラ画像は、撮像部が撮像した画像を視点変換した俯瞰画像であるのが好ましい。
また、上記課題を解決するため、本発明のカメラモジュールは、複数のカメラモジュールが撮像した各カメラ画像を合成して、車両内の表示手段に車両周辺画像として表示を行うカメラシステムに用いられるカメラモジュールであって、前記車両の周辺を撮像する撮像部と、前記撮像部が撮像した画像から物体認識処理を行う物体認識部と、前記車両に設けられた車両ネットワークを介した通信を行う通信部と、を有し、前記通信部は、前記物体認識部で認識した認識物体の座標情報を前記車両ネットワークに出力し、前記車両ネットワークを介して他のカメラモジュールから該他のカメラモジュールが物体認識部で認識した認識物体の座標情報を取得する、ことを特徴とする。
さらに、上記課題を解決するため、本発明のカメラ制御方法は、複数のカメラモジュールが撮像した各カメラ画像を合成して、車両内の表示手段に車両周辺画像として表示を行う際のカメラ制御方法であって、前記カメラモジュールが、自己が撮像したカメラ画像から物体認識処理により認識物体を認識する認識工程と、前記カメラモジュールが、前記認識工程において認識した認識物体の座標情報を車両に設けられた車両ネットワークに出力する出力工程と、前記カメラモジュールが、前記車両ネットワークを介して他のカメラモジュールから該他のカメラモジュールが物体認識部で認識した認識物体の座標情報を取得する工程と、を有することを特徴とする。
本発明のカメラシステム、カメラモジュールおよびカメラ制御方法によれば、高度な処理能力を有さないようなディスプレイにおいて画像表示する場合であっても、物体認識に伴う表示を行い易くするカメラシステムを安価に提供することができる。
本発明の一実施形態に係るカメラシステムを備えた車両の概略構成を示す図である。 本発明の一実施形態に係るカメラシステムの構成例を示すブロック図である。 図2に示すフロントカメラモジュールおよびサイドカメラモジュールの構成例を示すブロック図である。 図2に示すリアカメラモジュールの構成例を示すブロック図である。 表示手段に表示される車両周辺画像の一例を示す図である。 表示手段に表示された車両周辺画像中の認識物体が互いに隣接するカメラ画像の境界に位置した状態の一例を示す図である。 主制御部と制御部との関係の一例を示す図である。 互いに隣接するカメラ画像における各カメラモジュールのマーカー付与の割り当て領域を示す図である。 本発明の一実施形態に係るカメラシステムにおけるマーカー表示制御のフローチャート図である。
以下、本発明の一実施形態について、図面を参照して例示説明する。
図1、図2に示すように、本発明の一実施形態に係るカメラシステム1は自動車等の車両2に設けられる。このカメラシステム1は、車両2の前後左右に取り付けられる4つのカメラモジュール3〜6と、車室内に設置される表示手段7とを備えている。
車両2の前方端に取り付けられるフロントカメラモジュール3は、図3に示すように、レンズ部3a、撮像部3b、視点変換画像生成部3c、出力部3d、電源部3e、制御部3f、通信部3gおよび記憶部3hを備えている。同様に、車両2の右側方に取り付けられるサイドカメラモジュール4および車両2の左側方に取り付けられるサイドカメラモジュール5は、それぞれレンズ部4a,5a、撮像部4b,5b、視点変換画像生成部4c,5c、出力部4d,5d、電源部4e,5e、制御部4f,5f、通信部4g,5gおよび記憶部4h,5hを備えている。フロントカメラモジュール3と両サイドカメラモジュール4、5は基本的に同一の構成となっているので、図3においては、カメラモジュール3〜5を構成する各部にそれぞれのカメラモジュール3〜5に対応した符号を付してある。
一方、車両2の後方端に取り付けられるリアカメラモジュール6は、図4に示すように、レンズ部6a、撮像部6b、視点変換画像生成部6c、出力部6d、電源部6e、制御部6f、通信部6g、記憶部6hを備えるとともに画像合成部6iを備えている。ここで、画像合成部6iは制御部6f上で動作するソフトウェア処理であり、物体認識部3j〜6jのように制御部6f内に記載すべきところであるが、説明の簡素化のために別ブロックとして説明する。
ところで、図面では、画像合成部を、リアカメラモジュール6にのみ記載し、フロントカメラモジュール3と両サイドカメラモジュール4、5には記載していない。しかしながら、画像合成部6iは、いずれのカメラモジュール3〜6に等しく設けられていてもよい。すなわち、後述する処理によってリアカメラモジュール6として認識したカメラモジュール、あるいは主制御部となるべきと認識されたカメラモジュールのみが画像合成部のソフトウェアをアクティブ化し、その他のカメラモジュールは画像合成部のソフトウェアをインアクティブ化するように構成されていると、各カメラモジュールの構成を同じにすることができ、全体的なコストを下げることにもつながる。
各カメラモジュール3〜6に設けられた電源部3e〜6eは、それぞれ車載のバッテリに接続されて当該カメラモジュール3〜6の撮像部3b〜6bや制御部3f〜6f等の各部に電力を供給する。また、各カメラモジュール3〜6に設けられた記憶部3h〜6hは、それぞれ必要に応じて撮像部3b〜6b、視点変換画像生成部3c〜6c、制御部3f〜6f、通信部3g〜6gなどの制御に必要なデータ等を格納することができる。
各カメラモジュール3〜6は、それぞれレンズ部3a〜6aと撮像部3b〜6bとを用いて車両周辺を撮像する。例えば、フロントカメラモジュール3はレンズ部3aと撮像部3bとを用いて車両2の前方側の周辺を所定の画角で撮像する。また、右側のサイドカメラモジュール4はレンズ部4aと撮像部4bとを用いて車両2の右側方の周辺を所定の画角で撮像し、左側のサイドカメラモジュール5はレンズ部5aと撮像部5bとを用いて車両2の左側方の周辺を所定の画角で撮像する。さらに、リアカメラモジュール6はレンズ部6aと撮像部6bとを用いて車両2の後退方向の周辺を所定の画角で撮像する。
これらの撮像部3b〜6bとしては、例えばCMOSやCCD等のイメージセンサが用いられる。また、レンズ部3a〜6aとしては例えば魚眼レンズなどの画角の広いレンズが用いられる。
図3、図4に示すように、各カメラモジュール3〜6の撮像部3b〜6bは、それぞれ視点変換画像生成部3c〜6cに接続され、撮像部3b〜6bが撮像した画像は視点変換画像生成部3c〜6cに取り込まれる。視点変換画像生成部3c〜6cは撮像部3b〜6bから取り込んだ画像の歪みを調整し、当該画像の視点を変換した俯瞰画像を生成する。
図2に示すように、フロントカメラモジュール3はリアカメラモジュール6に接続されている。フロントカメラモジュール3で生成された俯瞰画像は、当該カメラモジュール3が撮像したカメラ画像としてその出力部3dから出力され、リアカメラモジュール6に設けられた画像合成部6iに入力される。同様に、両サイドカメラモジュール4,5はリアカメラモジュール6に接続されている。両サイドカメラモジュール4,5で生成された俯瞰画像は、それぞれ当該カメラモジュール4,5が撮像したカメラ画像として出力部4d,5dから出力され、リアカメラモジュール6に設けられた画像合成部6iに入力される。
画像合成部6iは、リアカメラモジュール6の視点変換画像生成部6cが生成した俯瞰画像(カメラ画像)と、他のカメラモジュール3〜5から入力される3つの俯瞰画像(カメラ画像)とを、各カメラモジュール3〜6の車両2への取付け位置に応じた配置で合成し、車両周辺画像を生成する。
図2に示すように、リアカメラモジュール6は表示手段7に接続されている。リアカメラモジュール6の出力部6dは、画像合成部6iが合成した車両周辺画像を表示手段7に適応したフォーマット(例えばNTSC)に変換し、表示手段7に向けて出力する。
図5に示すように、表示手段7はリアカメラモジュール6から入力された車両周辺画像をその画面7aに表示する。つまり、表示手段7の画面7aの中心には車両モデル8が表示され、この車両モデル8の周囲の画面上側の分割範囲7a1にフロントカメラモジュール3が撮像したカメラ画像(俯瞰画像)が表示される。また、表示手段7の画面右側の分割範囲7a2と画面左側の分割範囲7a3には、それぞれサイドカメラモジュール4,5が撮像したカメラ画像(俯瞰画像)が表示される。さらに、表示手段7の画面下側の分割範囲7a4にリアカメラモジュール6が撮像したカメラ画像(俯瞰画像)が表示される。
表示手段7としては、例えば液晶ディスプレイや有機ELディスプレイ等のディスプレイ装置を用いることができる。
図2に示すように、各カメラモジュール3〜6は車両2に設けられた車両ネットワーク(車載LAN)9に接続されている。この車両ネットワーク9は、例えばCAN(Controller Area Network)、FlexRay、LIN(Local Interconnect Network)等のプロトコルを用いた移動機械用バスラインとすることができる。
各カメラモジュール3〜6は、それぞれ通信部3g〜6gにより車両ネットワーク9を介した通信を行うことができる。つまり、各カメラモジュール3〜6は、それぞれ通信部3g〜6gにより、車両ネットワーク9を介して他のカメラモジュール3〜6と互いに通信することができる。また、図1に示すように、車両ネットワーク9には、例えばエンジンコントロールユニット(ECU)やシフトポジションセンサ等の車両2の処理ユニット10が接続されており、各カメラモジュール3〜6は、それぞれ通信部3g〜6gにより、車両ネットワーク9を介して処理ユニット10と通信することができる。
これらの通信部3g〜6gとしては、例えば車両ネットワーク9がCANである場合にはCANトランシーバが用いられるなど、その車両ネットワーク9のプロトコルに準拠した通信デバイスが用いられる。
各カメラモジュール3〜6に設けられる制御部3f〜6fは、それぞれCPUを備えたマイクロコンピュータ上で動作するソフトウェアの機構ブロックを抽象化したものであって、図3、図4に示すように、その機能の一つとして物体認識部3j〜6jとしての機能を備えている。物体認識部3j〜6jは、自己のカメラモジュール3〜6の撮像部3b〜6bが撮像した画像から物体認識処理を行う。つまり、物体認識部3j〜6jは、撮像部3b〜6bが撮像した画像を物体認識処理することにより、当該画像中に存在する歩行者や自転車等の所定の物体を認識することができる。物体認識部3j〜6jによる物体認識処理としては、例えばパターン認識等の物体認識技術を用いることができる。
各カメラモジュール3〜6の制御部3f〜6fは、それぞれ自己のカメラモジュール3〜6の撮像部3b〜6bが撮像した画像中から歩行者や自転車等の所定の物体が認識された場合には、物体認識部3j〜6jにより認識された認識物体の座標情報に基づいて、当該画像に認識物体に対するマーカーを表示する。制御部3f〜6fによる画像へのマーカーの付与は、例えば撮像部3b〜6bが撮像した画像にマーカー画像をオーバーレイ(重畳表示)する手法により行うことができる。このように、各カメラモジュール3〜6は、自己の撮像部3b〜6bが撮像した画像中に所定の物体が存在する場合には、当該物体にマーカーを付したカメラ画像を出力部3d〜6dから出力する。ところで、座標情報とは、所定の物体として認識された描画物の座標であって、魚眼レンズ(レンズ部3a〜6a)を介して撮影されるが故のディストーション成分を考慮して、各カメラモジュール3〜6において撮影した画像内における座標を各物体認識部3j〜6jが算出する。
したがって、図5に示すように、表示手段7の画面7aに表示される車両周辺画像中に所定の物体12が存在する場合には、車両周辺画像は各カメラモジュール3〜6のカメラ画像を合成して形成されるので、当該物体12に対するマーカー13が付された車両周辺画像が表示されることになる。車両周辺画像に当該物体12に対するマーカー13を付すことにより、車両周辺画像中に表示された所定の物体12を運転者等に認識し易くすることができる。図示する場合では、マーカー13は矩形の点線枠で表示されるが、物体12の形状や大きさに合わせて、矩形形状や円形形状など種々の形状とサイズに設定することができ、また実線等により表すこともできる。
図6に示すように、分割範囲7a1と分割範囲7a2とに表示される、互いに隣接する一対のカメラ画像の双方つまり一対のカメラ画像の境界Aに所定の物体12が位置する場合には、当該物体12に対するマーカー13はこれらのカメラ画像の双方に跨って表示されることになる。この場合、マーカー13は、その一部が分割範囲7a1に表示される一方のカメラ画像に表示され、残りの一部が分割範囲7a2に表示される他方のカメラ画像に表示されることになる。そのため、各カメラ画像にマーカー13を表示させる際に、各カメラ画像に表示されるマーカー13を滑らかに繋いで1つのマーカー13として正しく表示する必要がある。
そのため、本発明のカメラシステム1では、各カメラモジュール3〜6は、その撮像部3b〜6bが撮像した画像から認識した所定の物体12の座標情報を、通信部3g〜6gにより車両ネットワーク9に出力し、車両ネットワーク9を介して当該座標情報を各カメラモジュール3〜6の間で共有可能とする。そして、互いに隣接するカメラ画像のうちの一方のカメラ画像を出力するカメラモジュール3〜6が他方のカメラ画像を出力するカメラモジュール3〜6から車両ネットワーク9を介して認識物体の座標情報を取得し、この座標情報を利用して、他方のカメラ画像に表示されるマーカー13に滑らかに繋がるようなマーカー13を生成することができるようにしている。
より具体的には、図6に示すように、分割範囲7a1に表示されるフロントカメラモジュール3のカメラ画像と分割範囲7a2に表示される右側のサイドカメラモジュール4のカメラ画像との境界Aに所定の物体12が位置する場合には、以下の手順でマーカー13の表示が行われる。
フロントカメラモジュール3が、その撮像部3bが撮像した画像中から物体認識部3jにより所定の物体12を認識すると、その認識した物体12つまり認識物体12の当該画像中における座標情報が通信部3gにより車両ネットワーク9に出力される。同様に、右側のサイドカメラモジュール4が、その撮像部4bが撮像した画像中から物体認識部4jにより所定の物体12を認識すると、その認識物体12の当該画像中における座標情報が通信部4gにより車両ネットワーク9に出力される。これらの通信部3g,4gが出力する認識物体12の座標情報としては、例えば、認識物体12の中心位置の座標情報にその大きさの情報を付加したものとするなど、その認識物体12を囲うマーカー13を生成できる情報を含んだものとすることができる。
ここで、各カメラモジュール3〜6は、車両ネットワーク9に接続されたECU等の処理ユニット10により、車両ネットワーク9の規格におけるネゴシエーションのプロトコルに準拠して、アドレス等の識別情報が割り当てられている。そして、この識別情報に基づいて各カメラモジュール3〜6の間でマスターとスレーブとの関係が設定されている。例えば、本実施形態では、図6に示す境界Aまたは境界Bに所定の物体12が位置する場合には、図7に示すように、フロントカメラモジュール3がマスターに設定され、両サイドカメラモジュール4,5がそれぞれスレーブに設定される。一方、図6に示す境界Cまたは境界Dに所定の物体12が位置する場合には、同様に図7に示すように、リアカメラモジュール6がマスターに設定され、両サイドカメラモジュール4,5がそれぞれスレーブに設定される。したがって、図6に示す境界Aに物体12が位置する場合には、フロントカメラモジュール3がマスターに設定され、右側のサイドカメラモジュール4がスレーブに設定される。フロントカメラモジュール3のカメラ画像とリアカメラモジュール6のカメラ画像とは境界を有していないので、これらのカメラモジュール3,6の間ではマスター、スレーブの関係は設定されない。
所定の物体12がフロントカメラモジュール3のカメラ画像と右側のサイドカメラモジュール4のカメラ画像との境界Aに位置する場合、つまり図8に模式的に示すフロントカメラモジュール3のカメラ画像のx1領域とサイドカメラモジュール4のカメラ画像のy1領域とに跨って物体12が位置する場合には、スレーブであるサイドカメラモジュール4は、車両ネットワーク9を介してフロントカメラモジュール3からフロントカメラモジュール3のカメラ画像における認識物体12の座標情報を取得する。そして、サイドカメラモジュール4の制御部4fは、フロントカメラモジュール3から取得した認識物体12の座標情報を利用して、つまり自己のカメラ画像における認識物体12の座標情報とフロントカメラモジュール3のカメラ画像における認識物体12の座標情報とに基づいて、自己が生成するマーカー13の位置、形状および大きさの少なくともいずれか一つを変更して、当該マーカー13がフロントカメラモジュール3により生成されるマーカー13に滑らかに繋がるようにする。このように、サイドカメラモジュール4の制御部3fは、車両ネットワーク9を介して得られるフロントカメラモジュール3が生成するマーカー13の位置、形状および大きさに合わせて自己が生成するマーカー13の位置、形状および大きさを調整する。
上記では、車両周辺画像の境界Aに物体12が位置する場合について説明したが、車両周辺画像の境界Bに物体12が位置する場合においては、フロントカメラモジュール3がマスターとなり左側のサイドカメラモジュール5がスレーブとなって同様の制御が行われる。また、車両周辺画像の境界Cに物体12が位置する場合においては、リアカメラモジュール6がマスターとなり右側のサイドカメラモジュール4がスレーブとなり、また、車両周辺画像の境界Dに物体12が位置する場合においては、リアカメラモジュール6がマスターとなり左側のサイドカメラモジュール5がスレーブとなって同様の制御が行われることになる。
このように、所定の物体12が互いに隣接するカメラ画像の境界A〜Dに位置する場合には、一方のカメラモジュール3〜6の制御部3f〜6fが、車両ネットワーク9を介して他方のカメラモジュール3〜6から当該他のカメラモジュール3〜6の撮像部3b〜6bが撮像した画像中から認識された認識物体12の座標情報を取得し、これを利用して自己のカメラ画像にマーカー13を付する。したがって、所定の物体12が互いに隣接するカメラ画像の境界A〜Dに位置する場合であっても、この認識物体12に対して隣接するカメラ画像の双方に跨る滑らかなマーカー13を正確に付すことができる。
一方、図8に模式的に示すフロントカメラモジュール3のカメラ画像のx領域内に所定の物体12が位置する場合には、フロントカメラモジュール3の制御部3fにより物体12にマーカー13が付される。同様に、所定の物体12がサイドカメラモジュール4のカメラ画像のy領域内にある場合には、サイドカメラモジュール4の制御部4fにより物体12にマーカー13が付される。
次に、上記カメラシステム1におけるマーカー表示制御(カメラ制御方法)の一例の手順を図9に基づいて説明する。
まず、各カメラモジュール3〜6の制御部3f〜6fは、車両ネットワーク9を介して車両2の処理ユニット10と通信し、車両2のギアがリバースになっているか否かを判断する(ステップS1)。ステップS1において車両2のギアがリバースであると判断された場合には、制御部3f〜6fは自己のカメラモジュール3〜6の撮像部3b〜6bから撮像した画像を取得し(ステップS2)、また車両ネットワーク9を介して車両速度やハンドル操舵角等の車両情報を取得する(ステップS3)。この場合では、車両2が後退する際にのみ、車両周辺画像内に認識された物体12にマーカー13を付すようにしているが、車両2が前進または停止中にも車両周辺画像内に認識された物体12にマーカー13を付すようにしてもよい。
次いで、制御部3f〜6fは、取得した画像から物体認識処理により所定の物体12が認識されたか否かを判断する(ステップS4、認識工程)。ステップS4において画像中に認識物体12があると判断された場合には、各カメラモジュール3〜6が認識物体12の座標情報を車両ネットワーク9に出力し(ステップS5、出力工程)、これらの情報を各カメラモジュール3〜6で共有可能とする。
次いで、制御部3f〜6fは、認識物体12が隣り合う一対のカメラ画像の境界A〜Dに位置したか否かを判断する(ステップS6)。ステップS6において、認識物体12が隣り合うカメラ画像の境界A〜Dに位置したと判断されると、これらのカメラ画像を撮像する一対のカメラモジュール3〜6の制御部3f〜6fにより各カメラ画像にマーカー13が付される。このとき、いずれか一方のカメラモジュール3〜6の制御部3f〜6fが、車両ネットワーク9を介して他のカメラモジュール3〜6のカメラ画像における認識物体12の座標情報を取得する。そして、当該制御部3f〜6fが、この座標情報を利用して、隣接するカメラ画像に表示されるマーカー13と滑らかに接続するマーカー13を自己のカメラ画像に付す(ステップS7、付加工程)。
このように、画像中の認識物体12にマーカー13が付されると、次いで、各カメラモジュール3〜6において当該画像が視点変換画像生成部3c〜6cにより視点変換され、俯瞰画像つまりカメラ画像とされる(ステップS8)。そして、ステップS8で生成された各カメラモジュール3〜6の俯瞰画像がリアカメラモジュール6の画像合成部6iで合成されて車両周辺画像とされ(ステップS9)、リアカメラモジュール6の出力部6dから表示手段7に向けて当該画像が出力される(ステップS10)。
一方、ステップS4において、認識物体12が無いと判断された場合には、画像にマーカー13が付加されることなく、ステップS8〜ステップS10の処理が行われる。
また、ステップS6において、認識物体12が隣り合うカメラ画像の境界に位置しないと判断された場合には、物体12が位置するカメラ画像を撮像するカメラモジュール3〜6により、当該カメラ画像中の認識物体12にマーカー13が付され(ステップS11)、以下ステップS8〜ステップS10の処理が行われる。
以上説明したように、上記カメラシステム1では、各カメラモジュール3〜6に撮像した画像から物体認識処理により認識物体12を検出する物体認識部3j〜6jと、撮像した画像に認識物体12に対するマーカー13を付す制御部3f〜6fとを設けるようにしている。これにより、表示手段7として例えば画像の表示機能のみしか有さないような安価なものを用いた場合であっても、物体認識処理に伴う表示を可能とするカメラシステム1を実現することができ、システム全体としてのコストを低減することができる。また、各カメラモジュール3〜6に、そのカメラ画像を俯瞰画像に変換する視点変換画像生成部3c〜6cを設けたことによっても、表示手段7として画像の表示機能のみを有する安価なものを用いることを可能として、このカメラシステム1のコストを低減することができる。
さらに、上記カメラシステム1では、それぞれのカメラモジュール3〜6に、その撮像部3b〜6bが撮像した画像から認識された認識物体12の座標情報を車両ネットワーク9に出力する通信部3g〜6gを設けるようにしたので、互いに隣接するカメラ画像の境界A〜Dに認識物体12が位置した場合に、これらのカメラ画像にマーカー13を付する2つのカメラモジュール3〜6が、車両ネットワーク9を介して他のカメラモジュール3〜6の画像において認識された認識物体12の座標情報を利用することを可能として、当該カメラモジュール3〜6の制御部3f〜6fに認識物体12に正確にマーカー13を付させることができる。
本発明を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。したがって、これらの変形や修正は本発明の範囲に含まれることに留意されたい。
前記実施形態では、スレーブとなるカメラモジュール3〜6が車両ネットワーク9を介してマスターのカメラモジュール3〜6から認識物体12の座標情報を取得し、その取得した座標情報を利用して画像中にマーカー13を付すようにしているが、これに限らない。すなわち、少なくとも1つのカメラモジュール3〜6が車両ネットワーク9を介して他のカメラモジュール3〜6から認識物体12の座標情報を取得し、その取得した座標情報を利用して画像中にマーカー13を付す構成であればよい。例えば、隣接するカメラ画像を出力する両方のカメラモジュール3〜6が、それぞれ車両ネットワーク9を介して他のカメラモジュール3〜6から認識物体12の座標情報を取得し、その取得した座標情報を利用して画像中にマーカー13を付す構成とすることもできる。
また、いずれか一つのカメラモジュール3〜6の制御部3f〜6fを主制御部に設定し、この主制御部とされた制御部3f〜6fが車両ネットワーク9を介して他の全てのカメラモジュール3〜6から認識物体12の座標情報を取得し、その取得した座標情報を利用して全てのカメラ画像つまり車両周辺画像にマーカー13を付す構成とすることもできる。この場合、車両ネットワーク9に接続されたECU等の処理ユニット10により、車両ネットワーク9の規格におけるネゴシエーションのプロトコルに準拠して、各カメラモジュール3〜6にアドレス等の識別情報が割り当てられ、この割り当てられた識別情報に応じて、いずれか1つのカメラモジュール3〜6の制御部3f〜6fを主制御部に設定するように構成することができる。主制御部とされた制御部3f〜6fは、車両ネットワーク9を介して他のカメラモジュール3〜6の制御部3f〜6fから他のカメラ画像における認識物体12の座標情報を取得する。そして、自己のカメラ画像における認識物体12の座標情報と、他のカメラ画像における認識物体12の座標情報とに基づいて全てのカメラ画像(車両周辺画像)へのマーカー付加処理を行う。このように主制御部とされた制御部3f〜6fは車両ネットワーク9を介して他の制御部3f〜6fを統合制御して、車両周辺画像にマーカー13を付すことができる。
この場合においては、主制御部に設定される制御部6fつまりリアカメラモジュール6の制御部6fのみが画像中にマーカー13を付す機能のソフトウェアがアクティブ化され、他のカメラモジュール3〜5の制御部3f〜5fは、画像中にマーカー13を付す機能のソフトウェアがインアクティブ化するように構成される。また、他のカメラモジュールの制御部が主制御部に設定されたときには、その制御部のみが、画像中にマーカー13を付す機能のソフトウェアがアクティブ化され、他のカメラモジュールの制御部の当該機能のソフトウェアはインアクティブ化される。したがって、主制御部に設定した制御部により、車両ネットワーク9を介して他の制御部を統合制御する構成とした場合であっても、各カメラモジュール3〜6として同じ構成のものを用いることを可能として、このカメラシステム1の全体的なコストを低減することができる。
さらに、前記実施形態においては、車両2に4つのカメラモジュール3〜6を設けるようにしているが、これに限らず、車両2の周辺を撮像することができれば、カメラモジュール3〜6の数は任意に設定することができる。
さらに、前記実施形態においては、撮像部3b〜6bが撮像した画像にマーカー13を付し、マーカー13が付された画像を表示手段7に出力するようにしているが、これに限らず、カメラ画像とは別に生成したマーカー画像を、車両ネットワーク9を介して表示手段7に入力し、表示手段7においてカメラ画像にマーカー画像を重畳表示させるようにしてもよい。
さらに、前記実施形態では、各カメラモジュール3〜6に視点変換画像生成部3c〜6cを設け、撮像部3b〜6bが撮像した画像を視点変換画像生成部3c〜6cにより俯瞰画像に加工してから表示手段7に出力するようにしているが、これに限らず、撮像部3b〜6bが撮像した画像をそのまま表示手段7に出力するようにしてもよい。また、視点変換画像生成部3c〜6cをリアカメラモジュール6にのみ設けて画像合成部6iが合成した画像を一括して俯瞰画像に加工するようにしてもよい。また、視点変換画像生成部3c〜6cを表示手段7に設けて表示手段7において各カメラ画像または車両周辺画像を俯瞰画像に加工するようにしてもよい。
さらに、前記実施形態においては、フロントカメラモジュール3と両サイドカメラモジュール4,5とをリアカメラモジュール6に接続し、リアカメラモジュール6に設けた画像合成部6iおいて各カメラモジュール3〜6が撮像したカメラ画像を合成し、表示手段7に出力するようにしているが、これに限らず、全てのカメラモジュール3〜6を表示手段7に直接接続する構成としてもよい。この場合、リアカメラモジュール6を、図3に示す他のカメラモジュール3〜5と同様の構成として、このカメラモジュール3〜6の汎用性を高めることができる。
さらに、前記実施の形態においては、各カメラモジュール3〜6は、通信部3g〜6gにより、自己の撮像部3b〜6bが撮像した画像から認識した認識物体12の座標情報を車両ネットワーク9に出力するが、認識物体12の座標情報に加えて、認識物体12の移動ベクトル情報や各カメラモジュール3〜6の制御部3f〜6fが生成したマーカー13の座標情報の少なくともいずれか一つをさらに車両ネットワーク9に出力するようにしてもよい。この場合、スレーブのカメラモジュール3〜6は、車両ネットワーク9を介して取得したマスターのカメラモジュール3〜6からの認識物体12の座標情報に加えて、認識物体12の移動ベクトル情報や各カメラモジュール3〜6の制御部3f〜6fが生成したマーカー13の座標情報を利用して、自己のマーカー13を生成することができる。これにより、制御部3f〜6fにより、より正確にマーカー13を表示することができる。マーカー13の座標情報としては、例えばマーカー13が矩形の場合には、カメラ画像中におけるマーカー13の基準位置の座標情報および各辺の長さおよび方向等の情報、マーカー13が円形の場合には、その中心位置の座標情報およびその半径寸法の情報とするなど、マーカー13を生成することができる座標情報を含むようにすることができる。
さらに、前記実施形態では、車両周辺画像において隣り合う一対のカメラ画像が境界A〜Dを境に接している場合を示しているが、隣り合うカメラ画像の双方に物体12が位置するように表示することができれば、隣り合うカメラ画像の間に隙間があってもよい。
1 カメラシステム
2 車両
3 フロントカメラモジュール
4,5 サイドカメラモジュール
6 リアカメラモジュール
3a〜6a レンズ部
3b〜6b 撮像部
3c〜6c 視点変換画像生成部
3d〜6d 出力部
3e〜6e 電源部
3f〜6f 制御部
3g〜6g 通信部
3h〜6h 記憶部
6i 画像合成部
3j〜6j 物体認識部
7 表示手段
7a 画面
7a1〜7a4 分割範囲
8 車両モデル
9 車両ネットワーク
10 処理ユニット
11 物体認識部
12 物体
13 マーカー
A〜D 境界
x,x1 領域
y,y1 領域

Claims (11)

  1. 車両の周辺を撮像する複数のカメラモジュールを備え、複数の前記カメラモジュールが撮像した各カメラ画像を出力し、前記車両内の表示手段にて各画像を合成した車両周辺画像が表示されるカメラシステムであって、
    複数の前記カメラモジュールは、それぞれ自己の撮像したカメラ画像から物体認識処理を行う物体認識部と、前記車両に設けられた車両ネットワークを介した通信を行う通信部と、を有し、
    前記通信部は、それぞれ前記物体認識部で認識した認識物体の座標情報を前記車両ネットワークに出力し、
    前記複数のカメラモジュールの少なくとも一つは、前記車両ネットワークを介して他のカメラモジュールから前記認識物体の座標情報を取得することを特徴とするカメラシステム。
  2. 前記複数のカメラモジュールの少なくとも一つは、前記取得した座標情報を用いて前記車両周辺画像中の前記認識物体に対するマーカーを付す、請求項1に記載のカメラシステム。
  3. 複数の前記カメラモジュールの少なくとも一つは、互いに隣接する一対のカメラ画像の双方に前記認識物体が位置する場合に、前記座標情報を用いて、一方のカメラ画像と他方のカメラ画像との双方に跨る滑らかなマーカーを生成する、請求項2に記載のカメラシステム。
  4. 複数の前記カメラモジュールの少なくとも一つは、前記マーカーの位置、大きさおよび形状の少なくとも一つを変更する、請求項3に記載のカメラシステム。
  5. 複数の前記カメラモジュールは、それぞれ制御部を有し、該制御部のいずれか一つが主制御部となって、前記座標情報を用いた前記車両周辺画像へのマーカー付加処理を行う請求項2から4のいずれか一項に記載のカメラシステム。
  6. 前記主制御部は、複数の前記カメラモジュールのそれぞれに設けられた他の制御部を、前記車両ネットワークを介して統括制御する請求項5に記載のカメラシステム。
  7. 複数の前記カメラモジュールは、それぞれ前記車両ネットワークを介して接続される前記車両の処理ユニットにより識別情報が割り当てられ、該識別情報に応じて前記主制御部が決定される請求項6に記載のカメラシステム。
  8. 前記識別情報の割り当ては、前記車両ネットワークの規格におけるネゴシエーションのプロトコルに準拠して行われる請求項7に記載のカメラシステム。
  9. 前記カメラ画像は、撮像部が撮像した画像を視点変換した俯瞰画像である、請求項1から8のいずれか一項に記載のカメラシステム。
  10. 複数のカメラモジュールが撮像した各カメラ画像を合成して、車両内の表示手段に車両周辺画像として表示を行うカメラシステムに用いられるカメラモジュールであって、
    前記車両の周辺を撮像する撮像部と、
    前記撮像部が撮像した画像から物体認識処理を行う物体認識部と、
    前記車両に設けられた車両ネットワークを介した通信を行う通信部と、を有し、
    前記通信部は、前記物体認識部で認識した認識物体の座標情報を前記車両ネットワークに出力し、
    前記車両ネットワークを介して他のカメラモジュールから該他のカメラモジュールが物体認識部で認識した認識物体の座標情報を取得する、ことを特徴とするカメラモジュール。
  11. 複数のカメラモジュールが撮像した各カメラ画像を合成して、車両内の表示手段に車両周辺画像として表示を行う際のカメラ制御方法であって、
    前記カメラモジュールが、自己が撮像したカメラ画像から物体認識処理により認識物体を認識する認識工程と、
    前記カメラモジュールが、前記認識工程において認識した認識物体の座標情報を車両に設けられた車両ネットワークに出力する出力工程と、
    前記カメラモジュールが、前記車両ネットワークを介して他のカメラモジュールから該他のカメラモジュールが物体認識部で認識した認識物体の座標情報を取得する工程と、を有することを特徴とするカメラ制御方法。
JP2012281745A 2012-12-25 2012-12-25 カメラシステム、カメラモジュールおよびカメラ制御方法 Active JP6022930B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012281745A JP6022930B2 (ja) 2012-12-25 2012-12-25 カメラシステム、カメラモジュールおよびカメラ制御方法
US14/655,028 US10242254B2 (en) 2012-12-25 2013-12-20 Camera system for a vehicle, camera module, and method of controlling camera
PCT/JP2013/007510 WO2014103272A1 (ja) 2012-12-25 2013-12-20 カメラシステム、カメラモジュールおよびカメラ制御方法
EP13867217.5A EP2939877B1 (en) 2012-12-25 2013-12-20 Camera system, camera module, and camera control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012281745A JP6022930B2 (ja) 2012-12-25 2012-12-25 カメラシステム、カメラモジュールおよびカメラ制御方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016198541A Division JP6185135B2 (ja) 2016-10-06 2016-10-06 統合画像処理システム

Publications (2)

Publication Number Publication Date
JP2014125029A JP2014125029A (ja) 2014-07-07
JP6022930B2 true JP6022930B2 (ja) 2016-11-09

Family

ID=51020390

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012281745A Active JP6022930B2 (ja) 2012-12-25 2012-12-25 カメラシステム、カメラモジュールおよびカメラ制御方法

Country Status (4)

Country Link
US (1) US10242254B2 (ja)
EP (1) EP2939877B1 (ja)
JP (1) JP6022930B2 (ja)
WO (1) WO2014103272A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016047150A1 (ja) 2014-09-26 2016-03-31 京セラ株式会社 撮像装置、車両および変動検出方法
US9718405B1 (en) * 2015-03-23 2017-08-01 Rosco, Inc. Collision avoidance and/or pedestrian detection system
JP6788977B2 (ja) 2016-02-23 2020-11-25 京セラ株式会社 車両及び車両における制御方法
DE102017209427B3 (de) * 2017-06-02 2018-06-28 Volkswagen Aktiengesellschaft Vorrichtung zur Fahrschlauchabsicherung
JP7263731B2 (ja) * 2018-10-26 2023-04-25 株式会社デンソー 画像処理装置
WO2020116205A1 (ja) 2018-12-07 2020-06-11 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、および情報処理方法、並びにプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006018951A1 (ja) 2004-08-18 2006-02-23 Olympus Corporation 画像生成方法および画像生成装置
JP2006143009A (ja) * 2004-11-19 2006-06-08 Fuji Heavy Ind Ltd 車両の運転支援装置
EP1696669B1 (en) 2005-02-24 2013-07-03 Aisin Seiki Kabushiki Kaisha Vehicle surrounding monitoring device
JP4742733B2 (ja) 2005-08-05 2011-08-10 日産自動車株式会社 画像つなぎ目処理装置および画像つなぎ目処理方法
JP2007187618A (ja) * 2006-01-16 2007-07-26 Omron Corp 物体識別装置
JP4702106B2 (ja) * 2006-03-02 2011-06-15 株式会社デンソー 死角支援情報報知装置及びプログラム
JP5380941B2 (ja) * 2007-10-01 2014-01-08 日産自動車株式会社 駐車支援装置及び方法
ES2538827T3 (es) * 2009-09-01 2015-06-24 Magna Mirrors Of America, Inc. Sistema de formación de imágenes y de exhibición para un vehículo
JP5696872B2 (ja) 2010-03-26 2015-04-08 アイシン精機株式会社 車両周辺監視装置
EP2431226B1 (de) * 2010-09-17 2016-07-27 SMR Patents S.à.r.l. Rückblickeinrichtung für ein Kraftfahrzeug
JP5704902B2 (ja) * 2010-11-26 2015-04-22 東芝アルパイン・オートモティブテクノロジー株式会社 運転支援装置及び運転支援方法
DE102011077398B4 (de) 2011-06-10 2021-11-04 Robert Bosch Gmbh Fahrzeugkamerasystem zur Bereitstellung eines lückenlosen Bildes der Fahrzeugumgebung und entsprechendes Verfahren

Also Published As

Publication number Publication date
US20150347830A1 (en) 2015-12-03
EP2939877B1 (en) 2018-05-16
JP2014125029A (ja) 2014-07-07
WO2014103272A1 (ja) 2014-07-03
EP2939877A1 (en) 2015-11-04
US10242254B2 (en) 2019-03-26
EP2939877A4 (en) 2016-08-24

Similar Documents

Publication Publication Date Title
JP6022930B2 (ja) カメラシステム、カメラモジュールおよびカメラ制御方法
JP6937443B2 (ja) 撮像装置及び撮像装置の制御方法
CN105308620B (zh) 信息处理设备、接近对象通知方法和程序
KR101198206B1 (ko) 휴대 단말을 이용한 차량 주변 영상 제공 시스템 및 그 방법
JP6406159B2 (ja) 車載表示制御装置、車載表示制御方法
JP2012170127A (ja) 車両用周辺監視装置および映像表示方法
JP2016119526A (ja) 牽引車両周囲画像生成装置および牽引車両周囲画像生成方法
CN104512335A (zh) 停车支援装置
WO2013103115A1 (ja) 画像表示装置
JP6903925B2 (ja) 撮像表示システム、乗用装置
JP6375633B2 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
JP2006254318A (ja) 車載用カメラ及び車載用監視装置並びに前方道路領域撮像方法
JP6185135B2 (ja) 統合画像処理システム
JP2017111739A (ja) 運転支援装置、運転支援方法
JP2007288611A (ja) 車載用画像表示装置
JP2005182305A (ja) 車両走行支援装置
JP6702001B2 (ja) 撮像装置及び撮像システム
JP2023047495A (ja) 移動体、画像処理方法、およびコンピュータプログラム
JP6274936B2 (ja) 運転支援装置
JP4730819B2 (ja) 周辺状況表示装置及び周辺状況表示方法
CN202573989U (zh) 环车鸟瞰装置
JP6020736B2 (ja) 予測進路提示装置及び予測進路提示方法
JP2008233398A (ja) 表示装置
KR20150129542A (ko) 어라운드 뷰 시스템의 동작방법
JP6209921B2 (ja) 予測進路提示システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161006

R150 Certificate of patent or registration of utility model

Ref document number: 6022930

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150