JP2007334426A - Image processing program, image processor and image processing method - Google Patents

Image processing program, image processor and image processing method Download PDF

Info

Publication number
JP2007334426A
JP2007334426A JP2006162398A JP2006162398A JP2007334426A JP 2007334426 A JP2007334426 A JP 2007334426A JP 2006162398 A JP2006162398 A JP 2006162398A JP 2006162398 A JP2006162398 A JP 2006162398A JP 2007334426 A JP2007334426 A JP 2007334426A
Authority
JP
Japan
Prior art keywords
data
shooting
state
image
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006162398A
Other languages
Japanese (ja)
Other versions
JP4749942B2 (en
Inventor
Asako Kitaura
麻子 北浦
Seiya Shimizu
誠也 清水
Masami Mizutani
政美 水谷
Eiji Morimatsu
映史 森松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2006162398A priority Critical patent/JP4749942B2/en
Publication of JP2007334426A publication Critical patent/JP2007334426A/en
Application granted granted Critical
Publication of JP4749942B2 publication Critical patent/JP4749942B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing program, an image processor and an image processing method, using an appropriate image among externally photographed and transmitted images. <P>SOLUTION: This image processing method makes a computer execute: a reception step for receiving photographic data comprising photographic image data as an image photographed by an external camera and photographic meta data as information relating to a state that the photographic image data is photographed; a state acquisition step for acquiring state data as information relating to the state of a traveling object; a decision step for deciding whether to use the photographic data received in the reception step based on preliminarily set conditions and the photographic meta data received in the reception step and the state data acquired in the state acquisition step; and an arithmetic step for executing an arithmetic operation by using the photographic data decided to be used in the decision step. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、移動体において外部から受信した画像を利用する画像処理プログラム、画像処理装置、画像処理方法に関するものである。   The present invention relates to an image processing program, an image processing apparatus, and an image processing method that use an image received from the outside in a moving body.

交差点において、右折しようとする車両である右折車とその対向車線を直進しようとする車両である対向直進車とが接触する事故(右直事故)が発生する。図23は、右折時の自車と対向車の位置関係の一例を示す平面図である。図24は、右折時の自車から見た視認結果の一例を示す画像である。これらの図に示すように、自車3の運転者は、対向直進車4xが対向車4yの死角に入るため、視認できない。このような死角が原因となる事故を防止するために、死角の危険認知を目的として、自車に設けられた車載カメラを利用する試みがある。   At an intersection, an accident occurs (a right-handed accident) in which a right-turn vehicle that is a vehicle that is about to turn right and an opposite-straight vehicle that is a vehicle that is going straight in the opposite lane contact each other. FIG. 23 is a plan view showing an example of the positional relationship between the own vehicle and the oncoming vehicle when turning right. FIG. 24 is an image showing an example of a visual recognition result viewed from the own vehicle when making a right turn. As shown in these drawings, the driver of the host vehicle 3 cannot visually recognize because the oncoming straight vehicle 4x enters the blind spot of the oncoming vehicle 4y. In order to prevent such an accident caused by a blind spot, there is an attempt to use an in-vehicle camera provided in the own vehicle for the purpose of recognizing the danger of a blind spot.

例えば、第1の従来技術として、交差点の映像を撮影するカメラを、インフラとして路側に設置し、この映像を車側で利用する試みがある(例えば、AHS:Advanced cruise-assist Highway Systems)。これは、道路に設置した固定カメラの画像を所定のエリアに向けて送信し、そのエリアを通過する車両が画像を受信して利用するものであり、送信されるのは画像と撮影したカメラのIDかカメラ位置である。   For example, as a first conventional technique, there is an attempt to install a camera that captures an image of an intersection on the road side as an infrastructure and use the image on the vehicle side (for example, AHS: Advanced cruise-assist Highway Systems). This is a method in which an image of a fixed camera installed on a road is transmitted to a predetermined area, and a vehicle passing through the area receives and uses the image. ID or camera position.

また、第2の従来技術として、他の車両に設置された車載カメラの映像を使って危険認知を行う試みがある(例えば、非特許文献1参照)。これは、前を走る車両が前方画像を撮影し、後続車の位置と方向を取得し、撮影した画像を後続車のカメラから見た画像に変換し、車車間通信により後続車へ送信するものである。   As a second conventional technique, there is an attempt to perform danger recognition using an image of an in-vehicle camera installed in another vehicle (see, for example, Non-Patent Document 1). This is because the vehicle running in front captures the front image, acquires the position and direction of the following vehicle, converts the captured image into an image viewed from the camera of the following vehicle, and transmits it to the following vehicle through inter-vehicle communication. It is.

なお、本発明の関連ある従来技術として、車両間ネットワークを作成し、カメラ保持車からのカメラ映像を受信し、表示する車両間通信情報処理装置がある(例えば、特許文献1参照)。
特開2004−145672号公報 「ITSにおける車載カメラの位置・方位情報取得に関する検討〜HIRシステムへの応用〜」,小山石正人,酒井裕史,藤井俊彰,谷本正幸(名古屋大),信学技報CS2003−143
As a related art related to the present invention, there is an inter-vehicle communication information processing apparatus that creates an inter-vehicle network, receives a camera video from a camera holding vehicle, and displays it (for example, see Patent Document 1).
JP 2004-145672 A "Examination of position / orientation information acquisition of in-vehicle camera in ITS-Application to HIR system-", Masato Koyamaishi, Hiroshi Sakai, Toshiaki Fujii, Masayuki Tanimoto (Nagoya Univ.), IEICE Tech.

しかしながら、上述した第1の従来技術において、路側のカメラは、細かなカメラパラメータ(画角、仰角、焦点距離など)を送信しないため、車側は、受信した画像を加工して利用しようとしても、正確な撮影空間が分からず利用できないという問題がある。   However, in the first prior art described above, since the roadside camera does not transmit fine camera parameters (view angle, elevation angle, focal length, etc.), the vehicle side tries to process and use the received image. There is a problem that the exact shooting space is not known and cannot be used.

上述した第2の従来技術において、交差点の中心にいる車両などが、複数の相手に画像を送信する場合、全ての送信相手の車載カメラの正確な位置及び方向を取得し、それらのカメラから見た画像に加工する必要があるため、非常に計算コスト(処理負荷、処理時間)がかかるという問題がある。   In the second prior art described above, when a vehicle at the center of an intersection transmits an image to a plurality of opponents, the accurate position and direction of the in-vehicle cameras of all the opponents are acquired and viewed from those cameras. Therefore, there is a problem that the calculation cost (processing load and processing time) is very high.

本発明は上述した問題点を解決するためになされたものであり、外部で撮影され送信された画像のうち適切な画像を利用する画像処理プログラム、画像処理装置、画像処理方法を提供することを目的とする。   The present invention has been made to solve the above-described problems, and provides an image processing program, an image processing apparatus, and an image processing method that use an appropriate image out of images captured and transmitted externally. Objective.

上述した課題を解決するため、本発明は、外部から送信されるデータの演算を、移動体に設けられたコンピュータに実行させる画像処理プログラムであって、外部のカメラにより撮影された画像である撮影画像データと該撮影画像データが撮影された状態に関する情報である撮影メタデータとからなる撮影データを受信する受信ステップと、前記移動体の状態に関する情報である状態データを取得する状態取得ステップと、予め設定された条件と前記受信ステップにより受信された撮影メタデータと前記状態取得ステップにより取得された状態データとに基づいて、前記受信ステップにより受信された撮影データを利用するか否かの判定を行う判定ステップと、前記判定ステップにより利用すると判定された撮影データを用いて演算を行う演算ステップとをコンピュータに実行させる。   In order to solve the above-described problem, the present invention is an image processing program for causing a computer provided in a moving body to perform calculation of data transmitted from the outside, and is an image captured by an external camera. A receiving step for receiving image data including image data and shooting metadata that is information on a state in which the captured image data was shot; a state acquisition step for acquiring state data that is information on the state of the moving body; Judgment as to whether or not to use the shooting data received in the reception step based on preset conditions, the shooting metadata received in the reception step and the state data acquired in the state acquisition step. A determination step to be performed, and an operation to perform an operation using the shooting data determined to be used in the determination step. To perform the steps on a computer.

この画像処理プログラムによれば、撮影画像データと撮影メタデータとからなる撮影データを受信し、移動体の状態と予め設定された条件を用いて判定することにより、適切な撮影データを利用することができる。   According to this image processing program, appropriate shooting data can be used by receiving shooting data consisting of shooting image data and shooting metadata, and determining using the state of the moving object and preset conditions. Can do.

また、本発明に係る画像処理プログラムにおいて、前記状態データは、前記移動体に設けられたセンサまたは外部との通信により得られる情報であり、前記移動体の移動状態、前記移動体の環境の状態の少なくともいずれかを含むことを特徴とする。   In the image processing program according to the present invention, the state data is information obtained by communication with a sensor provided in the moving body or the outside, and the moving state of the moving body and the state of the environment of the moving body It is characterized by including at least one of these.

この画像処理プログラムによれば、移動体の移動状態や環境状態に応じて適切な撮影データを利用することができる。   According to this image processing program, appropriate shooting data can be used according to the moving state of the moving body and the environmental state.

また、本発明に係る画像処理プログラムにおいて、前記条件は、前記状態データの条件である前提条件と前記撮影メタデータの条件である撮影条件とを含み、前記判定ステップは、前記状態データが前記前提条件を満たすか否かの判断を行い、前記状態データが前記前提条件を満たす場合、前記撮影条件を満たす前記撮影メタデータと該撮影メタデータに対応する撮影画像データとを用いて演算を行うことを特徴とする。   In the image processing program according to the present invention, the condition includes a precondition that is a condition of the state data and a photographing condition that is a condition of the photographing metadata, and the determination step includes the precondition that the state data is the premise. Judging whether or not a condition is satisfied, and when the state data satisfies the precondition, performing an operation using the shooting metadata satisfying the shooting condition and the shot image data corresponding to the shooting metadata It is characterized by.

この画像処理プログラムによれば、移動体の状態が予め設定された適切な状態になった場合に、その状態に対して適切な撮影データだけを利用することができる。   According to this image processing program, when the state of the moving body becomes an appropriate state set in advance, it is possible to use only photographing data appropriate for the state.

また、本発明の構成要素、または構成要素の任意の組合せを、方法、装置、システム、記録媒体、データ構造などに適用したものも本発明に含む。   Moreover, what applied the component of this invention, or arbitrary combinations of a component to a method, an apparatus, a system, a recording medium, a data structure, etc. is also contained in this invention.

また、本発明は、カメラから送信されるデータを用いた演算を移動体において行う画像処理方法であって、前記カメラによって撮影された画像である撮影画像データと該撮影の状態に関する情報である撮影メタデータとからなる撮影データを受信する受信ステップと、前記移動体の状態に関する情報である状態データを取得する状態取得ステップと、予め設定された条件と前記受信ステップにより受信された撮影メタデータと前記状態取得ステップにより取得された状態データとに基づいて、前記受信ステップにより受信された撮影データを利用するか否かの判定を行う判定ステップと、前記移動体において、前記判定ステップにより利用すると判定された撮影データを用いて演算を行う演算ステップとを実行する。   Further, the present invention is an image processing method for performing an operation using data transmitted from a camera in a moving body, which is captured image data that is an image captured by the camera and information regarding the state of the capturing A receiving step for receiving shooting data comprising metadata, a state acquiring step for acquiring state data that is information relating to the state of the mobile object, a preset condition, and the shooting metadata received by the receiving step; A determination step for determining whether to use the imaging data received in the reception step based on the state data acquired in the state acquisition step, and a determination that the mobile body uses the shooting data in the determination step And a calculation step of performing a calculation using the captured image data.

この画像処理方法によれば、カメラが撮影画像データと撮影メタデータとを撮影データとして送信することにより、移動体において適切な撮影データを選択し、利用することができる。   According to this image processing method, when the camera transmits the captured image data and the captured metadata as the captured data, it is possible to select and use appropriate captured data in the moving body.

本発明によれば、外部で撮影され送信された画像のうち適切な画像を利用することができる。   According to the present invention, it is possible to use an appropriate image among images captured and transmitted externally.

以下、本発明の実施の形態について図面を参照しつつ説明する。   Embodiments of the present invention will be described below with reference to the drawings.

まず、本実施の形態に係る画像処理装置の構成について説明する。   First, the configuration of the image processing apparatus according to the present embodiment will be described.

図1は、本実施の形態に係る画像処理装置の構成の一例を示すブロック図である。この画像処理装置1は、車両に搭載され、無線通信部11、撮影データ記憶部12、条件データ記憶部13、状態データ記憶部14、前提条件判定部15、撮影条件判定部16、演算部17、通知部18を備える。また、画像処理装置1の周囲には、無線カメラ2が存在する。なお、通知部18は、画像処理装置1の外部に備えられてもよい。また、画像処理装置1は、同じ車両に搭載されたセンサ19に接続される。   FIG. 1 is a block diagram showing an example of the configuration of the image processing apparatus according to the present embodiment. The image processing apparatus 1 is mounted on a vehicle, and includes a wireless communication unit 11, a shooting data storage unit 12, a condition data storage unit 13, a state data storage unit 14, a precondition determination unit 15, a shooting condition determination unit 16, and a calculation unit 17. The notification unit 18 is provided. A wireless camera 2 exists around the image processing apparatus 1. Note that the notification unit 18 may be provided outside the image processing apparatus 1. The image processing apparatus 1 is connected to a sensor 19 mounted on the same vehicle.

なお、受信部は、実施の形態における無線通信部11に対応する。また、状態取得部は、実施の形態における状態データ記憶部14に対応する。また、判定部は、実施の形態における条件データ記憶部13、状態データ記憶部14、前提条件判定部15、撮影条件判定部16に対応する。   The receiving unit corresponds to the wireless communication unit 11 in the embodiment. The state acquisition unit corresponds to the state data storage unit 14 in the embodiment. The determination unit corresponds to the condition data storage unit 13, the state data storage unit 14, the precondition determination unit 15, and the shooting condition determination unit 16 in the embodiment.

無線カメラ2は、撮影を行い、撮影した動画像である撮影画像データとその撮影空間などを表す撮影メタデータとを撮影データとして、周囲に送信する。無線カメラ2は、交差点などに設置された固定カメラであっても良いし、他車に設置された移動カメラであっても良いし、また自車に設置されたカメラであっても良い。なお、無線カメラ2が自車に設置されたカメラである場合は、撮影画像データおよび撮影メタデータの送信は、無線でなく、有線で撮影データ記憶部12へ送信するような構成に変更しても構わない。   The wireless camera 2 captures an image and transmits captured image data, which is a captured moving image, and imaging metadata representing the imaging space to the surroundings as imaging data. The wireless camera 2 may be a fixed camera installed at an intersection or the like, may be a moving camera installed in another vehicle, or may be a camera installed in the own vehicle. If the wireless camera 2 is a camera installed in the host vehicle, the transmission of the captured image data and the captured metadata is changed to a configuration that transmits to the captured data storage unit 12 not by wireless but by wire. It doesn't matter.

無線通信部11は、近隣の無線カメラ2より、撮影データを無線受信する(S41)。なお、無線通信部11は、単純に撮影データの受信を行うだけでなく、必要ならば送信先を限定するためにスクランブルがかかった撮影データを復号する処理を行ってもよい。この場合、無線カメラ2は、特定の利用者のみに解除可能なスクランブルを、撮影データにかけて送信する。つまり、無線カメラ2は、プライバシー保護またはサービス有償化のために、特定の利用者のみが利用可能な撮影データを送信することができる。また、自車に搭載された無線カメラ2と画像処理装置1を用いるシステムにおいて、その撮影データを他車には利用されたくない場合などに、無線カメラ2は自車のみが利用できるようにスクランブルを行うことができる。また、路上への無線カメラ2の設置コストを考慮し、有償の特定会員サービスとして撮影データの提供を行う場合、無線カメラ2は会員のみが利用できるようにスクランブルを行うことができる。   The wireless communication unit 11 wirelessly receives shooting data from the nearby wireless camera 2 (S41). Note that the wireless communication unit 11 may not only simply receive the photographic data, but also perform a process of decoding the scrambled photographic data to limit the transmission destination if necessary. In this case, the wireless camera 2 transmits a scramble that can be released only to a specific user over the photographing data. That is, the wireless camera 2 can transmit shooting data that can be used only by a specific user in order to protect privacy or charge a service. Further, in a system using the wireless camera 2 and the image processing apparatus 1 mounted on the own vehicle, the wireless camera 2 is scrambled so that only the own vehicle can be used when it is not desired to use the captured data for other vehicles. It can be performed. In addition, in consideration of the installation cost of the wireless camera 2 on the road, when providing shooting data as a paid specific member service, the wireless camera 2 can be scrambled so that only the member can use it.

撮影データ記憶部12は、無線通信部11により受信された撮影データを記憶する。撮影メタデータは、例えば、撮影空間を特定するための無線カメラ2の3次元位置(高さを含む)、撮影方向(撮影方位角(カメラ中心軸方向)、パン角、チルト角等)、カメラ画角、焦点距離(画角)、撮影解像度(撮影素子サイズ等)等を含む。また、撮影メタデータは、撮影空間を表すための定義、例えば、3次元位置に、測地系(交差点ローカル座標系、グローバル座標系、新世界座標系、旧日本座標系)及び相対座標化のための基準点の情報等が付随されてもよい。また、撮影メタデータは、撮影空間を表す情報の他に、撮影時刻、同じカメラからの画像フレームを他のカメラの画像フレームと区別するためのカメラID、カメラ設置者及び設置場所の情報、撮影画像データのコーデック種別やフレームレート等のデータ、可視画像か赤外画像か等の種別情報、無線カメラ2が自車に搭載されていることを示す情報等を含んでもよい。   The shooting data storage unit 12 stores shooting data received by the wireless communication unit 11. The shooting metadata includes, for example, the three-dimensional position (including height) of the wireless camera 2 for specifying the shooting space, the shooting direction (shooting azimuth angle (camera central axis direction), pan angle, tilt angle, etc.), camera Including the angle of view, focal length (field angle), imaging resolution (imaging element size, etc.) The shooting metadata is used to define a shooting space, for example, a three-dimensional position, a geodetic system (intersection local coordinate system, global coordinate system, new world coordinate system, old Japan coordinate system) and relative coordinates. The reference point information or the like may be attached. In addition to the information representing the shooting space, the shooting metadata includes shooting time, camera ID for distinguishing image frames from the same camera from image frames of other cameras, information on the camera installer and installation location, shooting It may include data such as codec type and frame rate of image data, type information such as whether it is a visible image or an infrared image, information indicating that the wireless camera 2 is mounted on the own vehicle, and the like.

この撮影メタデータによれば、撮影したカメラの位置や撮影したカメラを搭載する車の進行方向を送信する従来技術と異なり、撮影画像データを利用する自車が、撮影空間を特定する情報を取得し、画像処理に活用することができる。   According to this shooting metadata, the vehicle that uses the shot image data acquires information that identifies the shooting space, unlike the conventional technology that transmits the position of the shot camera and the traveling direction of the car on which the shot camera is mounted. It can be used for image processing.

状態データ記憶部14は、自車の走行情報を始め、様々な取得可能な現在の状態に関する情報を集めたデータである状態データを保持する(S46)。具体的に、状態データは、センサ19により得られ、自車の位置や姿勢を表す位置情報、運転者によるハンドル操作やアクセルブレーキ操作等の車両制御操作情報、各種の車載センサの情報、現在時刻などである。ここで、位置情報は、GPSから取得されたものでも良いし、車載カメラの画像認識により進行方向、速度、位置等が算出されたものでも良い。   The state data storage unit 14 stores state data, which is data obtained by collecting information relating to various current states that can be acquired, including running information of the vehicle (S46). Specifically, the state data is obtained by the sensor 19, and includes position information indicating the position and posture of the vehicle, vehicle control operation information such as a steering wheel operation and an accelerator brake operation by the driver, information on various in-vehicle sensors, current time Etc. Here, the position information may be acquired from GPS, or may be information in which the traveling direction, speed, position, and the like are calculated by image recognition of the in-vehicle camera.

状態データは、その他、自車周囲の天候、気温、照度、地図、道路状況、交通規制、他車両の情報等を、無線通信部11の通信により外部のデータベースから取得される情報であっても良い。また、過去に演算部17が行った画像処理の結果の情報、例えば、画像認識による注意喚起情報等がフィードバックのために状態データとして保持されても良い。   The state data may also be information obtained from an external database by communication of the wireless communication unit 11 such as weather around the vehicle, temperature, illuminance, map, road condition, traffic regulation, other vehicle information, etc. good. In addition, information on the result of image processing performed by the calculation unit 17 in the past, for example, alert information by image recognition, may be held as state data for feedback.

状態データは、主に、前提条件判定部15において現在の状態が各画像処理を行う状態であるか否かを判定するために用いられる。また、状態データは、演算部17において、受信した撮影データの画像処理のために用いられてもよい。   The state data is mainly used in the precondition determining unit 15 to determine whether or not the current state is a state in which each image processing is performed. Further, the state data may be used for the image processing of the received photographing data in the calculation unit 17.

この状態データ記憶部14によれば、自車状態の変更を決定する権利は事故責任等の問題から運転者の明示的な自車操作にあること、また、危険認識のために走行環境と自車操作が適切かを手助けする手段として画像処理を用いる場合が多いこと、を利用し、自車操作の変更を検知して受信した撮影データを用いる画像処理の処理タイミングを制御することができる。例えば、右直事故検知専用の画像処理を搭載した車両が、交差点を直進する場合に、インフラとして交差点ごとに設置された無線カメラ群の動画像データをいちいち全て受信して画像処理するのは非効率的である。このため、本実施の形態における画像処理装置は、無線受信自体を右折時に限定する。また、無線受信の制御ができない場合、画像処理装置は、代用としてあたかも撮影データの無線取得自体ができなかったかのように、無線受信した撮影データの演算部17への送付を制御する。このように、本実施の形態における画像処理装置は、自車の操作状況を画像処理に用いることにより、画像処理を効率的に行うことができる。   According to the state data storage unit 14, the right to determine the change of the own vehicle state lies in the driver's explicit vehicle operation due to problems such as accident responsibilities, and the driving environment and By utilizing the fact that image processing is often used as a means for assisting whether the vehicle operation is appropriate, it is possible to detect the change of the own vehicle operation and control the processing timing of the image processing using the received image data. For example, when a vehicle equipped with image processing dedicated to right-hand accident detection goes straight through an intersection, it is not recommended to receive and process all moving image data from the wireless camera group installed at each intersection as infrastructure. Efficient. For this reason, the image processing apparatus according to the present embodiment limits wireless reception itself when turning right. When the wireless reception cannot be controlled, the image processing apparatus controls the sending of the wirelessly received shooting data to the calculation unit 17 as if the wireless acquisition of the shooting data itself was not possible. As described above, the image processing apparatus according to the present embodiment can efficiently perform image processing by using the operation state of the own vehicle for image processing.

条件データ記憶部13は、演算部17に対する撮影データの入力の制御等を行うための条件の定義である条件データを保持する。具体的には、前提条件と撮影条件がある。   The condition data storage unit 13 holds condition data that is a definition of conditions for performing control of input of photographing data to the calculation unit 17 and the like. Specifically, there are preconditions and shooting conditions.

前提条件は、現在の状態が画像処理を行うのに適した状態であるか否かを判定するための条件である。この前提条件の判定結果により、無線通信部11の制御を行ったり、撮影条件に基づく判定を行うか否かを決定したりする。具体的には、現在の自車状態、環境状態、以前に行った画像処理結果などである。   The precondition is a condition for determining whether or not the current state is a state suitable for performing image processing. Based on the determination result of the precondition, it is determined whether to control the wireless communication unit 11 or to perform determination based on the imaging condition. Specifically, the current vehicle state, environmental state, previous image processing results, and the like.

撮影条件は、前提条件により現在は画像処理を行う状態であると判定された後、実際に無線受信した撮影データを全て画像処理に利用するか、その一部を利用するか否かを判定するための条件である。具体的には、撮影メタデータに記述された情報を限定する条件である。   The shooting conditions are determined based on the preconditions that the current image processing is being performed, and then it is determined whether or not all of the shooting data actually received wirelessly is used for image processing or a part thereof. It is a condition for. Specifically, it is a condition that limits the information described in the shooting metadata.

条件データ記憶部13は、前提条件と撮影条件を登録し、保持するデータベースである。前提条件判定部15と撮影条件判定部16は、条件データ記憶部13を参照し、判定を行う。必要であれば、演算部17が、条件データ記憶部13を参照することもできる。なお、ここでは前提条件と撮影条件が密接に関係する可能性が高いので、1つのデータベースにしたが、それぞれ別のデータベースにしてもよいし、これらの内容を各判定部が個別に内部保持することにより、独立した条件データ記憶部13という構成でなくても良い。   The condition data storage unit 13 is a database that registers and holds preconditions and shooting conditions. The precondition determination unit 15 and the imaging condition determination unit 16 refer to the condition data storage unit 13 and perform determination. If necessary, the calculation unit 17 can also refer to the condition data storage unit 13. Here, since it is highly possible that the precondition and the photographing condition are closely related to each other, one database is used. However, different databases may be used, and each determination unit individually holds these contents. Thus, the configuration of the independent condition data storage unit 13 is not necessary.

ここで、条件データの具体例について説明する。図2は、本実施の形態に係る条件データの一例を示すXML表記である。この例において、条件データは、右折時に必要なデータを取捨選択する条件であり、XMLを用いて記述されている。なお、条件データは、テーブル形式でもよいし、条件データの記述単位、名称、値の単位、なども他のものを用いてもよい。   Here, a specific example of the condition data will be described. FIG. 2 is an XML notation showing an example of the condition data according to the present embodiment. In this example, the condition data is a condition for selecting data necessary for a right turn, and is described using XML. The condition data may be in the form of a table, or other description data may be used as the description unit, name, value unit, etc. of the condition data.

この例において、まず、撮影条件の指定に必要な座標系の指定(GeoCoordinate)が記述される(1行目)。ここでは、自車の重心を原点とし、進行方向をX軸方向とし、進行方向右手方向をY軸方向とし、単位をmとする座標系(MyCarCoodinate1)が指定される。なお、既定の座標系が決まっている場合、指定は不要である。   In this example, first, a coordinate system specification (GeoCoordinate) necessary for specifying an imaging condition is described (first line). Here, a coordinate system (MyCarCoordinate1) is designated in which the center of gravity of the vehicle is the origin, the traveling direction is the X-axis direction, the right-hand direction of the traveling direction is the Y-axis direction, and the unit is m. If the default coordinate system is determined, it is not necessary to specify it.

次に、前提条件と撮影条件は、最終的に演算部17が行う画像処理の種類毎に定義されるサービス(Service)という単位にまとめて記述される(4行目)。この例において、サービスの数(Num)は1つであり、そのサービスは「右折確認」という名前で定義される(5行目)。   Next, the precondition and the photographing condition are collectively described in a unit of service (Service) defined for each type of image processing performed by the calculation unit 17 (line 4). In this example, the number of services (Num) is one, and the service is defined with the name “confirm right turn” (line 5).

サービスの定義として、まず、該当する画像処理を必要としている状態かどうかを判定するために、サービス開始の前提となる前提条件(PreConditions)を、条件群(2つのCondition)として列挙する。ここでは、2つのConditionのどちらでも満たせばよいとして、判定種類(judge)がどちらかでも可(alternative)として記述される(6行目)。Conditionの内容は自車状態を用いて記述される。第1のConditionは、自車の右ハンドルを0.1(所定の操舵角に対する相対値)以上(over+equalとして表記)切った場合であり、右ハンドルを正の値とする座標系で記述される(7行目)。第2のConditionは、自車の右ウィンカーを1回以上操作した場合であり、右ウィンカーを正の値とする座標系で記述される(11行目)。2つのConditionは、自車の操作に関する値を車操作(CarManipulate)という単位にして記述される。   As the definition of the service, first, in order to determine whether or not the corresponding image processing is necessary, preconditions (PreConditions) that are preconditions for starting the service are listed as a condition group (two conditions). Here, it is only necessary to satisfy either of the two conditions, and either judgment type (judge) is described as “alternative” (line 6). The content of Condition is described using the vehicle state. The first condition is a case where the right steering wheel of the vehicle is turned by 0.1 (relative value to a predetermined steering angle) or more (expressed as over + equal), and is described in a coordinate system in which the right steering wheel is a positive value. (7th line). The second condition is a case where the right winker of the own vehicle is operated once or more, and is described in a coordinate system in which the right winker is a positive value (11th line). The two conditions are described with a value related to the operation of the own vehicle as a unit of car operation (CarManipulate).

なお、この例における前提条件は、自車状態のみを用いたが、例えば「今は夜だったら」というような他の計測装置により計測される環境状態や、「近くに複雑な交差点があったら」のような他のデータベースを参照する環境状態などを記載しても良い。また、サービスが前方監視のように常に起動させておきたいものであれば、前提条件をなしにしても良い。   Note that the precondition in this example is only the state of the vehicle. For example, if it is night now, the environmental state is measured by another measuring device, or if there is a complex intersection nearby. The environmental state etc. referring to other databases such as “” may be described. Further, if the service is to be always started as in forward monitoring, the precondition may be omitted.

次に、前提条件を満たした場合に実行される明確な動作(Do)が列挙される。この例においては、車操作(CarManipulate)として、無線通信部11(DataInputByAir)の起動(無線受信の開始)が記述される(17行目)。実際には無線通信部11は、常に起動し続けていても構わないので省略してもよい。また、他の動作を記述しても良い。   Next, a clear operation (Do) to be executed when the precondition is satisfied is listed. In this example, activation (start of wireless reception) of the wireless communication unit 11 (DataInputByAir) is described as a car operation (CarManipulate) (17th line). Actually, the wireless communication unit 11 may be continuously activated and may be omitted. Also, other operations may be described.

次に、撮影条件は、利用する撮影データの条件であり、入力フィルタ群(InputFilters)として記述される(20行目)。この撮影条件による判定も、広義では前提条件を満たした結果の動作であるが、ここでは判定を行うことを明確に示すために動作(Do)と分けて記述される。   Next, shooting conditions are conditions of shooting data to be used, and are described as an input filter group (InputFilters) (line 20). The determination based on the photographing condition is also an operation as a result of satisfying the precondition in a broad sense, but here, it is described separately from the operation (Do) in order to clearly indicate that the determination is performed.

この例における右折確認用の入力フィルタは、1つのフィルタ(Filter)から成り、判定は撮影データにおける撮影空間が指定領域(area)内に一部でも入っている場合(enter)とする(21行目)。指定領域は、自車座標系を使った矩形(Rectangle)で指定され、車両中心軸より右折方向を主に示す車両前方領域が指定されている(22行目)。なお、指定領域は、楕円等の指定でも良い。また、入力フィルタは、「前提条件を満たして以後20秒間に、進行すると思われる推定進路に対し、右側5mの幅の領域」や「近隣の交差点を中心とする半径10mの領域」というような複雑な条件として記述されても良い。   The input filter for right turn confirmation in this example consists of one filter (Filter), and the determination is made when the shooting space in the shooting data is at least partially within the designated area (enter) (line 21). Eye). The designated area is designated by a rectangle (Rectangle) using the host vehicle coordinate system, and a vehicle front area mainly indicating the right turn direction from the vehicle center axis is designated (line 22). The designated area may be designated as an ellipse. In addition, the input filter may be, for example, “a region having a width of 5 m on the right side with respect to an estimated route expected to travel in 20 seconds after the precondition is satisfied” or “a region having a radius of 10 m centering on a nearby intersection”. It may be described as a complex condition.

次に、その他の前提条件の具体例について説明する。   Next, specific examples of other preconditions will be described.

判定に利用できる状態データが多いほど、それらを用いた複雑な条件データを定義することが可能である。例えば「暗いが人通りが多い」、「過去に事故が多発している」等の前提条件を用いて、利用する撮影データの制御等を行うことができる。   The more state data that can be used for determination, the more complex condition data can be defined using them. For example, it is possible to control the photographing data to be used by using preconditions such as “dark but heavy traffic” and “having many accidents in the past”.

まず、「暗いが人通りが多い」を示す前提条件の定義について説明する。ここで、「暗い」とは、自車で測定した照度値が所定の閾値以下である場合を表し、「人通りが多い」とは、自車の位置が地図情報における用途地域指定により商業地域とされている場合を表す。図3は、本実施の形態に係る複雑な前提条件の第1の例を示すXML表記である。この図において、この1行目は、2つのConditionの両方がOKである(all)場合に、この前提条件を満たすと判定されることを表す。2行目は、第1のConditionとして、自車における照度が次のDataの値以下である場合を表す。3行目は、Dataとして、luminance(照度)が30 lx(ルクス)であることを表す。5行目は、第2のConditionとして、周辺の地域種別が次のDataの値である場合を表す。6行目は、Dataとして、zoning(用途地域)がCommercial Zone(商業地域)であることを表す。   First, the definition of the precondition indicating “dark but heavy traffic” will be described. Here, “dark” means that the illuminance value measured by the own vehicle is below a predetermined threshold, and “a lot of traffic” means that the location of the own vehicle is a commercial area according to the use area designation in the map information Represents the case. FIG. 3 is an XML notation showing a first example of a complicated precondition according to the present embodiment. In this figure, the first line represents that it is determined that this precondition is satisfied when both of the two conditions are OK (all). The second line represents a case where the illuminance in the vehicle is equal to or less than the next Data value as the first condition. The third line indicates that the luminance is 30 lx (lux) as Data. The fifth line represents the case where the surrounding area type is the next Data value as the second condition. The sixth line indicates that, as Data, zoning (use area) is Commercial Zone (commercial area).

次に、「過去に事故が多発している」を示す前提条件の定義について説明する。ここでは、国土交通省や各警察本部等により調査された交通事故発生頻度の情報が、予め地図情報に含められる。図4は、本実施の形態に係る複雑な前提条件の第2の例を示すXML表記である。1行目は、次のConditionがOKである場合に、この前提条件を満たすと判定されることを表す。2行目は、Conditionとして、地図情報における交通事故発生頻度が次のDataの値以上であることを表す。3行目は、Dataとして、TAFR(Traffic Accident Frequency Rate:交通事故発生頻度)が170[件/平方km]であることを表す。なお、この例では、交通事故発生頻度を用いたが、子供の事故、高齢者の事故、自動二輪の事故などの詳細なデータも存在するため、これらを用いても良い。   Next, a definition of a precondition indicating “a number of accidents in the past” will be described. Here, information on the frequency of occurrence of traffic accidents investigated by the Ministry of Land, Infrastructure, Transport and Tourism or each police headquarters is included in the map information in advance. FIG. 4 is an XML notation showing a second example of a complicated precondition according to the present embodiment. The first line represents that it is determined that the precondition is satisfied when the next condition is OK. The second line represents, as Condition, that the frequency of traffic accidents in the map information is equal to or greater than the next Data value. The third line indicates that TAFR (Traffic Accident Frequency Rate) is 170 [cases / square km] as Data. In this example, the frequency of occurrence of traffic accidents is used, but detailed data such as child accidents, elderly accidents, motorcycle accidents, and the like exist, and these may be used.

次に、その他の撮影条件の具体例について説明する。   Next, specific examples of other imaging conditions will be described.

まず、撮影メタデータと撮影条件に、撮影画像データのコーデック種別を用いる場合について説明する。図5は、本実施の形態に係る撮影画像データのコーデック種別を利用した撮影条件の一例を示すXML表記である。この撮影条件に従って撮影条件判定部16は、コーデック種別が“video/mpeg4”であるか否かの判断を行うものである。コーデック種別は、MIME−TYPEを利用して記述されている。撮影メタデータがこの撮影条件を満たす場合、撮影画像データのデコードが可能であるため、演算部17の入力となる。一方、撮影メタデータがこの撮影条件を満たさない場合、撮影画像データのデコードが不可能であるため、演算部17の入力として使われない。   First, a case where the codec type of the photographed image data is used for the photographing metadata and the photographing conditions will be described. FIG. 5 is an XML notation showing an example of shooting conditions using the codec type of the shot image data according to the present embodiment. In accordance with this shooting condition, the shooting condition determination unit 16 determines whether or not the codec type is “video / mpeg4”. The codec type is described using MIME-TYPE. When the shooting metadata satisfies this shooting condition, the shot image data can be decoded, and thus becomes an input to the calculation unit 17. On the other hand, if the shooting metadata does not satisfy this shooting condition, the shot image data cannot be decoded and is not used as an input to the calculation unit 17.

このXML表記において、2行目は、Filterとして、次のDataの値に合致する場合であることを表す。3行目は、Dataとして、codecがvideo/mpeg4であることを表す。   In this XML notation, the second line represents a case where it matches the value of the next Data as a Filter. The third line indicates that codec is video / mpeg4 as Data.

また、MIME−TYPEは、XMLとの親和性が高く、様々なデータ種別の表記が可能である。しかし、MIME−TYPEは、テキストで処理されるため、無線送受信のデータを圧縮する必要がある場合、予め規定されたバイナリ符号化コードやWBXML(Wireless Binary XML)等によりMIME−TYPEが圧縮されたものを利用しても良い。   MIME-TYPE has a high affinity with XML and can represent various data types. However, since MIME-TYPE is processed as text, when it is necessary to compress wireless transmission / reception data, MIME-TYPE is compressed with a predefined binary encoded code, WBXML (Wireless Binary XML), or the like. You may use things.

次に、撮影メタデータと撮影条件に、撮影画像データのフレームレートを用いる場合について説明する。このとき、演算部17は、フレームレートからフレーム間の撮影時刻の差を取得することができる。例えば、演算部17が無線カメラ2の移動速度と撮影時刻の差を取得することにより、移動する無線カメラ2の撮影位置の差(移動距離)を算出することができる。演算部17は、この移動距離とこの移動の前後の2つの画像を用いてステレオカメラを実現することができる。   Next, a case where the frame rate of the photographed image data is used for photographing metadata and photographing conditions will be described. At this time, the calculation unit 17 can obtain the difference in the photographing time between frames from the frame rate. For example, when the calculation unit 17 acquires the difference between the moving speed of the wireless camera 2 and the shooting time, the difference (moving distance) of the shooting position of the moving wireless camera 2 can be calculated. The computing unit 17 can realize a stereo camera using the moving distance and two images before and after the moving.

次に、撮影メタデータと撮影条件に、撮影画像データの画像種別を用いる場合について説明する。図6は、本実施の形態に係る撮影画像データの画像種別を利用した撮影条件の一例を示すXML表記である。この撮影条件に従って撮影条件判定部16は、画像種別が近赤外光(450〜800nm)または可視光であるか否かの判断を行うものである。撮影メタデータがこの撮影条件を満たす場合、演算部17の入力となる。一方、撮影メタデータがこの撮影条件を満たさない場合(遠赤外画像など)、演算部17の入力として使われない。   Next, a case where the image type of the photographed image data is used for the photographing metadata and photographing conditions will be described. FIG. 6 is an XML notation showing an example of shooting conditions using the image type of the shot image data according to the present embodiment. In accordance with the imaging conditions, the imaging condition determination unit 16 determines whether the image type is near infrared light (450 to 800 nm) or visible light. When the shooting metadata satisfies this shooting condition, the calculation unit 17 inputs. On the other hand, when the shooting metadata does not satisfy this shooting condition (such as a far-infrared image), it is not used as an input to the calculation unit 17.

このXML表記において、1行目は、2つのFilterのうち少なくとも一方がOKである(alternative)場合に、この撮影条件を満たすと判定されることを表す。2行目は、第1のFilterとして、次のDataの値に合致する場合であることを表す。3行目は、Dataとして、光線種別(Ray)が赤外光(IR)であることを表す。4行目は、Dataとして、最短波長(WLMin)が450nmであることを表す。5行目は、Dataとして、最長波長(WLMax)が800nmであることを表す。8行目は、Dataとして、光線種別(Ray)が可視光(Visible)であることを表す。このような撮影条件を用いることにより、撮影条件判定部16は、利用する無線カメラ2として、通常の可視光カメラと夜間等に用いる赤外光カメラを、同様に利用したり、選択したりすることが可能となる。   In this XML notation, the first line indicates that it is determined that this imaging condition is satisfied when at least one of the two filters is OK (alternative). The second line indicates that the first filter matches the next Data value. The third line indicates that the type of light (Ray) is infrared light (IR) as Data. The fourth line represents that the shortest wavelength (WLMin) is 450 nm as Data. The fifth line represents that the longest wavelength (WLMax) is 800 nm as Data. The eighth line indicates that the type of light (Ray) is visible light (Visible) as Data. By using such shooting conditions, the shooting condition determination unit 16 similarly uses or selects a normal visible light camera and an infrared light camera used at night as the wireless camera 2 to be used. It becomes possible.

次に、撮影メタデータと撮影条件に、無線カメラ2が自車に搭載されたものであることを示す情報を用いる場合について説明する。複数の無線カメラ2は、自車に搭載され、撮影画像データのフレーム毎の撮影メタデータに、自車カメラであることを示す情報を含める。従って、画像処理装置1は、自車、他車、環境における無線カメラ2からの撮影データを同じ枠組みで統一された画像処理に利用することができる。   Next, a case will be described in which information indicating that the wireless camera 2 is mounted on the own vehicle is used as shooting metadata and shooting conditions. The plurality of wireless cameras 2 are mounted on the host vehicle and include information indicating that the camera is the host vehicle in shooting metadata for each frame of the shot image data. Therefore, the image processing apparatus 1 can use image data from the wireless camera 2 in the own vehicle, other vehicles, and the environment for image processing unified in the same framework.

条件データ記憶部13における撮影条件は、例えば、自車カメラの撮影データを他のカメラの撮影データより画像処理の優先度を高くする、自車カメラの撮影データだけは撮影データ判定部16による判定を省いて常に画像処理に利用する、などとすることにより、自車カメラの撮影データを他と簡単に区別して特別扱いすることができる。従って、自車の周辺状況を最もよく撮影することの多い自車カメラの撮影データの重要性に配慮したシステム構成を実現できる。このように、自車、他車、環境における無線カメラを統一的に扱うことができると、車両購入者が後で自由に自車の無線カメラ2を買い足しまたは買い替えてカスタマイズすることも可能になり、より自由に多くの画像処理素材を取得することが可能になる。   The shooting conditions in the condition data storage unit 13 are, for example, that the shooting data of the own vehicle camera is given higher priority for image processing than the shooting data of other cameras. By omitting this and always using it for image processing, it is possible to easily distinguish the shooting data of the own vehicle camera from the others and treat them specially. Therefore, it is possible to realize a system configuration that takes into account the importance of the shooting data of the own vehicle camera, which often captures the situation around the own vehicle. Thus, if the wireless cameras in the own vehicle, other vehicles, and the environment can be handled in a unified manner, the vehicle purchaser can later freely purchase or customize the wireless camera 2 of the own vehicle and customize it. Thus, it becomes possible to acquire more image processing materials more freely.

また、撮影データの取捨選択を演算部17に一任することし、演算部17へ撮影データを受け渡すタイミングのみを制御するための前提条件のみが記述され、前提条件を満たした後の動作や入力フィルタ群が記述されなくても良い。また、複雑な前提条件の指定として、前提条件を満たした後、詳細な状態を把握するために自車に設置されたセンサを起動させ、そのセンサから得られるデータを用いてもう一度前提条件の判定を行うというように、前提条件とその後の動作が入れ子となり、前提条件の一部に動作を含む構造として記述されても良い。   Further, by leaving the selection of shooting data to the calculation unit 17, only preconditions for controlling only the timing of transferring the shooting data to the calculation unit 17 are described, and operations and inputs after the preconditions are satisfied. The filter group may not be described. In addition, as a complicated precondition specification, after the precondition is satisfied, the sensor installed in the vehicle is activated to grasp the detailed state, and the precondition determination is performed again using the data obtained from the sensor. As described above, the precondition and the subsequent operation may be nested, and may be described as a structure including the operation as a part of the precondition.

前提条件判定部15は、自車の走行情報を始めとする状態データを条件データと照合し、現在の状態が前提条件に合致するか否かを判定する(S42)。また、前提条件判定部15は、判定結果により、無線通信部11の制御を行ったり、自車における他の装置の制御、例えば、より詳細な現状判定のために必要となる自車センサの起動を行ったりする。   The precondition determination unit 15 collates state data including the traveling information of the own vehicle with the condition data, and determines whether or not the current state matches the precondition (S42). The precondition determination unit 15 controls the wireless communication unit 11 according to the determination result, or controls other devices in the vehicle, for example, activation of the vehicle sensor necessary for more detailed current state determination. Or do.

撮影条件判定部16は、受信した撮影データに含まれる撮影メタデータを条件データと照合し、画像処理に利用する撮影データの選択を行う(S43)。例えば図2の条件データの場合、撮影条件判定部16は、状態データに含まれる自車の現在の状態において、右にハンドルを切る操作やウィンカー右折指示があるかを調べ、右折確認サービスの前提条件(PreConditions)が満たされたとみなし、自車の現在位置と進行速度を用いて、撮影条件(InputFilters)として記載された右折に関係しそうな位置領域(area)を求める。   The shooting condition determining unit 16 compares shooting metadata included in the received shooting data with the condition data, and selects shooting data to be used for image processing (S43). For example, in the case of the condition data in FIG. 2, the imaging condition determination unit 16 checks whether there is an operation to turn the steering wheel to the right or a turn signal right turn instruction in the current state of the host vehicle included in the state data, and assumes a right turn confirmation service. It is assumed that the condition (PreConditions) is satisfied, and the position area (area) that is likely to be related to the right turn described as the shooting condition (InputFilters) is obtained using the current position and traveling speed of the host vehicle.

次に、撮影条件判定部16は、無線通信部11により無線受信された撮影メタデータにおける撮影空間を上記位置領域(area)と比較できるように座標系を揃え、撮影空間が位置領域内に一部でも入るか否かを調べることで、撮影条件を満たす撮影データか否かを判定し、満たすと判定されたデータのみを演算部17へ送る。   Next, the shooting condition determination unit 16 aligns the coordinate system so that the shooting space in the shooting metadata wirelessly received by the wireless communication unit 11 can be compared with the position area (area), and the shooting space is within the position area. By checking whether or not the data is included, it is determined whether or not the photographing data satisfies the photographing condition, and only the data determined to satisfy the photographing data is sent to the calculation unit 17.

次に、前提条件判定部15と撮影条件判定部16の詳細な動作について説明する。   Next, detailed operations of the precondition determination unit 15 and the imaging condition determination unit 16 will be described.

図7は、本実施の形態に係る前提条件判定部15と撮影条件判定部16の詳細な動作の一例を示すフローチャートである。ここでは、図2の利用条件データを用いて説明する。   FIG. 7 is a flowchart illustrating an example of detailed operations of the precondition determination unit 15 and the imaging condition determination unit 16 according to the present embodiment. Here, description will be made using the use condition data of FIG.

まず、前提条件判定部15は、条件データにおいて、次のServiceDataがあるか否かの判断を行う(S11)。次のServiceDataがない場合(S11,NO)、このフローは終了する。一方、次のServiceDataがある場合(S11,YES)、前提条件判定部15は、該当ServiceData内にPreCondition(前提条件)があるか否かの判断を行う(S12)。PreConditionがない場合(S12,NO)、処理S14へ移行する。一方、PreConditionがある場合(S12,YES)、前提条件判定部15は、PreConditionを満たすか否かの判断を行う(S13)。この条件データの例の場合、前提条件判定部15は、PreCondition内のCondition群のうち、どれか一つ(右ハンドル操作角が0.1操作単位以上である、右ウィンカーを操作した)を満たす(alternative)か否かの判断を行う。   First, the precondition determining unit 15 determines whether or not there is the next ServiceData in the condition data (S11). If there is no next ServiceData (S11, NO), this flow ends. On the other hand, when there is the next ServiceData (S11, YES), the precondition determining unit 15 determines whether or not PreCondition (precondition) is present in the ServiceData (S12). When there is no PreCondition (S12, NO), the process proceeds to S14. On the other hand, when there is PreCondition (S12, YES), the precondition determining unit 15 determines whether or not PreCondition is satisfied (S13). In the case of this example of condition data, the precondition determining unit 15 satisfies one of the condition groups in PreCondition (the right steering wheel has an operation angle of 0.1 operation unit or more and the right winker is operated). It is determined whether or not (alternative).

PreConditionを満たさない場合(S13,NO)、処理S11へ移行する。一方、PreConditionを満たす場合(S13,YES)、前提条件判定部15は、Do(実行項目)があるか否かの判断を行う(S14)。Doがない場合(S14,NO)、処理S21へ移行する。一方、Doがある場合(S14,YES)、前提条件判定部15は、Doの内容(自車の無線通信部を起動)を実行する(S15)。   When PreCondition is not satisfied (S13, NO), the process proceeds to S11. On the other hand, when PreCondition is satisfied (S13, YES), the precondition determining unit 15 determines whether there is Do (execution item) (S14). If there is no Do (S14, NO), the process proceeds to S21. On the other hand, when there is Do (S14, YES), the precondition determination unit 15 executes the contents of Do (activates the wireless communication unit of the vehicle) (S15).

次に、撮影条件判定部16は、無線通信部11が稼働中、かつ、受信した撮影画像データの次のフレームがあるか否かの判断を行う(S21)。無線通信部11が稼働中でない、または、次のフレームがない場合(S21,NO)、処理S11へ移行する。一方、無線通信部11が稼働中、かつ、次のフレームがある場合(S21,YES)、撮影条件判定部16は、次のフレームを取得し(S22)、InputFilters(撮影条件)があるか否かの判断を行う(S23)。   Next, the shooting condition determination unit 16 determines whether the wireless communication unit 11 is in operation and there is a next frame of the received shot image data (S21). When the wireless communication unit 11 is not in operation or there is no next frame (S21, NO), the process proceeds to step S11. On the other hand, when the wireless communication unit 11 is in operation and there is a next frame (S21, YES), the imaging condition determination unit 16 acquires the next frame (S22), and whether there is an InputFilter (imaging condition). Is determined (S23).

InputFiltersがない場合(S23,NO)、処理S27へ移行する。一方、InputFiltersがある場合(S23,YES)、撮影条件判定部16は、該当フレームを撮影した無線カメラ2を表す撮影カメラID(該当フレームの撮影メタデータに撮影カメラIDが含まれている場合)が既に撮影条件の判定済みであるか否かの判断を行う(S24)。判定済みでない場合や撮影カメラIDが不明の場合(S24,NO)、処理S26へ移行する。一方、判定済みである場合(S24,YES)、撮影条件判定部16は、その判定結果がOKであった(撮影条件を満たした)か否かの判断を行う(S25)。   When there is no InputFilters (S23, NO), the process proceeds to S27. On the other hand, when InputFilters are present (S23, YES), the shooting condition determination unit 16 takes a shooting camera ID representing the wireless camera 2 that shot the corresponding frame (when the shooting metadata is included in the shooting metadata of the corresponding frame). It is determined whether or not the shooting conditions have already been determined (S24). When it is not determined or when the photographing camera ID is unknown (S24, NO), the process proceeds to S26. On the other hand, if it is determined (S24, YES), the imaging condition determination unit 16 determines whether or not the determination result is OK (the imaging condition is satisfied) (S25).

ここでは、無線カメラ2が、撮影画像データのフレーム毎の撮影メタデータに、自己のカメラIDを含めている。フレーム毎の撮影メタデータとして、同一の無線カメラ2で撮影したことを示すカメラIDを付随することにより、撮影条件判定部16は、明らかに利用しない位置にある固定カメラからのデータを省くことができる。また、撮影条件判定部16は、自車の位置変化がなく(停止中等)、撮影空間が変化しない固定カメラからの撮影データを受信する場合、その撮影空間を使った判定を一度行うだけで良く、以後はその判定結果を使いまわして計算を省くことができる。従って、撮影メタデータにカメラIDを含めることにより、判定や計算のコストを低減することが可能となる。   Here, the wireless camera 2 includes its own camera ID in the shooting metadata for each frame of the shot image data. By attaching a camera ID indicating that the image is captured by the same wireless camera 2 as shooting metadata for each frame, the shooting condition determination unit 16 can omit data from a fixed camera that is obviously not used. it can. Further, when receiving photographing data from a fixed camera in which the position of the own vehicle does not change (such as when stopped) and the photographing space does not change, the photographing condition determination unit 16 only needs to make a determination using the photographing space once. Thereafter, calculation can be omitted by reusing the determination result. Therefore, it is possible to reduce the cost of determination and calculation by including the camera ID in the shooting metadata.

NGであった場合(S25,NO)、処理S21へ移行する。一方、処理OKであった場合(S25,YES)、処理S27へ移行する。撮影条件判定部16は、該当フレームがInputFiltersを満たすか否かの判断を行う(S26)。この条件データの例の場合、InputFilters内のFilter群(該当フレームの撮影空間の一部が、現在の自車重心位置を原点とする自車座標系MyCarCoord1上で前右方30m×20mのエリア内に入る)を全て(all)満たすか否かの判断を行う。同時に、この判断結果が、明らかに同じカメラの撮影データに対してずっと適用可能なものであれば、判定済みとしてカメラIDを保存しておく。   If it is NG (S25, NO), the process proceeds to S21. On the other hand, if the process is OK (S25, YES), the process proceeds to process S27. The shooting condition determination unit 16 determines whether or not the corresponding frame satisfies InputFilters (S26). In the case of this example of condition data, a filter group in InputFilters (a part of the shooting space of the corresponding frame is within an area of 30 m × 20 m on the front right side on the own vehicle coordinate system MyCarCoord1 having the current vehicle center of gravity position as the origin. It is determined whether all (all) are satisfied. At the same time, if the determination result is clearly applicable to the shooting data of the same camera, the camera ID is stored as determined.

InputFiltersを満たさない場合(S26,NO)、処理S21へ移行する。一方、InputFiltersを満たす場合(S26,YES)、撮影条件判定部16は、該当フレームを演算部17へ渡し(S27)、処理S11へ移行する。   When InputFilters are not satisfied (S26, NO), the process proceeds to S21. On the other hand, when the InputFilters are satisfied (S26, YES), the imaging condition determination unit 16 passes the corresponding frame to the calculation unit 17 (S27), and proceeds to processing S11.

次に、前提条件判定部15と撮影条件判定部16の具体的な動作の一例について説明する。   Next, an example of specific operations of the precondition determination unit 15 and the shooting condition determination unit 16 will be described.

図8は、本実施の形態に係る交差点の第1の例を示す平面図である。この図は、無線カメラ2a,2bが交差点毎に設置され、それぞれ撮影空間22a,22bを撮影し、撮影データとして無線送信する場合を示す。   FIG. 8 is a plan view showing a first example of an intersection according to the present embodiment. This figure shows a case where wireless cameras 2a and 2b are installed at each intersection, photographing the photographing spaces 22a and 22b, respectively, and wirelessly transmitting them as photographing data.

まず、前提条件判定部15は、ハンドル操作またはウィンカ操作から自車の右折動作を検知し、図2の前提条件を満たすことを確認し、右折確認サービスの起動を検知する。次に、撮影条件判定部16は、検知した現在位置から右折確認用の撮影データの撮影条件である、検知位置を原点とする矩形領域、すなわち図8に示す撮影条件領域21を計算する。ここで、無線通信部11は、無線カメラ2a,2bからそれぞれの撮影データを受信したとする。撮影条件判定部16は、撮影メタデータに含まれる撮影空間22a,22bが、それぞれ撮影条件領域21に入るか否かを幾何計算し、無線カメラ2bによる撮影空間2bのみが該当すると判定し、無線カメラ2bからの撮影データを演算部17へ渡す。   First, the precondition determination unit 15 detects the right turn motion of the host vehicle from the steering wheel operation or the winker operation, confirms that the preconditions of FIG. 2 are satisfied, and detects the start of the right turn confirmation service. Next, the shooting condition determination unit 16 calculates a rectangular area having the detected position as the origin, that is, the shooting condition area 21 shown in FIG. 8, which is the shooting condition of the shooting data for right turn confirmation from the detected current position. Here, it is assumed that the wireless communication unit 11 receives the respective shooting data from the wireless cameras 2a and 2b. The shooting condition determination unit 16 geometrically calculates whether or not the shooting spaces 22a and 22b included in the shooting metadata enter the shooting condition area 21, respectively, determines that only the shooting space 2b by the wireless camera 2b is applicable, and wirelessly. The photographing data from the camera 2b is passed to the calculation unit 17.

次に、演算部17について説明する。   Next, the calculation unit 17 will be described.

演算部17は、撮影条件判定部16から渡された撮影データを用いて所定の演算を行い(S44)、演算結果を通知部18に渡し、運転者に通知させる(S45)。通知部18は、演算部17から渡された表示画像の表示を行ったり、警告の音声を再生したりすることで、運転者へ通知を行う。ここで、画像処理の例について説明する。   The calculation unit 17 performs a predetermined calculation using the shooting data passed from the shooting condition determination unit 16 (S44), passes the calculation result to the notification unit 18, and notifies the driver (S45). The notification unit 18 notifies the driver by displaying the display image passed from the calculation unit 17 or reproducing a warning sound. Here, an example of image processing will be described.

図9は、本実施の形態に係る交差点の第2の例を示す平面図である。この図における自車3は、交差点で右折を行おうとしている。また、自車3の対向車両として、他車4a,4bが存在する。自車3にとって他車4aは他車4bによる死角に存在し、自車3の運転者から直接視認することができないものとする。また、この図に示す交差点の上方(信号機の位置など)に、真下方向を向く無線カメラ2cと斜め下方向を向く無線カメラ2dが設置され、それぞれ撮影空間22c,22dを撮影し、得られたそれぞれのフレーム23c,23dを撮影データとして無線送信する。図10は、本実施の形態に係るフレーム23cの一例を示す画像である。図11は、本実施の形態に係るフレーム23dの一例を示す画像である。   FIG. 9 is a plan view showing a second example of the intersection according to the present embodiment. The vehicle 3 in this figure is going to make a right turn at the intersection. In addition, there are other vehicles 4 a and 4 b as oncoming vehicles of the host vehicle 3. It is assumed that the other vehicle 4a exists in the blind spot of the other vehicle 4b for the own vehicle 3 and cannot be directly recognized by the driver of the own vehicle 3. In addition, a wireless camera 2c facing directly downward and a wireless camera 2d facing diagonally downward were installed above the intersection (the position of the traffic light, etc.) shown in this figure, and obtained by photographing the photographing spaces 22c and 22d, respectively. Each frame 23c, 23d is wirelessly transmitted as shooting data. FIG. 10 is an image showing an example of the frame 23c according to the present embodiment. FIG. 11 is an image showing an example of the frame 23d according to the present embodiment.

演算部17は、斜め上から撮影されたフレーム23dを真上から撮影されたフレーム24dに変換する。演算部17は、まず、無線カメラ2c,2dから受信した撮影画像データのフレームと撮影メタデータ(例えばカメラの仰角等)と用いて、フレーム23dに幾何変換(アフィン変換)を施し、目的のビュー(所定の位置と方向から見た画像)として交差点の真上からの俯瞰画像であるフレーム24dを生成する。図12は、本実施の形態に係るフレーム24dの一例を示す画像である。無線カメラ2cにより撮影されたフレーム23cはすでに真上からの俯瞰画像であるため、無線カメラ2dにより撮影されたフレーム23dのみが変換される。なお、演算部17は、更に、フレーム23c,24dの静止物除去(複数フレーム間の差分を取る、背景差分を取る等の既存の手法を用いる)を行っても良い。   The calculation unit 17 converts the frame 23d photographed from obliquely above into a frame 24d photographed from directly above. First, the calculation unit 17 performs geometric transformation (affine transformation) on the frame 23d using the frames of the captured image data received from the wireless cameras 2c and 2d and the captured metadata (for example, the elevation angle of the camera) to obtain the target view. A frame 24d that is an overhead image from right above the intersection is generated as (an image viewed from a predetermined position and direction). FIG. 12 is an image showing an example of the frame 24d according to the present embodiment. Since the frame 23c photographed by the wireless camera 2c is already an overhead image from directly above, only the frame 23d photographed by the wireless camera 2d is converted. In addition, the calculating part 17 may perform still object removal (it uses the existing methods, such as taking the difference between several frames, taking a background difference) of the frames 23c and 24d.

次に、演算部17は、フレーム23c,24dのサイズ変換や回転を行い、適切な順番で地図画面に重畳し、表示画面を生成し、通知部18に表示させる。図13は、地図画面の一例を示す画像である。ここで、矢印は、自車3の位置と方向を表す。ここで、演算部17は、撮影空間22c,22dが大きい(無線カメラ2c,2dのズーム倍率が低い)フレームから順に地図画面に重畳する、自車3から撮影空間22c,22dまでの距離が近いフレームから順に地図画面に重畳する等の処理を行う。図14は、本実施の形態に係る表示画面の一例を示す画像である。この図において、演算部17は、フレーム23c,24dを背景ごと地図画面に重畳したが、前述した静止物除去を行い、移動物体のみを重畳する、フレーム23c,24dを透過画像として重畳する等の処理を行っても良い。   Next, the computing unit 17 performs size conversion and rotation of the frames 23c and 24d, superimposes them on the map screen in an appropriate order, generates a display screen, and causes the notification unit 18 to display the display screen. FIG. 13 is an image showing an example of the map screen. Here, the arrows represent the position and direction of the vehicle 3. Here, the calculation unit 17 superimposes on the map screen in order from the frame in which the shooting spaces 22c and 22d are large (the zoom magnification of the wireless cameras 2c and 2d is low), and the distance from the own vehicle 3 to the shooting spaces 22c and 22d is short. Processing such as superimposing on the map screen in order from the frame is performed. FIG. 14 is an image showing an example of a display screen according to the present embodiment. In this figure, the calculation unit 17 superimposes the frames 23c and 24d on the map screen together with the background, but performs the above-mentioned stationary object removal, superimposes only the moving object, superimposes the frames 23c and 24d as a transmission image, etc. Processing may be performed.

次に、斜め上から見た画像を真上から見た画像に変換する処理(フレーム23dをフレーム24dに変換する処理)である俯瞰画像変換について説明する。   Next, overhead image conversion, which is processing for converting an image viewed obliquely from above into an image viewed from directly above (processing for converting frame 23d to frame 24d), will be described.

図15は、本実施の形態に係る俯瞰画像変換の一例を示す図である。図16は、本実施の形態に係る俯瞰画像変換の一例を示す式である。演算部17は、図15において高さHにある無線カメラ2g(画角θv及び焦点距離f)から水平俯角θで見下ろした画像上の点(x,y)は、図16中の第4式と第5式で示すような路面の位置(X、Y)にある点と対応する。図17は、本実施の形態に係る俯瞰画像変換の変換前画像の一例を示す画像である。図18は、本実施の形態に係る俯瞰画像変換の変換後画像の一例を示す画像である。図17のような斜め上から撮影されたフレーム内の全ての画素点は、図18のような真上から見た画像である台形領域内の点へと変換することができる。   FIG. 15 is a diagram illustrating an example of the overhead image conversion according to the present embodiment. FIG. 16 is an equation showing an example of the overhead image conversion according to the present embodiment. The calculation unit 17 indicates that the point (x, y) on the image looking down at the horizontal depression angle θ from the wireless camera 2g (view angle θv and focal length f) at the height H in FIG. And a point at the position (X, Y) of the road surface as shown in the fifth equation. FIG. 17 is an image showing an example of a pre-conversion image of the overhead view image conversion according to the present embodiment. FIG. 18 is an image showing an example of the converted image of the overhead view image conversion according to the present embodiment. All the pixel points in the frame photographed from diagonally above as shown in FIG. 17 can be converted into points in a trapezoidal area which is an image seen from directly above as shown in FIG.

上述したように、演算部17が、自車の周辺に存在する無線カメラ2の撮影データを素材として、撮影空間等に基づいて加工し、表示することにより、運転者は、自車周辺の状況を迅速に認識することができる。   As described above, the calculation unit 17 processes and displays the shooting data of the wireless camera 2 existing around the host vehicle based on the shooting space and the like, so that the driver can Can be recognized quickly.

なお、本実施の形態において演算部17は、複数の画像の重ね合わせを行ったが1つの画像だけを表示画像としても良い。また、演算部17は、アフィン変換以外の画像処理を行っても良い。また、同一の撮影空間を撮影した撮影データが同時に複数受信された場合、撮影メタデータに基づいて細かい部分まで写っている撮影画像データを画像処理に利用するなど、適切な撮影データを選択する撮影条件を定義しても良い。   In the present embodiment, the calculation unit 17 superimposes a plurality of images, but only one image may be used as a display image. In addition, the calculation unit 17 may perform image processing other than affine transformation. In addition, when multiple pieces of shooting data shot in the same shooting space are received at the same time, shooting that selects appropriate shooting data, such as using shot image data that shows a fine part based on shooting metadata for image processing Conditions may be defined.

また、演算部17は、撮影条件判定部16から渡された撮影データを用いて危険検知処理を行い、運転者に通知しても良い。ここで、危険検知処理の例について説明する。   Moreover, the calculating part 17 may perform a danger detection process using the imaging | photography data passed from the imaging condition determination part 16, and may notify a driver | operator. Here, an example of the danger detection process will be described.

図19は、本実施の形態に係る交差点の第3の例を示す平面図である。この図における自車3は、交差点で右折を行おうとしている。また、自車3の対向車両として、他車4a,4b,4eが存在する。自車3にとって他車4aは他車4bによる死角に存在し、自車3の運転者から直接視認することができないものとする。また、自車3から延びた三角形は、自車3の運転者による視認領域25と、視認領域25中の死角26を示す。図20は、本実施の形態に係る視認領域25の視認結果27の一例を示す画像である。この視認結果27において、他車4bだけが視認され、他車4aは視認されない。また、他車4eは、無線カメラ2eを搭載し、その無線カメラ2eで他車4a,4bを撮影できる位置に存在する。また、他車4eから延びた三角形は、無線カメラ2eにより撮影された撮影空間22eを示す。図21は、本実施の形態に係る撮影空間22eより得られたフレーム23eの一例を示す画像である。このフレーム23eにおいて、他車4a,4bの両方が撮影される。   FIG. 19 is a plan view showing a third example of the intersection according to the present embodiment. The vehicle 3 in this figure is going to make a right turn at the intersection. In addition, there are other vehicles 4a, 4b, 4e as oncoming vehicles of the host vehicle 3. It is assumed that the other vehicle 4a exists in the blind spot of the other vehicle 4b for the own vehicle 3 and cannot be directly recognized by the driver of the own vehicle 3. A triangle extending from the host vehicle 3 indicates a viewing area 25 by the driver of the host vehicle 3 and a blind spot 26 in the viewing area 25. FIG. 20 is an image showing an example of the visual recognition result 27 of the visual recognition area 25 according to the present embodiment. In this visual recognition result 27, only the other vehicle 4b is visually recognized, and the other vehicle 4a is not visually recognized. In addition, the other vehicle 4e is equipped with the wireless camera 2e, and is present at a position where the wireless camera 2e can photograph the other vehicles 4a and 4b. Moreover, the triangle extended from the other vehicle 4e shows the imaging | photography space 22e image | photographed with the wireless camera 2e. FIG. 21 is an image showing an example of the frame 23e obtained from the imaging space 22e according to the present embodiment. In this frame 23e, both the other vehicles 4a and 4b are photographed.

自車3の画像処理装置1は、無線カメラ2eにより送信された撮影データを受信する。演算部17は、まず、受信したフレーム23e中の物体の検出を行う。ここで、演算部17は、例えば、フレーム23e中の車のタイヤ等の特徴を用いて画像認識する。また、演算部17は、例えば、同一の無線カメラ2からの連続する複数のフレームを用いる場合、画像フローを比較して移動物体を検知する。   The image processing apparatus 1 of the own vehicle 3 receives the shooting data transmitted by the wireless camera 2e. The computing unit 17 first detects an object in the received frame 23e. Here, the calculation unit 17 recognizes an image using, for example, characteristics of a tire of a car in the frame 23e. For example, when using a plurality of continuous frames from the same wireless camera 2, the calculation unit 17 compares the image flows and detects a moving object.

その結果、フレーム23eにおいては、他車4a,4bが検出される。この検出結果と無線カメラ2eからの撮影メタデータ(無線カメラ2eのカメラの方向、画角)とを用いて、演算部17は、物体が存在する可能性のある領域である物体存在可能性領域を決定する。図22は、本実施の形態に係る物体存在可能性領域の例を示す平面図である。撮影空間22e中に、物体存在可能性領域28a,28bが決定される。また、撮影空間22e中にフレーム23eの画面位置29eを示す。物体存在可能性領域28a,28bは、画面位置29eにおける他車4a,4bの位置に射影される領域である。ここで、物体存在可能性領域28a,28bの奥行き(無線カメラ2eからの距離の範囲)は、無限遠としたが、実際の有効解像度及び被写体深度等を考慮し、有限の値としても良い。更に、演算部17は、自車3の視認領域25と物体存在可能性領域28aが重なる領域を交差領域30aとし、自車3の視認領域25と物体存在可能性領域28bが重なる領域を交差領域30bとする。   As a result, the other vehicles 4a and 4b are detected in the frame 23e. Using this detection result and shooting metadata from the wireless camera 2e (camera direction and angle of view of the wireless camera 2e), the calculation unit 17 can detect an object existence possibility area that is an area where an object may exist. To decide. FIG. 22 is a plan view showing an example of the object existence possibility area according to the present embodiment. Object existence possibility areas 28a and 28b are determined in the imaging space 22e. In addition, the screen position 29e of the frame 23e is shown in the shooting space 22e. The object existence possibility areas 28a and 28b are areas projected onto the positions of the other vehicles 4a and 4b at the screen position 29e. Here, the depth (range of distance from the wireless camera 2e) of the object existence possibility regions 28a and 28b is set to infinity, but may be a finite value in consideration of the actual effective resolution and the subject depth. Further, the calculation unit 17 sets an area where the visual recognition area 25 of the host vehicle 3 and the object existence possibility area 28a overlap as an intersection area 30a, and an area where the visual recognition area 25 of the host vehicle 3 overlaps with the object existence possibility area 28b as an intersection area. 30b.

次に、演算部17は、交差領域30a,30bが自車3の進行において危険な範囲に存在するか否かの判断を行う。例えば、演算部17は、自車3から交差領域30a,30bまで距離が所定の閾値より近い、交差領域30a,30bの一部が自車3の進行に関連する領域に重なる、などの条件を満たす場合、運転者に危険の通知を行う。   Next, the calculation unit 17 determines whether or not the intersection areas 30 a and 30 b are in a dangerous range in the travel of the host vehicle 3. For example, the calculation unit 17 sets conditions such that the distance from the own vehicle 3 to the intersection areas 30a and 30b is closer than a predetermined threshold, and a part of the intersection areas 30a and 30b overlaps with an area related to the progress of the own vehicle 3. If so, notify the driver of the danger.

従来、自車以外のカメラが撮影した画像は、自車において表示するためだけに用いられていた。また、危険の検知を行うための画像は、自車で撮影された画像だけであった。この危険検知処理によれば、自車、他車、環境などに設置された無線カメラ2からの撮影データを用いることができるため、危険を検知の精度を向上させることができる。   Conventionally, an image taken by a camera other than the own vehicle has been used only for display on the own vehicle. Moreover, the image for detecting the danger was only an image taken with the own vehicle. According to this danger detection process, it is possible to use shooting data from the wireless camera 2 installed in the own vehicle, another vehicle, the environment, etc., so that the accuracy of detecting the danger can be improved.

なお、無線カメラ2が、取得可能な情報と予め設定された条件を用いて、送信する撮影データの制御を行っても良い。取得可能な情報とは、例えば、無線カメラ2に設置されるセンサやGPSからの情報、画像認識による無線カメラ2の位置、姿勢、進行方向、速度等の走行状態、通信により得られる道路状況・周辺輝度・天候・周辺地図・適用規制・周辺車両状態・他カメラの無線通信状態などである。また、無線カメラ2は、取得可能な情報に基づいて、撮影の有無、撮影範囲、フレームレート、送信する撮影データ、動画像コーデック、無線送信の有無、無線送信強度等を決定する。   The wireless camera 2 may control the shooting data to be transmitted using the information that can be acquired and preset conditions. The information that can be acquired includes, for example, information from sensors and GPS installed in the wireless camera 2, traveling state such as the position, posture, traveling direction, and speed of the wireless camera 2 by image recognition, road conditions obtained by communication, It includes the surrounding brightness, weather, surrounding map, applicable regulations, surrounding vehicle status, and wireless communication status of other cameras. Further, the wireless camera 2 determines the presence / absence of photographing, the photographing range, the frame rate, the photographing data to be transmitted, the moving image codec, the presence / absence of wireless transmission, the wireless transmission strength, and the like based on the information that can be acquired.

この無線カメラ2によれば、例えば、夜間のみ撮影を行い無線送信する無線カメラ(時刻または周辺輝度情報から夜間を検知する)、周辺車両を検知した場合のみ精細な動画を送信する無線カメラ(無線カメラに設置されたセンサにより周辺車両を検知する、又は周辺車両自身からの位置の申告を集めたデータベースから周辺車両情報を得て周辺車両を検知する)、等を実現することができる。従って、無線カメラ2は、効率的に撮影データを送信することができる。   According to the wireless camera 2, for example, a wireless camera that captures and transmits wirelessly only at night (detects night from the time or surrounding luminance information), or a wireless camera that transmits a fine video only when a surrounding vehicle is detected (wireless It is possible to detect the surrounding vehicle by a sensor installed in the camera, or obtain the surrounding vehicle information from a database collecting the position reports from the surrounding vehicle itself to detect the surrounding vehicle). Therefore, the wireless camera 2 can efficiently transmit shooting data.

なお、画像処理装置1の全ての構成要素が1つの車両に存在していなくても良い。即時性は失われるが、演算部17がネットワークを経由した外部の装置内にあり、画像処理装置がネットワークを介して撮影データを演算部17に送信し、ネットワークを介して結果を受け取っても良い。また、状態データは、細かい項目毎に複数データに分けて別の場所に保持されても良いし、画像処理装置が必要な場合に外部のセンサなどにデータ値を問い合わせることにより、データベースとして保持しなくても良い。また、画像処理装置は、車両以外の移動体に搭載されても良い。   Note that all the components of the image processing apparatus 1 may not be present in one vehicle. Although the immediacy is lost, the calculation unit 17 may be in an external device via the network, and the image processing apparatus may transmit the shooting data to the calculation unit 17 via the network and receive the result via the network. . In addition, the status data may be stored in a separate location divided into a plurality of data for each fine item, or stored as a database by inquiring data values from an external sensor or the like when an image processing apparatus is required. It is not necessary. Further, the image processing apparatus may be mounted on a moving body other than the vehicle.

従来技術において、危険回避等の目的で、周辺の路車カメラ(固定監視、車等)により撮影された画像を受信して利用しようとすると、正確な撮影空間が分からず加工や利用ができない、送信側が加工画像を提供するための処理コスト(処理負荷、処理時間)が高すぎるという問題があった。   In the prior art, when trying to receive and use an image taken by a surrounding road camera (fixed surveillance, car, etc.) for the purpose of avoiding danger, the exact shooting space is not known and cannot be processed or used. There has been a problem that the processing cost (processing load, processing time) for the transmission side to provide the processed image is too high.

本実施の形態においては、撮影画像データと撮影メタデータとを撮影データとして無線送信するカメラと、近傍から送信された撮影データを受信し、撮影メタデータと自己の状態を用いてカメラ及び画像を選択利用する画像処理装置を提供する。従って、送信側が撮影画像データと共に撮影メタデータを送信するため、受信側で画像を自由に加工利用することが可能となる。また、受信側が加工を行うため、送信側の処理コストも低減し、負荷分散を実現できる。   In the present embodiment, a camera that wirelessly transmits captured image data and captured metadata as captured data, and received captured data transmitted from the vicinity, and the camera and image are captured using the captured metadata and its own state. An image processing apparatus for selective use is provided. Accordingly, since the transmission side transmits the photographing metadata together with the photographing image data, it is possible to freely process and use the image on the receiving side. Further, since processing is performed on the receiving side, processing cost on the transmitting side is reduced, and load distribution can be realized.

さらに、送信側は動画像という素材の提供に徹することができるので、加工アルゴリズムの誤りによる事故発生責任を考慮することなく、インフラとして道路に送信カメラを整備することができ、各地の道路への設置の実現性を高める。また、本発明を自車に搭載された無線カメラと自車内におけるサービスに適用することにより、個人で自由に自車の車載カメラ数や設置位置、撮影方向をカスタマイズして、自車内における高度なサービスを実現することができる。   Furthermore, since the transmitting side can concentrate on providing materials called moving images, it is possible to develop a transmission camera on the road as infrastructure without considering the responsibility for accidents caused by errors in the processing algorithm. Increase the feasibility of installation. In addition, by applying the present invention to the wireless camera installed in the vehicle and the service in the vehicle, the number of the on-vehicle cameras in the vehicle, the installation position, and the shooting direction can be freely customized by the individual. Service can be realized.

なお、送信ステップは、実施の形態における無線カメラ2の動作に対応する。また、受信ステップは、実施の形態における処理S41に対応する。また、状態取得ステップは、実施の形態における処理S46に対応する。また、判定ステップは、実施の形態における処理S42,S43に対応する。また、演算ステップは、実施の形態における処理S44に対応する。   Note that the transmission step corresponds to the operation of the wireless camera 2 in the embodiment. The reception step corresponds to step S41 in the embodiment. The state acquisition step corresponds to step S46 in the embodiment. The determination step corresponds to the processes S42 and S43 in the embodiment. The calculation step corresponds to step S44 in the embodiment.

また、本実施の形態に係る画像処理装置は、情報処理装置に容易に適用することができ、情報処理装置の性能をより高めることができる。ここで、情報処理装置には、例えばカーナビゲーションシステム、ECU(Electric Control Unit)等が含まれ得る。   Further, the image processing apparatus according to the present embodiment can be easily applied to the information processing apparatus, and can further improve the performance of the information processing apparatus. Here, the information processing apparatus may include, for example, a car navigation system, an ECU (Electric Control Unit), and the like.

更に、画像処理装置を構成するコンピュータにおいて上述した各ステップを実行させるプログラムを、画像処理プログラムとして提供することができる。上述したプログラムは、コンピュータにより読取り可能な記録媒体に記憶させることによって、画像処理装置を構成するコンピュータに実行させることが可能となる。ここで、上記コンピュータにより読取り可能な記録媒体としては、ROMやRAM等のコンピュータに内部実装される内部記憶装置、CD−ROMやフレキシブルディスク、DVDディスク、光磁気ディスク、ICカード等の可搬型記憶媒体や、コンピュータプログラムを保持するデータベース、或いは、他のコンピュータ並びにそのデータベースや、更に回線上の伝送媒体をも含むものである。   Furthermore, it is possible to provide a program that causes a computer constituting the image processing apparatus to execute the above steps as an image processing program. By storing the above-described program in a computer-readable recording medium, the computer constituting the image processing apparatus can be executed. Here, examples of the recording medium readable by the computer include an internal storage device such as a ROM and a RAM, a portable storage such as a CD-ROM, a flexible disk, a DVD disk, a magneto-optical disk, and an IC card. It includes a medium, a database holding a computer program, another computer and its database, and a transmission medium on a line.

(付記1) 外部から送信されるデータの演算を、移動体に設けられたコンピュータに実行させる画像処理プログラムであって、
外部のカメラにより撮影された画像である撮影画像データと該撮影画像データが撮影された状態に関する情報である撮影メタデータとからなる撮影データを受信する受信ステップと、
前記移動体の状態に関する情報である状態データを取得する状態取得ステップと、
予め設定された条件と前記受信ステップにより受信された撮影メタデータと前記状態取得ステップにより取得された状態データとに基づいて、前記受信ステップにより受信された撮影データを利用するか否かの判定を行う判定ステップと、
前記判定ステップにより利用すると判定された撮影データを用いて演算を行う演算ステップと
をコンピュータに実行させる画像処理プログラム。
(付記2) 付記1に記載の画像処理プログラムにおいて、
前記演算部は、前記撮影データ中の前記撮影メタデータに基づいて、該撮影データ中の撮影画像データの変換を行うことを特徴とする画像処理プログラム。
(付記3) 付記1または付記2に記載の画像処理プログラムにおいて、
前記演算部は、前記撮影データに基づいて、危険を検知することを特徴とする画像処理プログラム。
(付記4) 付記1乃至付記3のいずれかに記載の画像処理プログラムにおいて、
前記状態データは、前記移動体に設けられたセンサまたは外部との通信により得られる情報であり、前記移動体の移動状態、前記移動体の環境の状態の少なくともいずれかを含むことを特徴とする画像処理プログラム。
(付記5) 付記1乃至付記4のいずれかに記載の画像処理プログラムにおいて、
前記条件は、前記状態データの条件である前提条件と前記撮影メタデータの条件である撮影条件とを含み、
前記判定ステップは、前記状態データが前記前提条件を満たすか否かの判断を行い、前記状態データが前記前提条件を満たす場合、前記撮影条件を満たす前記撮影メタデータと該撮影メタデータに対応する撮影画像データとを用いて演算を行うことを特徴とする画像処理プログラム。
(付記6) 付記5に記載の画像処理プログラムにおいて、
前記撮影メタデータは、前記カメラが前記撮影画像データとして撮影した空間に関する情報である撮影空間情報を含み、
前記撮影条件は、利用する撮影データにおける前記撮影空間情報の条件を含むことを特徴とする画像処理プログラム。
(付記7) 付記5または付記6に記載の画像処理プログラムにおいて、
前記状態データは、前記移動体におけるユーザの操作の情報を含み、
前記前提条件は、所定の操作を含むことを特徴とする画像処理プログラム。
(付記8) 付記5に記載の画像処理プログラムにおいて、
前記撮影条件は、前記撮影メタデータに含まれたカメラのIDが前記移動体に設けられたカメラのIDであることを含むことを特徴とする画像処理プログラム。
(付記9) 付記5乃至付記8のいずれかに記載の画像処理プログラムにおいて、
前記撮影メタデータは、画像の種類を含み、
前記撮影条件は、利用する画像の種類の条件を含むことを特徴とする画像処理プログラム。
(付記10) 移動体に設けられ、外部から送信されるデータの演算を行う画像処理装置であって、
外部のカメラにより撮影された画像である撮影画像データと該撮影画像データが撮影された状態に関する情報である撮影メタデータとからなる撮影データを受信する受信部と、
前記移動体の状態に関する情報である状態データを取得する状態取得部と、
予め設定された条件と前記受信部により受信された撮影メタデータと前記状態取得部により取得された状態データとに基づいて、前記受信部により受信された撮影データを利用するか否かの判定を行う判定部と、
前記判定部により利用すると判定された撮影データを用いて演算を行う演算部と
を備える画像処理装置。
(付記11) 付記10に記載の画像処理装置において、
前記演算部は、前記撮影データ中の前記撮影メタデータに基づいて、該撮影データ中の撮影画像データの変換を行うことを特徴とする画像処理装置。
(付記12) 付記10または付記11に記載の画像処理装置において、
前記演算部は、前記撮影データに基づいて、危険を検知することを特徴とする画像処理装置。
(付記13) 付記10乃至付記12のいずれかに記載の画像処理装置において、
前記状態データは、前記移動体に設けられたセンサまたは外部との通信により得られる情報であり、前記移動体の移動状態、前記移動体の環境の状態の少なくともいずれかを含むことを特徴とする画像処理装置。
(付記14) 付記10乃至付記13のいずれかに記載の画像処理装置において、
前記条件は、前記状態データの条件である前提条件と前記撮影メタデータの条件である撮影条件とを含み、
前記判定部は、前記状態データが前記前提条件を満たすか否かの判断を行い、前記状態データが前記前提条件を満たす場合、前記撮影条件を満たす前記撮影メタデータと該撮影メタデータに対応する撮影画像データとを用いて演算を行うことを特徴とする画像処理装置。
(付記15) 付記14に記載の画像処理装置において、
前記撮影メタデータは、前記カメラが前記撮影画像データとして撮影した空間に関する情報である撮影空間情報を含み、
前記撮影条件は、利用する撮影データにおける前記撮影空間情報の条件を含むことを特徴とする画像処理装置。
(付記16) カメラから送信されるデータを用いた演算を移動体において行う画像処理方法であって、
前記カメラによって撮影された画像である撮影画像データと該撮影の状態に関する情報である撮影メタデータとからなる撮影データを受信する受信ステップと、
前記移動体の状態に関する情報である状態データを取得する状態取得ステップと、
予め設定された条件と前記受信ステップにより受信された撮影メタデータと前記状態取得ステップにより取得された状態データとに基づいて、前記受信ステップにより受信された撮影データを利用するか否かの判定を行う判定ステップと、
前記移動体において、前記判定ステップにより利用すると判定された撮影データを用いて演算を行う演算ステップと
を実行する画像処理方法。
(付記17) 付記16に記載の画像処理方法において、
前記受信する撮影データは、前記カメラに設置されたセンサまたは外部との通信により得られる情報に基づいて、前記撮影画像データの撮影または前記撮影データの送信の制御を前記カメラにより行われたデータであることを特徴とする画像処理方法。
(Supplementary Note 1) An image processing program for causing a computer provided in a moving body to execute calculation of data transmitted from the outside,
A reception step of receiving shooting data consisting of shooting image data that is an image shot by an external camera and shooting metadata that is information about a state in which the shooting image data was shot;
A state acquisition step of acquiring state data which is information relating to the state of the mobile body;
Judgment as to whether or not to use the shooting data received in the reception step based on preset conditions, the shooting metadata received in the reception step and the state data acquired in the state acquisition step. A determination step to be performed;
An image processing program that causes a computer to execute an operation step that performs an operation using imaging data determined to be used in the determination step.
(Appendix 2) In the image processing program described in Appendix 1,
The image processing program characterized in that the arithmetic unit converts photographed image data in the photographed data based on the photographed metadata in the photographed data.
(Appendix 3) In the image processing program described in Appendix 1 or Appendix 2,
The image processing program, wherein the calculation unit detects a danger based on the photographing data.
(Supplementary Note 4) In the image processing program according to any one of Supplementary Notes 1 to 3,
The state data is information obtained by communication with a sensor provided in the moving body or the outside, and includes at least one of a moving state of the moving body and an environmental state of the moving body. Image processing program.
(Supplementary Note 5) In the image processing program according to any one of Supplementary Notes 1 to 4,
The condition includes a precondition that is a condition of the state data and a shooting condition that is a condition of the shooting metadata.
The determination step determines whether or not the state data satisfies the precondition, and if the state data satisfies the precondition, corresponds to the shooting metadata and the shooting metadata that satisfy the shooting condition. An image processing program for performing calculation using photographed image data.
(Appendix 6) In the image processing program described in Appendix 5,
The shooting metadata includes shooting space information that is information about a space shot by the camera as the shot image data.
The image processing program characterized in that the shooting condition includes a condition of the shooting space information in shooting data to be used.
(Appendix 7) In the image processing program described in Appendix 5 or Appendix 6,
The state data includes information on user operations on the mobile object,
The image processing program characterized in that the precondition includes a predetermined operation.
(Supplementary note 8) In the image processing program described in supplementary note 5,
The image processing program characterized in that the shooting condition includes that an ID of a camera included in the shooting metadata is an ID of a camera provided in the moving body.
(Supplementary note 9) In the image processing program according to any one of supplementary notes 5 to 8,
The shooting metadata includes an image type,
The image processing program characterized in that the photographing condition includes a condition of a type of image to be used.
(Additional remark 10) It is an image processing apparatus which is provided in a mobile body and performs the calculation of the data transmitted from the outside,
A receiving unit that receives shooting data including shooting image data that is an image shot by an external camera and shooting metadata that is information about a state in which the shooting image data is shot;
A state acquisition unit that acquires state data that is information relating to the state of the mobile body;
Judgment as to whether or not to use shooting data received by the receiving unit based on preset conditions, shooting metadata received by the receiving unit and state data acquired by the state acquiring unit A determination unit to perform;
An image processing apparatus comprising: an arithmetic unit that performs an operation using photographing data determined to be used by the determination unit.
(Supplementary note 11) In the image processing apparatus according to supplementary note 10,
The image processing apparatus, wherein the arithmetic unit converts photographed image data in the photographing data based on the photographing metadata in the photographing data.
(Supplementary Note 12) In the image processing apparatus according to Supplementary Note 10 or Supplementary Note 11,
The image processing apparatus, wherein the calculation unit detects a danger based on the photographing data.
(Supplementary note 13) In the image processing device according to any one of supplementary notes 10 to 12,
The state data is information obtained by communication with a sensor provided on the moving body or the outside, and includes at least one of a moving state of the moving body and an environmental state of the moving body. Image processing device.
(Supplementary Note 14) In the image processing apparatus according to any one of Supplementary Notes 10 to 13,
The condition includes a precondition that is a condition of the state data and a shooting condition that is a condition of the shooting metadata.
The determination unit determines whether or not the state data satisfies the precondition, and if the state data satisfies the precondition, corresponds to the shooting metadata and the shooting metadata that satisfy the shooting condition. An image processing apparatus that performs a calculation using photographed image data.
(Supplementary Note 15) In the image processing apparatus according to Supplementary Note 14,
The shooting metadata includes shooting space information that is information about a space shot by the camera as the shot image data.
The image processing apparatus characterized in that the shooting condition includes a condition of the shooting space information in shooting data to be used.
(Supplementary Note 16) An image processing method for performing a calculation using data transmitted from a camera in a moving body,
A receiving step of receiving shooting data including shooting image data that is an image shot by the camera and shooting metadata that is information relating to the shooting state;
A state acquisition step of acquiring state data which is information relating to the state of the mobile body;
Judgment as to whether or not to use the imaging data received in the reception step based on preset conditions, the imaging metadata received in the reception step and the status data acquired in the status acquisition step. A determination step to be performed;
An image processing method for executing, in the moving body, a calculation step of performing calculation using photographing data determined to be used in the determination step.
(Supplementary note 17) In the image processing method according to supplementary note 16,
The received photographing data is data obtained by controlling the photographing of the photographing image data or the transmission of the photographing data based on information obtained by communication with a sensor installed in the camera or the outside. An image processing method comprising:

本実施の形態に係る画像処理装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the image processing apparatus which concerns on this Embodiment. 本実施の形態に係る条件データの一例を示すXML表記である。It is XML description which shows an example of the condition data which concern on this Embodiment. 本実施の形態に係る複雑な前提条件の第1の例を示すXML表記である。It is XML description which shows the 1st example of the complicated precondition which concerns on this Embodiment. 本実施の形態に係る複雑な前提条件の第2の例を示すXML表記である。It is XML description which shows the 2nd example of the complicated precondition which concerns on this Embodiment. 本実施の形態に係る撮影画像データのコーデック種別を利用した撮影条件の一例を示すXML表記である。It is XML description which shows an example of the imaging | photography conditions using the codec classification of the captured image data which concerns on this Embodiment. 本実施の形態に係る撮影画像データの画像種別を利用した撮影条件の一例を示すXML表記である。It is XML description which shows an example of the imaging conditions using the image classification of the captured image data which concerns on this Embodiment. 本実施の形態に係る前提条件判定部15と撮影条件判定部16の詳細な動作の一例を示すフローチャートである。It is a flowchart which shows an example of detailed operation | movement of the precondition determination part 15 and the imaging condition determination part 16 which concern on this Embodiment. 本実施の形態に係る交差点の第1の例を示す平面図である。It is a top view which shows the 1st example of the intersection which concerns on this Embodiment. 本実施の形態に係る交差点の第2の例を示す平面図である。It is a top view which shows the 2nd example of the intersection which concerns on this Embodiment. 本実施の形態に係るフレーム23cの一例を示す画像である。It is an image which shows an example of the flame | frame 23c which concerns on this Embodiment. 本実施の形態に係るフレーム23dの一例を示す画像である。It is an image which shows an example of the frame 23d which concerns on this Embodiment. 本実施の形態に係るフレーム24dの一例を示す画像である。It is an image which shows an example of the flame | frame 24d which concerns on this Embodiment. 地図画面の一例を示す画像である。It is an image which shows an example of a map screen. 本実施の形態に係る表示画面の一例を示す画像である。It is an image which shows an example of the display screen which concerns on this Embodiment. 本実施の形態に係る俯瞰画像変換の一例を示す図である。It is a figure which shows an example of the bird's-eye view image conversion which concerns on this Embodiment. 本実施の形態に係る俯瞰画像変換の一例を示す式である。It is a formula which shows an example of bird's-eye view image conversion concerning this embodiment. 本実施の形態に係る俯瞰画像変換の変換前画像の一例を示す画像である。It is an image which shows an example of the image before conversion of the bird's-eye view image conversion which concerns on this Embodiment. 本実施の形態に係る俯瞰画像変換の変換後画像の一例を示す画像である。It is an image which shows an example of the image after conversion of the overhead image conversion which concerns on this Embodiment. 本実施の形態に係る交差点の第3の例を示す平面図である。It is a top view which shows the 3rd example of the intersection which concerns on this Embodiment. 本実施の形態に係る視認領域25の視認結果27の一例を示す画像である。It is an image which shows an example of the visual recognition result 27 of the visual recognition area | region 25 which concerns on this Embodiment. 本実施の形態に係る撮影空間22eより得られたフレーム23eの一例を示す画像である。It is an image which shows an example of the flame | frame 23e obtained from the imaging | photography space 22e which concerns on this Embodiment. 本実施の形態に係る物体存在可能性領域の例を示す平面図である。It is a top view which shows the example of the object presence possibility area | region which concerns on this Embodiment. 右直事故の一例を示す平面図である。It is a top view which shows an example of a right-handed accident. 右折時の自車から見た視認結果の一例を示す画像である。It is an image which shows an example of the visual recognition result seen from the own vehicle at the time of a right turn.

符号の説明Explanation of symbols

1 画像処理装置、2,2a,2b,2c,2d,2e,2g 無線カメラ、3 自車、4a,4b,4c,4d,4e 他車、11 無線通信部、12 撮影データ記憶部、13 条件データ記憶部、14 状態データ記憶部、15 前提条件判定部、16 撮影条件判定部、17 演算部、18 通知部、19 センサ、21 撮影条件領域、22a,22b,22c,22d,22e 撮影空間、23c,23d,23e フレーム、25 視認領域、26 死角、27 視認結果、28a,28b 物体存在可能性領域、29e 画面位置、30a,30b 交差領域。 1 image processing device, 2, 2a, 2b, 2c, 2d, 2e, 2g wireless camera, 3 vehicle, 4a, 4b, 4c, 4d, 4e other vehicle, 11 wireless communication unit, 12 photographing data storage unit, 13 conditions Data storage unit, 14 state data storage unit, 15 precondition determination unit, 16 shooting condition determination unit, 17 calculation unit, 18 notification unit, 19 sensor, 21 shooting condition area, 22a, 22b, 22c, 22d, 22e shooting space, 23c, 23d, 23e frame, 25 viewing area, 26 blind spot, 27 viewing result, 28a, 28b object existence possibility area, 29e screen position, 30a, 30b intersecting area.

Claims (5)

外部から送信されるデータの演算を、移動体に設けられたコンピュータに実行させる画像処理プログラムであって、
外部のカメラにより撮影された画像である撮影画像データと該撮影画像データが撮影された状態に関する情報である撮影メタデータとからなる撮影データを受信する受信ステップと、
前記移動体の状態に関する情報である状態データを取得する状態取得ステップと、
予め設定された条件と前記受信ステップにより受信された撮影メタデータと前記状態取得ステップにより取得された状態データとに基づいて、前記受信ステップにより受信された撮影データを利用するか否かの判定を行う判定ステップと、
前記判定ステップにより利用すると判定された撮影データを用いて演算を行う演算ステップと
をコンピュータに実行させる画像処理プログラム。
An image processing program for causing a computer provided in a moving body to execute calculation of data transmitted from the outside,
A reception step of receiving shooting data consisting of shooting image data that is an image shot by an external camera and shooting metadata that is information about a state in which the shooting image data was shot;
A state acquisition step of acquiring state data which is information relating to the state of the mobile body;
Judgment as to whether or not to use the shooting data received in the reception step based on preset conditions, the shooting metadata received in the reception step and the state data acquired in the state acquisition step. A determination step to be performed;
An image processing program that causes a computer to execute an operation step that performs an operation using imaging data determined to be used in the determination step.
請求項1に記載の画像処理プログラムにおいて、
前記状態データは、前記移動体に設けられたセンサまたは外部との通信により得られる情報であり、前記移動体の移動状態、前記移動体の環境の状態の少なくともいずれかを含むことを特徴とする画像処理プログラム。
In the image processing program according to claim 1,
The state data is information obtained by communication with a sensor provided in the moving body or the outside, and includes at least one of a moving state of the moving body and an environmental state of the moving body. Image processing program.
請求項1または請求項2に記載の画像処理プログラムにおいて、
前記条件は、前記状態データの条件である前提条件と前記撮影メタデータの条件である撮影条件とを含み、
前記判定ステップは、前記状態データが前記前提条件を満たすか否かの判断を行い、前記状態データが前記前提条件を満たす場合、前記撮影条件を満たす前記撮影メタデータと該撮影メタデータに対応する撮影画像データとを用いて演算を行うことを特徴とする画像処理プログラム。
The image processing program according to claim 1 or 2,
The condition includes a precondition that is a condition of the state data and a shooting condition that is a condition of the shooting metadata.
The determination step determines whether or not the state data satisfies the precondition, and if the state data satisfies the precondition, corresponds to the shooting metadata and the shooting metadata that satisfy the shooting condition. An image processing program for performing calculation using photographed image data.
移動体に設けられ、外部から送信されるデータの演算を行う画像処理装置であって、
外部のカメラにより撮影された画像である撮影画像データと該撮影画像データが撮影された状態に関する情報である撮影メタデータとからなる撮影データを受信する受信部と、
前記移動体の状態に関する情報である状態データを取得する状態取得部と、
予め設定された条件と前記受信部により受信された撮影メタデータと前記状態取得部により取得された状態データとに基づいて、前記受信部により受信された撮影データを利用するか否かの判定を行う判定部と、
前記判定部により利用すると判定された撮影データを用いて演算を行う演算部と
を備える画像処理装置。
An image processing apparatus that is provided in a moving body and performs calculation of data transmitted from the outside,
A receiving unit that receives shooting data including shooting image data that is an image shot by an external camera and shooting metadata that is information about a state in which the shooting image data is shot;
A state acquisition unit that acquires state data that is information relating to the state of the mobile body;
Judgment as to whether or not to use shooting data received by the receiving unit based on preset conditions, shooting metadata received by the receiving unit and state data acquired by the state acquiring unit A determination unit to perform;
An image processing apparatus comprising: an arithmetic unit that performs an operation using photographing data determined to be used by the determination unit.
カメラから送信されるデータを用いた演算を移動体において行う画像処理方法であって、
前記カメラにおいて、撮影を行い、該撮影により得られた画像である撮影画像データと該撮影の状態に関する情報である撮影メタデータとからなる撮影データを送信する送信ステップと、
前記移動体において、前記送信ステップにより送信された撮影データを受信する受信ステップと、
前記移動体において、前記移動体の状態に関する情報である状態データを取得する状態取得ステップと、
前記移動体において、予め設定された条件と前記受信ステップにより受信された撮影メタデータと前記状態取得ステップにより取得された状態データとに基づいて、前記受信ステップにより受信された撮影データを利用するか否かの判定を行う判定ステップと、
前記移動体において、前記判定ステップにより利用すると判定された撮影データを用いて演算を行う演算ステップと
を実行する画像処理方法。
An image processing method for performing an operation using data transmitted from a camera in a moving body,
In the camera, a transmission step of shooting and transmitting shooting data including shooting image data that is an image obtained by the shooting and shooting metadata that is information relating to the shooting state;
In the mobile body, a reception step of receiving the imaging data transmitted in the transmission step;
In the moving body, a state acquisition step of acquiring state data that is information on the state of the moving body;
Whether to use the imaging data received in the reception step based on preset conditions, imaging metadata received in the reception step, and status data acquired in the status acquisition step in the mobile body A determination step for determining whether or not,
An image processing method for executing, in the moving body, an operation step of performing an operation using imaging data determined to be used in the determination step.
JP2006162398A 2006-06-12 2006-06-12 Image processing program, image processing apparatus, and image processing method Expired - Fee Related JP4749942B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006162398A JP4749942B2 (en) 2006-06-12 2006-06-12 Image processing program, image processing apparatus, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006162398A JP4749942B2 (en) 2006-06-12 2006-06-12 Image processing program, image processing apparatus, and image processing method

Publications (2)

Publication Number Publication Date
JP2007334426A true JP2007334426A (en) 2007-12-27
JP4749942B2 JP4749942B2 (en) 2011-08-17

Family

ID=38933880

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006162398A Expired - Fee Related JP4749942B2 (en) 2006-06-12 2006-06-12 Image processing program, image processing apparatus, and image processing method

Country Status (1)

Country Link
JP (1) JP4749942B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008033439A (en) * 2006-07-26 2008-02-14 Toyota Motor Corp Display system for vehicle and navigation system
JP2009199532A (en) * 2008-02-25 2009-09-03 Denso Corp Intersection operation support system, on-vehicle equipment, and roadside device
JP2013200819A (en) * 2012-03-26 2013-10-03 Hitachi Consumer Electronics Co Ltd Image receiving and displaying device
JP2015167281A (en) * 2014-03-03 2015-09-24 Toa株式会社 image processing system and image processing program
US9832427B2 (en) 2012-11-16 2017-11-28 Panasonic Intellectual Property Corporation Of America Camera, camera system, and self-diagnosis method
JP2020154914A (en) * 2019-03-22 2020-09-24 住友電気工業株式会社 Sensor system and control method therefor, on-vehicle device and control method therefor, and traffic support system
JP2021176219A (en) * 2020-05-01 2021-11-04 株式会社エクサウィザーズ Terminal, server, program, and method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005141543A (en) * 2003-11-07 2005-06-02 Nissan Motor Co Ltd Image providing device, information providing system and method, and information transmitting device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005141543A (en) * 2003-11-07 2005-06-02 Nissan Motor Co Ltd Image providing device, information providing system and method, and information transmitting device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008033439A (en) * 2006-07-26 2008-02-14 Toyota Motor Corp Display system for vehicle and navigation system
JP2009199532A (en) * 2008-02-25 2009-09-03 Denso Corp Intersection operation support system, on-vehicle equipment, and roadside device
JP2013200819A (en) * 2012-03-26 2013-10-03 Hitachi Consumer Electronics Co Ltd Image receiving and displaying device
US9832427B2 (en) 2012-11-16 2017-11-28 Panasonic Intellectual Property Corporation Of America Camera, camera system, and self-diagnosis method
JP2015167281A (en) * 2014-03-03 2015-09-24 Toa株式会社 image processing system and image processing program
JP2020154914A (en) * 2019-03-22 2020-09-24 住友電気工業株式会社 Sensor system and control method therefor, on-vehicle device and control method therefor, and traffic support system
JP7331399B2 (en) 2019-03-22 2023-08-23 住友電気工業株式会社 Sensor facility device and its control method, in-vehicle device and its control method, and traffic support system
JP2021176219A (en) * 2020-05-01 2021-11-04 株式会社エクサウィザーズ Terminal, server, program, and method

Also Published As

Publication number Publication date
JP4749942B2 (en) 2011-08-17

Similar Documents

Publication Publication Date Title
JP6459220B2 (en) Accident prevention system, accident prevention device, accident prevention method
JP6834522B2 (en) Driving support device
JP4622928B2 (en) In-vehicle camera control device and in-vehicle camera control method.
JP4749942B2 (en) Image processing program, image processing apparatus, and image processing method
JP6002405B2 (en) User interface method and apparatus for vehicle terminal, and vehicle including the same
WO2016186039A1 (en) Automobile periphery information display system
US20100020169A1 (en) Providing vehicle information
JP2008250503A (en) Operation support device
JP2006163637A (en) Driving supporting device
WO2008056780A1 (en) Driving assistance device, driving assistance method, and program
JP2008070955A (en) Display system for displaying traveling object, on-vehicle apparatus, image transmitter and display method
JP4930187B2 (en) Driving support system
JP2008213744A (en) Vehicle periphery monitoring device
JP2020065141A (en) Vehicle overhead image generation system and method thereof
JP2021026554A (en) Travel support method, road photographing image collection method, and road side device
JP2008041058A (en) System for notifying blind mobing body, image processor, on-vehicle device and notification method
KR102418051B1 (en) Lane traffic situation judgement apparatus, system, and method thereof
JP5274984B2 (en) Driving support system
JP2010211301A (en) Device and system for prediction/notification of accident, and on-vehicle device
JP2015210584A (en) Image processing apparatus
JP2006236094A (en) Obstacle recognition system
JP5151716B2 (en) Vehicle travel support system, roadside system, and vehicle side system
JP6367081B2 (en) Driving support device, driving support program, and driving support method
JP4269862B2 (en) On-vehicle moving body detection device
JP4961311B2 (en) Driving support device and driving support method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110517

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110518

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140527

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees