JP2010146429A - Image collection device, server device, and image collection and distribution system - Google Patents

Image collection device, server device, and image collection and distribution system Download PDF

Info

Publication number
JP2010146429A
JP2010146429A JP2008324978A JP2008324978A JP2010146429A JP 2010146429 A JP2010146429 A JP 2010146429A JP 2008324978 A JP2008324978 A JP 2008324978A JP 2008324978 A JP2008324978 A JP 2008324978A JP 2010146429 A JP2010146429 A JP 2010146429A
Authority
JP
Japan
Prior art keywords
information
image
shooting
vehicle
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008324978A
Other languages
Japanese (ja)
Other versions
JP5294827B2 (en
Inventor
Yoshiki Kuroda
良樹 黒田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2008324978A priority Critical patent/JP5294827B2/en
Publication of JP2010146429A publication Critical patent/JP2010146429A/en
Application granted granted Critical
Publication of JP5294827B2 publication Critical patent/JP5294827B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Facsimiles In General (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image collection and distribution system, which collects and distributes an image in which a forward vehicle is unlikely to be seen. <P>SOLUTION: In the image collection and distribution system 10, an image collection device 20 transmits, together with an image of a predetermined point and a photographing condition including position information of the predetermined point, the advancing direction and the photographing time zone, visibility information composed of congestion information of the predetermined point in the photographing, vehicle class information, and speed information in the photographing to a server device 50. The server device 50 determines the degree of congestion as a score from the congestion information, estimates the mounting height of a photographing part as a score from the vehicle classification information, estimates an inter-vehicular distance as a score from the speed information, and calculates the total of each score. When the total score corresponding to the visibility information of the received image is higher than the total score corresponding to the visibility information of stored image, the server device updates the storage to the received image, the received photographing condition and the total score corresponding to the received visibility information. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像収集装置と、サーバ装置と、それらを含む画像収集配信システムとに関する。   The present invention relates to an image collection device, a server device, and an image collection / distribution system including them.

車両に搭載されたカメラで撮影した画像及び撮影地点の情報をサーバで管理して配信する技術が提案されている(特許文献1、2参照)。   Techniques have been proposed in which an image taken by a camera mounted on a vehicle and information on a shooting location are managed and distributed by a server (see Patent Documents 1 and 2).

例えば特許文献1では、車両によって撮影され、画像サーバによって配信される撮影画像を閲覧するユーザに与える違和感を軽減するような効率的な画像収集又は画像配信を行うため、車両に搭載されたカメラによって撮影された車両の周辺の撮影画像及び撮影地点の情報を含む撮影画像の撮影情報を記憶媒体に記憶させ、その記憶媒体が記憶している撮影画像を、受信した撮影画像を表示するユーザに配信する画像サーバにおいて、車両から入力された撮影画像を、その撮影画像の撮影地点の属するエリア毎に、撮影情報及び所定の選択条件に基づいて選択したものを記憶媒体に記憶させている。   For example, in Patent Document 1, a camera mounted on a vehicle is used to perform efficient image collection or image distribution that reduces an uncomfortable feeling given to a user who browses a captured image captured by a vehicle and distributed by an image server. Shooting information of a shot image including information about the shot image of the vehicle around the shot vehicle and the shooting point is stored in a storage medium, and the shot image stored in the storage medium is distributed to a user who displays the received shot image. In the image server, a photographed image input from a vehicle is selected for each area to which the photographed spot of the photographed image belongs, and is stored in a storage medium.

また特許文献2では、車両に搭載される車両用ナビゲーション装置が、自らの記憶媒体中の格納画像が撮影された位置の情報及び現在の車両位置に基づいて、他の車両によって当該格納画像が撮影されたときと同じ走行状態(走行位置、走行方向)に車両があると判断すると、画像を撮影し、格納画像中の施設の画像と撮影画像中の当該施設に該当する位置の画像とが同じか否かを判定し、その判定結果が肯定的なものであるときには、今回撮影した画像をセンタに無線送信している。これによって、センタに比較結果の情報が送信されるので、センタ、又はセンタを介してその情報を取得した装置又は人は、この比較結果の情報に基づいて、施設情報を更新することができる。
特開2005−6081号公報 特開2008−26253号公報
Further, in Patent Document 2, the vehicle navigation device mounted on the vehicle captures the stored image by another vehicle based on the information on the position where the stored image in the storage medium of the vehicle is captured and the current vehicle position. If it is determined that the vehicle is in the same driving state (traveling position, traveling direction) as when the image was taken, the image is taken and the image of the facility in the stored image is the same as the image corresponding to the facility in the taken image If the determination result is affirmative, the currently captured image is wirelessly transmitted to the center. As a result, the comparison result information is transmitted to the center, so that the center or the device or person who has acquired the information via the center can update the facility information based on the comparison result information.
Japanese Patent Laying-Open No. 2005-6081 JP 2008-26253 A

しかしながら、特許文献1、2では、撮影した画像の質については考慮されていない。例えば、渋滞などで前方の視界の大半が前方の車両で塞がれているような状況では、撮影した画像には前方の車両が写り、配信する画像としては適していない。   However, Patent Documents 1 and 2 do not consider the quality of captured images. For example, in a situation where most of the forward field of view is blocked by a forward vehicle due to traffic jams, the forward vehicle is reflected in the photographed image and is not suitable as an image to be distributed.

そこで本発明は、前方の車両が写っている確率の低い画像を収集、配信する画像収集配信システムを提供することを目的とする。また、そのシステムを構成する画像収集装置と、サーバ装置とを提供することも目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide an image collection and distribution system that collects and distributes images with a low probability that a vehicle ahead is reflected. Another object of the present invention is to provide an image collection device and a server device that constitute the system.

上記目的を達成するために本発明は、自車の前方を撮影する撮影部と、自車の現在位置を検出する自車位置検出部と、サーバ装置へ撮影した画像を送信する送信部とを備えた画像収集装置において、渋滞情報を取得する渋滞情報取得部、自車の車両区分情報を取得する車両区分取得部、自車の速度情報を取得する速度取得部のうち少なくとも1つ以上を備え、所定地点を撮影した画像と、該所定地点の位置情報及び進行方向及び撮影時間帯とを含む撮影条件とともに、該所定地点の撮影時の渋滞情報、車両区分情報、撮影時の速度情報のうち少なくとも1つ以上の情報である視界情報を前記サーバ装置へ送信することを特徴とする。   In order to achieve the above object, the present invention includes an imaging unit that images the front of the vehicle, a vehicle position detection unit that detects the current position of the vehicle, and a transmission unit that transmits the captured image to the server device. The image collecting apparatus provided includes at least one of a traffic information acquisition unit that acquires traffic information, a vehicle classification acquisition unit that acquires vehicle classification information of the host vehicle, and a speed acquisition unit that acquires speed information of the host vehicle. In addition to the shooting conditions including the image of the predetermined point, the position information of the predetermined point, the traveling direction, and the shooting time zone, the traffic jam information at the time of shooting the predetermined point, vehicle classification information, speed information at the time of shooting Visibility information which is at least one piece of information is transmitted to the server device.

また本発明は、自車の前方を撮影する撮影部と、自車の現在位置を検出する自車位置検出部と、サーバ装置へ撮影した画像を送信する送信部と、記憶部とを備えた画像収集装置において、渋滞情報を取得する渋滞情報取得部、自車の車両区分情報を取得する車両区分取得部、自車の速度情報を取得する速度取得部のうち少なくとも1つ以上を備え、渋滞情報から渋滞度合いを点数化する渋滞度算出部、車両区分情報から画像収集装置に搭載された撮影部の取り付け高さを推定して点数化する撮影部高推定部、速度情報から車間距離を推定して点数化する車間距離推定部のうちすくなくとも1つ以上と、各点数の合計を算出する合算部とを備え、所定地点を撮影した画像と、該所定地点の位置情報及び進行方向及び撮影時間帯とを含む撮影条件とともに、該所定地点の撮影時の渋滞情報、車両区分情報、撮影時の速度情報のうち少なくとも1つ以上の情報である視界情報を取得し、取得した視界情報に対応した合計点数を算出し、前記撮影条件が一致する情報を記憶していない場合、前記撮影条件と前記合計点数とを記憶し、前記撮影条件が一致する情報を記憶している場合、記憶している視界情報に対応した合計点数よりも新たに取得した視界情報に対応した合計点数が良好なとき、新たに取得した撮影条件と新たに取得した視界情報に対応した合計点数とに記憶を更新するとともに、新たに取得した所定地点を撮影した画像と撮影条件と合計点数とを前記サーバ装置へ送信することを特徴とする。   The present invention also includes an imaging unit that captures the front of the vehicle, a vehicle position detection unit that detects the current position of the vehicle, a transmission unit that transmits the captured image to the server device, and a storage unit. The image collecting apparatus includes at least one of a traffic information acquisition unit that acquires traffic information, a vehicle classification acquisition unit that acquires vehicle classification information of the host vehicle, and a speed acquisition unit that acquires speed information of the host vehicle. Traffic congestion degree calculation unit that points the degree of traffic congestion from information, shooting unit height estimation unit that estimates the mounting height of the shooting unit mounted on the image collection device from vehicle classification information, and estimates the inter-vehicle distance from speed information And at least one of the inter-vehicle distance estimation units to be scored, and a summation unit for calculating the total of each score, an image of a predetermined point, position information of the predetermined point, a traveling direction, and a shooting time Shooting conditions including belt Together, it acquires visibility information that is at least one of traffic information at the time of shooting at the predetermined point, vehicle classification information, speed information at the time of shooting, and calculates a total score corresponding to the acquired view information, If the information matching the shooting conditions is not stored, the shooting conditions and the total score are stored, and if the information matching the shooting conditions is stored, the total corresponding to the stored view information When the total score corresponding to the newly acquired view information is better than the score, the memory is updated to the newly acquired shooting condition and the total score corresponding to the newly acquired view information, and the newly acquired predetermined An image obtained by photographing a spot, photographing conditions, and a total score are transmitted to the server device.

また本発明は、画像収集装置からの受信を行うとともに、画像を配信する通信部と、記憶部とを備えたサーバ装置において、渋滞情報から渋滞度合いを点数化する渋滞度算出部、車両区分情報から画像収集装置に搭載された撮影部の取り付け高さを推定して点数化する撮影部高推定部、速度情報から車間距離を推定して点数化する車間距離推定部のうちすくなくとも1つ以上と、各点数の合計を算出する合算部とを備え、所定地点を撮影した画像と、該所定地点の位置情報及び進行方向及び撮影時間帯とを含む撮影条件とともに、該所定地点の撮影時の渋滞情報、車両区分情報、撮影時の速度情報のうち少なくとも1つ以上の情報である視界情報を受信し、受信した視界情報に対応した合計点数を算出し、前記撮影条件が一致する画像を記憶していない場合、前記画像と前記撮影条件と前記合計点数とを記憶し、前記撮影条件が一致する画像を記憶している場合、該記憶している画像の視界情報に対応した合計点数よりも受信した画像の視界情報に対応した合計点数が良好なとき、受信した画像と受信した撮影条件と受信した視界情報に対応した合計点数とに記憶を更新することを特徴とする。   In addition, the present invention provides a congestion degree calculation unit for scoring the degree of congestion from the congestion information, vehicle classification information in a server apparatus that includes a communication unit for receiving an image and delivering an image and a storage unit. And at least one of a shooting unit height estimation unit for estimating the mounting height of the shooting unit mounted on the image acquisition device and scoring, and an inter-vehicle distance estimation unit for estimating the inter-vehicle distance from speed information and scoring And a summing unit for calculating the total number of points, together with shooting conditions including an image obtained by shooting a predetermined point, position information of the predetermined point, a traveling direction, and a shooting time zone, a traffic jam at the time of shooting the predetermined point Information, vehicle classification information, speed information at the time of shooting is received, and view information that is at least one information is calculated, a total score corresponding to the received view information is calculated, and an image that matches the shooting conditions is stored If not, the image, the shooting condition, and the total score are stored. If an image that matches the shooting condition is stored, the image is received more than the total score corresponding to the view information of the stored image. When the total score corresponding to the view information of the received image is good, the storage is updated to the received image, the received shooting condition, and the total score corresponding to the received view information.

また本発明は、画像収集装置からの受信を行うとともに、画像を配信する通信部と、記憶部とを備えたサーバ装置において、所定地点を撮影した画像と、該所定地点の位置情報及び進行方向及び撮影時間帯とを含む撮影条件とともに、該所定地点の撮影時の渋滞情報、車両区分情報、撮影時の速度情報のうち少なくとも1つ以上の情報である視界情報に対応した合計点数を受信し、前記撮影条件が一致する画像を記憶していない場合、前記画像と前記撮影条件と前記合計点数とを記憶し、前記撮影条件が一致する画像を記憶している場合、該記憶している画像の視界情報に対応した合計点数よりも受信した画像の視界情報に対応した合計点数が良好なとき、受信した画像と受信した撮影条件と受信した視界情報に対応した合計点数とに記憶を更新することを特徴とする。   The present invention also provides an image obtained by photographing a predetermined point, position information of the predetermined point, and a traveling direction in a server device that includes a communication unit that receives the image from the image collection device and distributes the image, and a storage unit. And the shooting conditions including the shooting time zone, and the total score corresponding to the visibility information that is at least one of the traffic information at the time of shooting at the predetermined point, vehicle classification information, and speed information at the time of shooting is received. If the image that matches the shooting condition is not stored, the image, the shooting condition, and the total score are stored. If the image that matches the shooting condition is stored, the stored image is stored. When the total score corresponding to the view information of the received image is better than the total score corresponding to the view information of the received image, the received image, the received shooting conditions, and the total score corresponding to the received view information are stored. Characterized in that the new to.

また本発明は、自車の前方を撮影する撮影部と、自車の現在位置を検出する自車位置検出部と、サーバ装置へ撮影した画像を送信する送信部とを備えた画像収集装置と、前記画像収集装置からの受信を行うとともに、画像を配信する通信部と、記憶部とを備えたサーバ装置とを含む画像収集配信システムにおいて、前記画像収集装置は、渋滞情報を取得する渋滞情報取得部、自車の車両区分情報を取得する車両区分取得部、自車の速度情報を取得する速度取得部のうち少なくとも1つ以上を備え、所定地点を撮影した画像と、該所定地点の位置情報及び進行方向及び撮影時間帯とを含む撮影条件とともに、該所定地点の撮影時の渋滞情報、車両区分情報、撮影時の速度情報のうち少なくとも1つ以上の情報である視界情報を前記サーバ装置へ送信し、前記サーバ装置は、渋滞情報から渋滞度合いを点数化する渋滞度算出部、車両区分情報から画像収集装置に搭載された撮影部の取り付け高さを推定して点数化する撮影部高推定部、速度情報から車間距離を推定して点数化する車間距離推定部のうちすくなくとも1つ以上と、各点数の合計を算出する合算部とを備え、前記所定地点を撮影した画像と、前記撮影条件と、前記視界情報とを受信し、受信した視界情報に対応した合計点数を算出し、前記撮影条件が一致する画像を記憶していない場合、前記画像と前記撮影条件と前記合計点数とを記憶し、前記撮影条件が一致する画像を記憶している場合、該記憶している画像の視界情報に対応した合計点数よりも受信した画像の視界情報に対応した合計点数が良好なとき、受信した画像と受信した撮影条件と受信した視界情報に対応した合計点数とに記憶を更新することを特徴とする。   According to another aspect of the present invention, there is provided an image collecting apparatus including a photographing unit that photographs the front of the host vehicle, a host vehicle position detecting unit that detects a current position of the host vehicle, and a transmission unit that transmits a photographed image to the server device In the image collection and delivery system including a communication device that receives the image collection device and distributes the image, and a server device that includes a storage unit, the image collection device obtains traffic jam information. An image obtained by photographing a predetermined point, and a position of the predetermined point, including at least one of an acquisition unit, a vehicle classification acquisition unit that acquires vehicle classification information of the host vehicle, and a speed acquisition unit that acquires speed information of the host vehicle View information that is at least one of traffic information at the time of shooting at the predetermined point, vehicle classification information, and speed information at the time of shooting, together with shooting conditions including information, traveling direction, and shooting time zone What The server device is a traffic congestion degree calculation unit that scores the degree of traffic congestion from the traffic congestion information, and a shooting unit height estimation that estimates the mounting height of the shooting unit mounted on the image collection device from the vehicle classification information and scores it And at least one of the inter-vehicle distance estimation units for estimating the inter-vehicle distance from the speed information and converting it to a score, and a summing unit for calculating the total of the respective points, the image obtained by photographing the predetermined point, and the photographing Condition and the field of view information are received, the total score corresponding to the received field of view information is calculated, and if the image that matches the shooting condition is not stored, the image, the shooting condition, and the total score If the total score corresponding to the field of view information of the received image is better than the total score corresponding to the field of view information of the stored image when the image having the same shooting condition is stored. Images And updates the stored and the total number corresponding to the received image capturing conditions received visibility information.

また本発明は、自車の前方を撮影する撮影部と、自車の現在位置を検出する自車位置検出部と、サーバ装置へ撮影した画像を送信する送信部と、記憶部とを備えた画像収集装置と、前記画像収集装置からの受信を行うとともに、画像を配信する通信部と、記憶部とを備えたサーバ装置とを含む画像収集配信システムにおいて、前記画像収集装置は、渋滞情報を取得する渋滞情報取得部、自車の車両区分情報を取得する車両区分取得部、自車の速度情報を取得する速度取得部のうち少なくとも1つ以上を備え、渋滞情報から渋滞度合いを点数化する渋滞度算出部、車両区分情報から画像収集装置に搭載された撮影部の取り付け高さを推定して点数化する撮影部高推定部、速度情報から車間距離を推定して点数化する車間距離推定部のうちすくなくとも1つ以上と、各点数の合計を算出する合算部とを備え、所定地点を撮影した画像と、該所定地点の位置情報及び進行方向及び撮影時間帯とを含む撮影条件とともに、該所定地点の撮影時の渋滞情報、車両区分情報、撮影時の速度情報のうち少なくとも1つ以上の情報である視界情報を取得し、取得した視界情報に対応した合計点数を算出し、前記撮影条件が一致する情報を記憶していない場合、前記撮影条件と前記合計点数とを記憶し、前記撮影条件が一致する情報を記憶している場合、記憶している視界情報に対応した合計点数よりも新たに取得した視界情報に対応した合計点数が良好なとき、新たに取得した撮影条件と新たに取得した視界情報に対応した合計点数とに記憶を更新するとともに、新たに取得した所定地点を撮影した画像と撮影条件と合計点数とを前記サーバ装置へ送信し、前記サーバ装置は、前記所定地点を撮影した画像と、前記撮影条件と、前記合計点数とを受信し、前記撮影条件が一致する画像を記憶していない場合、前記画像と前記撮影条件と前記合計点数とを記憶し、前記撮影条件が一致する画像を記憶している場合、該記憶している画像の視界情報に対応した合計点数よりも受信した画像の視界情報に対応した合計点数が良好なとき、受信した画像と受信した撮影条件と受信した視界情報に対応した合計点数とに記憶を更新することを特徴とする。   The present invention also includes an imaging unit that captures the front of the vehicle, a vehicle position detection unit that detects the current position of the vehicle, a transmission unit that transmits the captured image to the server device, and a storage unit. In an image collection and delivery system that includes an image collection device, a server that includes a communication unit that receives an image from the image collection device and distributes the image, and a storage unit, the image collection device stores traffic jam information. At least one of a traffic information acquisition unit to acquire, a vehicle classification acquisition unit to acquire vehicle classification information of the own vehicle, and a speed acquisition unit to acquire speed information of the own vehicle, and the degree of traffic congestion is scored from the traffic information Congestion degree calculation unit, shooting unit height estimation unit that estimates the mounting height of the shooting unit mounted on the image collection device from the vehicle classification information, and points, inter-vehicle distance estimation that estimates the inter-vehicle distance from speed information Scrap out of the department Each of which includes at least one and a summing unit for calculating the total of each score, together with an image obtained by photographing the predetermined point, and the photographing conditions including the position information of the predetermined point, the traveling direction, and the photographing time zone. The view information, which is at least one of the traffic jam information at the time of shooting, vehicle classification information, and speed information at the time of shooting, is acquired, the total score corresponding to the acquired view information is calculated, and the shooting conditions match If the information to be stored is not stored, the shooting conditions and the total score are stored, and if the information that matches the shooting conditions is stored, the score is newly set to be higher than the total score corresponding to the stored view information. When the total score corresponding to the acquired view information is good, the memory is updated to the newly acquired shooting condition and the total score corresponding to the newly acquired view information, and the newly acquired predetermined point is imaged. An image, a shooting condition, and a total score are transmitted to the server device, and the server device receives an image obtained by shooting the predetermined point, the shooting condition, and the total score, and an image in which the shooting conditions match. If the image, the shooting condition, and the total score are stored, and if the image that matches the shooting condition is stored, the total score corresponding to the view information of the stored image If the total score corresponding to the view information of the received image is better than that, the memory is updated to the received image, the received shooting condition, and the total score corresponding to the received view information.

本発明の画像収集配信システムによれば、前方の車両が写っている確率の低い画像を収集、配信することができる。その結果、ユーザは障害物の少ない見やすい画像を得ることができる。   According to the image collection and distribution system of the present invention, it is possible to collect and distribute an image with a low probability that a vehicle ahead is reflected. As a result, the user can obtain an easy-to-view image with few obstacles.

図1は、画像収集配信システムの概略図である。画像収集配信システム10は、車両11に搭載されたナビゲーション装置20と、ナビゲーション装置20と無線通信する基地局12と、サーバ装置50と、サーバ装置50と基地局12とを繋ぐネットワーク14とを含んでいる。ナビゲーション装置20には画像収集装置が組み込まれている。利便性向上のためには、画像収集配信システム10に含まれるナビゲーション装置20が多いほど好ましい。   FIG. 1 is a schematic diagram of an image collection and distribution system. The image collection and delivery system 10 includes a navigation device 20 mounted on a vehicle 11, a base station 12 that communicates wirelessly with the navigation device 20, a server device 50, and a network 14 that connects the server device 50 and the base station 12. It is out. The navigation device 20 incorporates an image collection device. In order to improve convenience, the number of navigation devices 20 included in the image collection / distribution system 10 is preferably as many as possible.

(第1実施形態)
図2は、ナビゲーション装置20の主要な構成を示すブロック図である。ナビゲーション装置20は、車両搭載用であって、GPS(Global Positioning System)衛星から受信した電波に基づいて車両位置を特定し、車両位置とともにその付近の地図が示された誘導画面を表示して、誘導経路に沿って車両を目的地まで誘導することを主たる機能としている。
(First embodiment)
FIG. 2 is a block diagram showing a main configuration of the navigation device 20. The navigation device 20 is for mounting on a vehicle, identifies a vehicle position based on radio waves received from a GPS (Global Positioning System) satellite, displays a guidance screen showing a map of the vicinity along with the vehicle position, The main function is to guide the vehicle to the destination along the guide route.

ナビゲーション装置20は、GPS部21と、ジャイロセンサ22と、車速センサ23と、VICS部24と、無線通信部25と、インターフェース部26と、制御部27と、記録媒体31と、ドライブ部32と、カメラ33と、カメラ制御部34と、描画部35と、表示制御部36と、表示部37と、音源回路部38と、スピーカ39と、ハードキー40と、タッチパネル41と、位置検出部42と、インターフェース部43とを備えている。   The navigation device 20 includes a GPS unit 21, a gyro sensor 22, a vehicle speed sensor 23, a VICS unit 24, a wireless communication unit 25, an interface unit 26, a control unit 27, a recording medium 31, and a drive unit 32. , Camera 33, camera control unit 34, drawing unit 35, display control unit 36, display unit 37, sound source circuit unit 38, speaker 39, hard key 40, touch panel 41, and position detection unit 42. And an interface unit 43.

GPS部21は、受信アンテナ及びチューナ等で構成されており、GPS衛星から受信した電波を処理して測位用データを取り出す。取り出された測位用データは、インターフェース部26を介して制御部27に送られる。制御部27は、GPS部21から送られた測位用データに基づいて車両の現在地を特定する。ナビゲーション装置20は、所謂ハイブリッド方式を採用しており、車両の向きを検知するためのジャイロセンサ22と、車両の速度を検知するための車速センサ23も併用する。ジャイロセンサ22や車速センサ23の検知信号はインターフェース部26を介して制御部27に送られ、制御部27はそれらの信号に基づいて車両の向きや速度を特定する。   The GPS unit 21 includes a receiving antenna, a tuner, and the like. The GPS unit 21 processes radio waves received from GPS satellites and extracts positioning data. The retrieved positioning data is sent to the control unit 27 via the interface unit 26. The control unit 27 specifies the current location of the vehicle based on the positioning data sent from the GPS unit 21. The navigation device 20 employs a so-called hybrid system, and also uses a gyro sensor 22 for detecting the direction of the vehicle and a vehicle speed sensor 23 for detecting the speed of the vehicle. Detection signals from the gyro sensor 22 and the vehicle speed sensor 23 are sent to the control unit 27 via the interface unit 26, and the control unit 27 specifies the direction and speed of the vehicle based on these signals.

VICS部24は、受信アンテナ及びチューナ等で構成されており、VICSセンタから渋滞情報などの道路交通情報を受信する。受信した情報は、インターフェース部26を介して制御部に送られる。制御部27は、VICS部24から送られた道路交通情報に基づいて渋滞情報などを得る。   The VICS unit 24 includes a receiving antenna and a tuner, and receives road traffic information such as traffic jam information from the VICS center. The received information is sent to the control unit via the interface unit 26. The control unit 27 obtains traffic jam information based on the road traffic information sent from the VICS unit 24.

無線通信部25は、送受信アンテナ及びチューナ等で構成されており、基地局12及びネットワーク13を介してサーバ装置50と通信する。通信するデータは、後述する画像データなどである。   The wireless communication unit 25 includes a transmission / reception antenna and a tuner, and communicates with the server device 50 via the base station 12 and the network 13. The data to be communicated is image data to be described later.

また、制御部27は、ナビゲーション装置20の制御を統括的に行うとともに、車両位置の特定や経路探索等の各種動作及び処理を実行する。制御部27は、例えばマイクロコンピュータで構成されており、制御や動作の手順が記述された各種プログラムを実行するCPU28と、CPU28で使用されるデータや、後述する記録媒体31から読み出されてCPU28で実行されるプログラムを一時的に記憶するRAM29と、立ち上げや入出力等に関する基本的な制御を記述したプログラムやフォントデータ等を記憶するROM30とを含んでいる。また、CPU28には、VICS部24から渋滞情報を取得する渋滞情報取得部、予めユーザにより登録されている自車の車両区分情報を取得する車両区分取得部、車速センサ23から自車の速度情報を取得する速度取得部が備わっている。これらCPU28、RAM29、ROM30等は、バス(不図示)を介して接続されている。   In addition, the control unit 27 performs overall control of the navigation device 20 and executes various operations and processes such as vehicle position specification and route search. The control unit 27 is configured by, for example, a microcomputer, and is read from a CPU 28 that executes various programs in which control and operation procedures are described, data used by the CPU 28, and a recording medium 31 to be described later, and the CPU 28. A RAM 29 for temporarily storing the program executed in the above, and a ROM 30 for storing a program in which basic control relating to startup, input / output, and the like, font data, and the like are stored. In addition, the CPU 28 includes a traffic information acquisition unit that acquires traffic information from the VICS unit 24, a vehicle classification acquisition unit that acquires vehicle classification information of the own vehicle registered in advance by the user, and the speed information of the vehicle from the vehicle speed sensor 23. A speed acquisition unit is provided. The CPU 28, RAM 29, ROM 30 and the like are connected via a bus (not shown).

記録媒体31には、ハードディスク、メモリーカード、光ディスク等を採用できる。記録媒体31には、誘導画面の表示や経路探索などに必要となる地図データベースと、ナビゲーション装置20の各種動作を記述したプログラムとが格納されている。そして、制御部27は、記録媒体31からドライブ部32を介してこのプログラムを読み出して実行する。地図データベースには、道路、施設、背景等の情報を含む地図データ、地図データに基づいて地図や誘導画面を描画する際に参照される描画パラメータ、各種検索にて参照される索引データ、経路誘導用やその他の用途の音声の生成に使用される音声データ等が含まれている。そして、制御部27は、実行する動作に必要なデータを地図データベースから部分的に取り出して参照する。   The recording medium 31 can be a hard disk, a memory card, an optical disk, or the like. The recording medium 31 stores a map database necessary for display of a guidance screen, route search, and the like, and a program describing various operations of the navigation device 20. Then, the control unit 27 reads this program from the recording medium 31 via the drive unit 32 and executes it. The map database contains map data including information on roads, facilities, backgrounds, drawing parameters referenced when drawing maps and guidance screens based on map data, index data referenced in various searches, route guidance Audio data used to generate audio for use and other purposes. And the control part 27 takes out data required for operation | movement to perform partially from a map database, and refers it.

カメラ33は、自車の前方を撮影することができる位置に設ける。例えば、ポータブル型のナビゲーション装置の場合は、装置の背面にカメラ33を設けることができる。カメラ33はカメラ制御部34で撮影の制御がなされる。カメラ制御部34は制御部27から撮影指示があった場合に撮影を行うように制御される。   The camera 33 is provided at a position where the front of the host vehicle can be photographed. For example, in the case of a portable navigation device, the camera 33 can be provided on the back of the device. The camera 33 is controlled by the camera control unit 34. The camera control unit 34 is controlled to perform shooting when a shooting instruction is received from the control unit 27.

描画部35は、描画専用のCPU等を含むICチップであって、制御部27からの指示に基づいて、誘導画面の画像データや操作画面の画像データ等を作成する。描画部35で作成された画像データは、表示制御部36に送られ、表示制御部36が有するRAMに記憶される。表示制御部36は、記憶した画像データに基づいて表示部37に画像表示用の信号を送り、表示部37の表示領域に画像データに係る画面を表示させる。表示部37には、LCDや有機ELディスプレイなどが用いられる。   The drawing unit 35 is an IC chip that includes a drawing-dedicated CPU and the like, and creates image data for a guidance screen, image data for an operation screen, and the like based on an instruction from the control unit 27. The image data created by the drawing unit 35 is sent to the display control unit 36 and stored in a RAM included in the display control unit 36. The display control unit 36 sends an image display signal to the display unit 37 based on the stored image data, and causes the display area of the display unit 37 to display a screen related to the image data. For the display unit 37, an LCD, an organic EL display, or the like is used.

音源回路部38は、制御部27から送られた音声データに基づいて、経路誘導用やその他の用途のアナログ音声信号を生成する。生成されたアナログ音声信号は、スピーカ39で再生される。   The sound source circuit unit 38 generates an analog audio signal for route guidance and other uses based on the audio data sent from the control unit 27. The generated analog audio signal is reproduced by the speaker 39.

ハードキー40は、電源のオン/オフをする電源キーや音量調整用のキー等を含んでいる。ハードキー40を構成するキーの1つが押下されると、そのキーの押下を通知する信号がインターフェース部43を介して制御部27に送られる。   The hard key 40 includes a power key for turning on / off the power, a volume adjusting key, and the like. When one of the keys constituting the hard key 40 is pressed, a signal notifying that the key is pressed is sent to the control unit 27 via the interface unit 43.

タッチパネル41は、例えば、格子状に配置された透明な電極を有する感圧式のパネルであって、表示部37の表示領域上に配設される。タッチパネル41が押下されると、位置検出部42は、タッチパネル41から送られた電圧信号に基づいて、押下された位置の座標情報を通知する信号を生成する。この信号は、インターフェース部43を介して制御部27に送られる。   The touch panel 41 is, for example, a pressure-sensitive panel having transparent electrodes arranged in a grid pattern, and is disposed on the display area of the display unit 37. When the touch panel 41 is pressed, the position detection unit 42 generates a signal for notifying the coordinate information of the pressed position based on the voltage signal sent from the touch panel 41. This signal is sent to the control unit 27 via the interface unit 43.

図3は、サーバ装置50の主要な構成を示すブロック図である。サーバ装置50は、通信部51と、インターフェース部52と、制御部53と、記録媒体57と、ドライブ部58とを備えている。   FIG. 3 is a block diagram illustrating a main configuration of the server device 50. The server device 50 includes a communication unit 51, an interface unit 52, a control unit 53, a recording medium 57, and a drive unit 58.

通信部51は、送受信アンテナ及びチューナ等で構成されており、ネットワーク13及び基地局12を介してナビゲーション装置20と通信する。通信するデータは、後述する画像データなどである。受信した情報は、インターフェース部52を介して制御部53に送られる。   The communication unit 51 includes a transmission / reception antenna and a tuner, and communicates with the navigation device 20 via the network 13 and the base station 12. The data to be communicated is image data to be described later. The received information is sent to the control unit 53 via the interface unit 52.

制御部53は、サーバ装置の制御を統括的に行うとともに、ナビゲーション装置20から送られてきた画像の要否も判別する。制御部53は、例えばマイクロコンピュータで構成されており、制御や動作の手順が記述された各種プログラムを実行するCPU54と、CPU54で使用されるデータや、後述する記録媒体57から読み出されてCPU54で実行されるプログラムやテーブルを一時的に記憶するRAM55と、立ち上げや入出力等に関する基本的な制御を記述したプログラムやフォントデータ等を記憶するROM56とを含んでいる。また、CPU54には、渋滞情報から渋滞度合いを点数化する渋滞度算出部、車両区分情報からナビゲーション装置20に搭載されたカメラ33の取り付け高さを推定して点数化する撮影部高推定部、速度情報から車間距離を推定して点数化する車間距離推定部、各点数の合計を算出する合算部が備わっている。これらCPU54、RAM55、ROM56等は、バス(不図示)を介して接続されている。   The control unit 53 performs overall control of the server device, and also determines whether or not the image sent from the navigation device 20 is necessary. The control unit 53 is configured by, for example, a microcomputer, and is read from a CPU 54 that executes various programs in which control and operation procedures are described, data used by the CPU 54, and a recording medium 57 to be described later, and the CPU 54. A RAM 55 for temporarily storing programs and tables executed in the above, and a ROM 56 for storing programs, font data, and the like describing basic controls relating to startup and input / output. Further, the CPU 54 has a traffic degree calculation unit for scoring the degree of traffic jam from the traffic jam information, a shooting unit height estimation unit for estimating the mounting height of the camera 33 mounted on the navigation device 20 from the vehicle classification information, and scoring. An inter-vehicle distance estimation unit that estimates the inter-vehicle distance from the speed information and converts it to a score, and a summation unit that calculates the total of the respective points are provided. The CPU 54, RAM 55, ROM 56, etc. are connected via a bus (not shown).

記録媒体57には、ハードディスク等の大容量のものを採用できる。記録媒体57には、ナビゲーション装置20から送られてきた画像及びその付加情報、画像の要否を判別するための各種テーブル、サーバ装置50の各種動作を記述したプログラムなどが格納されている。そして、制御部53は、記録媒体57からドライブ部58を介してこれらを読み出して使用する。   The recording medium 57 can be a large-capacity medium such as a hard disk. The recording medium 57 stores an image sent from the navigation device 20 and its additional information, various tables for determining the necessity of the image, a program describing various operations of the server device 50, and the like. Then, the control unit 53 reads these from the recording medium 57 via the drive unit 58 and uses them.

図4は、画像収集配信システムにおける画像収集に関する動作を示すフローチャートである。以下で説明するナビゲーション装置20とサーバ装置50の動作はそれぞれの制御部27、53によって制御される。   FIG. 4 is a flowchart showing an operation related to image collection in the image collection / distribution system. Operations of the navigation device 20 and the server device 50 described below are controlled by the respective control units 27 and 53.

まず、ナビゲーション装置20において、ステップS10で、自車の現在位置が所定地点を撮影するのに適した撮影地点に到達したか否かを判断する。実際には、所定地点を撮影するためには、そこから数十メートル手前の地点から撮影する必要があるため、現在位置が所定地点の数十メートル手前の撮影に適した地点に到達したか否かを判断する。所定地点の情報(緯度・経度)は予め記録媒体31等の記憶部に格納されているので、それを読み出して現在位置と比較することで、所定地点の数十メートル手前の撮影地点に到達したか否かを判断することができる。   First, in the navigation device 20, it is determined in step S10 whether or not the current position of the host vehicle has reached a shooting point suitable for shooting a predetermined point. Actually, in order to shoot a predetermined point, it is necessary to shoot from a point several tens of meters before that, so whether or not the current position has reached a suitable point for shooting several tens of meters before the predetermined point Determine whether. Since the information (latitude / longitude) of the predetermined point is stored in advance in the storage unit such as the recording medium 31, by reading it and comparing it with the current position, it has reached a shooting point several tens of meters before the predetermined point It can be determined whether or not.

所定地点としては、ユーザが予め確認したいと思うような景色が見える地点を網羅しておけばよく、例えば、曲がり角、分岐点等の交差点、目的地、道路形状の複雑な地点、道路名称が変わる地点、道路沿いの主要施設(例えば著名な建築物や観光名所等)などが考えられる。   As the predetermined point, it is sufficient to cover a point where a user can see the scenery that the user wants to check in advance. For example, a corner, an intersection such as a branch point, a destination, a complicated point of road shape, or a road name changes. Locations and major facilities along the road (for example, famous buildings and tourist attractions) can be considered.

ステップS10で撮影地点に到達したと判断した場合は、ステップS11へ進んでカメラ33で所定地点を撮影する。撮影した画像は、RAM29等に一時的に保存する。   If it is determined in step S10 that the shooting point has been reached, the process proceeds to step S11, and the predetermined point is shot by the camera 33. The captured image is temporarily stored in the RAM 29 or the like.

図5は、ナビゲーション装置20が交差点を撮影する様子を説明する図である。自車の現在位置が交差点60の数十メートル手前の適当な撮影地点に到達しており、このときカメラ33によって交差点60の風景が撮影され、画像61が得られる。   FIG. 5 is a diagram for explaining how the navigation device 20 captures an intersection. The current position of the host vehicle has reached an appropriate shooting point several tens of meters before the intersection 60. At this time, the camera 33 captures the scenery of the intersection 60 and an image 61 is obtained.

続いてステップS12へ進んで、撮影条件を取得する。撮影条件とは、上記所定地点の位置情報(緯度・経度)と、自車の進行方向(例えば16方角)と、撮影時間帯(例えば、年月日及び数時間単位の時間帯)とを少なくとも含む情報である。   Then, it progresses to step S12 and an imaging condition is acquired. The shooting conditions include at least the position information (latitude / longitude) of the predetermined point, the traveling direction of the vehicle (for example, 16 directions), and the shooting time zone (for example, the date and time unit of several hours). It is information to include.

続いてステップS13へ進んで、視界情報を取得する。視界情報とは、撮影した画像に前方の車両がどの程度写り込んでいるかを推測する基になる情報であり、上記所定地点の撮影時の渋滞情報と、自車の車両区分情報と、撮影時の自車の速度情報とからなる。   Then, it progresses to step S13 and visual field information is acquired. Visibility information is information that is used as a basis for estimating how much the vehicle ahead is reflected in the photographed image. Traffic information at the time of photographing at the predetermined point, vehicle classification information of the own vehicle, and at the time of photographing. Vehicle speed information.

続いてステップS14へ進んで、所定地点を撮影した画像と撮影条件と視界情報とをサーバ装置50へ送信する。   Then, it progresses to step S14 and transmits the image which image | photographed the predetermined point, imaging | photography conditions, and visual field information to the server apparatus 50. FIG.

これに対応して、サーバ装置50において、ステップS20で、ナビゲーション装置20から送られてきた画像と撮影条件と視界情報とを受信する。そして、ステップS21へ進んで、受信した視界情報に対応した合計点数を算出する。この合計点数の算出は、渋滞情報、車両区分、車両速度毎に作成されている、点数へ変換するテーブルに基づいて行う。   Correspondingly, the server device 50 receives the image, the shooting condition, and the view information transmitted from the navigation device 20 in step S20. And it progresses to step S21 and calculates the total score corresponding to the received visual field information. The calculation of the total score is performed based on a table that is created for each traffic jam information, vehicle classification, and vehicle speed and converted to the score.

図6は渋滞度テーブル、図7は車両区分テーブル、図8は速度テーブルである。これらのテーブルでは、前方の視界が良くなると推測される条件であるほど、点数を低く設定している。つまり、視界が良いと推測される条件ほど、合計点数は低くなる。この場合、合計点数が低いほど合計点数が良好であると言える。   6 is a congestion degree table, FIG. 7 is a vehicle classification table, and FIG. 8 is a speed table. In these tables, the score is set lower as the condition that the front field of view is estimated to be better. That is, the total score becomes lower as conditions are estimated to have better visibility. In this case, it can be said that the lower the total score, the better the total score.

渋滞情報から視界を推測する場合、渋滞度が高くなるにしたがって前方の見通しが悪くなると推測できるので、図6では渋滞度が高くなるにしたがって点数を高くしている。また、車両区分から視界を推測する場合、車両の大きさが大きくなるにしたがってカメラ33の取り付け位置が高くなると推測できるので、図7では車両の大きさが大きくなるにしたがって点数を低くしている。また、車両速度から視界を推測する場合、速度が遅いほど車間距離が小さく前方の見通しが悪くなると推測できるので、図8では車両速度が遅くなるにしたがって点数を高くしている。   When the visibility is estimated from the traffic jam information, it can be estimated that the prospect of the front becomes worse as the traffic congestion level increases. Therefore, in FIG. 6, the score is increased as the traffic congestion level increases. In addition, when the field of view is estimated from the vehicle classification, it can be estimated that the mounting position of the camera 33 increases as the size of the vehicle increases. Therefore, in FIG. 7, the score is decreased as the size of the vehicle increases. . Further, when the field of view is estimated from the vehicle speed, it can be estimated that the slower the speed, the smaller the inter-vehicle distance becomes and the worse the forward view, so in FIG. 8, the score is increased as the vehicle speed decreases.

例えば、受信した視界情報の内容が、「混雑」、「普通車」、「20〜30km/h」である場合は、図6〜8に基づいて、5+7+8=20(点)となる。なお、点数の付け方は、逆に、視界が良いと推測される条件ほど、点数を高く設定しても問題はない。この場合、合計点数が高いほど合計点数が良好であると言える。   For example, when the contents of the received field-of-view information are “congested”, “ordinary vehicle”, and “20-30 km / h”, 5 + 7 + 8 = 20 (points) based on FIGS. Note that, on the contrary, there is no problem even if the score is set higher as the condition that the field of view is estimated to be better. In this case, it can be said that the higher the total score, the better the total score.

次に、ステップS21からステップ22へ進んで、受信した撮影条件と一致する撮影条件を有する画像が既に記録媒体57に記憶されているか否かを判別する。ステップS22において、撮影条件が一致する画像を記憶していない場合、この画像を配信用に残しておくため、ステップS23へ進んで、今回受信した画像と撮影条件と合計点数とを記憶する。   Next, the process proceeds from step S 21 to step 22, where it is determined whether or not an image having a shooting condition that matches the received shooting condition is already stored in the recording medium 57. In step S22, if an image with the same shooting condition is not stored, the image is left for distribution, so that the process proceeds to step S23, and the currently received image, the shooting condition, and the total score are stored.

一方、ステップS22において、撮影条件が一致する画像を記憶している場合、ステップS24へ進んで、記憶している画像の視界情報に対応した合計点数よりも受信した画像の視界情報に対応した合計点数が低いか否かを判別する。つまり、受信した画像の方が視界がよいかどうかを判別する。   On the other hand, if the image having the same shooting condition is stored in step S22, the process proceeds to step S24, and the total corresponding to the view information of the received image is larger than the total score corresponding to the view information of the stored image. It is determined whether the score is low. That is, it is determined whether the received image has better visibility.

ステップS24において、受信した画像の視界情報に対応した合計点数の方が低い場合、この画像を配信用に残しておくため、ステップS25へ進んで、今回受信した画像と撮影条件と合計点数とを、既に記憶している情報に上書きして更新する。   In step S24, if the total score corresponding to the field of view information of the received image is lower, the process proceeds to step S25 to leave this image for distribution, and the currently received image, shooting conditions, and total score are displayed. , Update it by overwriting existing information.

一方、ステップS24において、受信した画像の視界情報に対応した合計点数の方が高い場合、ステップS26へ進んで、今回受信した画像と撮影条件と合計点数とを廃棄する。このような動作により、撮影条件が同じ場合、視界がよいと推測される画像だけが残っていくことになる。その結果、サーバ装置50は、前方の車両が写っている確率の低い画像を配信することができる。   On the other hand, if the total score corresponding to the field-of-view information of the received image is higher in step S24, the process proceeds to step S26, and the currently received image, shooting conditions, and total score are discarded. By such an operation, when the shooting conditions are the same, only an image that is assumed to have good visibility remains. As a result, the server device 50 can distribute an image with a low probability that the vehicle ahead is shown.

図9は、画像収集配信システムにおける画像配信の様子を説明する図である。車両11が交差点70に向かって進んでいるとき、交差点70から遠く離れている地点では、ナビゲーション装置20は、地図上に現在位置を重畳した画像71を表示する。そして、車両11が交差点70に近づき、交差点70の案内をする地点では、ナビゲーション装置20は、サーバ装置50へ交差点70の画像を要求し(交差点70の緯度・経度、自車の進行方向を送信する)、サーバ装置50から交差点70の現在の時間帯に合った画像73を受信し、地図上に現在位置と画像73を重畳した画像72を表示する。   FIG. 9 is a diagram for explaining a state of image distribution in the image collection / distribution system. When the vehicle 11 is traveling toward the intersection 70, the navigation apparatus 20 displays an image 71 in which the current position is superimposed on the map at a point far from the intersection 70. At a point where the vehicle 11 approaches the intersection 70 and guides the intersection 70, the navigation device 20 requests the server device 50 for an image of the intersection 70 (transmits the latitude / longitude of the intersection 70 and the traveling direction of the host vehicle). The image 73 matching the current time zone of the intersection 70 is received from the server device 50, and the image 72 in which the current position and the image 73 are superimposed on the map is displayed.

この画像73により、ユーザは前方の交差点70の様子を知ることができるので、ナビゲーション装置の付加価値が向上する。   Since the user can know the state of the intersection 70 ahead by the image 73, the added value of the navigation device is improved.

(第2実施形態)
第2実施形態が第1実施形態と異なる点は、図6〜8に示したテーブルがナビゲーション装置側に備えられ、ナビゲーション装置側で視界情報の合計点数を算出するという点である。第2実施形態のその他の構成は第1実施形態と同様であるので、以下では第1実施形態との相違点について詳細に説明し、第1実施形態と同様の部分についてはその詳細な説明を省略する。
(Second Embodiment)
The second embodiment differs from the first embodiment in that the tables shown in FIGS. 6 to 8 are provided on the navigation device side, and the total score of the visibility information is calculated on the navigation device side. Since the other configuration of the second embodiment is the same as that of the first embodiment, the difference from the first embodiment will be described in detail below, and the detailed description of the same parts as those of the first embodiment will be described below. Omitted.

ナビゲーション装置の構成は図2のブロック図と同様であるので、図2を用いてナビゲーション装置20’の構成を説明する。一方、サーバ装置の構成は図3のブロック図と同様であるので、図3を用いてサーバ装置50’の構成を説明する。   Since the configuration of the navigation device is the same as the block diagram of FIG. 2, the configuration of the navigation device 20 'will be described with reference to FIG. On the other hand, since the configuration of the server device is the same as the block diagram of FIG. 3, the configuration of the server device 50 'will be described with reference to FIG.

ナビゲーション装置20’のCPU28には、図3のCPU54に備えられていた構成である、渋滞情報から渋滞度合いを点数化する渋滞度算出部、車両区分情報からナビゲーション装置20’に搭載されたカメラ33の取り付け高さを推定して点数化する撮影部高推定部、速度情報から車間距離を推定して点数化する車間距離推定部、各点数の合計を算出する合算部が備わっている。そして、サーバ装置30’のCPU54から上記の各構成が省かれている。それに応じて、図6〜8に示したテーブルも、記録媒体57ではなく記録媒体31に記憶されている。   The CPU 28 of the navigation device 20 ′ has a configuration provided in the CPU 54 of FIG. 3, which is a traffic degree calculation unit for scoring the degree of traffic jam from the traffic jam information, and a camera 33 mounted on the navigation device 20 ′ from the vehicle classification information. An imaging unit height estimation unit for estimating the mounting height of the camera and scoring it, an inter-vehicle distance estimation unit for estimating the inter-vehicle distance from the speed information and scoring, and a summing unit for calculating the total of each score are provided. The above components are omitted from the CPU 54 of the server device 30 '. Accordingly, the tables shown in FIGS. 6 to 8 are also stored in the recording medium 31 instead of the recording medium 57.

図10は、第2実施形態の画像収集配信システムにおける画像収集に関する動作を示すフローチャートである。以下で説明するナビゲーション装置20’とサーバ装置50’の動作はそれぞれの制御部27、53によって制御される。   FIG. 10 is a flowchart illustrating an operation related to image collection in the image collection / delivery system of the second embodiment. Operations of the navigation device 20 ′ and the server device 50 ′ described below are controlled by the respective control units 27 and 53.

まず、ナビゲーション装置20において、ステップS30で、自車の現在位置が所定地点を撮影するのに適した撮影地点に到達したか否かを判断する。実際には、所定地点を撮影するためには、そこから数十メートル手前の地点から撮影する必要があるため、現在位置が所定地点の数十メートル手前の撮影に適した地点に到達したか否かを判断する。所定地点の情報(緯度・経度)は予め記録媒体31等の記憶部に格納されているので、それを読み出して現在位置と比較することで、所定地点の数十メートル手前の撮影地点に到達したか否かを判断することができる。   First, in the navigation device 20, it is determined in step S30 whether or not the current position of the host vehicle has reached a shooting point suitable for shooting a predetermined point. Actually, in order to shoot a predetermined point, it is necessary to shoot from a point several tens of meters before that, so whether or not the current position has reached a suitable point for shooting several tens of meters before the predetermined point Determine whether. Since the information (latitude / longitude) of the predetermined point is stored in advance in the storage unit such as the recording medium 31, by reading it and comparing it with the current position, it has reached a shooting point several tens of meters before the predetermined point It can be determined whether or not.

所定地点としては、ユーザが予め確認したいと思うような景色が見える地点を網羅しておけばよく、例えば、曲がり角、分岐点等の交差点、目的地、道路形状の複雑な地点、道路名称が変わる地点、道路沿いの主要施設(例えば著名な建築物や観光名所等)などが考えられる。   As the predetermined point, it is sufficient to cover a point where a user can see the scenery that the user wants to check in advance. For example, a corner, an intersection such as a branch point, a destination, a complicated point of road shape, or a road name changes. Locations and major facilities along the road (for example, famous buildings and tourist attractions) can be considered.

ステップS30で撮影地点に到達したと判断した場合は、ステップS31へ進んでカメラ33で所定地点を撮影する。撮影した画像は、RAM29等に一時的に保存する。ナビゲーション装置20が交差点を撮影する様子を説明する図は、図5と同様である。   If it is determined in step S30 that the shooting point has been reached, the process proceeds to step S31, and the camera 33 takes a picture of the predetermined point. The captured image is temporarily stored in the RAM 29 or the like. The figure explaining how the navigation device 20 captures an intersection is the same as FIG.

続いてステップS32へ進んで、撮影条件を取得する。撮影条件とは、上記所定地点の位置情報(緯度・経度)と、自車の進行方向(例えば16方角)と、撮影時間帯(例えば、年月日及び数時間単位の時間帯)とを少なくとも含む情報である。   Then, it progresses to step S32 and an imaging condition is acquired. The shooting conditions include at least the position information (latitude / longitude) of the predetermined point, the traveling direction of the vehicle (for example, 16 directions), and the shooting time zone (for example, the date and time unit of several hours). It is information to include.

続いてステップS33へ進んで、視界情報を取得する。視界情報とは、撮影した画像に前方の車両がどの程度写り込んでいるかを推測する基になる情報であり、上記所定地点の撮影時の渋滞情報と、自車の車両区分情報と、撮影時の自車の速度情報とからなる。   Then, it progresses to step S33 and visual field information is acquired. Visibility information is information that is used as a basis for estimating how much the vehicle ahead is reflected in the photographed image. Traffic information at the time of photographing at the predetermined point, vehicle classification information of the own vehicle, and at the time of photographing. Vehicle speed information.

続いてステップS34へ進んで、視界情報に対応した合計点数を算出する。この合計点数の算出は、渋滞情報、車両区分、車両速度毎に作成されている、点数へ変換するテーブル(図6〜8参照)に基づいて行う。これに関する具体的な説明は第1実施形態と同様であるので省略する。   Then, it progresses to step S34 and the total score corresponding to visual field information is calculated. The calculation of the total score is performed based on a table (see FIGS. 6 to 8) that is created for each traffic jam information, vehicle classification, and vehicle speed and that is converted into the score. Since the specific description regarding this is the same as in the first embodiment, a description thereof will be omitted.

続いてステップS35へ進んで、今回の撮影条件と一致する撮影条件が既に記録媒体31に記憶されているか否かを判別する。ステップS35において、撮影条件が一致する画像を記憶していない場合、この撮影条件と合計点数を残しておくため、ステップS36へ進んで、今回の撮影条件と合計点数とを記憶する。   Subsequently, the process proceeds to step S35, and it is determined whether or not a shooting condition that matches the current shooting condition is already stored in the recording medium 31. If it is determined in step S35 that an image having the same shooting condition is not stored, the shooting condition and the total score are stored in order to leave the shooting condition and the total score, and the current shooting condition and the total score are stored.

一方、ステップS35において、今回の撮影条件と一致する撮影条件を既に記憶している場合、ステップS37へ進んで、記憶している視界情報に対応した合計点数よりも今回の視界情報に対応した合計点数が低いか否かを判別する。つまり、今回撮影した画像の方が視界がよいかどうかを判別する。   On the other hand, in step S35, when shooting conditions that match the current shooting conditions are already stored, the process proceeds to step S37, and the total corresponding to the current view information is more than the total score corresponding to the stored view information. It is determined whether the score is low. That is, it is determined whether the image captured this time has a better field of view.

ステップS37において、今回の視界情報に対応した合計点数の方が低い場合、この撮影条件と合計点数を残しておくため、ステップS38へ進んで、今回の撮影条件と合計点数とを、既に記憶している情報に上書きして更新する。   In step S37, if the total score corresponding to the current view information is lower, in order to keep the shooting conditions and the total score, the process proceeds to step S38, and the current shooting conditions and the total score are already stored. Overwrite existing information and update.

一方、ステップS37において、今回の視界情報に対応した合計点数の方が高い場合、ステップS39へ進んで、今回撮影した画像と撮影条件と合計点数とを廃棄する。   On the other hand, in step S37, if the total score corresponding to the current view information is higher, the process proceeds to step S39, and the currently captured image, the imaging condition, and the total score are discarded.

ステップS36、S38、S39からはステップS40へ進んで、今回所定地点を撮影した画像と撮影条件と合計点数とをサーバ装置50’へ送信する。このような動作により、撮影条件が同じ場合、前回までに撮影した画像よりも視界がよいと推測される場合にだけサーバ装置50’へ送信することになる。その結果、サーバ装置50’へ送信する情報量が減少するので、サーバ装置50’の負荷を軽減することができる。   From step S36, S38, and S39, the process proceeds to step S40, and an image obtained by photographing the predetermined point this time, the photographing condition, and the total score are transmitted to the server device 50 '. With such an operation, when the shooting conditions are the same, the image is transmitted to the server device 50 ′ only when it is estimated that the field of view is better than the images shot up to the previous time. As a result, the amount of information transmitted to the server device 50 ′ is reduced, so that the load on the server device 50 ′ can be reduced.

これに対応して、サーバ装置50’において、ステップS50で、ナビゲーション装置20’から送られてきた画像と撮影条件と合計点数とを受信する。そして、ステップS51へ進んで、受信した撮影条件と一致する撮影条件を有する画像が既に記録媒体57に記憶されているか否かを判別する。ステップS51において、撮影条件が一致する画像を記憶していない場合、この画像を配信用に残しておくため、ステップS52へ進んで、今回受信した画像と撮影条件と合計点数とを記憶する。   Correspondingly, in step S50, the server device 50 'receives the image, shooting conditions, and total score sent from the navigation device 20'. Then, the process proceeds to step S51 to determine whether or not an image having a shooting condition that matches the received shooting condition is already stored in the recording medium 57. In step S51, if an image with the same shooting condition is not stored, the image is left for distribution, so that the process proceeds to step S52 to store the currently received image, the shooting condition, and the total score.

一方、ステップS51において、撮影条件が一致する画像を記憶している場合、ステップS53へ進んで、記憶している画像の視界情報に対応した合計点数よりも受信した画像の視界情報に対応した合計点数が低いか否かを判別する。つまり、受信した画像の方が視界がよいかどうかを判別する。   On the other hand, if the image having the same shooting condition is stored in step S51, the process proceeds to step S53, and the total corresponding to the view information of the received image is larger than the total score corresponding to the view information of the stored image. It is determined whether the score is low. That is, it is determined whether the received image has better visibility.

ステップS53において、受信した画像の視界情報に対応した合計点数の方が低い場合、この画像を配信用に残しておくため、ステップS54へ進んで、今回受信した画像と撮影条件と合計点数とを、既に記憶している情報に上書きして更新する。   In step S53, if the total score corresponding to the field of view information of the received image is lower, in order to leave this image for distribution, the process proceeds to step S54, and the currently received image, shooting conditions, and total score are displayed. , Update it by overwriting existing information.

一方、ステップS53において、受信した画像の視界情報に対応した合計点数の方が高い場合、ステップS55へ進んで、今回受信した画像と撮影条件と合計点数とを廃棄する。このような動作により、撮影条件が同じ場合、視界がよいと推測される画像だけが残っていくことになる。その結果、サーバ装置50は、前方の車両が写っている確率の低い画像を配信することができる。   On the other hand, if the total score corresponding to the field of view information of the received image is higher in step S53, the process proceeds to step S55, and the currently received image, shooting conditions, and total score are discarded. By such an operation, when the shooting conditions are the same, only an image that is assumed to have good visibility remains. As a result, the server device 50 can distribute an image with a low probability that the vehicle ahead is shown.

第2実施形態の画像収集配信システムにおける画像配信の様子を説明する図は、図5と同様である。   A diagram for explaining a state of image distribution in the image collection and distribution system of the second embodiment is the same as FIG.

上記の2つの実施形態では、視界情報として、渋滞情報と車両区分情報と速度情報とを挙げたが、これらの情報の少なくとも1つ以上を含んでいれば本発明の効果は得ることができる。そして、扱う情報に応じて適宜、渋滞情報取得部、車両区分取得部、速度取得部が採用される。   In the above two embodiments, the traffic jam information, the vehicle classification information, and the speed information are listed as the visibility information. However, the effect of the present invention can be obtained as long as at least one of these information is included. And according to the information to handle, a traffic jam information acquisition part, a vehicle classification acquisition part, and a speed acquisition part are employ | adopted suitably.

また上記の2つの実施形態では、視界情報の合計点数を算出する際に、3つのテーブルに基づいて算出したが、その他に図11のような撮影日テーブルを追加で用いてもよい。このテーブルでは、撮影日が古くなるにつれて点数を高く設定している。古い画像ほど現在の様子と異なっている可能性が高いため、なるべく新しい画像を残しておくようにするためである。撮影日は、ナビゲーション装置から画像とともに送信するようにしてもよいし、サーバ装置が画像を受信したときにサーバ装置内の時計から取得してもよい。   Further, in the above two embodiments, when calculating the total score of the view information, the calculation is made based on the three tables. However, an imaging date table as shown in FIG. 11 may be additionally used. In this table, the score is set higher as the shooting date becomes older. This is because an old image is likely to be different from the current state, so that a new image is kept as much as possible. The shooting date may be transmitted together with the image from the navigation device, or may be acquired from a clock in the server device when the server device receives the image.

また上記の2つの実施形態では、撮影したときの車両速度に応じて点数化したが、車両に既に車間距離を測定するセンサが付いている場合はそのセンサから得られる車間距離を車両速度の代わりに視界情報の1つとして使用してもよい。   Further, in the above two embodiments, the scoring is made according to the vehicle speed at the time of shooting, but when the vehicle already has a sensor for measuring the inter-vehicle distance, the inter-vehicle distance obtained from the sensor is used instead of the vehicle speed. May be used as one of the visual field information.

また上記2つの実施形態では、サーバ装置に同じ撮影条件の画像は1つだけ残しておくとしたが、2枚以上残しておいてもよい。例えばサーバ装置が既に同じ撮影条件の画像を2つ記憶している場合、次に同じ撮影条件の画像を受信したときには、その3つの画像の画像間差分(フレーム間差分)からノイズ除去技術を用いて画像に写り込んでいる前方の車両を除去した画像を作成し、その画像を記憶しておき配信するようにしてもよい。これにより、前方の車両が写っている確率の低い画像を提供することができる。   In the above two embodiments, only one image having the same shooting condition is left in the server device, but two or more images may be left. For example, if the server device already stores two images with the same shooting conditions, the next time an image with the same shooting conditions is received, a noise removal technique is used from the difference between the three images (difference between frames). Then, an image in which the vehicle ahead is reflected in the image is removed, and the image may be stored and distributed. Thereby, it is possible to provide an image with a low probability that the vehicle ahead is shown.

本発明の画像収集装置は、車載用やポータブルのナビゲーション装置をはじめ、地図を用いた誘導案内機能を搭載した携帯情報端末や携帯電話機など様々な装置に組み込むことができる。   The image collection device of the present invention can be incorporated into various devices such as a portable information terminal or a mobile phone equipped with a guidance guidance function using a map, as well as a vehicle-mounted or portable navigation device.

画像収集配信システムの概略図である。It is the schematic of an image collection delivery system. ナビゲーション装置の主要な構成を示すブロック図である。It is a block diagram which shows the main structures of a navigation apparatus. サーバ装置の主要な構成を示すブロック図である。It is a block diagram which shows the main structures of a server apparatus. 第1実施形態の画像収集配信システムにおける画像収集に関する動作を示すフローチャートである。It is a flowchart which shows the operation | movement regarding the image collection in the image collection delivery system of 1st Embodiment. ナビゲーション装置が交差点を撮影する様子を説明する図である。It is a figure explaining a mode that a navigation apparatus image | photographs an intersection. 渋滞度テーブルである。It is a congestion degree table. 車両区分テーブルである。It is a vehicle division table. 速度テーブルである。It is a speed table. 画像収集配信システムにおける画像配信の様子を説明する図である。It is a figure explaining the mode of the image delivery in an image collection delivery system. 第2実施形態の画像収集配信システムにおける画像収集に関する動作を示すフローチャートである。It is a flowchart which shows the operation | movement regarding the image collection in the image collection delivery system of 2nd Embodiment. 撮影日テーブルである。This is a shooting date table.

符号の説明Explanation of symbols

10 画像収集配信システム
11 車両
20、20’ ナビゲーション装置(画像収集装置)
50、50’ サーバ装置
21 GPS部(自車位置検出部)
25 無線通信部(送信部)
31、57 記録媒体(記憶部)
33 カメラ(撮影部)
51 通信部
DESCRIPTION OF SYMBOLS 10 Image collection delivery system 11 Vehicle 20, 20 'Navigation apparatus (image collection apparatus)
50, 50 'server device 21 GPS unit (own vehicle position detection unit)
25 Wireless communication unit (transmission unit)
31, 57 Recording medium (storage unit)
33 Camera (shooting unit)
51 Communication Department

Claims (6)

自車の前方を撮影する撮影部と、自車の現在位置を検出する自車位置検出部と、サーバ装置へ撮影した画像を送信する送信部とを備えた画像収集装置において、
渋滞情報を取得する渋滞情報取得部、自車の車両区分情報を取得する車両区分取得部、自車の速度情報を取得する速度取得部のうち少なくとも1つ以上を備え、
所定地点を撮影した画像と、該所定地点の位置情報及び進行方向及び撮影時間帯とを含む撮影条件とともに、該所定地点の撮影時の渋滞情報、車両区分情報、撮影時の速度情報のうち少なくとも1つ以上の情報である視界情報を前記サーバ装置へ送信することを特徴とする画像収集装置。
In an image collection device comprising an imaging unit that images the front of the vehicle, a vehicle position detection unit that detects a current position of the vehicle, and a transmission unit that transmits a captured image to the server device.
At least one or more of a traffic information acquisition unit for acquiring traffic information, a vehicle classification acquisition unit for acquiring vehicle classification information of the own vehicle, and a speed acquisition unit for acquiring speed information of the own vehicle,
At least of the traffic conditions information, vehicle classification information, and speed information at the time of shooting, together with the shooting conditions including the image of the predetermined point, the position information of the predetermined point, the traveling direction, and the shooting time zone. An image collecting apparatus that transmits view information as one or more pieces of information to the server apparatus.
自車の前方を撮影する撮影部と、自車の現在位置を検出する自車位置検出部と、サーバ装置へ撮影した画像を送信する送信部と、記憶部とを備えた画像収集装置において、
渋滞情報を取得する渋滞情報取得部、自車の車両区分情報を取得する車両区分取得部、自車の速度情報を取得する速度取得部のうち少なくとも1つ以上を備え、
渋滞情報から渋滞度合いを点数化する渋滞度算出部、車両区分情報から画像収集装置に搭載された撮影部の取り付け高さを推定して点数化する撮影部高推定部、速度情報から車間距離を推定して点数化する車間距離推定部のうちすくなくとも1つ以上と、各点数の合計を算出する合算部とを備え、
所定地点を撮影した画像と、該所定地点の位置情報及び進行方向及び撮影時間帯とを含む撮影条件とともに、該所定地点の撮影時の渋滞情報、車両区分情報、撮影時の速度情報のうち少なくとも1つ以上の情報である視界情報を取得し、
取得した視界情報に対応した合計点数を算出し、
前記撮影条件が一致する情報を記憶していない場合、前記撮影条件と前記合計点数とを記憶し、
前記撮影条件が一致する情報を記憶している場合、記憶している視界情報に対応した合計点数よりも新たに取得した視界情報に対応した合計点数が良好なとき、新たに取得した撮影条件と新たに取得した視界情報に対応した合計点数とに記憶を更新するとともに、新たに取得した所定地点を撮影した画像と撮影条件と合計点数とを前記サーバ装置へ送信することを特徴とする画像収集装置。
In an image collecting device including an imaging unit that images the front of the vehicle, a vehicle position detection unit that detects the current position of the vehicle, a transmission unit that transmits a captured image to the server device, and a storage unit,
At least one or more of a traffic information acquisition unit for acquiring traffic information, a vehicle classification acquisition unit for acquiring vehicle classification information of the own vehicle, and a speed acquisition unit for acquiring speed information of the own vehicle,
A traffic congestion degree calculation unit that scores the degree of traffic congestion from traffic information, a shooting unit height estimation unit that estimates the mounting height of the shooting unit mounted on the image collection device from vehicle classification information, and a distance between vehicles from speed information At least one inter-vehicle distance estimation unit that estimates and scores, and a summation unit that calculates the total of each score,
At least of the traffic conditions information, vehicle classification information, and speed information at the time of shooting, together with the shooting conditions including the image of the predetermined point, the position information of the predetermined point, the traveling direction, and the shooting time zone. Get visibility information that is one or more pieces of information,
Calculate the total score corresponding to the acquired view information,
If the information that the shooting conditions match is not stored, the shooting conditions and the total score are stored,
When storing information that matches the shooting conditions, when the total score corresponding to the newly acquired view information is better than the total score corresponding to the stored view information, Image collection characterized by updating the memory to the total score corresponding to the newly acquired view information and transmitting the newly acquired image, the imaging condition, and the total score to the server device apparatus.
画像収集装置からの受信を行うとともに、画像を配信する通信部と、記憶部とを備えたサーバ装置において、
渋滞情報から渋滞度合いを点数化する渋滞度算出部、車両区分情報から画像収集装置に搭載された撮影部の取り付け高さを推定して点数化する撮影部高推定部、速度情報から車間距離を推定して点数化する車間距離推定部のうちすくなくとも1つ以上と、各点数の合計を算出する合算部とを備え、
所定地点を撮影した画像と、該所定地点の位置情報及び進行方向及び撮影時間帯とを含む撮影条件とともに、該所定地点の撮影時の渋滞情報、車両区分情報、撮影時の速度情報のうち少なくとも1つ以上の情報である視界情報を受信し、
受信した視界情報に対応した合計点数を算出し、
前記撮影条件が一致する画像を記憶していない場合、前記画像と前記撮影条件と前記合計点数とを記憶し、
前記撮影条件が一致する画像を記憶している場合、該記憶している画像の視界情報に対応した合計点数よりも受信した画像の視界情報に対応した合計点数が良好なとき、受信した画像と受信した撮影条件と受信した視界情報に対応した合計点数とに記憶を更新することを特徴とするサーバ装置。
In a server device that includes a communication unit that receives an image collection device and distributes an image, and a storage unit,
A traffic congestion degree calculation unit that scores the degree of traffic congestion from traffic information, a shooting unit height estimation unit that estimates the mounting height of the shooting unit mounted on the image collection device from vehicle classification information, and a distance between vehicles from speed information At least one inter-vehicle distance estimation unit that estimates and scores, and a summation unit that calculates the total of each score,
At least of the traffic conditions information, vehicle classification information, and speed information at the time of shooting, together with the shooting conditions including the image of the predetermined point, the position information of the predetermined point, the traveling direction, and the shooting time zone. Receive visibility information, which is one or more pieces of information,
Calculate the total score corresponding to the received visibility information,
If the image that matches the shooting condition is not stored, the image, the shooting condition, and the total score are stored,
When storing images that match the shooting conditions, when the total score corresponding to the view information of the received image is better than the total score corresponding to the view information of the stored image, A server apparatus, wherein the storage is updated to received shooting conditions and a total score corresponding to received view information.
画像収集装置からの受信を行うとともに、画像を配信する通信部と、記憶部とを備えたサーバ装置において、
所定地点を撮影した画像と、該所定地点の位置情報及び進行方向及び撮影時間帯とを含む撮影条件とともに、該所定地点の撮影時の渋滞情報、車両区分情報、撮影時の速度情報のうち少なくとも1つ以上の情報である視界情報に対応した合計点数を受信し、
前記撮影条件が一致する画像を記憶していない場合、前記画像と前記撮影条件と前記合計点数とを記憶し、
前記撮影条件が一致する画像を記憶している場合、該記憶している画像の視界情報に対応した合計点数よりも受信した画像の視界情報に対応した合計点数が良好なとき、受信した画像と受信した撮影条件と受信した視界情報に対応した合計点数とに記憶を更新することを特徴とするサーバ装置。
In a server device that includes a communication unit that receives an image collection device and distributes an image, and a storage unit,
At least of the traffic conditions information, vehicle classification information, and speed information at the time of shooting, together with the shooting conditions including the image of the predetermined point, the position information of the predetermined point, the traveling direction, and the shooting time zone. Receive the total score corresponding to the visibility information that is one or more information,
If the image that matches the shooting condition is not stored, the image, the shooting condition, and the total score are stored,
When storing images that match the shooting conditions, when the total score corresponding to the view information of the received image is better than the total score corresponding to the view information of the stored image, A server apparatus, wherein the storage is updated to received shooting conditions and a total score corresponding to received view information.
自車の前方を撮影する撮影部と、自車の現在位置を検出する自車位置検出部と、サーバ装置へ撮影した画像を送信する送信部とを備えた画像収集装置と、
前記画像収集装置からの受信を行うとともに、画像を配信する通信部と、記憶部とを備えたサーバ装置とを含む画像収集配信システムにおいて、
前記画像収集装置は、
渋滞情報を取得する渋滞情報取得部、自車の車両区分情報を取得する車両区分取得部、自車の速度情報を取得する速度取得部のうち少なくとも1つ以上を備え、
所定地点を撮影した画像と、該所定地点の位置情報及び進行方向及び撮影時間帯とを含む撮影条件とともに、該所定地点の撮影時の渋滞情報、車両区分情報、撮影時の速度情報のうち少なくとも1つ以上の情報である視界情報を前記サーバ装置へ送信し、
前記サーバ装置は、
渋滞情報から渋滞度合いを点数化する渋滞度算出部、車両区分情報から画像収集装置に搭載された撮影部の取り付け高さを推定して点数化する撮影部高推定部、速度情報から車間距離を推定して点数化する車間距離推定部のうちすくなくとも1つ以上と、各点数の合計を算出する合算部とを備え、
前記所定地点を撮影した画像と、前記撮影条件と、前記視界情報とを受信し、
受信した視界情報に対応した合計点数を算出し、
前記撮影条件が一致する画像を記憶していない場合、前記画像と前記撮影条件と前記合計点数とを記憶し、
前記撮影条件が一致する画像を記憶している場合、該記憶している画像の視界情報に対応した合計点数よりも受信した画像の視界情報に対応した合計点数が良好なとき、受信した画像と受信した撮影条件と受信した視界情報に対応した合計点数とに記憶を更新することを特徴とする画像収集配信システム。
An image collecting device including a photographing unit that photographs the front of the host vehicle, a host vehicle position detecting unit that detects a current position of the host vehicle, and a transmission unit that transmits a photographed image to the server device;
In an image collection and delivery system that includes a communication device that performs reception from the image collection device and distributes an image, and a server device that includes a storage unit.
The image collecting device includes:
At least one or more of a traffic information acquisition unit for acquiring traffic information, a vehicle classification acquisition unit for acquiring vehicle classification information of the own vehicle, and a speed acquisition unit for acquiring speed information of the own vehicle,
At least of the traffic conditions information, vehicle classification information, and speed information at the time of shooting, together with the shooting conditions including the image of the predetermined point, the position information of the predetermined point, the traveling direction, and the shooting time zone. Sending visibility information that is one or more pieces of information to the server device;
The server device
A traffic congestion degree calculation unit that scores the degree of traffic congestion from traffic information, a shooting unit height estimation unit that estimates the mounting height of the shooting unit mounted on the image collection device from vehicle classification information, and a distance between vehicles from speed information At least one inter-vehicle distance estimation unit that estimates and scores, and a summation unit that calculates the total of each score,
Receiving an image of the predetermined point, the shooting condition, and the field of view information;
Calculate the total score corresponding to the received visibility information,
If the image that matches the shooting condition is not stored, the image, the shooting condition, and the total score are stored,
When storing images that match the shooting conditions, when the total score corresponding to the view information of the received image is better than the total score corresponding to the view information of the stored image, An image collection / distribution system, wherein the memory is updated to the received photographing condition and the total score corresponding to the received view information.
自車の前方を撮影する撮影部と、自車の現在位置を検出する自車位置検出部と、サーバ装置へ撮影した画像を送信する送信部と、記憶部とを備えた画像収集装置と、
前記画像収集装置からの受信を行うとともに、画像を配信する通信部と、記憶部とを備えたサーバ装置とを含む画像収集配信システムにおいて、
前記画像収集装置は、
渋滞情報を取得する渋滞情報取得部、自車の車両区分情報を取得する車両区分取得部、自車の速度情報を取得する速度取得部のうち少なくとも1つ以上を備え、
渋滞情報から渋滞度合いを点数化する渋滞度算出部、車両区分情報から画像収集装置に搭載された撮影部の取り付け高さを推定して点数化する撮影部高推定部、速度情報から車間距離を推定して点数化する車間距離推定部のうちすくなくとも1つ以上と、各点数の合計を算出する合算部とを備え、
所定地点を撮影した画像と、該所定地点の位置情報及び進行方向及び撮影時間帯とを含む撮影条件とともに、該所定地点の撮影時の渋滞情報、車両区分情報、撮影時の速度情報のうち少なくとも1つ以上の情報である視界情報を取得し、
取得した視界情報に対応した合計点数を算出し、
前記撮影条件が一致する情報を記憶していない場合、前記撮影条件と前記合計点数とを記憶し、
前記撮影条件が一致する情報を記憶している場合、記憶している視界情報に対応した合計点数よりも新たに取得した視界情報に対応した合計点数が良好なとき、新たに取得した撮影条件と新たに取得した視界情報に対応した合計点数とに記憶を更新するとともに、新たに取得した所定地点を撮影した画像と撮影条件と合計点数とを前記サーバ装置へ送信し、
前記サーバ装置は、
前記所定地点を撮影した画像と、前記撮影条件と、前記合計点数とを受信し、
前記撮影条件が一致する画像を記憶していない場合、前記画像と前記撮影条件と前記合計点数とを記憶し、
前記撮影条件が一致する画像を記憶している場合、該記憶している画像の視界情報に対応した合計点数よりも受信した画像の視界情報に対応した合計点数が良好なとき、受信した画像と受信した撮影条件と受信した視界情報に対応した合計点数とに記憶を更新することを特徴とする画像収集配信システム。
An image collection device including an imaging unit that images the front of the vehicle, a vehicle position detection unit that detects the current position of the vehicle, a transmission unit that transmits the captured image to the server device, and a storage unit;
In an image collection and delivery system that includes a communication device that performs reception from the image collection device and distributes an image, and a server device that includes a storage unit.
The image collecting device includes:
At least one or more of a traffic information acquisition unit for acquiring traffic information, a vehicle classification acquisition unit for acquiring vehicle classification information of the own vehicle, and a speed acquisition unit for acquiring speed information of the own vehicle,
A traffic congestion degree calculation unit that scores the degree of traffic congestion from traffic information, a shooting unit height estimation unit that estimates the mounting height of the shooting unit mounted on the image collection device from vehicle classification information, and a distance between vehicles from speed information At least one inter-vehicle distance estimation unit that estimates and scores, and a summation unit that calculates the total of each score,
At least of the traffic conditions information, vehicle classification information, and speed information at the time of shooting, together with the shooting conditions including the image of the predetermined point, the position information of the predetermined point, the traveling direction, and the shooting time zone. Get visibility information that is one or more pieces of information,
Calculate the total score corresponding to the acquired view information,
If the information that the shooting conditions match is not stored, the shooting conditions and the total score are stored,
When storing information that matches the shooting conditions, when the total score corresponding to the newly acquired view information is better than the total score corresponding to the stored view information, The memory is updated to the total score corresponding to the newly acquired view information, and an image obtained by capturing the newly acquired predetermined point, the imaging condition, and the total score are transmitted to the server device,
The server device
Receiving an image of the predetermined point, the shooting condition, and the total score;
If the image that matches the shooting condition is not stored, the image, the shooting condition, and the total score are stored,
When storing images that match the shooting conditions, when the total score corresponding to the view information of the received image is better than the total score corresponding to the view information of the stored image, An image collection / distribution system, wherein the memory is updated to the received photographing condition and the total score corresponding to the received view information.
JP2008324978A 2008-12-22 2008-12-22 Image collection device, server device, and image collection / distribution system Expired - Fee Related JP5294827B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008324978A JP5294827B2 (en) 2008-12-22 2008-12-22 Image collection device, server device, and image collection / distribution system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008324978A JP5294827B2 (en) 2008-12-22 2008-12-22 Image collection device, server device, and image collection / distribution system

Publications (2)

Publication Number Publication Date
JP2010146429A true JP2010146429A (en) 2010-07-01
JP5294827B2 JP5294827B2 (en) 2013-09-18

Family

ID=42566781

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008324978A Expired - Fee Related JP5294827B2 (en) 2008-12-22 2008-12-22 Image collection device, server device, and image collection / distribution system

Country Status (1)

Country Link
JP (1) JP5294827B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012098564A (en) * 2010-11-03 2012-05-24 Denso Corp Map display controller and program for map display controller
JP2013152587A (en) * 2012-01-25 2013-08-08 Toyota Motor Corp Mobile information processing system
WO2014013545A1 (en) * 2012-07-17 2014-01-23 三菱電機株式会社 In-vehicle device and center device
JP2015064830A (en) * 2013-09-26 2015-04-09 株式会社日立製作所 Information distribution system and information terminal device
JP2015129696A (en) * 2014-01-08 2015-07-16 Kddi株式会社 Route guidance system, method, program, and data structure therefor
JP2019075599A (en) * 2017-10-12 2019-05-16 クラリオン株式会社 On-vehicle device, server, display method, and transmission method
JP2019148987A (en) * 2018-02-27 2019-09-05 クラリオン株式会社 On-vehicle device, image supply method, server device, image collection method, and image acquisition system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003269971A (en) * 2002-03-20 2003-09-25 Denso Corp In-vehicle navigation device
JP2003317193A (en) * 2002-04-23 2003-11-07 Denso Corp Apparatus
WO2005098364A1 (en) * 2004-03-31 2005-10-20 Pioneer Corporation Route guidance system and method
JP2008242691A (en) * 2007-03-27 2008-10-09 Equos Research Co Ltd Information delivery service system and onboard information delivery device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003269971A (en) * 2002-03-20 2003-09-25 Denso Corp In-vehicle navigation device
JP2003317193A (en) * 2002-04-23 2003-11-07 Denso Corp Apparatus
WO2005098364A1 (en) * 2004-03-31 2005-10-20 Pioneer Corporation Route guidance system and method
JP2008242691A (en) * 2007-03-27 2008-10-09 Equos Research Co Ltd Information delivery service system and onboard information delivery device

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012098564A (en) * 2010-11-03 2012-05-24 Denso Corp Map display controller and program for map display controller
JP2013152587A (en) * 2012-01-25 2013-08-08 Toyota Motor Corp Mobile information processing system
WO2014013545A1 (en) * 2012-07-17 2014-01-23 三菱電機株式会社 In-vehicle device and center device
JP5734521B2 (en) * 2012-07-17 2015-06-17 三菱電機株式会社 In-vehicle device and center device
JPWO2014013545A1 (en) * 2012-07-17 2016-06-23 三菱電機株式会社 In-vehicle device and center device
JP2015064830A (en) * 2013-09-26 2015-04-09 株式会社日立製作所 Information distribution system and information terminal device
JP2015129696A (en) * 2014-01-08 2015-07-16 Kddi株式会社 Route guidance system, method, program, and data structure therefor
JP2019075599A (en) * 2017-10-12 2019-05-16 クラリオン株式会社 On-vehicle device, server, display method, and transmission method
JP7046555B2 (en) 2017-10-12 2022-04-04 フォルシアクラリオン・エレクトロニクス株式会社 In-vehicle device, server, display method, transmission method
JP2019148987A (en) * 2018-02-27 2019-09-05 クラリオン株式会社 On-vehicle device, image supply method, server device, image collection method, and image acquisition system
JP6998237B2 (en) 2018-02-27 2022-01-18 フォルシアクラリオン・エレクトロニクス株式会社 Server device, image collection method, and image acquisition system

Also Published As

Publication number Publication date
JP5294827B2 (en) 2013-09-18

Similar Documents

Publication Publication Date Title
JP5294827B2 (en) Image collection device, server device, and image collection / distribution system
KR101147748B1 (en) A mobile telecommunication device having a geographic information providing function and the method thereof
JP4483027B2 (en) Server device, data transmission / reception method, and recording medium
JP6207715B2 (en) Navigation system, image server, portable terminal, navigation support method, and navigation support program
JP2011506983A (en) Improved navigation device and method
JP2017528772A (en) Method and system for generating route data
TW200848703A (en) Navigation assistance using camera
JP2003302225A (en) Navigation device and program for it
JP2013250589A (en) Information processing apparatus, information processing method, and program
JP2009162722A (en) Guidance device, guidance technique, and guidance program
JP2009237945A (en) Moving image information collection system and vehicle-mounted device
US9329050B2 (en) Electronic device with object indication function and an object indicating method thereof
JP2009288212A (en) Road information distribution system and moving object terminal apparatus
US8756008B2 (en) Navigation apparatus
JP2009162697A (en) Image processing apparatus, image processing method, image processing program and recording medium thereof
KR20070098103A (en) Navigation system and method of navigating using the same
JP2014074627A (en) Navigation system for vehicle
KR20130052316A (en) Navigation system for outputting actual image and outputting method using it
JP2009009225A (en) Information display device
JP2022023863A (en) Congestion prediction system, terminal, congestion prediction method, and congestion prediction program
EP2189756A1 (en) Map data management using road ghosting characteristics
JP2010164402A (en) Information collecting device, mobile terminal device, information center, and navigation system
JP2008160447A (en) Broadcast program receiving device, broadcast program reception planning device, broadcast program receiving method, broadcast program reception planning method, program, and recording medium
JP4705394B2 (en) Navigation device, navigation method, and navigation program
JP2020024225A (en) Congestion display device, congestion display method, and congestion display program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130321

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130416

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130611

LAPS Cancellation because of no payment of annual fees