JP2014106617A - On-vehicle information providing device - Google Patents

On-vehicle information providing device Download PDF

Info

Publication number
JP2014106617A
JP2014106617A JP2012257562A JP2012257562A JP2014106617A JP 2014106617 A JP2014106617 A JP 2014106617A JP 2012257562 A JP2012257562 A JP 2012257562A JP 2012257562 A JP2012257562 A JP 2012257562A JP 2014106617 A JP2014106617 A JP 2014106617A
Authority
JP
Japan
Prior art keywords
subject
information
vehicle
unit
appearance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012257562A
Other languages
Japanese (ja)
Inventor
Naoshi Miyahara
直志 宮原
Tatsuya Mitsugi
達也 三次
Kuniyo Ieda
邦代 家田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2012257562A priority Critical patent/JP2014106617A/en
Publication of JP2014106617A publication Critical patent/JP2014106617A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an on-vehicle information providing device capable of providing information on a situation around a vehicle.SOLUTION: An on-vehicle information providing device includes: a subject extraction part 11 which extracts an image of the main subject from image data around a vehicle photographed by an on-vehicle camera 10; a built-in database 18 in which attribute information on the subject is stored for each type of the subject; a subject specification part 12 in which, based on the type of the subject discriminated from an image of the subject extracted by the subject extraction part 11, attribute information on the subject is specified from the attribute information stored in the built-in database 18, and appearance information indicating appearance during photographing of the subject is specified from the image of the subject; and a content creation part 15 in which, based on the attribute information and appearance information of the subject specified by the subject specification part 12, content including attribute and appearance of the subject is created.

Description

この発明は、車両周辺画像を画像解析して得られた情報を提供する車載情報提供装置に関する。   The present invention relates to an in-vehicle information providing apparatus that provides information obtained by image analysis of a vehicle periphery image.

例えば、特許文献1には、車両周辺を撮影した画像データから看板情報を抽出し、抽出された看板情報とこの看板が撮影された車両位置とから、この看板の提供元である施設の位置を検出するナビゲーション装置が開示されている。このようにすることで、自車の走行経路上にある施設の走行時点での最新の情報を入手することが可能となる。   For example, in Patent Document 1, signboard information is extracted from image data obtained by photographing the periphery of a vehicle, and the position of a facility that provides the signboard is determined from the extracted signboard information and the vehicle position where the signboard is photographed. A navigation device for detecting is disclosed. By doing in this way, it becomes possible to obtain the latest information at the time of traveling of the facility on the traveling route of the own vehicle.

特開2007−078632号公報JP 2007-078632 A

車両周辺の状況は、一般的に時々刻々と変化するものであり、同じ場所で撮影しても、毎回同じ画像が得られるとは限らない。例えば、車両周辺の同一の位置で撮影した歩行者または車両が毎回同じである場合は希であり、また同一の被写体であっても時間帯または季節によっては全く異なる状況で撮影され得る。   The situation around the vehicle generally changes from moment to moment, and even if a picture is taken at the same place, the same image is not always obtained. For example, it is rare if the pedestrians or vehicles photographed at the same position around the vehicle are the same each time, and even the same subject can be photographed in completely different situations depending on the time zone or season.

このように、車両周辺の画像データは同じ画像を何度も得ることができない希少価値を有しており、車両周辺画像を用いれば、時々刻々と変化する車両周辺の様々な状況を示す情報を提供することが可能である。また、これらの情報をゲームなどに加工することで、同乗者が自車周辺の状況を楽しく把握できるエンターテインメントを提供することができる。   In this way, the image data around the vehicle has a rare value that the same image cannot be obtained many times. By using the vehicle periphery image, information indicating various situations around the vehicle that change every moment can be obtained. It is possible to provide. In addition, by processing such information into a game or the like, it is possible to provide entertainment that allows passengers to enjoy the situation around the vehicle.

なお、特許文献1に代表される従来の技術は、車両周辺を撮影した画像データの活用が位置情報と紐付けたナビゲーション機能の汎用的な範囲に留まる。従って、上述のような車両周辺画像のより高度な利用は不可能である。   Note that the conventional technique represented by Patent Document 1 uses the image data obtained by photographing the periphery of the vehicle within the general range of the navigation function associated with the position information. Therefore, more advanced use of the vehicle periphery image as described above is impossible.

この発明は、上記のような課題を解決するためになされたもので、時々刻々と変化するような車両周辺の状況に関する情報を提供することができる車載情報提供装置を得ることを目的とする。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide an in-vehicle information providing apparatus capable of providing information on the situation around the vehicle that changes every moment.

この発明に係る車載情報提供装置は、車載カメラにより撮影された車両周辺の画像データを入力し、当該画像データから主要被写体の画像を抽出する被写体抽出部と、被写体の種別ごとに当該被写体に関する属性情報を記憶する記憶部と、被写体抽出部が抽出した被写体の画像から当該被写体の種別を判別し、判別した種別に基づいて記憶部に記憶された属性情報の中から当該被写体の属性情報を特定するとともに、被写体の画像から当該被写体の撮影時の外観を示す外観情報を特定する被写体特定部と、被写体特定部が特定した被写体の属性情報および外観情報に基づいて、被写体の属性および外観を含むコンテンツを生成するコンテンツ生成部と、コンテンツ生成部が生成したコンテンツを車両内のユーザに提供する情報出力部を備える。   An in-vehicle information providing device according to the present invention inputs image data around a vehicle photographed by an in-vehicle camera, extracts a main subject image from the image data, and attributes related to the subject for each type of subject. The type of the subject is determined from the storage unit that stores the information and the subject image extracted by the subject extraction unit, and the attribute information of the subject is identified from the attribute information stored in the storage unit based on the determined type In addition, the subject specifying unit for specifying appearance information indicating the appearance of the subject at the time of shooting from the subject image, and the subject attribute and appearance information based on the subject attribute information and appearance information specified by the subject specifying unit are included. A content generation unit that generates content, and an information output unit that provides the content generated by the content generation unit to users in the vehicle

この発明によれば、時々刻々と変化するような車両周辺の状況に関する情報を提供することができるという効果がある。   According to the present invention, there is an effect that it is possible to provide information on the situation around the vehicle that changes from moment to moment.

この発明の実施の形態1に係る車載情報提供装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle-mounted information provision apparatus which concerns on Embodiment 1 of this invention. 被写体特定部の構成を示すブロック図である。It is a block diagram which shows the structure of a to-be-identified part. 車両周辺画像データを基に車両に関する情報を提供する処理を示すフローチャートである。It is a flowchart which shows the process which provides the information regarding a vehicle based on vehicle periphery image data. 車両周辺画像データを基に人物に関する情報を提供する処理を示すフローチャートである。It is a flowchart which shows the process which provides the information regarding a person based on vehicle periphery image data. 車両周辺画像データを基に動物に関する情報を提供する処理を示すフローチャートである。It is a flowchart which shows the process which provides the information regarding an animal based on vehicle periphery image data. 車両周辺画像データを基に飛行機に関する情報を提供する処理を示すフローチャートである。It is a flowchart which shows the process which provides the information regarding an airplane based on vehicle periphery image data. 車両周辺画像データを基に植物に関する情報を提供する処理を示すフローチャートである。It is a flowchart which shows the process which provides the information regarding a plant based on vehicle periphery image data. 車両周辺画像データを基に標識に関する情報を提供する処理を示すフローチャートである。It is a flowchart which shows the process which provides the information regarding a label | marker based on vehicle periphery image data. 車両周辺画像データを基に地物に関する情報を提供する処理を示すフローチャートである。It is a flowchart which shows the process which provides the information regarding a feature based on vehicle periphery image data. この発明の実施の形態2に係る車載情報提供システムの概要を示す図である。It is a figure which shows the outline | summary of the vehicle-mounted information provision system which concerns on Embodiment 2 of this invention.

実施の形態1.
図1は、この発明の実施の形態1に係る車載情報提供装置の構成を示すブロック図である。図1に示すように、車載情報提供装置1は、車両に搭載され、車両周辺画像から得られた情報を提供する車載情報提供装置であって、車載カメラ10と接続する被写体抽出部11、被写体特定部12、記憶部13、補助情報取得部14、コンテンツ生成部15、アプリケーション提供部16および情報出力部17を備えて構成される。
車載カメラ10は、車両周辺を視野範囲とする車載カメラであり、車両に標準的に搭載されたリアカメラ、フロントカメラ、サイドカメラを利用してもよい。
被写体抽出部11は、車両の走行中に車載カメラ10が撮影した車両周辺の画像データを入力して、当該画像データから主要被写体の画像を抽出する。例えば、各種の被写体抽出アルゴリズムを実行して画像中の主要部(主要被写体)を抽出する。
Embodiment 1 FIG.
1 is a block diagram showing a configuration of an in-vehicle information providing apparatus according to Embodiment 1 of the present invention. As shown in FIG. 1, an in-vehicle information providing apparatus 1 is an in-vehicle information providing apparatus that is mounted on a vehicle and provides information obtained from a vehicle peripheral image. The identification unit 12, the storage unit 13, the auxiliary information acquisition unit 14, the content generation unit 15, the application provision unit 16, and the information output unit 17 are configured.
The in-vehicle camera 10 is an in-vehicle camera that has a field of view around the vehicle, and a rear camera, a front camera, and a side camera that are mounted on the vehicle as a standard may be used.
The subject extraction unit 11 inputs image data around the vehicle captured by the in-vehicle camera 10 while the vehicle is traveling, and extracts an image of the main subject from the image data. For example, various subject extraction algorithms are executed to extract the main part (main subject) in the image.

被写体特定部12は、被写体抽出部11が抽出した被写体の画像から当該被写体の種別を判別する。例えば、パターン認識技術を用いて、あらかじめ設定された種別(車両、人物、動物、航空機、植物、標識、地物など)に対応するパターンのいずれに被写体がマッチングするかを解析して当該被写体の種別を判別する。また、被写体特定部12は、判別した被写体の種別に基づいて図2で後述する内蔵データベース18を参照し、内蔵データベース18に記憶された属性情報のうちから当該被写体の属性情報を特定する。さらに、被写体特定部12は、被写体抽出部11が抽出した被写体の画像から当該被写体の撮影時の外観を示す外観情報を特定する。   The subject specifying unit 12 determines the type of the subject from the subject image extracted by the subject extracting unit 11. For example, by using pattern recognition technology, it is analyzed whether the subject matches a pattern corresponding to a preset type (vehicle, person, animal, aircraft, plant, sign, feature, etc.) Determine the type. Further, the subject specifying unit 12 specifies attribute information of the subject from the attribute information stored in the built-in database 18 by referring to the built-in database 18 described later with reference to FIG. Further, the subject specifying unit 12 specifies appearance information indicating the appearance of the subject at the time of shooting from the subject image extracted by the subject extracting unit 11.

記憶部13は、被写体特定部12が特定した被写体の属性情報、外観情報および撮影日時情報を関連付けて、当該被写体の履歴情報としてデータ保存領域13aに記憶する記憶部である。記憶部13としては、例えば、車載情報提供装置1に搭載されたハードディスクドライブ(HDD)装置、USBメモリ、記憶メディア再生装置で再生可能な記憶メディア(CD、DVD、BD)に構築される。記憶部13が記憶メディア再生装置である場合には、この装置で再生される記憶メディアにデータ保存領域13aが構築される。   The storage unit 13 is a storage unit that associates the attribute information, appearance information, and shooting date / time information of the subject specified by the subject specifying unit 12 and stores them in the data storage area 13a as history information of the subject. As the storage unit 13, for example, a hard disk drive (HDD) device, a USB memory, and a storage medium (CD, DVD, BD) that can be played back by a storage media playback device mounted on the in-vehicle information providing device 1 are constructed. When the storage unit 13 is a storage media playback device, a data storage area 13a is constructed in the storage media played back by this device.

補助情報取得部14は、被写体の種別ごとに被写体に関する属性情報を記憶する外部データベースと通信を行って属性情報を取得する情報取得部である。例えば、属性情報を記憶する特定の外部データベースに通信接続して属性情報を取得する場合と、被写体の種別を含む検索キーを生成して、インターネット上の検索エンジンで属性を検索するよう構成してもよい。   The auxiliary information acquisition unit 14 is an information acquisition unit that acquires attribute information by communicating with an external database that stores attribute information about the subject for each type of subject. For example, when the attribute information is acquired by connecting to a specific external database that stores the attribute information, a search key including the type of the subject is generated, and the attribute is searched by a search engine on the Internet. Also good.

コンテンツ生成部15は、被写体特定部12が特定した被写体の属性情報および外観情報に基づいて、被写体の属性および外観を含むコンテンツを生成するコンテンツ生成部である。例えば、被写体の種別が車両であった場合、自車とすれ違った車両を紹介するコンテンツを生成し、その車種や性能などの属性情報に加えて、その車両が撮影時にどのような外観であったかを紹介する。外観としては、その車両の色を示してもよいが、外装や、汚れの有無などであってもよい。これにより、ユーザは、特別な外装が施された車両とすれ違ったことを知ることができ、また、高級車の外観が汚れていたら残念な情報として認識することができる。このような情報は車載カメラ10による撮影で得られる、いわゆる刹那的な情報であり、ユーザはその時点の車両周辺情報を楽しむことができる。   The content generation unit 15 is a content generation unit that generates content including subject attributes and appearance based on subject attribute information and appearance information identified by the subject identifying unit 12. For example, if the type of subject is a vehicle, content that introduces a vehicle that is different from the subject vehicle is generated, and in addition to the attribute information such as the type and performance of the vehicle, the appearance of the vehicle at the time of shooting is shown. introduce. The appearance may indicate the color of the vehicle, but may also be the exterior or the presence or absence of dirt. Thereby, the user can know that the vehicle has passed a special exterior, and can recognize it as unfortunate information if the appearance of the luxury vehicle is dirty. Such information is so-called momentary information obtained by photographing with the in-vehicle camera 10, and the user can enjoy vehicle surrounding information at that time.

アプリケーション提供部16は、様々な情報提供方法を実現するアプリケーションを有しており、コンテンツ生成部15からの要求に応じてアプリケーションを提供する。アプリケーション提供部16が提供するアプリケーションとしては、例えば、情報をリスト形式で表示して車両周辺の情報を紹介するような情報提供方法を実現するものであってもよく、またクイズ形式で提供して同乗者に回答させるような対話型の情報提供方法を実現するものであってもよい。
なお、コンテンツ生成部15にあらかじめ設定されているアプリケーションのみを使用する場合には、アプリケーション提供部16を省略してもよい。
The application providing unit 16 has an application that realizes various information providing methods, and provides an application in response to a request from the content generation unit 15. As an application provided by the application providing unit 16, for example, an information providing method for displaying information in a list format and introducing information around the vehicle may be realized, or provided in a quiz format. You may implement | achieve the interactive information provision method which makes a passenger answer.
Note that the application providing unit 16 may be omitted when only the application preset in the content generating unit 15 is used.

情報出力部17は、コンテンツ生成部15により生成されたコンテンツを出力する。例えば、コンテンツを視覚的に提供する車載ディスプレイおよび聴覚的に提供する車内スピーカを備えて構成される。
なお、実施の形態2で後述するように、スマートフォンなどの携帯情報端末でコンテンツを生成し、車載のディスプレイ付きオーディオ機器が情報出力部17として機能して当該コンテンツを提供するように構成してもよい。
The information output unit 17 outputs the content generated by the content generation unit 15. For example, it includes an in-vehicle display that visually provides content and an in-vehicle speaker that provides audio.
In addition, as described later in the second embodiment, content may be generated by a portable information terminal such as a smartphone, and an in-vehicle audio device with a display may function as the information output unit 17 to provide the content. Good.

また、被写体抽出部11、被写体特定部12、補助情報取得部14、コンテンツ生成部15およびアプリケーション提供部16は、車載情報提供装置1に搭載されたCPUが、これらの構成要素の各機能を記述したプログラムを実行することにより、ソフトウエアとハードウエアとが協働した処理手段として実現される。   The subject extraction unit 11, the subject identification unit 12, the auxiliary information acquisition unit 14, the content generation unit 15, and the application provision unit 16 are described by the CPU mounted in the in-vehicle information provision device 1 for describing each function of these components By executing the program, it is realized as a processing means in which software and hardware cooperate.

図2は、被写体特定部の構成を示すブロック図であり、図1の被写体特定部12の内部機能構成を示している。図2に示す被写体特定部12は、車両特定部12a、人物特定部12b、動物特定部12c、飛行物特定部12d、植物特定部12e、標識特定部12f、地物特定部12gおよび内蔵データベース18を備えて構成される。なお、図2では、被写体特定部12が、車両特定部12a、人物特定部12b、動物特定部12c、飛行物特定部12d、植物特定部12e、標識特定部12f、地物特定部12gの全てを備える場合を示したが、これらの少なくとも一つを備えていればよい。   FIG. 2 is a block diagram showing a configuration of the subject specifying unit, and shows an internal functional configuration of the subject specifying unit 12 of FIG. The subject specifying unit 12 shown in FIG. 2 includes a vehicle specifying unit 12a, a person specifying unit 12b, an animal specifying unit 12c, a flying object specifying unit 12d, a plant specifying unit 12e, a sign specifying unit 12f, a feature specifying unit 12g, and a built-in database 18. It is configured with. In FIG. 2, the subject specifying unit 12 includes all of the vehicle specifying unit 12a, the person specifying unit 12b, the animal specifying unit 12c, the flying object specifying unit 12d, the plant specifying unit 12e, the sign specifying unit 12f, and the feature specifying unit 12g. However, what is necessary is just to provide at least one of these.

車両特定部12aは、被写体抽出部11が抽出した被写体の画像を基に被写体の種別を判別して種別が車両である場合に、内蔵データベース18を参照して当該車両の属性情報を特定し、当該車両の撮影時の外観情報を特定する。例えば、様々な車両の画像パターンがあらかじめ設定されており、このパターン認識により被写体が車両であるか否かを判別する。また、車両特定部12aは、車両の画像を検索キーとして内蔵データベース18を参照し、内蔵データベース18に記憶された属性情報のうちから被写体の車両の属性情報を特定する。さらに、車両特定部12aには外観として被写体の画像から抽出すべき項目があらかじめ設定されており、その項目に沿って撮影時の外観を判別し、外観情報を生成する。   The vehicle specifying unit 12a determines the type of the subject based on the subject image extracted by the subject extracting unit 11, and specifies the attribute information of the vehicle with reference to the built-in database 18 when the type is a vehicle. The appearance information at the time of shooting of the vehicle is specified. For example, image patterns of various vehicles are set in advance, and it is determined by this pattern recognition whether or not the subject is a vehicle. Further, the vehicle identification unit 12 a refers to the built-in database 18 using the vehicle image as a search key, and identifies the attribute information of the subject vehicle from the attribute information stored in the built-in database 18. Furthermore, items to be extracted from the image of the subject are set in advance in the vehicle identification unit 12a, and the appearance at the time of shooting is determined along the items to generate appearance information.

人物特定部12bは、被写体抽出部11が抽出した被写体の画像を基に被写体の種別を判別して種別が人物である場合に、内蔵データベース18を参照して当該人物の属性情報を特定し、当該人物の撮影時の外観情報を特定する。例えば、人間の画像パターンがあらかじめ設定されており、このパターン認識により被写体が人物であるか否かを判別する。また、人物特定部12bは、人物の画像を検索キーとして内蔵データベース18を参照し、内蔵データベース18に記憶された属性情報のうちから被写体の人物の属性情報を特定する。さらに、人物特定部12bには外観として被写体の画像から抽出すべき項目があらかじめ設定されており、その項目に沿って撮影時の外観を判別し、外観情報を生成する。   The person specifying unit 12b determines the type of the subject based on the image of the subject extracted by the subject extracting unit 11, and specifies the attribute information of the person with reference to the built-in database 18 when the type is a person. Appearance information at the time of photographing the person is specified. For example, a human image pattern is set in advance, and it is determined by this pattern recognition whether or not the subject is a person. The person specifying unit 12b refers to the built-in database 18 using a person image as a search key, and specifies attribute information of the subject person from the attribute information stored in the built-in database 18. Further, items to be extracted from the subject image are set in advance in the person specifying unit 12b as appearances, and appearances at the time of shooting are determined along the items to generate appearance information.

動物特定部12cは、被写体抽出部11が抽出した被写体の画像を基に被写体の種別を判別して種別が動物である場合に、内蔵データベース18を参照して当該動物の属性情報を特定し、当該動物の撮影時の外観情報を特定する。例えば、様々な動物(地上を移動する動物)の画像パターンがあらかじめ設定されており、このパターン認識により被写体が動物であるか否かを判別する。また、動物特定部12cは、動物の画像を検索キーとして内蔵データベース18を参照し、内蔵データベース18に記憶された属性情報のうちから被写体の動物の属性情報を特定する。さらに、動物特定部12cには外観として被写体の画像から抽出すべき項目があらかじめ設定されており、その項目に沿って撮影時の外観を判別し、外観情報を生成する。   The animal specifying unit 12c determines the type of the subject based on the image of the subject extracted by the subject extracting unit 11, and specifies the attribute information of the animal with reference to the built-in database 18 when the type is an animal. Identify appearance information at the time of photographing the animal. For example, image patterns of various animals (animals moving on the ground) are set in advance, and it is determined whether or not the subject is an animal by this pattern recognition. The animal specifying unit 12c refers to the built-in database 18 using an animal image as a search key, and specifies attribute information of the subject animal from the attribute information stored in the built-in database 18. Furthermore, items to be extracted from the subject image are set in advance in the animal specifying unit 12c as appearances, and appearances at the time of photographing are determined along the items to generate appearance information.

飛行物特定部12dは、被写体抽出部11が抽出した被写体の画像を基に被写体の種別を判別して種別が飛行物である場合に、内蔵データベース18を参照して当該飛行物の属性情報を特定し、当該飛行物の撮影時の外観情報を特定する。例えば、様々な飛行物(航空機や鳥など)の画像パターンがあらかじめ設定されており、このパターン認識によって被写体が飛行物であるか否かを判別する。また、飛行物特定部12dは、飛行物の画像を検索キーとして内蔵データベース18を参照し、内蔵データベース18に記憶された属性情報のうちから被写体の飛行物の属性情報を特定する。さらに、飛行物特定部12dには外観として被写体の画像から抽出すべき項目があらかじめ設定されており、その項目に沿って撮影時の外観を判別し、外観情報を生成する。   The flying object specifying unit 12d determines the type of the subject based on the image of the subject extracted by the subject extracting unit 11, and refers to the built-in database 18 for attribute information of the flying object when the type is a flying object. Identify the appearance information when shooting the flying object. For example, image patterns of various flying objects (aircraft, birds, etc.) are set in advance, and it is determined by this pattern recognition whether the subject is a flying object. The flying object specifying unit 12d refers to the built-in database 18 using the image of the flying object as a search key, and specifies the attribute information of the flying object of the subject from the attribute information stored in the built-in database 18. Further, items to be extracted from the image of the subject are set in advance in the flying object specifying unit 12d, and the appearance at the time of shooting is determined along the items to generate appearance information.

植物特定部12eは、被写体抽出部11が抽出した被写体の画像を基に被写体の種別を判別して種別が植物である場合に、内蔵データベース18を参照して当該植物の属性情報を特定し、当該植物の撮影時の外観情報を特定する。例えば、様々な植物(街路樹などの沿道の樹木や、沿道に設置された花壇の花など)の画像パターンがあらかじめ設定されており、このパターン認識によって被写体が植物であるか否かを判別する。また、植物特定部12eは、植物の画像を検索キーとして内蔵データベース18を参照し、内蔵データベース18に記憶された属性情報のうちから被写体の植物の属性情報を特定する。さらに、植物特定部12eには外観として被写体の画像から抽出すべき項目があらかじめ設定されており、その項目に沿って撮影時の外観を判別し、外観情報を生成する。   The plant specifying unit 12e determines the type of the subject based on the image of the subject extracted by the subject extracting unit 11, and specifies the attribute information of the plant with reference to the built-in database 18 when the type is a plant. Appearance information at the time of photographing the plant is specified. For example, image patterns of various plants (roadside trees such as street trees and flowerbed flowers installed along the roadside) are set in advance, and it is determined whether or not the subject is a plant by this pattern recognition. . The plant specifying unit 12e refers to the built-in database 18 using a plant image as a search key, and specifies the attribute information of the subject plant from the attribute information stored in the built-in database 18. Furthermore, items to be extracted from the image of the subject are set in advance in the plant specifying unit 12e, and the appearance at the time of shooting is determined along the items to generate appearance information.

標識特定部12fは、被写体抽出部11が抽出した被写体の画像を基に被写体の種別を判別して種別が標識である場合に、内蔵データベース18を参照して当該標識の属性情報を特定し、当該標識の撮影時の外観情報を特定する。例えば、様々な標識の画像パターンがあらかじめ設定されており、このパターン認識によって被写体が標識であるか否かを判別する。また、標識特定部12fは、標識の画像を検索キーとして内蔵データベース18を参照し、内蔵データベース18に記憶された属性情報のうちから被写体の標識の属性情報を特定する。さらに、標識特定部12fには外観として被写体の画像から抽出すべき項目があらかじめ設定されており、その項目に沿って撮影時の外観を判別し、外観情報を生成する。   The sign specifying unit 12f determines the type of the subject based on the image of the subject extracted by the subject extracting unit 11, and specifies the attribute information of the sign with reference to the built-in database 18 when the type is a sign. Appearance information at the time of photographing the sign is specified. For example, image patterns of various signs are set in advance, and it is determined by this pattern recognition whether or not the subject is a sign. In addition, the sign identifying unit 12f refers to the built-in database 18 using the sign image as a search key, and identifies the attribute information of the object sign from the attribute information stored in the built-in database 18. Furthermore, items to be extracted from the image of the subject are set in advance in the sign specifying unit 12f, and the appearance at the time of shooting is determined along the items to generate appearance information.

地物特定部12gは、被写体抽出部11が抽出した被写体の画像を基に被写体の種別を判別して種別が地物である場合に、内蔵データベース18を参照して当該地物の属性情報を特定し、当該地物の撮影時の外観情報を特定する。例えば、様々な地物(標識などの沿道の設置物以外の建物や山、川など)の画像パターンがあらかじめ設定されており、このパターン認識によって被写体が地物であるか否かを判別する。また、地物特定部12gは、地物の画像を検索キーとして内蔵データベース18を参照し、内蔵データベース18に記憶された属性情報のうちから被写体の地物の属性情報を特定する。さらに、地物特定部12gには外観として被写体の画像から抽出すべき項目があらかじめ設定されており、その項目に沿って撮影時の外観を判別し、外観情報を生成する。   The feature specifying unit 12g determines the type of the subject based on the image of the subject extracted by the subject extraction unit 11, and when the type is the feature, refers to the built-in database 18 to obtain attribute information of the feature. Identify the appearance information at the time of shooting the feature. For example, image patterns of various features (buildings, mountains, rivers, etc. other than roadside installations such as signs) are set in advance, and it is determined by this pattern recognition whether the subject is a feature. The feature identifying unit 12g refers to the built-in database 18 using the feature image as a search key, and identifies the attribute information of the subject's feature from the attribute information stored in the built-in database 18. Further, items to be extracted from the subject image are set in advance in the feature specifying unit 12g, and the appearance at the time of shooting is determined along the items to generate appearance information.

内蔵データベース18は、被写体の種別ごとに当該被写体に関する属性情報を記憶するデータベースである。例えば、被写体の種別ごとのパターン画像とその被写体の属性情報とが関連付けて登録しておく。属性情報を特定する場合、被写体の画像データから抽出した特徴情報(被写体の外観など)とパターン画像を比較して最も合致するものを判別し、これに基づいて、その被写体の属性情報を特定する。
なお、内蔵データベース18としては、記憶部13と同様に、例えば、車載情報提供装置1に搭載されたハードディスクドライブ(HDD)装置、USBメモリ、記憶メディア再生装置で再生可能な記憶メディア(CD、DVD、BD)に構築してもよい。
The built-in database 18 is a database that stores attribute information regarding the subject for each type of subject. For example, the pattern image for each subject type and the attribute information of the subject are registered in association with each other. When specifying attribute information, the feature information extracted from the image data of the subject (such as the appearance of the subject) is compared with the pattern image to determine the best match, and based on this, the attribute information of the subject is specified. .
As the built-in database 18, as with the storage unit 13, for example, a storage medium (CD, DVD) that can be played back by a hard disk drive (HDD) device, a USB memory, or a storage media playback device mounted on the in-vehicle information providing device 1. , BD).

次に動作について説明する。
以降では、被写体が、車両、人物、動物、飛行物、植物、標識および地物であった場合を例に挙げて、種別の特定からコンテンツの生成までの処理を述べる。
図3は、車両周辺画像データを基に車両に関する情報を提供する処理を示すフローチャートであり、被写体が車両であった場合の処理を示している。
被写体特定部12が、被写体抽出部11が抽出した被写体の画像データを入力すると、車両特定部12a、人物特定部12b、動物特定部12c、飛行物特定部12d、植物特定部12e、標識特定部12fおよび地物特定部12gに当該画像データをそれぞれ振り分けて出力する。これにより、各特定部12a〜12gは、被写体の画像を解析して、自身が特定すべき種別であるか否かを判別する。ここでは、被写体が車両であるので、車両特定部12aが、被写体の種別が車両であると判別する(ステップST1)。なお、被写体が、自身が特定すべき種別ではなかった場合、その特定部はその後の処理を停止する。
Next, the operation will be described.
In the following, processing from specification of a type to generation of content will be described, taking as an example the case where the subject is a vehicle, a person, an animal, a flying object, a plant, a sign, and a feature.
FIG. 3 is a flowchart showing a process for providing information related to the vehicle based on the vehicle periphery image data, and shows the process when the subject is a vehicle.
When the subject specifying unit 12 inputs the image data of the subject extracted by the subject extracting unit 11, the vehicle specifying unit 12a, the person specifying unit 12b, the animal specifying unit 12c, the flying object specifying unit 12d, the plant specifying unit 12e, and the sign specifying unit The image data is sorted and output to 12f and the feature specifying unit 12g. Thereby, each specification part 12a-12g analyzes a to-be-photographed object, and discriminate | determines whether it is the classification which should identify itself. Here, since the subject is a vehicle, the vehicle specifying unit 12a determines that the type of the subject is a vehicle (step ST1). If the subject is not the type that the subject should identify, the identifying unit stops the subsequent processing.

次に、車両特定部12aは、被写体の画像データが、車両の属性と外観の特定に必要な特徴点の抽出が可能なデータであるか否かを判定する(ステップST2)。
ここで、特徴点が抽出不可能な画像データである場合(ステップST2;NO)、車両の属性と外観の特定に必要な特徴点の抽出が可能な画像データが得られるまで、ステップST1からの処理を繰り返す。すなわち、車載カメラ10が、車両周辺の状況を動画として撮影するか、同一被写体が得られるであろう短い撮影間隔で撮影を行うことで、被写体の特定が的確に行えるようにする。
Next, the vehicle specifying unit 12a determines whether or not the image data of the subject is data that can extract feature points necessary for specifying the attributes and appearance of the vehicle (step ST2).
Here, if the feature point is image data that cannot be extracted (step ST2; NO), the process from step ST1 until image data that can extract the feature point necessary for specifying the attributes and appearance of the vehicle is obtained. Repeat the process. In other words, the vehicle-mounted camera 10 captures the situation around the vehicle as a moving image, or shoots at a short shooting interval at which the same subject can be obtained, so that the subject can be specified accurately.

車両の属性と外観の特定に必要な特徴点の抽出が可能である場合(ステップST2;YES)、車両特定部12aは、被写体である車両の画像データから特徴点の抽出を行う(ステップST3)。これにより、被写体である車両の外観(検索キーとなればよいので、例えば二値化処理して取得した車両の輪郭画像であってもよい)を示す特徴情報が生成される。   When feature points necessary for specifying the attributes and appearance of the vehicle can be extracted (step ST2; YES), the vehicle specifying unit 12a extracts feature points from the image data of the vehicle that is the subject (step ST3). . As a result, feature information indicating the appearance of the vehicle as the subject (which may be a search key and may be a contour image of the vehicle obtained by binarization processing, for example) is generated.

続いて、車両特定部12aは、ステップST3で生成した特徴情報と、内蔵データベース18の各属性情報に対応するパターン画像とを比較して、これらが合致する属性情報があるか否かを判定する(ステップST4)。
ここで、両者が合致する属性情報がない場合(ステップST4;NO)、車両特定部12aは、補助情報取得部14に指示して外部データベースを参照することで、当該特徴情報に対応する属性情報を取得する(ステップST5)。
Subsequently, the vehicle identification unit 12a compares the feature information generated in step ST3 with the pattern image corresponding to each attribute information in the built-in database 18, and determines whether there is attribute information that matches these. (Step ST4).
Here, when there is no attribute information that matches the two (step ST4; NO), the vehicle identification unit 12a instructs the auxiliary information acquisition unit 14 to refer to the external database, thereby attribute information corresponding to the feature information. Is acquired (step ST5).

内蔵データベース18に対応する属性情報がある場合(ステップST4;YES)、または、ステップST5で外部データベースから当該属性情報を取得した場合、車両特定部12aは、この属性情報を被写体の車両の属性情報として特定する。属性情報を特定すると、車両特定部12aは、被写体である車両の画像データをより詳細に解析して、当該車両の撮影時の外観情報を特定する。ここまでの処理がステップST6の処理となる。
なお、車両の属性情報としては、例えば、車種タイプ、カーメーカー名、ブランド名、車種名、製造年式、本体色名、グレード名、排気量、駆動方式、カーメーカー国名、最高馬力、エンジン方式、車重、最高速度、燃費、0−100km/hの加速時間およびその他の当該車両のスペックに関する情報がある。
また、車両の外観情報としては、例えば、車両の色(属性にある色以外にカスタマイズされた塗装を含む)、外装(ホイールやエアロパーツ、ステッカー、シールなど)、汚れ具合、傷付き具合、車外から視認可能な内装(窓から見えるもの)などがある。
When there is attribute information corresponding to the built-in database 18 (step ST4; YES), or when the attribute information is acquired from the external database in step ST5, the vehicle specifying unit 12a uses this attribute information as attribute information of the subject vehicle. As specified. When the attribute information is specified, the vehicle specifying unit 12a analyzes the image data of the vehicle that is the subject in more detail, and specifies appearance information at the time of shooting the vehicle. The process so far is the process of step ST6.
In addition, as vehicle attribute information, for example, vehicle type, car manufacturer name, brand name, vehicle type name, year of manufacture, body color name, grade name, displacement, drive system, car manufacturer country name, maximum horsepower, engine system Vehicle weight, maximum speed, fuel consumption, acceleration time of 0-100 km / h, and other information related to the specifications of the vehicle.
In addition, vehicle exterior information includes, for example, vehicle colors (including customized paints other than those in attributes), exterior (wheels, aero parts, stickers, seals, etc.), dirt, scratches, and outside the vehicle. There are interiors visible from the window (those visible from the window).

次に、ステップST7において、車両特定部12aは、特定した属性情報と外観情報を撮影日時情報と併せて記憶部13のデータ保存領域13aに保存する。なお、自車の位置情報を得ることができる場合には、撮影場所の情報も併せて保存してもよい。
また、車両特定部12aは、データ保存領域13aを参照して同一の属性の履歴情報を検索する。同一の属性の履歴情報があれば、車両特定部12aは、これをデータ保存領域13aから読み出し、今回取得した属性情報および外観情報と併せてコンテンツ生成部15に送信する(ステップST8)。
Next, in step ST7, the vehicle specifying unit 12a stores the specified attribute information and appearance information in the data storage area 13a of the storage unit 13 together with the shooting date / time information. In addition, when the position information of the own vehicle can be obtained, the information on the shooting location may be stored together.
Moreover, the vehicle specific | specification part 12a searches the log | history information of the same attribute with reference to the data storage area | region 13a. If there is history information with the same attribute, the vehicle identification unit 12a reads it from the data storage area 13a and transmits it to the content generation unit 15 together with the attribute information and appearance information acquired this time (step ST8).

コンテンツ生成部15は、車両特定部12aから受信した車両の属性情報と外観情報に基づいて、当該車両の属性および外観を含むコンテンツを生成する。
例えば、撮影画像から特定された車両を逐一登録するマイアルバムを作成し、車両ごとの属性に併せて車両の汚れ具合や傷付き具合、新品、手入れ状態を登録する。
このようにすることで、同乗者は、情報出力部17(車載ディスプレイ)に表示されたアルバムを参照すれば、自車とすれ違った車両に関する情報をドライブ中にリアルタイムに得ることができる。また、運転に注力しなければならない運転者も、自車とすれ違った車両に関する情報をドライブ後に知ることが可能である。この場合、撮影場所情報も含めて提示することで、ユーザが車両との遭遇場所も把握することができる。
The content generation unit 15 generates content including the attribute and appearance of the vehicle based on the vehicle attribute information and appearance information received from the vehicle specifying unit 12a.
For example, a My Album that registers vehicles identified from captured images one by one is created, and the degree of dirt, scratches, newness, and condition of the vehicle are registered in accordance with the attributes of each vehicle.
By doing in this way, the passenger can obtain in real time information on the vehicle passing the own vehicle while driving by referring to the album displayed on the information output unit 17 (in-vehicle display). In addition, a driver who has to focus on driving can know information about a vehicle that is different from the own vehicle after driving. In this case, the user can also grasp the location where the user encounters the vehicle by presenting the shooting location information.

また、履歴情報がある場合、コンテンツ生成部15は、同一属性の車両の出現頻度をカウントし、当該車両との遭遇履歴とすることも可能である。
例えば、同じブランドの車両の過去の遭遇頻度、車種およびその他の属性情報を組み合わせたクイズを作成して提供することで、同乗者が有効に情報を活用し楽しく暇つぶしを行うことができる。
また、上述したマイアルバムに登録した情報を利用して、対象車両の各種の車両情報や手入れ度合いをパラメータとして、これらのパラメータに対応する点数を付与し、例えばカードゲームとして同乗者や他の車両に乗っている他のユーザと対戦ゲームを行うような態様も実現可能である。
In addition, when there is history information, the content generation unit 15 can count the appearance frequency of vehicles having the same attribute to obtain an encounter history with the vehicle.
For example, by creating and providing a quiz that combines past encounter frequencies, vehicle types, and other attribute information of vehicles of the same brand, passengers can effectively utilize the information and perform fun time killing.
Also, using the information registered in the above-mentioned my album, various vehicle information and the degree of care of the target vehicle are used as parameters, and points corresponding to these parameters are given. For example, passengers and other vehicles as card games It is also possible to realize a mode in which a battle game is played with other users who are on the road.

図4は、車両周辺画像データを基に人物に関する情報を提供する処理を示すフローチャートであり、被写体が人物であった場合の処理を示している。
被写体特定部12が、被写体抽出部11が抽出した被写体の画像データを入力すると、車両特定部12a、人物特定部12b、動物特定部12c、飛行物特定部12d、植物特定部12e、標識特定部12fおよび地物特定部12gに当該画像データをそれぞれ振り分けて出力する。ここで、人物特定部12bが、被写体の種別が人物であると判別する(ステップST1a)。
FIG. 4 is a flowchart showing a process for providing information about a person based on the vehicle periphery image data, and shows the process when the subject is a person.
When the subject specifying unit 12 inputs the image data of the subject extracted by the subject extracting unit 11, the vehicle specifying unit 12a, the person specifying unit 12b, the animal specifying unit 12c, the flying object specifying unit 12d, the plant specifying unit 12e, and the sign specifying unit The image data is sorted and output to 12f and the feature specifying unit 12g. Here, the person specifying unit 12b determines that the type of the subject is a person (step ST1a).

次に、人物特定部12bは、被写体の画像データが、人物の属性と外観の特定に必要な特徴点の抽出が可能なデータであるか否かを判定する(ステップST2a)。
ここで、特徴点が抽出不可能な画像データである場合(ステップST2a;NO)、人物の属性と外観の特定に必要な特徴点の抽出が可能な画像データが得られるまで、ステップST1aからの処理を繰り返す。すなわち、車載カメラ10が、車両周辺の状況を動画として撮影するか、同一被写体が得られるであろう短い撮影間隔で撮影を行うことで、被写体の特定が的確に行えるようにする。
Next, the person specifying unit 12b determines whether or not the image data of the subject is data that can extract feature points necessary for specifying the attributes and appearance of the person (step ST2a).
Here, if the feature points cannot be extracted (step ST2a; NO), the process from step ST1a is performed until image data that can extract the feature points necessary for specifying the attributes and appearance of the person is obtained. Repeat the process. In other words, the vehicle-mounted camera 10 captures the situation around the vehicle as a moving image, or shoots at a short shooting interval at which the same subject can be obtained, so that the subject can be specified accurately.

人物の属性と外観の特定に必要な特徴点の抽出が可能である場合(ステップST2a;YES)、人物特定部12bは、被写体である人物の画像データから特徴点の抽出を行う(ステップST3a)。これにより、被写体である人物の外観(検索キーとなればよいので、例えば二値化処理して取得した人物の輪郭画像であってもよい)を示す特徴情報が生成される。   When the feature points necessary for specifying the attributes and appearance of the person can be extracted (step ST2a; YES), the person specifying unit 12b extracts the feature points from the image data of the person who is the subject (step ST3a). . As a result, feature information indicating the appearance of the person who is the subject (which may be a search key and may be a contour image of a person obtained by binarization processing, for example) is generated.

続いて、人物特定部12bは、ステップST3aで生成した特徴情報と、内蔵データベース18の各属性情報に対応するパターン画像とを比較して、これらが合致する属性情報があるか否かを判定する(ステップST4a)。ここで、両者が合致する属性情報がない場合(ステップST4a;NO)、人物特定部12bは、補助情報取得部14に指示して外部データベースを参照し、当該特徴情報に対応する属性情報があるか否かを判定する(ステップST5a)。外部データベースに属性情報がなければ(ステップST5a;NO)、ユーザが、不図示の入力装置を用いて、その人物に関する属性情報を人物特定部12bに入力する(ステップST6a)。
なお、内蔵データベース18には、ユーザが入力した人物に関する詳細情報を属性情報として登録しておく。例えば、ユーザの知人に関する情報(名前、住所、職業、性別、年齢、人種など)を、その人物の画像データと併せて登録する。また、被写体の人物が著名人であれば、その詳細な情報を外部データベースから取得可能である。
Subsequently, the person specifying unit 12b compares the feature information generated in step ST3a with the pattern image corresponding to each attribute information in the built-in database 18, and determines whether there is attribute information that matches these. (Step ST4a). Here, when there is no attribute information that matches the two (step ST4a; NO), the person identifying unit 12b instructs the auxiliary information acquiring unit 14 to refer to the external database, and there is attribute information corresponding to the feature information. (Step ST5a). If there is no attribute information in the external database (step ST5a; NO), the user inputs attribute information about the person to the person specifying unit 12b using an input device (not shown) (step ST6a).
In the built-in database 18, detailed information regarding the person input by the user is registered as attribute information. For example, information related to the user's acquaintance (name, address, occupation, sex, age, race, etc.) is registered together with the image data of the person. If the subject person is a celebrity, detailed information can be acquired from an external database.

ステップST3aで生成した特徴情報と合致する属性情報が内蔵データベース18にある場合(ステップST4a;YES)、または、ステップST3aで生成した特徴情報と合致する属性情報が外部データベースにある場合(ステップST5a;YES)、またはステップST6aでユーザにより属性情報が入力されると、人物特定部12bは、この属性情報を被写体の人物の属性情報として特定する。
属性情報を特定した後に、人物特定部12bは、被写体である人物の画像データをより詳細に解析して当該人物の撮影時の外観情報を特定する。ここまでの処理がステップST7aの処理となる。
なお、人物の属性情報としては、例えば、名前、性別、住所、出身地、生年月日、職業、家族構成、学歴、政治思想およびその他の当該人物に関する情報がある。
また、人物の外観情報としては、例えば、人物の服装、体型、人種などがある。
When attribute information matching the feature information generated in step ST3a is in the built-in database 18 (step ST4a; YES), or when attribute information matching the feature information generated in step ST3a is in the external database (step ST5a; YES) or when attribute information is input by the user in step ST6a, the person specifying unit 12b specifies this attribute information as attribute information of the person of the subject.
After specifying the attribute information, the person specifying unit 12b analyzes the image data of the person who is the subject in more detail and specifies the appearance information at the time of shooting the person. The process so far is the process of step ST7a.
The person attribute information includes, for example, name, sex, address, birthplace, date of birth, occupation, family structure, educational background, political thought, and other information related to the person.
The appearance information of a person includes, for example, a person's clothes, body shape, race, and the like.

次に、ステップST8aにおいて、人物特定部12bは、特定した属性情報と外観情報を撮影日時情報と併せて記憶部13のデータ保存領域13aに保存する。なお、自車の位置情報を得ることができる場合には、撮影場所の情報も併せて保存してもよい。
また、人物特定部12bは、データ保存領域13aを参照して同一の属性の履歴情報を検索する。同一の属性の履歴情報があれば、人物特定部12bは、これをデータ保存領域13aから読み出し、今回取得した属性情報および外観情報と併せてコンテンツ生成部15に送信する(ステップST9a)。
Next, in step ST8a, the person specifying unit 12b stores the specified attribute information and appearance information in the data storage area 13a of the storage unit 13 together with the shooting date / time information. In addition, when the position information of the own vehicle can be obtained, the information on the shooting location may be stored together.
The person specifying unit 12b searches the history information with the same attribute with reference to the data storage area 13a. If there is history information with the same attribute, the person identification unit 12b reads it from the data storage area 13a and transmits it to the content generation unit 15 together with the attribute information and appearance information acquired this time (step ST9a).

コンテンツ生成部15は、人物特定部12bから受信した人物の属性情報と外観情報に基づいて、当該人物の属性および外観を含むコンテンツを生成する。
例えば、著名人またはユーザが登録した人物の詳細情報を提供するコンテンツを生成する。また、撮影時のファッションを分類または評価して提供することで、雑誌やテレビ、ネットなどから間接的に把握するのではなく、実際に歩行者が着用しているファッションを直接的に把握することができる。
The content generation unit 15 generates content including the attribute and appearance of the person based on the attribute information and appearance information of the person received from the person specifying unit 12b.
For example, content that provides detailed information of a celebrity or a person registered by a user is generated. In addition, by classifying or evaluating the fashion at the time of shooting, it is possible to directly grasp the fashion actually worn by pedestrians rather than indirectly from magazines, TV, the Internet, etc. Can do.

また、履歴情報がある場合、コンテンツ生成部15は、同一人物の属性情報の取得頻度をカウントし、当該人物との遭遇履歴とすることも可能である。この遭遇履歴を用いて、前回に会った日時や場所を確認してもよく、名前を失念した場合に利用することもできる。
さらに、ドライブ中に撮影された人物の着衣の情報から、例えば、長袖着用率の推移をグラフとし、季節の移ろいを視覚化したコンテンツとすることで、例年との比較が可能である。また、このコンテンツを通信で他の地域のユーザに提供することにより、着衣の参考情報とすることも可能である。
In addition, when there is history information, the content generation unit 15 can count the acquisition frequency of attribute information of the same person and use it as an encounter history with the person. You can use this encounter history to check the date and place you last met, or use it if you forget your name.
Furthermore, from the information on the clothes of the person photographed during the driving, for example, the transition of the long-sleeved wearing rate is used as a graph, and the content that visualizes the transition of the season can be compared with the usual year. In addition, by providing this content to users in other regions through communication, it is possible to provide reference information for clothing.

図5は、車両周辺画像データを基に動物に関する情報を提供する処理を示すフローチャートであり、被写体が人間以外の動物であった場合の処理を示している。
被写体特定部12が、被写体抽出部11が抽出した被写体の画像データを入力すると、車両特定部12a、人物特定部12b、動物特定部12c、飛行物特定部12d、植物特定部12e、標識特定部12fおよび地物特定部12gに当該画像データをそれぞれ振り分けて出力する。ここで、動物特定部12cが、被写体の種別が動物であると判別する(ステップST1b)。
FIG. 5 is a flowchart showing a process of providing information about animals based on the vehicle periphery image data, and shows a process when the subject is an animal other than a human.
When the subject specifying unit 12 inputs the image data of the subject extracted by the subject extracting unit 11, the vehicle specifying unit 12a, the person specifying unit 12b, the animal specifying unit 12c, the flying object specifying unit 12d, the plant specifying unit 12e, and the sign specifying unit The image data is sorted and output to 12f and the feature specifying unit 12g. Here, the animal specifying unit 12c determines that the type of subject is an animal (step ST1b).

次に、動物特定部12cは、被写体の画像データが、動物の属性と外観の特定に必要な特徴点の抽出が可能なデータであるか否かを判定する(ステップST2b)。
ここで、特徴点が抽出不可能な画像データである場合(ステップST2b;NO)、動物の属性と外観の特定に必要な特徴点の抽出が可能な画像データが得られるまで、ステップST1bからの処理を繰り返す。すなわち、車載カメラ10が、車両周辺の状況を動画として撮影するか、同一被写体が得られるであろう短い撮影間隔で撮影を行うことで、被写体の特定が的確に行えるようにする。
Next, the animal specifying unit 12c determines whether or not the image data of the subject is data capable of extracting feature points necessary for specifying the attributes and appearance of the animal (step ST2b).
Here, when the feature point is image data that cannot be extracted (step ST2b; NO), until the image data that can extract the feature point necessary for specifying the attribute and appearance of the animal is obtained, the process from step ST1b is performed. Repeat the process. In other words, the vehicle-mounted camera 10 captures the situation around the vehicle as a moving image, or shoots at a short shooting interval at which the same subject can be obtained, so that the subject can be specified accurately.

動物の属性と外観の特定に必要な特徴点の抽出が可能である場合(ステップST2b;YES)、動物特定部12cは、被写体である動物の画像データから特徴点の抽出を行う(ステップST3b)。これにより、被写体である動物の外観(検索キーとなればよいので、例えば二値化処理して取得した動物の輪郭画像であってもよい)を示す特徴情報が生成される。   When the feature points necessary for specifying the attributes and appearance of the animal can be extracted (step ST2b; YES), the animal specifying unit 12c extracts the feature points from the image data of the animal that is the subject (step ST3b). . As a result, feature information indicating the appearance of the animal that is the subject (which may be a search key and may be an outline image of the animal obtained by binarization, for example) is generated.

続いて、動物特定部12cは、ステップST3bで生成した特徴情報と、内蔵データベース18の各属性情報に対応するパターン画像とを比較して、これらが合致する属性情報があるか否かを判定する(ステップST4b)。ここで、両者が合致する属性情報がない場合(ステップST4b;NO)、動物特定部12cは、補助情報取得部14に指示して外部データベースを参照することにより、当該特徴情報に対応する動物の個体ごとに固有な名前またはローカルな属性情報があるか否かを判定する(ステップST5b)。この属性情報が外部データベースになければ(ステップST5b;NO)、ユーザが、不図示の入力装置を用いて、その動物に関する属性情報(名前(ペット名)、性格など)を、動物特定部12cに入力する(ステップST6b)。
なお、内蔵データベース18には、動物に関する詳細情報を属性情報として登録しておく。例えば、ユーザや近所の人のペットに関する情報(名前、住所、性別、年齢、種類など)を、その動物の画像データと併せて登録する。
Subsequently, the animal specifying unit 12c compares the feature information generated in step ST3b with the pattern image corresponding to each attribute information in the built-in database 18, and determines whether there is attribute information that matches the feature information. (Step ST4b). Here, when there is no attribute information that matches the two (step ST4b; NO), the animal identification unit 12c instructs the auxiliary information acquisition unit 14 to refer to the external database, and thereby the animal corresponding to the feature information is identified. It is determined whether there is a unique name or local attribute information for each individual (step ST5b). If this attribute information is not in the external database (step ST5b; NO), the user uses the input device (not shown) to send the attribute information (name (pet name), personality, etc.) regarding the animal to the animal identification unit 12c. Input (step ST6b).
In the built-in database 18, detailed information about animals is registered as attribute information. For example, information (name, address, sex, age, type, etc.) related to pets of users and neighbors is registered together with the image data of the animal.

ステップST3bで生成した特徴情報と合致する属性情報が内蔵データベース18にある場合(ステップST4b;YES)、または、ステップST3bで生成した特徴情報と合致する属性情報が外部データベースにある場合(ステップST5b;YES)、またはステップST6bでユーザにより属性情報が入力されると、動物特定部12cは、この属性情報を被写体の動物の属性情報として特定する。
属性情報を特定した後に、動物特定部12cは、被写体である動物の画像データをより詳細に解析して当該動物の撮影時の外観情報を特定する。ここまでの処理がステップST7bの処理となる。
なお、動物の属性情報としては、例えば、名称(動物の名前)、ペット名、分布地域、飼い主の名前、住所およびその他の当該動物に関する情報がある。
また、動物の外観情報としては、例えば、動物の模様、汚れ具合、手入れ具合などがある。
When attribute information matching the feature information generated in step ST3b is in the built-in database 18 (step ST4b; YES), or attribute information matching the feature information generated in step ST3b is in the external database (step ST5b; YES) or when attribute information is input by the user in step ST6b, the animal specifying unit 12c specifies this attribute information as attribute information of the subject animal.
After specifying the attribute information, the animal specifying unit 12c analyzes the image data of the animal that is the subject in more detail and specifies the appearance information at the time of photographing the animal. The process so far is the process of step ST7b.
The animal attribute information includes, for example, a name (animal name), pet name, distribution area, owner name, address, and other information related to the animal.
The animal appearance information includes, for example, animal patterns, dirt conditions, and care conditions.

次に、ステップST8bにおいて、動物特定部12cは、特定した属性情報と外観情報を撮影日時情報と併せて記憶部13のデータ保存領域13aに保存する。なお、自車の位置情報を得ることができる場合には、撮影場所の情報も併せて保存してもよい。
また、動物特定部12cは、データ保存領域13aを参照して同一の属性の履歴情報を検索する。同一の属性の履歴情報があれば、動物特定部12cは、これをデータ保存領域13aから読み出し、今回取得した属性情報および外観情報と併せてコンテンツ生成部15に送信する(ステップST9b)。
Next, in step ST8b, the animal specifying unit 12c stores the specified attribute information and appearance information in the data storage area 13a of the storage unit 13 together with the shooting date / time information. In addition, when the position information of the own vehicle can be obtained, the information on the shooting location may be stored together.
The animal specifying unit 12c searches the history information with the same attribute with reference to the data storage area 13a. If there is history information with the same attribute, the animal identification unit 12c reads it from the data storage area 13a and transmits it to the content generation unit 15 together with the attribute information and appearance information acquired this time (step ST9b).

コンテンツ生成部15は、動物特定部12cから受信した動物の属性情報と外観情報に基づいて、当該動物の属性および外観を含むコンテンツを生成する。
例えば、近隣のペットの模様、お手入れ具合およびペット服を、ペットごとにタグ付けしてページを分けて表示するコンテンツを生成する。このコンテンツを参照することにより、近隣のペットの動向を知ることが可能となる。
また、履歴情報がある場合、コンテンツ生成部15は、同一動物の属性情報の取得頻度をカウントし、当該動物の分布を視覚化したコンテンツや、様々な動物の分布を視覚化したコンテンツを生成して提供することで、ドライブした地域における特定の動物の分布や、生態系を知ることが可能である。
The content generation unit 15 generates content including the attribute and appearance of the animal based on the attribute information and appearance information of the animal received from the animal identification unit 12c.
For example, the content of displaying a divided page by tagging a pet pattern, care condition, and pet clothes for each pet for each page is generated. By referring to this content, it is possible to know the trends of nearby pets.
In addition, when there is history information, the content generation unit 15 counts the acquisition frequency of attribute information of the same animal, and generates content that visualizes the distribution of the animal and content that visualizes the distribution of various animals. It is possible to know the distribution of specific animals and the ecosystem in the driven area.

図6は、車両周辺画像データを基に飛行物に関する情報を提供する処理を示すフローチャートであり、被写体が飛行物であった場合の処理を示している。
被写体特定部12が、被写体抽出部11が抽出した被写体の画像データを入力すると、車両特定部12a、人物特定部12b、動物特定部12c、飛行物特定部12d、植物特定部12e、標識特定部12fおよび地物特定部12gに当該画像データをそれぞれ振り分けて出力する。ここで、飛行物特定部12dが、被写体の種別が飛行物であると判別する(ステップST1c)。
FIG. 6 is a flowchart showing a process of providing information related to a flying object based on the vehicle periphery image data, and shows the process when the subject is a flying object.
When the subject specifying unit 12 inputs the image data of the subject extracted by the subject extracting unit 11, the vehicle specifying unit 12a, the person specifying unit 12b, the animal specifying unit 12c, the flying object specifying unit 12d, the plant specifying unit 12e, and the sign specifying unit The image data is sorted and output to 12f and the feature specifying unit 12g. Here, the flying object specifying unit 12d determines that the type of the subject is a flying object (step ST1c).

次に、飛行物特定部12dは、被写体の画像データが飛行物の属性と外観の特定に必要な特徴点の抽出が可能なデータであるか否かを判定する(ステップST2c)。
ここで、特徴点が抽出不可能な画像データである場合(ステップST2c;NO)、飛行物の属性と外観の特定に必要な特徴点の抽出が可能な画像データが得られるまで、ステップST1cからの処理を繰り返す。すなわち、車載カメラ10が、車両周辺の状況を動画として撮影するか、同一被写体が得られるであろう短い撮影間隔で撮影を行うことで、被写体の特定が的確に行えるようにする。
Next, the flying object specifying unit 12d determines whether or not the image data of the subject is data capable of extracting feature points necessary for specifying the attributes and appearance of the flying object (step ST2c).
Here, if the feature points cannot be extracted (step ST2c; NO), from step ST1c until image data capable of extracting feature points necessary for specifying the attributes and appearance of the flying object is obtained. Repeat the process. In other words, the vehicle-mounted camera 10 captures the situation around the vehicle as a moving image, or shoots at a short shooting interval at which the same subject can be obtained, so that the subject can be specified accurately.

飛行物の属性と外観の特定に必要な特徴点の抽出が可能である場合(ステップST2c;YES)、飛行物特定部12dは、被写体である飛行物の画像データから特徴点の抽出を行う(ステップST3c)。これにより、被写体である飛行物の外観(検索キーとなればよいので、例えば二値化処理して取得した飛行物の輪郭画像であってもよい)を示す特徴情報が生成される。   When it is possible to extract the feature points necessary for specifying the attributes and appearance of the flying object (step ST2c; YES), the flying object specifying unit 12d extracts the feature points from the image data of the flying object that is the subject ( Step ST3c). As a result, feature information indicating the appearance of the flying object that is the subject (which may be a search key, for example, an outline image of the flying object obtained by binarization processing) is generated.

続いて、飛行物特定部12dは、ステップST3cで生成した特徴情報と、内蔵データベース18の各属性情報に対応するパターン画像とを比較して、これらが合致する属性情報があるか否かを判定する(ステップST4c)。ここで、両者が合致する属性情報がない場合(ステップST4c;NO)、飛行物特定部12dは、補助情報取得部14に指示して外部データベースを参照することにより、当該特徴情報に対応する飛行物の属性情報を取得する(ステップST5c)。   Subsequently, the flying object specifying unit 12d compares the feature information generated in step ST3c with the pattern image corresponding to each attribute information in the built-in database 18, and determines whether there is attribute information that matches the feature information. (Step ST4c). Here, when there is no attribute information that matches the two (step ST4c; NO), the flying object specifying unit 12d instructs the auxiliary information acquisition unit 14 to refer to the external database, thereby flying corresponding to the feature information. The attribute information of an object is acquired (step ST5c).

ステップST3cで生成した特徴情報と合致する属性情報が内蔵データベース18にある場合(ステップST4c;YES)、または、ステップST5cで外部データベースから属性情報が取得されると、飛行物特定部12dは、この属性情報を被写体の飛行物の属性情報として特定する。
属性情報を特定した後に、飛行物特定部12dは、被写体である飛行物の画像データをより詳細に解析して当該飛行物の撮影時の外観情報を特定する。ここまでの処理がステップST6cの処理となる。
なお、飛行物の属性情報としては、例えば、飛行物が航空機である場合、航空機の種類、メーカー名、製造年式、航空会社、路線名、およびその他の当該航空機に関する情報がある。また、飛行物が鳥の場合、鳥の名称、生態情報、分布地域などがある。
また、飛行物の外観情報としては、例えば航空機の外面塗装などがあり、鳥の場合は、その模様、汚れ具合、手入れ具合などがある。
When the attribute information matching the feature information generated in step ST3c is in the built-in database 18 (step ST4c; YES), or when the attribute information is acquired from the external database in step ST5c, the flying object specifying unit 12d The attribute information is specified as the attribute information of the flying object of the subject.
After specifying the attribute information, the flying object specifying unit 12d analyzes the image data of the flying object that is the subject in more detail, and specifies appearance information at the time of shooting the flying object. The process so far is the process of step ST6c.
As the attribute information of the flying object, for example, when the flying object is an aircraft, there are an aircraft type, a manufacturer name, a manufacturing year, an airline, a route name, and other information related to the aircraft. When the flying object is a bird, there are a bird name, ecological information, a distribution area, and the like.
Further, the appearance information of the flying object includes, for example, an outer surface painting of an aircraft, and in the case of a bird, there are a pattern, a dirt condition, a care condition, and the like.

次に、ステップST7cにおいて、飛行物特定部12dは、特定した属性情報と外観情報を撮影日時情報と併せて記憶部13のデータ保存領域13aに保存する。なお、自車の位置情報を得ることができる場合には、撮影場所の情報も併せて保存してもよい。
また、飛行物特定部12dは、データ保存領域13aを参照して同一の属性の履歴情報を検索する。同一の属性の履歴情報があれば、飛行物特定部12dは、これをデータ保存領域13aから読み出し、今回取得した属性情報および外観情報と併せてコンテンツ生成部15に送信する(ステップST8c)。
Next, in step ST7c, the flying object specifying unit 12d stores the specified attribute information and appearance information together with the shooting date / time information in the data storage area 13a of the storage unit 13. In addition, when the position information of the own vehicle can be obtained, the information on the shooting location may be stored together.
In addition, the flying object specifying unit 12d searches the history information having the same attribute with reference to the data storage area 13a. If there is history information with the same attribute, the flying object specifying unit 12d reads it from the data storage area 13a and transmits it to the content generation unit 15 together with the attribute information and appearance information acquired this time (step ST8c).

コンテンツ生成部15は、飛行物特定部12dから受信した飛行物の属性情報と外観情報に基づいて、当該飛行物の属性および外観を含むコンテンツを生成する。
例えば、撮影画像から特定された航空機を逐一登録するマイアルバムを作成し、航空機ごとの属性に併せて航空機の外装を登録する。このようにすることで、同乗者は、情報出力部17(車載ディスプレイ)に表示されたアルバムを参照すれば、自車から視認できた航空機に関する情報をドライブ中にリアルタイムに得ることができる。また、運転に注力しなければならない運転者も、自車から視認できた航空機に関する情報をドライブ後に知ることが可能である。
また、属性情報に紐付けられたいかなる画像データにも合致しない飛行物である場合、補助情報取得部14に指示して、未確認飛行物体として当該飛行物の画像をネット上にアップしてもよい。
さらに、履歴情報がある場合、コンテンツ生成部15は、同一の鳥の属性情報の取得頻度をカウントし、当該鳥の分布を視覚化したコンテンツや、様々な鳥の分布を視覚化したコンテンツを生成して提供することで、ドライブした地域における特定の鳥の分布や、野鳥の生態系を知ることが可能である。
The content generation unit 15 generates content including the attributes and appearance of the flying object based on the flying object attribute information and appearance information received from the flying object specifying unit 12d.
For example, a My Album that registers the aircraft identified from the captured image one by one is created, and the exterior of the aircraft is registered according to the attributes of each aircraft. By doing in this way, the passenger can refer to the album displayed on the information output unit 17 (in-vehicle display) in real time while driving, information on the aircraft that can be visually recognized from the own vehicle. In addition, a driver who has to concentrate on driving can know information about an aircraft that can be visually recognized from the own vehicle after driving.
Further, if the flying object does not match any image data associated with the attribute information, the auxiliary information acquisition unit 14 may be instructed to upload an image of the flying object as an unidentified flying object on the net. .
Furthermore, when there is history information, the content generation unit 15 counts the frequency of acquiring attribute information of the same bird, and generates content that visualizes the distribution of the birds and content that visualizes the distribution of various birds. By providing it, it is possible to know the distribution of specific birds and the wild bird ecosystem in the driven area.

図7は、車両周辺画像データを基に植物に関する情報を提供する処理を示すフローチャートであり、被写体が植物であった場合の処理を示している。
被写体特定部12が、被写体抽出部11が抽出した被写体の画像データを入力すると、車両特定部12a、人物特定部12b、動物特定部12c、飛行物特定部12d、植物特定部12e、標識特定部12fおよび地物特定部12gに当該画像データをそれぞれ振り分けて出力する。ここで、植物特定部12eが、被写体の種別が植物であると判別する(ステップST1d)。
FIG. 7 is a flowchart showing a process for providing information about a plant based on the vehicle peripheral image data, and shows a process when the subject is a plant.
When the subject specifying unit 12 inputs the image data of the subject extracted by the subject extracting unit 11, the vehicle specifying unit 12a, the person specifying unit 12b, the animal specifying unit 12c, the flying object specifying unit 12d, the plant specifying unit 12e, and the sign specifying unit The image data is sorted and output to 12f and the feature specifying unit 12g. Here, the plant specifying unit 12e determines that the type of the subject is a plant (step ST1d).

次に、植物特定部12eは、被写体の画像データが、植物の属性と外観の特定に必要な特徴点の抽出が可能なデータであるか否かを判定する(ステップST2d)。
ここで、特徴点が抽出不可能な画像データである場合(ステップST2d;NO)、植物の属性と外観の特定に必要な特徴点の抽出が可能な画像データが得られるまで、ステップST1dからの処理を繰り返す。すなわち、車載カメラ10が、車両周辺の状況を動画として撮影するか、同一被写体が得られるであろう短い撮影間隔で撮影を行うことで、被写体の特定が的確に行えるようにする。
Next, the plant specifying unit 12e determines whether or not the image data of the subject is data that can extract feature points necessary for specifying the attributes and appearance of the plant (step ST2d).
Here, when the feature point is image data that cannot be extracted (step ST2d; NO), until the image data from which the feature point necessary for specifying the attribute and appearance of the plant can be obtained is obtained from step ST1d. Repeat the process. In other words, the vehicle-mounted camera 10 captures the situation around the vehicle as a moving image, or shoots at a short shooting interval at which the same subject can be obtained, so that the subject can be specified accurately.

植物の属性と外観の特定に必要な特徴点の抽出が可能である場合(ステップST2d;YES)、植物特定部12eは、被写体である植物の画像データから特徴点の抽出を行う(ステップST3d)。これにより、被写体である植物の外観(検索キーとなればよいので、例えば二値化処理して取得した植物の輪郭画像であってもよい)を示す特徴情報が生成される。   When the feature points necessary for specifying the attributes and appearance of the plant can be extracted (step ST2d; YES), the plant specifying unit 12e extracts the feature points from the image data of the plant that is the subject (step ST3d). . As a result, feature information indicating the appearance of the subject plant (which may be a search key, for example, may be a contour image of the plant obtained by binarization processing) is generated.

続いて、植物特定部12eは、ステップST3dで生成した特徴情報と、内蔵データベース18の各属性情報に対応するパターン画像とを比較して、これらが合致する属性情報があるか否かを判定する(ステップST4d)。ここで、両者が合致する属性情報がない場合(ステップST4d;NO)、植物特定部12eは、補助情報取得部14に指示して外部データベースを参照することにより、当該特徴情報に対応する植物の属性情報を取得する(ステップST5d)。   Subsequently, the plant specifying unit 12e compares the feature information generated in step ST3d with the pattern image corresponding to each attribute information in the built-in database 18, and determines whether there is attribute information that matches these. (Step ST4d). Here, when there is no attribute information that matches the two (step ST4d; NO), the plant identification unit 12e instructs the auxiliary information acquisition unit 14 to refer to the external database, thereby identifying the plant corresponding to the feature information. Attribute information is acquired (step ST5d).

ステップST3dで生成した特徴情報と合致する属性情報が内蔵データベース18にある場合(ステップST4d;YES)、または、ステップST5dで外部データベースから属性情報が取得されると、植物特定部12eは、この属性情報を被写体の植物の属性情報として特定する。
属性情報を特定した後に、植物特定部12eは、被写体である植物の画像データをより詳細に解析して当該植物の撮影時の外観情報を特定する。ここまでの処理がステップST6dの処理となる。
なお、植物の属性情報としては、例えば植物の種類、名称、分布地域、開花時期およびその他の当該植物に関する情報がある。
また、植物の外観情報としては、例えば、花および葉の色、開花具合、紅葉具合などがある。
When the attribute information that matches the feature information generated in step ST3d is in the internal database 18 (step ST4d; YES), or when the attribute information is acquired from the external database in step ST5d, the plant specifying unit 12e The information is specified as the attribute information of the subject plant.
After specifying the attribute information, the plant specifying unit 12e analyzes the image data of the plant that is the subject in more detail, and specifies the appearance information at the time of photographing the plant. The process so far is the process of step ST6d.
The plant attribute information includes, for example, plant type, name, distribution area, flowering time, and other information related to the plant.
The plant appearance information includes, for example, the color of flowers and leaves, the condition of flowering, and the condition of autumn leaves.

次に、ステップST7dにおいて、植物特定部12eは、特定した属性情報と外観情報を撮影日時情報と併せて記憶部13のデータ保存領域13aに保存する。なお、自車の位置情報を得ることができる場合には、撮影場所の情報も併せて保存してもよい。
また、植物特定部12eは、データ保存領域13aを参照して同一の属性の履歴情報を検索する。同一の属性の履歴情報があれば、植物特定部12eは、これをデータ保存領域13aから読み出し、今回取得した属性情報および外観情報と併せてコンテンツ生成部15に送信する(ステップST8d)。
Next, in step ST7d, the plant specifying unit 12e stores the specified attribute information and appearance information in the data storage area 13a of the storage unit 13 together with the shooting date / time information. In addition, when the position information of the own vehicle can be obtained, the information on the shooting location may be stored together.
In addition, the plant specifying unit 12e searches for history information having the same attribute with reference to the data storage area 13a. If there is history information with the same attribute, the plant identification unit 12e reads it from the data storage area 13a and transmits it to the content generation unit 15 together with the attribute information and appearance information acquired this time (step ST8d).

コンテンツ生成部15は、植物特定部12eから受信した植物の属性情報と外観情報に基づいて、当該植物の属性および外観を含むコンテンツを生成する。
例えば、季節の情報となる各種の植物(桜、ひまわり、椿)を検出すると、季節に対応させて、属性情報および外観を示すコンテンツを提供する。これにより、桜の開花などをドライブ中にリアルタイムに得ることができる。また、桜の開花情報は、補助情報取得部14に指示してその情報をネット上にアップしてもよい。
また、履歴情報がある場合、コンテンツ生成部15は、同一の植物の属性情報の取得頻度をカウントし、当該植物の分布を視覚化したコンテンツや、様々な植物の分布を視覚化したコンテンツを生成して提供することで、ドライブした地域における植物の分布を知ることが可能である。
The content generation unit 15 generates content including the attribute and appearance of the plant based on the plant attribute information and appearance information received from the plant identification unit 12e.
For example, when various kinds of plants (cherry blossoms, sunflowers, camellias) serving as seasonal information are detected, attribute information and contents showing the appearance are provided in correspondence with the seasons. As a result, cherry blossoms can be obtained in real time while driving. Further, the flowering information of cherry blossoms may be instructed to the auxiliary information acquisition unit 14 to upload the information on the net.
In addition, when there is history information, the content generation unit 15 counts the acquisition frequency of attribute information of the same plant, and generates content that visualizes the distribution of the plant and content that visualizes the distribution of various plants. It is possible to know the distribution of plants in the driven area.

図8は、車両周辺画像データを基に標識に関する情報を提供する処理を示すフローチャートであり、被写体が標識であった場合の処理を示している。
被写体特定部12が、被写体抽出部11が抽出した被写体の画像データを入力すると、車両特定部12a、人物特定部12b、動物特定部12c、飛行物特定部12d、植物特定部12e、標識特定部12fおよび地物特定部12gに当該画像データをそれぞれ振り分けて出力する。ここで、標識特定部12fが、被写体の種別が標識であると判別する(ステップST1e)。
FIG. 8 is a flowchart showing a process of providing information related to a sign based on the vehicle periphery image data, and shows a process when the subject is a sign.
When the subject specifying unit 12 inputs the image data of the subject extracted by the subject extracting unit 11, the vehicle specifying unit 12a, the person specifying unit 12b, the animal specifying unit 12c, the flying object specifying unit 12d, the plant specifying unit 12e, and the sign specifying unit The image data is sorted and output to 12f and the feature specifying unit 12g. Here, the sign identifying unit 12f determines that the type of the subject is a sign (step ST1e).

次に、標識特定部12fは、被写体の画像データが、標識の属性と外観の特定に必要な特徴点の抽出が可能なデータであるか否かを判定する(ステップST2e)。
ここで、特徴点が抽出不可能な画像データである場合(ステップST2e;NO)、標識の属性と外観の特定に必要な特徴点の抽出が可能な画像データが得られるまで、ステップST1eからの処理を繰り返す。すなわち、車載カメラ10が、車両周辺の状況を動画として撮影するか、同一被写体が得られるであろう短い撮影間隔で撮影を行うことで、被写体の特定が的確に行えるようにする。
Next, the sign specifying unit 12f determines whether or not the image data of the subject is data capable of extracting feature points necessary for specifying the attribute and appearance of the sign (step ST2e).
Here, if the feature point is image data that cannot be extracted (step ST2e; NO), until the image data from which the feature point necessary for specifying the attribute and appearance of the sign can be obtained is obtained from step ST1e. Repeat the process. In other words, the vehicle-mounted camera 10 captures the situation around the vehicle as a moving image, or shoots at a short shooting interval at which the same subject can be obtained, so that the subject can be specified accurately.

標識の属性と外観の特定に必要な特徴点の抽出が可能である場合(ステップST2e;YES)、標識特定部12fは、被写体である標識の画像データから特徴点の抽出を行う(ステップST3e)。これにより、被写体である標識の外観(例えば、二値化処理して標識の輪郭および図柄を示す画像)を示す特徴情報が生成される。   When it is possible to extract the feature points necessary for specifying the attribute and appearance of the sign (step ST2e; YES), the sign specifying unit 12f extracts the feature points from the image data of the sign that is the subject (step ST3e). . As a result, feature information indicating the appearance of the sign as a subject (for example, an image showing the outline and design of the sign after binarization) is generated.

続いて、標識特定部12fは、ステップST3eで生成した特徴情報と、内蔵データベース18の各属性情報に対応するパターン画像とを比較して、これらが合致する属性情報があるか否かを判定する(ステップST4e)。ここで、両者が合致する属性情報がない場合(ステップST4e;NO)、標識特定部12eは、補助情報取得部14に指示して外部データベースを参照することにより、当該特徴情報に対応する標識の属性情報を取得する(ステップST5e)。   Subsequently, the sign specifying unit 12f compares the feature information generated in step ST3e with the pattern image corresponding to each attribute information in the built-in database 18, and determines whether there is attribute information that matches the feature information. (Step ST4e). Here, when there is no attribute information that matches the two (step ST4e; NO), the sign specifying unit 12e instructs the auxiliary information acquisition unit 14 to refer to the external database, thereby indicating the sign corresponding to the feature information. Attribute information is acquired (step ST5e).

ステップST3eで生成した特徴情報と合致する属性情報が内蔵データベース18にある場合(ステップST4e;YES)、または、ステップST5eで外部データベースから属性情報が取得されると、標識特定部12fは、この属性情報を被写体の標識の属性情報として特定する。
属性情報を特定した後に、標識特定部12fは、被写体である標識の画像データをより詳細に解析して当該標識の撮影時の外観情報を特定する。ここまでの処理がステップST6eの処理となる。
なお、標識の属性情報としては、例えば標識の種類、名称、標識の意味およびその他の当該標識に関する情報がある。
また、標識の外観情報としては、例えば、標識の図柄、汚れ具合などがある。
When attribute information that matches the feature information generated in step ST3e is in the internal database 18 (step ST4e; YES), or when attribute information is acquired from the external database in step ST5e, the sign specifying unit 12f The information is specified as attribute information of the sign of the subject.
After specifying the attribute information, the sign specifying unit 12f analyzes the image data of the sign that is the subject in more detail and specifies the appearance information at the time of photographing the sign. The process so far is the process of step ST6e.
The attribute information of the sign includes, for example, the kind of sign, name, meaning of the sign, and other information related to the sign.
Further, the appearance information of the sign includes, for example, the sign design and the degree of dirt.

次に、ステップST7eにおいて、標識特定部12fは、特定した属性情報と外観情報を撮影日時情報と併せて記憶部13のデータ保存領域13aに保存する。なお、自車の位置情報を得ることができる場合には、撮影場所の情報も併せて保存してもよい。
また、標識特定部12fは、データ保存領域13aを参照して同一の属性の履歴情報を検索する。同一の属性の履歴情報があれば、標識特定部12fは、これをデータ保存領域13aから読み出し、今回取得した属性情報および外観情報と併せてコンテンツ生成部15に送信する(ステップST8e)。
Next, in step ST7e, the sign specifying unit 12f stores the specified attribute information and appearance information together with the shooting date / time information in the data storage area 13a of the storage unit 13. In addition, when the position information of the own vehicle can be obtained, the information on the shooting location may be stored together.
Also, the sign specifying unit 12f searches for history information having the same attribute with reference to the data storage area 13a. If there is history information with the same attribute, the sign specifying unit 12f reads it from the data storage area 13a and transmits it to the content generation unit 15 together with the attribute information and appearance information acquired this time (step ST8e).

コンテンツ生成部15は、標識特定部12fから受信した標識の属性情報と外観情報に基づいて、当該標識の属性および外観を含むコンテンツを生成する。
例えば、履歴情報がある場合、コンテンツ生成部15は、時間や時期によって変化する複数車線における可変型中央分離帯の情報を撮影日時とともに提供するコンテンツを生成する。このコンテンツを視聴することで、ユーザは、走行道路の状況をドライブ中に把握することができる。また、このコンテンツを、これから当該道路を走行しようとする走行車両の参考情報としてWeb上に情報を公開することも可能である。
The content generation unit 15 generates content including the attribute and appearance of the sign based on the attribute information and appearance information of the sign received from the sign specifying unit 12f.
For example, when there is history information, the content generation unit 15 generates content that provides information on variable median strips in a plurality of lanes that change according to time and time, together with shooting date and time. By viewing this content, the user can grasp the situation of the road while driving. It is also possible to make this content public on the Web as reference information for a traveling vehicle that is about to travel on the road.

図9は、車両周辺画像データを基に地物に関する情報を提供する処理を示すフローチャートであり、被写体が地物であった場合の処理を示している。
被写体特定部12が、被写体抽出部11が抽出した被写体の画像データを入力すると、車両特定部12a、人物特定部12b、動物特定部12c、飛行物特定部12d、植物特定部12e、標識特定部12fおよび地物特定部12gに当該画像データをそれぞれ振り分けて出力する。ここで、地物特定部12gが、被写体の種別が地物であると判別する(ステップST1f)。
FIG. 9 is a flowchart showing a process for providing information about a feature based on vehicle peripheral image data, and shows a process when the subject is a feature.
When the subject specifying unit 12 inputs the image data of the subject extracted by the subject extracting unit 11, the vehicle specifying unit 12a, the person specifying unit 12b, the animal specifying unit 12c, the flying object specifying unit 12d, the plant specifying unit 12e, and the sign specifying unit The image data is sorted and output to 12f and the feature specifying unit 12g. Here, the feature identifying unit 12g determines that the type of the subject is a feature (step ST1f).

次に、地物特定部12gは、被写体の画像データが、地物の属性と外観の特定に必要な特徴点の抽出が可能なデータであるか否かを判定する(ステップST2f)。
ここで、特徴点が抽出不可能な画像データである場合(ステップST2f;NO)、地物の属性と外観の特定に必要な特徴点の抽出が可能な画像データが得られるまで、ステップST1fからの処理を繰り返す。すなわち、車載カメラ10が、車両周辺の状況を動画として撮影するか、同一被写体が得られるであろう短い撮影間隔で撮影を行うことで、被写体の特定が的確に行えるようにする。
Next, the feature specifying unit 12g determines whether or not the image data of the subject is data capable of extracting feature points necessary for specifying the attributes and appearance of the features (step ST2f).
Here, if the feature point is image data that cannot be extracted (step ST2f; NO), from step ST1f until image data that can extract the feature point necessary for specifying the attribute and appearance of the feature is obtained. Repeat the process. In other words, the vehicle-mounted camera 10 captures the situation around the vehicle as a moving image, or shoots at a short shooting interval at which the same subject can be obtained, so that the subject can be specified accurately.

地物の属性と外観の特定に必要な特徴点の抽出が可能である場合(ステップST2f;YES)、地物特定部12gは、被写体である地物の画像データから特徴点の抽出を行う(ステップST3f)。これにより、被写体である地物の外観(例えば、二値化処理して地物の輪郭画像)を示す特徴情報が生成される。   When the feature points necessary for specifying the attributes and appearance of the feature can be extracted (step ST2f; YES), the feature specifying unit 12g extracts the feature points from the image data of the feature that is the subject ( Step ST3f). Thereby, feature information indicating the appearance of the feature that is the subject (for example, the contour image of the feature by binarization processing) is generated.

続いて、地物特定部12gは、ステップST3fで生成した特徴情報と、内蔵データベース18の各属性情報に対応するパターン画像とを比較して、これらが合致する属性情報があるか否かを判定する(ステップST4f)。ここで、両者が合致する属性情報がない場合(ステップST4f;NO)、地物特定部12gは、補助情報取得部14に指示して外部データベースを参照することにより、当該特徴情報に対応する地物の属性情報を取得する(ステップST5f)。   Subsequently, the feature specifying unit 12g compares the feature information generated in step ST3f with the pattern image corresponding to each attribute information in the built-in database 18, and determines whether there is attribute information that matches the feature information. (Step ST4f). Here, when there is no attribute information that matches the two (step ST4f; NO), the feature specifying unit 12g instructs the auxiliary information acquisition unit 14 to refer to the external database, thereby corresponding to the feature information. The attribute information of an object is acquired (step ST5f).

ステップST3fで生成した特徴情報と合致する属性情報が内蔵データベース18にある場合(ステップST4f;YES)、または、ステップST5fで外部データベースから属性情報が取得されると、地物特定部12gは、この属性情報を被写体の地物の属性情報として特定する。
属性情報を特定した後に、地物特定部12gは、被写体である地物の画像データをより詳細に解析して当該地物の撮影時の外観情報を特定する。ここまでの処理がステップST6fの処理となる。
なお、地物の属性情報としては、例えば、地物が建物の場合、建物の種類、名称、建設年月日およびその他の当該地物に関する情報がある。また、地物が山や川などの地形である場合、その名称、高さや深さ、長さなどがある。
さらに、地物の外観情報としては、例えば、地物が建物の場合、建物の外観、汚れ具合、手入れ具合などがある。また、地物が山や川などの地形である場合、その形状や雪の残り具合、雲に隠れている状態などの天候と絡めた外観情報がある。
When the attribute information that matches the feature information generated in step ST3f is in the built-in database 18 (step ST4f; YES), or when the attribute information is acquired from the external database in step ST5f, the feature specifying unit 12g The attribute information is specified as the attribute information of the feature of the subject.
After specifying the attribute information, the feature specifying unit 12g analyzes the image data of the feature that is the subject in more detail and specifies the appearance information at the time of photographing the feature. The process so far is the process of step ST6f.
The feature attribute information includes, for example, a building type, name, construction date, and other information related to the feature when the feature is a building. In addition, when the feature is a terrain such as a mountain or a river, its name, height, depth, length, and the like are included.
Further, as the appearance information of the feature, for example, when the feature is a building, there are the appearance of the building, the degree of dirt, the degree of care, and the like. In addition, when the feature is a terrain such as a mountain or a river, there is appearance information associated with the weather such as its shape, the remaining snow condition, and the state of being hidden in the clouds.

次に、ステップST7fにおいて、地物特定部12gは、特定した属性情報と外観情報を撮影日時情報と併せて記憶部13のデータ保存領域13aに保存する。なお、自車の位置情報を得ることができる場合には、撮影場所の情報も併せて保存してもよい。
また、地物特定部12gは、データ保存領域13aを参照して同一の属性の履歴情報を検索する。同一の属性の履歴情報があれば、地物特定部12gは、これをデータ保存領域13aから読み出し、今回取得した属性情報および外観情報と併せてコンテンツ生成部15に送信する(ステップST8f)。
Next, in step ST7f, the feature specifying unit 12g stores the specified attribute information and appearance information together with the shooting date / time information in the data storage area 13a of the storage unit 13. In addition, when the position information of the own vehicle can be obtained, the information on the shooting location may be stored together.
The feature specifying unit 12g searches the history information with the same attribute with reference to the data storage area 13a. If there is history information with the same attribute, the feature specifying unit 12g reads it from the data storage area 13a and transmits it to the content generation unit 15 together with the attribute information and appearance information acquired this time (step ST8f).

コンテンツ生成部15は、地物特定部12gから受信した地物の属性情報と外観情報に基づいて、当該地物の属性および外観を含むコンテンツを生成する。
例えば、撮影画像から特定された建物を逐一登録するマイアルバムを作成し、建物の種類ごとの属性に併せて登録する。このようにすることで、同乗者は、情報出力部17(車載ディスプレイ)に表示されたアルバムを参照すれば、自車から視認できた建物に関する情報をドライブ中にリアルタイムに得ることができる。また、“ドライブを開始してから何軒のお寺を通過したか”といった内容のクイズを提供するコンテンツを生成することにより、ドライブした地域の様子を学習することが可能である。
The content generation unit 15 generates content including the attribute and appearance of the feature based on the attribute information and appearance information of the feature received from the feature specifying unit 12g.
For example, a my album for registering buildings identified from the photographed image one by one is created and registered together with attributes for each type of building. By doing in this way, the passenger can refer to the album displayed on the information output unit 17 (in-vehicle display) in real time while driving, with respect to the building that is visible from the own vehicle. In addition, by generating content that provides a quiz such as “how many temples have passed since the start of driving”, it is possible to learn the state of the driving region.

上述の説明では、コンテンツ生成部15が、あらかじめ設定された情報提供方法でコンテンツを作成する場合を示したが、アプリーケーション提供部16から提供されたアプリケーションを実行してコンテンツを生成してもよい。
例えば、コンテンツ生成部15が、地物特定部12gから受信した地物の属性情報と外観情報に基づいてコンテンツを生成するにあたり、アプリーケーション提供部16に所望の情報提供方法を実現するためのアプリケーションの提供を受ける。
このようなアプリケーションとしては、建物のテクスチャや形状などから、属性情報を推定するエンターテインメントコンテンツを提供するものが考えられる。
例えば、“先ほど通り過ぎた教会の建築様式は?”という質問を提示し、ユーザに回答させる対話型のコンテンツがある。
また、山の形状を俯瞰し、富士山に近い形の山を抽出した際には撮影画像と日時を記録して、ユーザのマイコレクションを作るアプリケーションであってもよい。
なお、コンテンツ生成部15がアプリケーション提供部16に要求するアプリケーションは、不図示の入力装置を用いてユーザがコンテンツ生成部15に設定してもよい。
In the above description, the case where the content generation unit 15 creates content by a preset information providing method has been described. However, the content may be generated by executing the application provided from the application provision unit 16. .
For example, when the content generation unit 15 generates content based on the feature attribute information and appearance information received from the feature specifying unit 12g, the application providing unit 16 realizes a desired information providing method. Receive the offer.
As such an application, an application that provides entertainment content for estimating attribute information from the texture or shape of a building can be considered.
For example, there is interactive content that presents the question “What is the architectural style of the church that passed by?” And makes the user answer.
Alternatively, the application may be an application that creates a user's My Collection by overlooking the shape of the mountain and recording a captured image and date and time when a mountain close to Mt. Fuji is extracted.
Note that the application requested by the content generation unit 15 to the application providing unit 16 may be set in the content generation unit 15 by the user using an input device (not shown).

以上のように、この実施の形態1によれば、車載カメラ10が撮影した車両周辺の画像データを入力し、当該画像データから主要被写体の画像を抽出する被写体抽出部11と、被写体の種別ごとに当該被写体に関する属性情報を記憶する内蔵データベース18と、被写体抽出部11が抽出した被写体の画像から当該被写体の種別を判別し、判別した種別に基づいて内蔵データベース18に記憶された属性情報の中から、当該被写体の属性情報を特定するとともに、被写体の画像から当該被写体の撮影時の外観を示す外観情報を特定する被写体特定部12と、被写体特定部12が特定した被写体の属性情報および外観情報に基づいて、被写体の属性および外観を含むコンテンツを生成して車両内のユーザに提供するコンテンツ生成部15と、コンテンツ生成部15が生成したコンテンツを車両内のユーザに提供する情報出力部17とを備える。このように構成することで、時々刻々と変化するような車両周辺の状況に関する情報を車両内のユーザに提供することができる。   As described above, according to the first embodiment, the subject extraction unit 11 that inputs the image data around the vehicle photographed by the in-vehicle camera 10 and extracts the image of the main subject from the image data, and the subject type The type of the subject is determined from the built-in database 18 that stores attribute information about the subject and the subject image extracted by the subject extraction unit 11, and the attribute information stored in the built-in database 18 is determined based on the determined type. The subject specifying unit 12 for specifying the subject's attribute information and specifying the appearance information indicating the appearance of the subject at the time of photographing from the subject image, and the subject's attribute information and appearance information specified by the subject specifying unit 12 Based on the content generation unit 15 that generates content including the attributes and appearance of the subject and provides them to the user in the vehicle, Content Ceiling generating unit 15 has generated and an information output section 17 to be provided to the user in the vehicle. By configuring in this way, it is possible to provide information on the situation around the vehicle that changes from moment to moment to the user in the vehicle.

また、この実施の形態1によれば、様々な情報提供方法を実現するアプリケーションを有し、コンテンツ生成部15からの要求に応じてアプリケーションを提供するアプリケーション提供部16を備え、コンテンツ生成部15が、アプリケーション提供部16から取得したアプリケーションを実行して、当該アプリケーションに対応する情報提供方法のコンテンツを生成する。このように構成することで、車両周辺の状況に関する情報を様々な態様で車両内のユーザに提供することができる。   In addition, according to the first embodiment, the application generation unit 16 includes an application that realizes various information providing methods and provides an application in response to a request from the content generation unit 15. Then, the application acquired from the application providing unit 16 is executed to generate content of the information providing method corresponding to the application. By comprising in this way, the information regarding the condition around a vehicle can be provided to the user in a vehicle in various aspects.

さらに、この実施の形態1によれば、被写体特定部12が特定した被写体の属性情報、外観情報、および撮影日時情報を関連付けて当該被写体の履歴情報として記憶する記憶部13を備え、コンテンツ生成部15が、記憶部13に記憶された被写体の履歴情報に基づいて、当該被写体の属性および外観とその時間経過に伴う変遷とを含んだコンテンツを生成する。このように構成することで、車両周辺の状況に関する情報の時間経過に伴う変遷を車両内のユーザに提供することができる。   Further, according to the first embodiment, the content generation unit includes the storage unit 13 that associates the attribute information, the appearance information, and the shooting date / time information of the subject specified by the subject specifying unit 12 and stores them as history information of the subject. 15, based on the history information of the subject stored in the storage unit 13, generates content including the attribute and appearance of the subject and the transition with the passage of time. By comprising in this way, the transition with the time passage of the information regarding the condition around a vehicle can be provided to the user in a vehicle.

さらに、この実施の形態1によれば、被写体の種別ごとに当該被写体に関する属性情報を記憶する外部データベースと通信を行って属性情報を取得する補助情報取得部14を備え、被写体特定部12が、判別した種別に対応する属性情報が内蔵データベース18にない場合に、補助情報取得部14に指示して当該種別に対応する属性情報を外部データベースから取得する。このように構成することで、画像から判別した被写体の種別に対応する属性情報を的確に取得することが可能である。   Furthermore, according to the first embodiment, the auxiliary information acquisition unit 14 that acquires attribute information by communicating with an external database that stores attribute information about the subject for each type of subject is provided, and the subject specifying unit 12 includes: If the built-in database 18 does not have attribute information corresponding to the determined type, the auxiliary information acquisition unit 14 is instructed to acquire attribute information corresponding to the type from the external database. With this configuration, it is possible to accurately acquire attribute information corresponding to the type of subject determined from the image.

さらに、この実施の形態1によれば、被写体特定部12が、車両、人物、動物、飛行物、植物、標識および地物の少なくとも一つを被写体の種別として判別するので、車両周辺における様々な対象物の情報を車両内のユーザに提供することができる。   Furthermore, according to the first embodiment, the subject specifying unit 12 determines at least one of a vehicle, a person, an animal, a flying object, a plant, a sign, and a feature as a subject type. Information about the object can be provided to the user in the vehicle.

実施の形態2.
図10は、この発明の実施の形態2に係る車載情報提供システムの概要を示す図である。図10に示す車両情報提供システムは、車載装置100が、スマートフォンなどの携帯情報端末101およびサーバ装置102の少なくとも一方と連携して情報提供処理を行う。以下、当該車載情報提供システムの構成態様について説明する。
Embodiment 2. FIG.
FIG. 10 is a diagram showing an overview of the in-vehicle information providing system according to Embodiment 2 of the present invention. In the vehicle information provision system shown in FIG. 10, the in-vehicle device 100 performs information provision processing in cooperation with at least one of the portable information terminal 101 such as a smartphone and the server device 102. Hereinafter, a configuration aspect of the in-vehicle information providing system will be described.

まず、サーバ装置102と連携して、車載装置100が車載情報提供装置として機能する場合について説明する。
この構成においては、車載装置100がサーバ装置102と直接通信するか、または、車載装置100が携帯情報端末101を経由してサーバ装置102と通信する場合が考えられる。サーバ装置102は、上記実施の形態1で説明した被写体抽出部11、被写体特定部12、記憶部13およびアプリケーション提供部16を備えている。また、車載装置100は、サーバ装置102の被写体特定部12が特定した被写体の属性情報と外観情報を用いてコンテンツ生成を行うコンテンツ生成部15と、コンテンツ生成部15が生成したコンテンツをユーザに提供するための情報出力部17を少なくとも備える。
First, a case where the in-vehicle device 100 functions as an in-vehicle information providing device in cooperation with the server device 102 will be described.
In this configuration, it is conceivable that the in-vehicle device 100 communicates directly with the server device 102, or the in-vehicle device 100 communicates with the server device 102 via the portable information terminal 101. The server apparatus 102 includes the subject extracting unit 11, the subject specifying unit 12, the storage unit 13, and the application providing unit 16 described in the first embodiment. The in-vehicle device 100 also provides the content generation unit 15 that generates content using the subject attribute information and appearance information specified by the subject specifying unit 12 of the server device 102, and the content generated by the content generation unit 15 to the user. The information output part 17 for performing at least is provided.

また、車載装置100が基本的に通信機能のみを有し、サーバ装置102によるコンテンツ生成結果を受信してユーザに提供する場合がある。
この構成においても、車載装置100がサーバ装置102と直接通信するか、または、車載装置100が携帯情報端末101を経由してサーバ装置102と通信する。
ただし、上記構成と異なり、車載装置100は、情報出力部17を備えるが、コンテンツ生成部15は備えていない。
つまり、サーバ装置102が、被写体抽出部11、被写体特定部12、記憶部13、コンテンツ生成部15およびアプリケーション提供部16を備える。
Further, the in-vehicle device 100 basically has only a communication function, and may receive a content generation result by the server device 102 and provide it to the user.
Also in this configuration, the in-vehicle device 100 communicates directly with the server device 102, or the in-vehicle device 100 communicates with the server device 102 via the portable information terminal 101.
However, unlike the above configuration, the in-vehicle device 100 includes the information output unit 17 but does not include the content generation unit 15.
That is, the server apparatus 102 includes a subject extraction unit 11, a subject specification unit 12, a storage unit 13, a content generation unit 15, and an application provision unit 16.

この他、携帯情報端末101が、サーバ装置102と連携してコンテンツ生成処理を行い、その結果を車載装置100がユーザに提供する場合について説明する。
例えば、携帯情報端末101が、上記実施の形態1で示した被写体抽出部11、被写体特定部12、コンテンツ生成部15およびアプリケーション提供部16を備え、サーバ装置102が、内蔵データベース18と記憶部13を備える。また、車載装置100は、通信機能に加え、情報出力部17を備える。
上述のように構成しても、上記実施の形態1と同様な効果を得ることができる。
In addition, a case where the portable information terminal 101 performs content generation processing in cooperation with the server device 102 and the in-vehicle device 100 provides the result to the user will be described.
For example, the portable information terminal 101 includes the subject extraction unit 11, the subject identification unit 12, the content generation unit 15, and the application provision unit 16 described in the first embodiment, and the server device 102 includes the built-in database 18 and the storage unit 13. Is provided. The in-vehicle device 100 includes an information output unit 17 in addition to the communication function.
Even if configured as described above, the same effect as in the first embodiment can be obtained.

なお、本発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。   In the present invention, within the scope of the invention, any combination of each embodiment, any component of each embodiment can be modified, or any component can be omitted in each embodiment. .

1 車載情報提供装置、10 車載カメラ、11 被写体抽出部、12 被写体特定部、12a 車両特定部、12b 人物特定部、12c 動物特定部、12d 飛行物特定部、12e 植物特定部、12f 標識特定部、12g 地物特定部、13 記憶部、13a データ保存領域、14 補助情報取得部、15 コンテンツ生成部、16 アプリケーション提供部、17 情報出力部、18 内蔵データベース。   DESCRIPTION OF SYMBOLS 1 In-vehicle information provision apparatus, 10 In-vehicle camera, 11 Subject extracting part, 12 Subject specifying part, 12a Vehicle specifying part, 12b Person specifying part, 12c Animal specifying part, 12d Flying object specifying part, 12e Plant specifying part, 12f Marking specifying part , 12g feature identification unit, 13 storage unit, 13a data storage area, 14 auxiliary information acquisition unit, 15 content generation unit, 16 application provision unit, 17 information output unit, 18 built-in database.

Claims (5)

車載カメラが撮影した車両周辺の画像データを入力し、当該画像データから主要被写体の画像を抽出する被写体抽出部と、
被写体の種別ごとに当該被写体に関する属性情報を記憶するデータベースと、
前記被写体抽出部が抽出した前記被写体の画像から当該被写体の種別を判別し、判別した種別に基づいて前記データベースに記憶された属性情報の中から当該被写体の属性情報を特定するとともに、前記被写体の画像から当該被写体の撮影時の外観を示す外観情報を特定する被写体特定部と、
前記被写体特定部が特定した前記被写体の属性情報および外観情報に基づいて、前記被写体の属性および外観を含むコンテンツを生成するコンテンツ生成部と、
前記コンテンツ生成部が生成したコンテンツを車両内のユーザに提供する情報出力部と
を備える車載情報提供装置。
A subject extraction unit that inputs image data around the vehicle captured by the in-vehicle camera and extracts an image of a main subject from the image data;
A database for storing attribute information about the subject for each subject type;
The type of the subject is determined from the image of the subject extracted by the subject extraction unit, the attribute information of the subject is specified from the attribute information stored in the database based on the determined type, and the subject A subject identifying unit that identifies appearance information indicating an appearance of the subject at the time of shooting from the image;
A content generating unit that generates content including the attribute and appearance of the subject based on the attribute information and appearance information of the subject specified by the subject specifying unit;
An in-vehicle information providing apparatus comprising: an information output unit that provides content generated by the content generation unit to a user in the vehicle.
様々な情報提供方法を実現するアプリケーションを有し、前記コンテンツ生成部からの要求に応じて前記アプリケーションを提供するアプリケーション提供部を備え、
前記コンテンツ生成部は、前記アプリケーション提供部から取得したアプリケーションを実行して、当該アプリケーションに対応する情報提供方法のコンテンツを生成することを特徴とする請求項1記載の車載情報提供装置。
It has an application that realizes various information providing methods, and includes an application providing unit that provides the application in response to a request from the content generation unit,
The in-vehicle information providing apparatus according to claim 1, wherein the content generation unit executes an application acquired from the application providing unit and generates content of an information providing method corresponding to the application.
前記被写体特定部が特定した前記被写体の属性情報、外観情報、および撮影日時情報を関連付けて当該被写体の履歴情報として記憶する記憶部を備え、
前記コンテンツ生成部は、前記記憶部に記憶された前記被写体の履歴情報に基づいて、当該被写体の属性および外観とその時間経過に伴う変遷とを含んだコンテンツを生成することを特徴とする請求項1または請求項2記載の車載情報提供装置。
A storage unit that associates attribute information, appearance information, and shooting date / time information of the subject specified by the subject specifying unit and stores the information as history information of the subject;
The content generation unit generates content including an attribute and an appearance of the subject and a transition with the passage of time based on history information of the subject stored in the storage unit. The in-vehicle information providing apparatus according to claim 1 or 2.
被写体の種別ごとに当該被写体に関する属性情報を記憶する外部データベースと通信を行って前記属性情報を取得する情報取得部を備え、
前記被写体特定部は、判別した種別に対応する属性情報が前記データベースにない場合に、前記情報取得部に指示して当該種別に対応する属性情報を前記外部データベースから取得することを特徴とする請求項1から請求項3のうちのいずれか1項記載の車載情報提供装置。
An information acquisition unit that acquires the attribute information by communicating with an external database that stores attribute information about the subject for each type of subject,
The subject specifying unit, when there is no attribute information corresponding to the determined type in the database, instructs the information acquisition unit to acquire attribute information corresponding to the type from the external database. The in-vehicle information providing apparatus according to any one of claims 1 to 3.
前記被写体特定部は、車両、人物、動物、航空機、植物、標識および地物の少なくとも一つを被写体の種別として判別すること特徴とする請求項1から請求項4のうちのいずれか1項記載の車載情報提供装置。   5. The device according to claim 1, wherein the subject specifying unit determines at least one of a vehicle, a person, an animal, an aircraft, a plant, a sign, and a feature as a subject type. In-vehicle information providing device.
JP2012257562A 2012-11-26 2012-11-26 On-vehicle information providing device Pending JP2014106617A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012257562A JP2014106617A (en) 2012-11-26 2012-11-26 On-vehicle information providing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012257562A JP2014106617A (en) 2012-11-26 2012-11-26 On-vehicle information providing device

Publications (1)

Publication Number Publication Date
JP2014106617A true JP2014106617A (en) 2014-06-09

Family

ID=51028073

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012257562A Pending JP2014106617A (en) 2012-11-26 2012-11-26 On-vehicle information providing device

Country Status (1)

Country Link
JP (1) JP2014106617A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014106037A (en) * 2012-11-26 2014-06-09 Mitsubishi Electric Corp On-vehicle information providing device
WO2018212023A1 (en) * 2017-05-15 2018-11-22 ダイキン工業株式会社 Building method for building object identification apparatus, storage device, setting device and object identification method
WO2020044646A1 (en) * 2018-08-30 2020-03-05 日本電気株式会社 Image processing device, image processing method, and program
JP2020102093A (en) * 2018-12-25 2020-07-02 トヨタ自動車株式会社 Information processor, information processing system, program, and information processing method
CN112819560A (en) * 2019-11-15 2021-05-18 丰田自动车株式会社 Clothing information acquisition system and clothing information acquisition method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014106037A (en) * 2012-11-26 2014-06-09 Mitsubishi Electric Corp On-vehicle information providing device
WO2018212023A1 (en) * 2017-05-15 2018-11-22 ダイキン工業株式会社 Building method for building object identification apparatus, storage device, setting device and object identification method
WO2020044646A1 (en) * 2018-08-30 2020-03-05 日本電気株式会社 Image processing device, image processing method, and program
JPWO2020044646A1 (en) * 2018-08-30 2021-11-11 日本電気株式会社 Image processing equipment, image processing methods and programs
JP2020102093A (en) * 2018-12-25 2020-07-02 トヨタ自動車株式会社 Information processor, information processing system, program, and information processing method
CN111383133A (en) * 2018-12-25 2020-07-07 丰田自动车株式会社 Information processing apparatus, information processing system, recording medium, and information processing method
CN112819560A (en) * 2019-11-15 2021-05-18 丰田自动车株式会社 Clothing information acquisition system and clothing information acquisition method
JP2021081877A (en) * 2019-11-15 2021-05-27 トヨタ自動車株式会社 Clothing information acquisition system and clothing information acquisition method
JP7230783B2 (en) 2019-11-15 2023-03-01 トヨタ自動車株式会社 Clothing information acquisition system and clothing information acquisition method

Similar Documents

Publication Publication Date Title
Naphade et al. The 7th ai city challenge
US10755115B2 (en) Method, apparatus, and system for generating synthetic image data for machine learning
CN109643125B (en) Realistic 3D virtual world creation and simulation for training an autonomous driving system
US10317240B1 (en) Travel data collection and publication
US9443152B2 (en) Automatic image content analysis method and system
CN104537027B (en) Information recommendation method and device
US11113864B2 (en) Generative image synthesis for training deep learning machines
JP2014106617A (en) On-vehicle information providing device
EP3151202A1 (en) Information processing device and information processing method
US20150377634A1 (en) Automatic content analysis method and system
WO2006121986A2 (en) Network-based navigation system having virtual drive-thru advertisements integrated with actual imagery from along a physical route
CN110969480A (en) Multimedia backpack advertising information playing control method and device
JP6849256B1 (en) 3D model construction system and 3D model construction method
JP2022117991A (en) Display device
CN109726255A (en) Automatic update method, device, system and the storage medium of POI
CN109886338A (en) A kind of intelligent automobile test image mask method, device, system and storage medium
CN117221703A (en) Video generation method and device, electronic equipment and computer readable medium
FR3060738A1 (en) METHOD AND DEVICE FOR REMOVING AT LEAST ONE POSITION OF A GROUND MARK IN A RADAR CARD
CN112815958A (en) Navigation object display method, device, equipment and storage medium
DE112018003476T5 (en) System and method to enable brand promotion using autonomous vehicles
CN114332798A (en) Processing method and related device for network car booking environment information
CN113822137A (en) Data annotation method, device and equipment and computer readable storage medium
WO2020090310A1 (en) Analysis system
CN113220805A (en) Map generation device, recording medium, and map generation method
CN112819965B (en) Vehicle information display method and device and electronic equipment