JP2011022023A - Apparatus, method, and program for driving support - Google Patents

Apparatus, method, and program for driving support Download PDF

Info

Publication number
JP2011022023A
JP2011022023A JP2009167784A JP2009167784A JP2011022023A JP 2011022023 A JP2011022023 A JP 2011022023A JP 2009167784 A JP2009167784 A JP 2009167784A JP 2009167784 A JP2009167784 A JP 2009167784A JP 2011022023 A JP2011022023 A JP 2011022023A
Authority
JP
Japan
Prior art keywords
image data
driving support
intention
destination
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009167784A
Other languages
Japanese (ja)
Other versions
JP5434325B2 (en
Inventor
Hiroaki Sugiura
博昭 杉浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2009167784A priority Critical patent/JP5434325B2/en
Publication of JP2011022023A publication Critical patent/JP2011022023A/en
Application granted granted Critical
Publication of JP5434325B2 publication Critical patent/JP5434325B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an apparatus, method, and program for driving support, capable of enhancing convenience in the driving support using images by estimating the purposes of photographing of image data. <P>SOLUTION: The driving support apparatus 50 includes an image acquisition unit 51a for acquiring image data acquired by photographing by a photographing apparatus, a photographing purpose estimation unit 51c for estimating the purposes of photographing of image data on the basis of image data acquired by the image data acquisition unit 51a, and a driving support unit 51d for performing the driving support using the image data acquired by the image acquisition unit 51a on the basis of the purposes of photographing estimated by the photographing purpose estimation unit 51c. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、運転支援装置、運転支援方法、及び運転支援プログラムに関する。   The present invention relates to a driving support device, a driving support method, and a driving support program.

従来、ドライバの運転を支援する装置として、ユーザによって入力された画像に基づいて、目的地を設定する装置が提案されている(例えば、特許文献1参照)。この装置では、ユーザが、目的地設定を行うための初期画面を表示部に表示させ、この状態で画像を当該装置に入力し、さらにこの画像に対する範囲指定を行う。そして、当該装置において、ユーザによって指定された範囲内に含まれる文字情報が認識され、この認識によって得られた文字情報に基づいて目的地が設定される。   2. Description of the Related Art Conventionally, as an apparatus that assists driving of a driver, an apparatus that sets a destination based on an image input by a user has been proposed (see, for example, Patent Document 1). In this apparatus, the user displays an initial screen for performing destination setting on the display unit, inputs an image to the apparatus in this state, and further specifies a range for the image. In the device, character information included in a range designated by the user is recognized, and a destination is set based on the character information obtained by the recognition.

特開2006−38556号公報(段落0026から段落0031)JP 2006-38556 A (paragraph 0026 to paragraph 0031)

しかし、特許文献1の如き従来の運転支援装置では、目的地の設定を行うためには、目的地設定を行うための初期画面を表示部に表示させる等、目的地設定を行う意図を指示するために、ユーザが当該装置に対して何らかの操作を行う必要があり、画像を用いた運転支援を行う上での利便性を低下させる可能性があった。   However, in the conventional driving support apparatus such as Patent Document 1, in order to set the destination, an intention to set the destination is instructed, for example, an initial screen for setting the destination is displayed on the display unit. Therefore, it is necessary for the user to perform some operation on the device, and there is a possibility that convenience in performing driving assistance using images may be reduced.

本発明は、上記に鑑みてなされたものであって、画像データの撮影意図を推定することにより、画像を用いた運転支援を行う上での利便性を高めることができる、運転支援装置、運転支援方法、及び運転支援プログラムを提供することを目的とする。   The present invention has been made in view of the above, and it is possible to improve the convenience in performing driving support using an image by estimating the shooting intention of image data, and a driving support device, driving An object is to provide a support method and a driving support program.

上述した課題を解決し、目的を達成するために、請求項1に記載の運転支援装置は、撮影機器にて撮影された画像データを取得する画像取得手段と、前記画像取得手段にて取得された画像データに基づいて、当該画像データの撮影意図を推定する撮影意図推定手段と、前記撮影意図推定手段にて推定された撮影意図に基づいて、前記画像取得手段にて取得された画像データを用いた運転支援を行う運転支援手段とを備える。   In order to solve the above-described problems and achieve the object, the driving support apparatus according to claim 1 is acquired by an image acquisition unit that acquires image data captured by a shooting device, and the image acquisition unit. Based on the obtained image data, the shooting intention estimation means for estimating the shooting intention of the image data, and the image data acquired by the image acquisition means based on the shooting intention estimated by the shooting intention estimation means. Driving support means for performing the driving support used.

また、請求項2に記載の運転支援装置は、請求項1に記載の運転支援装置において、前記撮影意図推定手段は、前記画像データの撮影意図が、当該画像データの被写体に含まれる地点情報を目的地に設定する意図であることを推定する。   The driving support apparatus according to claim 2 is the driving support apparatus according to claim 1, wherein the shooting intention estimation unit is configured to obtain point information including a shooting intention of the image data included in a subject of the image data. Estimate that the intention is to set the destination.

また、請求項3に記載の運転支援装置は、請求項2に記載の運転支援装置において、前記撮影意図推定手段は、前記被写体が印刷物であるか否かを判定し、印刷物であると判定した場合には、前記画像データの撮影意図が、当該被写体に含まれる地点情報を目的地に設定する意図であると推定し、前記運転支援手段は、前記画像データの撮影意図が、前記被写体に含まれる地点情報を目的地に設定する意図であることが、前記撮影意図推定手段によって推定された場合には、前記被写体に含まれる地点情報を目的地に設定する。   The driving support device according to claim 3 is the driving support device according to claim 2, wherein the photographing intention estimation unit determines whether or not the subject is a printed material, and determines that the object is a printed material. In this case, it is estimated that the shooting intention of the image data is an intention to set the point information included in the subject as a destination, and the driving support means includes the shooting intention of the image data in the subject. If it is estimated by the shooting intention estimation means that the intention is to set the spot information to be set as the destination, the spot information included in the subject is set as the destination.

また、請求項4に記載の運転支援装置は、請求項3に記載の運転支援装置において、前記画像取得手段にて取得された画像データのドットピッチに基づいて、前記被写体が印刷物であるか否かを判定する。   According to a fourth aspect of the present invention, there is provided the driving support device according to the third aspect, wherein the subject is a printed matter based on the dot pitch of the image data acquired by the image acquisition means. Determine whether.

また、請求項5に記載の運転支援装置は、請求項2に記載の運転支援装置において、前記撮影意図推定手段は、前記画像取得手段にて取得された画像データに唯一の地点情報が含まれるか否かを判定し、唯一の地点情報が含まれると判定した場合には、前記画像データの撮影意図が、当該唯一の地点情報を目的地に設定する意図であると推定し、前記運転支援手段は、前記画像データの撮影意図が、前記唯一の地点情報を目的地に設定する意図であることが、前記撮影意図推定手段によって推定された場合には、前記唯一の地点情報を目的地に設定する。   The driving support apparatus according to claim 5 is the driving support apparatus according to claim 2, wherein the photographing intention estimation means includes unique point information in the image data acquired by the image acquisition means. And if it is determined that the only point information is included, it is estimated that the intention to capture the image data is the intention to set the only point information as a destination, and the driving support When the photographing intention of the image data is intended to set the unique point information as a destination, when the photographing intention estimating means estimates that the unique point information is the destination, Set.

また、請求項6に記載の運転支援方法は、撮影機器にて撮影された画像データを取得する画像取得ステップと、前記画像取得ステップにて取得された画像データに基づいて、当該画像データの撮影意図を推定する撮影意図推定ステップと、前記撮影意図推定ステップにて推定された撮影意図に基づいて、前記画像取得ステップにて取得された画像データを用いた運転支援を行う運転支援ステップとを含む。   According to a sixth aspect of the present invention, there is provided a driving support method comprising: an image acquisition step for acquiring image data shot by a shooting device; and imaging of the image data based on the image data acquired in the image acquisition step. A shooting intention estimation step for estimating the intention, and a driving support step for performing driving support using the image data acquired in the image acquisition step based on the shooting intention estimated in the shooting intention estimation step. .

また、請求項7に記載の運転支援プログラムは、請求項6に記載の方法をコンピュータに実行させる。   A driving support program according to a seventh aspect causes a computer to execute the method according to the sixth aspect.

請求項1に記載の運転支援装置、請求項6に記載の運転支援方法、及び請求項7に記載の運転支援プログラムによれば、画像データの撮影意図を推定し、推定された撮影意図に基づいて、画像データを用いた運転支援を行うので、画像データの撮影意図をユーザが操作によって指示することが不要となり、画像を用いた運転支援を行う上での利便性を高めることができる。   According to the driving support apparatus according to claim 1, the driving support method according to claim 6, and the driving support program according to claim 7, the shooting intention of the image data is estimated, and based on the estimated shooting intention Thus, since driving assistance using image data is performed, it is not necessary for the user to instruct the intention to capture image data by operation, and convenience in performing driving assistance using images can be improved.

請求項2に記載の運転支援装置によれば、画像データの撮影意図が、画像データの被写体に含まれる地点情報を目的地に設定する意図であることを推定するので、当該地点情報を自動的に目的地に設定すること等により、画像を用いた目的地設定を行う上での利便性を高めることができる。   According to the driving support device according to claim 2, since it is estimated that the photographing intention of the image data is the intention to set the spot information included in the subject of the picture data as the destination, the spot information is automatically By setting the destination as the destination, the convenience in setting the destination using the image can be enhanced.

請求項3に記載の運転支援装置によれば、被写体が印刷物であると判定した場合には、画像データの撮影意図が、当該被写体に含まれる地点情報を目的地に設定する意図であると推定し、この被写体に含まれる地点情報を目的地に設定するので、印刷物を被写体とした画像データを入力することで目的地を自動的に設定することができ、印刷物を用いた目的地設定を行う上での利便性を高めることができる。   According to the driving support device of claim 3, when it is determined that the subject is a printed matter, it is estimated that the intention of photographing the image data is the intention of setting the point information included in the subject as the destination. Since the point information included in the subject is set as the destination, the destination can be automatically set by inputting image data with the printed matter as the subject, and the destination setting using the printed matter is performed. Convenience can be improved.

請求項4に記載の運転支援装置によれば、画像データのドットピッチに基づいて、被写体が印刷物であるか否かを判定するので、被写体に含まれる情報に基づいて被写体が印刷物であるか否かを判定することが困難な場合であっても、被写体が印刷物であるか否かを判定することができる。   According to the driving support device of the fourth aspect, since it is determined whether or not the subject is a printed matter based on the dot pitch of the image data, whether or not the subject is a printed matter based on the information included in the subject. Even if it is difficult to determine whether the subject is a printed matter, it can be determined.

請求項5に記載の運転支援装置によれば、画像データに唯一の地点情報が含まれると判定した場合には、画像データの撮影意図が、当該唯一の地点情報を目的地に設定する意図であると推定し、この唯一の地点情報を目的地に設定するので、唯一の地点情報を含んだ画像データを入力することで目的地を自動的に設定することができ、画像データを用いた目的地設定を行う上での利便性を高めることができる。   According to the driving support device of the fifth aspect, when it is determined that the unique spot information is included in the image data, the intention of photographing the image data is the intention of setting the unique spot information as the destination. Since it is assumed that there is a point, this unique point information is set as the destination, so it is possible to automatically set the destination by inputting image data that includes the unique point information. Convenience in setting the location can be improved.

本発明の実施の形態1に係る運転支援システムを例示するブロック図である。1 is a block diagram illustrating a driving support system according to a first embodiment of the present invention. 実施の形態1に係る運転支援処理のフローチャートである。3 is a flowchart of a driving support process according to the first embodiment. 実施の形態2に係る運転支援システムにおいて登録される唯一テンプレートを例示する図である。It is a figure which illustrates the only template registered in the driving assistance system which concerns on Embodiment 2. FIG. 実施の形態2に係る運転支援システムにおいて登録される複数テンプレートを例示する図である。It is a figure which illustrates the several template registered in the driving assistance system which concerns on Embodiment 2. FIG. 実施の形態2に係る運転支援処理のフローチャートである。6 is a flowchart of a driving support process according to the second embodiment.

以下、本発明に係る運転支援装置、運転支援方法、及び運転支援プログラムの各実施の形態について図面を参照しつつ詳細に説明する。ただし、これら各実施の形態によって本発明が限定されるものではない。   Hereinafter, embodiments of a driving support device, a driving support method, and a driving support program according to the present invention will be described in detail with reference to the drawings. However, the present invention is not limited by these embodiments.

〔実施の形態1〕
最初に、実施の形態1について説明する。この実施の形態1は、画像データの被写体が印刷物であるか否かを判定し、印刷物であると判定した場合には、画像データの撮影意図が、当該被写体に含まれる地点情報を目的地に設定する意図であると推定する形態である。
[Embodiment 1]
First, the first embodiment will be described. In the first embodiment, it is determined whether or not the subject of the image data is a printed matter, and when it is determined that the subject is a printed matter, the intention of photographing the image data indicates that the point information included in the subject is the destination. It is a form presumed to be the intention to set.

(構成)
まず、実施の形態1に係る運転支援システムの構成を説明する。図1は、実施の形態1に係る運転支援システムを例示するブロック図である。この運転支援システム1は、現在位置検出処理部10、車速センサ20、ディスプレイ30、スピーカ40、及び運転支援装置50を備えている。
(Constitution)
First, the configuration of the driving support system according to Embodiment 1 will be described. FIG. 1 is a block diagram illustrating a driving support system according to the first embodiment. The driving support system 1 includes a current position detection processing unit 10, a vehicle speed sensor 20, a display 30, a speaker 40, and a driving support device 50.

(構成−現在位置検出処理部)
現在位置検出処理部10は、運転支援装置50が取り付けられた車両(以下、自車両)の現在位置を検出する現在位置検出手段である。具体的には、現在位置検出処理部10は、GPS、地磁気センサ、距離センサ、又はジャイロセンサ(いずれも図示省略)の少なくとも一つを有し、現在の自車両の位置(座標)及び方位等を公知の方法にて検出する。
(Configuration-Current position detection processing unit)
The current position detection processing unit 10 is a current position detection unit that detects the current position of a vehicle (hereinafter, the host vehicle) to which the driving support device 50 is attached. Specifically, the current position detection processing unit 10 includes at least one of a GPS, a geomagnetic sensor, a distance sensor, and a gyro sensor (all of which are not shown), and the current position (coordinates) and direction of the host vehicle. Is detected by a known method.

(構成−車速センサ)
車速センサ20は、自車両の車輪の回転速度等を運転支援装置50に出力するものであり、公知の車速センサを用いることができる。
(Configuration-vehicle speed sensor)
The vehicle speed sensor 20 outputs the rotational speed of the wheels of the host vehicle to the driving support device 50, and a known vehicle speed sensor can be used.

(構成−ディスプレイ)
ディスプレイ30は、運転支援装置50の制御に基づいて各種の画像を表示する表示手段である。なお、このディスプレイ30の具体的な構成は任意であり、公知の液晶ディスプレイや有機ELディスプレイの如きフラットパネルディスプレイを使用することができる。
(Configuration-Display)
The display 30 is a display unit that displays various images based on the control of the driving support device 50. The specific configuration of the display 30 is arbitrary, and a known flat panel display such as a liquid crystal display or an organic EL display can be used.

(構成−スピーカ)
スピーカ40は、運転支援装置50の制御に基づいて各種の音声を出力する出力手段である。スピーカ40より出力される音声の具体的な態様は任意であり、必要に応じて生成された合成音声や、予め録音された音声を出力することができる。
(Configuration-Speaker)
The speaker 40 is an output unit that outputs various sounds based on the control of the driving support device 50. The specific form of the sound output from the speaker 40 is arbitrary, and it is possible to output a synthesized sound generated as necessary or a sound recorded in advance.

(構成−運転支援装置)
運転支援装置50は、運転支援制御を行う案内制御手段であり、制御部51及びデータ記録部52を備えている。
(Configuration-Driving support device)
The driving support device 50 is a guidance control unit that performs driving support control, and includes a control unit 51 and a data recording unit 52.

(構成−運転支援装置−制御部)
制御部51は、運転支援装置50を制御する制御手段であり、具体的には、CPU、当該CPU上で解釈実行される各種のプログラム(OSなどの基本制御プログラムや、OS上で起動され特定機能を実現するアプリケーションプログラムを含む)、及びプログラムや各種のデータを格納するためのRAMの如き内部メモリを備えて構成されるコンピュータである。特に、実施の形態1に係る運転支援プログラムは、任意の記録媒体又はネットワークを介して運転支援装置50にインストールされることで、制御部51の各部を実質的に構成する。なお、制御部51のRAMによって記憶される情報には、目的地情報と登録地情報が含まれる。ここで、「目的地」とは、自車両の最終到達地として設定される位置である。「登録地」とは、目的地や立寄地等として設定するために登録される位置である。例えば、登録地情報は、登録地の位置(座標)と画像を関連付けて構成される。
(Configuration-Driving support device-Control unit)
The control unit 51 is a control means for controlling the driving support device 50. Specifically, the CPU, various programs interpreted and executed on the CPU (a basic control program such as an OS, and a program that is activated and specified on the OS). And an internal memory such as a RAM for storing the program and various data. In particular, the driving support program according to Embodiment 1 is substantially installed in the driving support device 50 via an arbitrary recording medium or network, thereby substantially configuring each unit of the control unit 51. Note that the information stored by the RAM of the control unit 51 includes destination information and registered location information. Here, the “destination” is a position set as the final destination of the host vehicle. The “registered place” is a position registered for setting as a destination or a stopover. For example, the registered place information is configured by associating the position (coordinates) of the registered place with an image.

この制御部51は、機能概念的に、画像取得部51a、文字認識部51b、撮影意図推定部51c、及び運転支援部51dを備えている。   The control unit 51 includes an image acquisition unit 51a, a character recognition unit 51b, a shooting intention estimation unit 51c, and a driving support unit 51d in terms of functional concept.

画像取得部51aは、撮影機器にて撮影された画像データを取得する画像取得手段である。ここで、「撮影機器」とは、画像データを撮影可能な任意の機器であり、例えば、デジタルカメラや撮影機能付きの携帯電話を含む。画像取得部51aが撮影機器から画像データを取得するための具体的な取得方法は任意であり、例えば、通信ケーブルを介した有線通信、ブルートゥースの如き無線通信、あるいは各種の記録媒体を介して、画像データを取得することができる。これら有線通信、無線通信、あるいは記録媒体の読み取りを行うための機器やインターフェースについては、公知のものを使用することができるため、その図示を省略する。   The image acquisition unit 51a is an image acquisition unit that acquires image data captured by an imaging device. Here, the “photographing device” is any device capable of photographing image data, and includes, for example, a digital camera and a mobile phone with a photographing function. The specific acquisition method for the image acquisition unit 51a to acquire image data from the photographing device is arbitrary, for example, wired communication via a communication cable, wireless communication such as Bluetooth, or various recording media, Image data can be acquired. As devices and interfaces for performing wired communication, wireless communication, or reading of a recording medium, publicly known devices and interfaces can be used, and illustration thereof is omitted.

文字認識部51bは、画像取得部51aにて取得された画像データに含まれる文字を認識するための文字認識手段であり、公知のOCR(Optical Character Reader)アルゴリズムに基づいて文字認識を行う。   The character recognition unit 51b is character recognition means for recognizing characters included in the image data acquired by the image acquisition unit 51a, and performs character recognition based on a known OCR (Optical Character Reader) algorithm.

撮影意図推定部51cは、画像取得部51aにて取得された画像データに基づいて、当該画像データの撮影意図を推定する撮影意図推定手段である。   The shooting intention estimation unit 51c is a shooting intention estimation unit that estimates the shooting intention of the image data based on the image data acquired by the image acquisition unit 51a.

運転支援部51dは、撮影意図推定部51cにて推定された撮影意図に基づいて、画像取得部51aにて取得された画像データを用いた運転支援を行う運転支援手段である。   The driving support unit 51d is a driving support unit that performs driving support using the image data acquired by the image acquisition unit 51a based on the shooting intention estimated by the shooting intention estimation unit 51c.

(構成−運転支援装置−データ記録部)
データ記録部52は、運転支援装置50の動作に必要なプログラム及び各種のデータを記録する記録手段であり、例えば、外部記録装置としてのハードディスク(図示省略)を用いて構成されている。ただし、ハードディスクに代えてあるいはハードディスクと共に、磁気ディスクの如き磁気的記録媒体、又はDVDやブルーレイディスクの如き光学的記録媒体を含む、その他の任意の記録媒体を用いることができる。
(Configuration-Driving support device-Data recording unit)
The data recording unit 52 is a recording unit that records a program and various data necessary for the operation of the driving support device 50, and is configured using, for example, a hard disk (not shown) as an external recording device. However, any other recording medium including a magnetic recording medium such as a magnetic disk or an optical recording medium such as a DVD or a Blu-ray disk can be used instead of or together with the hard disk.

このデータ記録部52は、地図情報データベース(以下、データベースを「DB」と称する)52aを備えている。地図情報DB52aは、地図情報を格納する地図情報格納手段である。「地図情報」とは、交差点や一時停止地点を含む各種の位置の特定に必要な情報であり、例えば、交差点データ(交差点座標等)や、地図をディスプレイ30に表示するための地図表示データ等を含んで構成されている。また、地図情報には、目的地を特定するための施設情報(例えば、施設の名称、住所、座標、及びジャンル等)が含まれる。   The data recording unit 52 includes a map information database (hereinafter, the database is referred to as “DB”) 52a. The map information DB 52a is map information storage means for storing map information. “Map information” is information necessary for specifying various positions including an intersection and a temporary stop point. For example, intersection data (intersection coordinates, etc.), map display data for displaying a map on the display 30, etc. It is comprised including. Further, the map information includes facility information (for example, the name, address, coordinates, and genre of the facility) for specifying the destination.

(処理)
次に、このように構成される運転支援装置50によって実行される運転支援処理について説明する。図2は運転支援処理のフローチャートである(以下の各処理の説明ではステップを「S」と略記する)。最初に、ユーザが、撮影機器で撮影した画像データを運転支援装置50に入力すると、この画像データが画像取得部51aにより取得される(SA1)。次いで、文字認識部51bは、画像取得部51aにより取得された画像データに対する文字認識を行う(SA2)。そして、文字認識を正常に行うことができた場合には(SA3、Yes)、SA4に移行し、文字認識を正常に行うことができなかった場合には(SA3、No)、ディスプレイ30に所定のエラー画面を表示させて(SA7)、運転支援処理を終了する。ここで、文字認識を正常に行うことができなかった場合としては、例えば、画像データの画像品質が悪いために文字認識処理が完了できなかった場合や、文字認識処理が完了できた場合であっても文字認識結果中に文字が一つも含まれなかった場合等が該当する。
(processing)
Next, driving support processing executed by the driving support device 50 configured as described above will be described. FIG. 2 is a flowchart of the driving support process (steps are abbreviated as “S” in the description of each process below). First, when the user inputs image data captured by the imaging device to the driving support device 50, this image data is acquired by the image acquisition unit 51a (SA1). Next, the character recognition unit 51b performs character recognition on the image data acquired by the image acquisition unit 51a (SA2). If the character recognition can be performed normally (SA3, Yes), the process proceeds to SA4. If the character recognition cannot be performed normally (SA3, No), a predetermined value is displayed on the display 30. Is displayed (SA7), and the driving support process is terminated. Here, the case where the character recognition could not be performed normally is, for example, a case where the character recognition process could not be completed due to poor image quality of the image data or a case where the character recognition process could be completed. However, this includes the case where no character is included in the character recognition result.

文字認識を正常に行うことができた場合(SA3、Yes)、撮影意図推定部51cは、画像データのドットピッチを特定し、当該特定したドットピッチが、データ記録部52に予め設定されたドットピッチの閾値(以下、「基準ドットピッチ」)より大きいか否かを判定する(SA4)。すなわち、画像データの被写体が印刷物である場合には、印刷物は一定ピッチのドットで印刷されていることから、当該一定ピッチに基づいて、被写体が印刷物であるか否かを判定する。ここでは、画像データを撮影した撮影機器で使用されている平均的なCCDの素子のピッチを基準ドットピッチとしており、画像データのドットピッチが基準ドットピッチより大きい場合には、画像データの被写体が印刷物であるとし、画像データのドットピッチが基準ドットピッチ以下である場合には、画像データの被写体が印刷物ではないとする。ただし、基準ドットピッチとして設定するドットピッチとしては、CCDの素子のピッチ以外のものを使用してもよい。また、基準ドットピッチの設定内容に応じて、画像データのドットピッチが基準ドットピッチと同じである場合や、画像データのドットピッチが基準ドットピッチ以下である場合に、画像データの被写体が印刷物であると判定するようにしてもよい。   When the character recognition can be normally performed (SA3, Yes), the shooting intention estimation unit 51c specifies the dot pitch of the image data, and the specified dot pitch is a dot set in advance in the data recording unit 52. It is determined whether or not the pitch is greater than a threshold value (hereinafter referred to as “reference dot pitch”) (SA4). That is, when the subject of the image data is a printed matter, since the printed matter is printed with dots having a constant pitch, it is determined based on the constant pitch whether the subject is a printed matter. Here, the pitch of the average CCD element used in the imaging device that captured the image data is the reference dot pitch. If the dot pitch of the image data is larger than the reference dot pitch, the subject of the image data is Assume that the image data is a printed material, and if the dot pitch of the image data is equal to or less than the reference dot pitch, the subject of the image data is not a printed material. However, a dot pitch other than the CCD element pitch may be used as the reference dot pitch. Depending on the setting of the reference dot pitch, if the dot pitch of the image data is the same as the reference dot pitch, or if the dot pitch of the image data is less than or equal to the reference dot pitch, the subject of the image data is a printed matter. You may make it determine with there.

画像データのドットピッチが基準ドットピッチより大きいと判定した場合(SA4、Yes)、撮影意図推定部51cは、ユーザが印刷物を撮影してその画像データを運転支援装置50に入力するのは、当該印刷物に印刷されている地点情報を運転支援装置50における支援に利用するためであり、当該画像データの撮影意図は、当該画像データの被写体に含まれる地点情報を目的地に設定する意図であると推定して、SA2の文字認識結果に基づいて、目的地を設定する(SA5)。例えば、SA2の文字認識にて取得された文字情報の中から、公知の言語解析ロジックに基づいて、施設の名称、住所、及びジャンル等を抽出し、当該抽出された施設の名称、住所、及びジャンル等に対応する施設の座標を地図情報DB52aから取得し、当該取得した座標を用いて目的地を設定する。このように目的地が設定されることで、さらにユーザが所定方法で指示を行うことにより、あるいはSA5の処理が行われた後に自動的に、現在位置検出処理部10にて検出された自車両の現在位置から当該目的地に至る経路が公知の経路探索ロジックにて探索され、当該探索された経路がディスプレイ30及びスピーカ40を介してユーザに案内される。   When it is determined that the dot pitch of the image data is larger than the reference dot pitch (SA4, Yes), the shooting intention estimation unit 51c captures the printed matter and inputs the image data to the driving support device 50. This is because the spot information printed on the printed material is used for assistance in the driving support device 50, and the intention to capture the image data is the intention to set the spot information included in the subject of the image data as the destination. Based on the estimated character recognition result of SA2, the destination is set (SA5). For example, the name, address, genre, etc. of the facility are extracted from the character information acquired by the character recognition of SA2, based on the well-known language analysis logic, and the extracted name, address, and The coordinates of the facility corresponding to the genre and the like are acquired from the map information DB 52a, and the destination is set using the acquired coordinates. By setting the destination in this way, the user's own vehicle detected by the current position detection processing unit 10 when the user gives an instruction by a predetermined method or automatically after the processing of SA5 is performed. A route from the current position to the destination is searched by a known route search logic, and the searched route is guided to the user via the display 30 and the speaker 40.

一方、画像データのドットピッチが基準ドットピッチより大きくないと判定した場合(SA4、No)、撮影意図推定部51cは、画像データの撮影意図を、当該画像データの被写体に含まれる地点情報を目的地に設定する意図ではなく、登録地に設定する意図であると推定し、SA2の文字認識結果に基づいて、登録地設定及びアイコン表示を行う(SA6)。例えば、SA2の文字認識にて取得された文字情報の中からSA5と同様の方法により施設の名称、住所、及びジャンル等が抽出できる場合には、これら名称、住所、及びジャンル等に基づいてSA5と同様の方法により取得された座標を、登録地の座標として制御部51のRAMに登録する。あるいは、施設の名称、住所、及びジャンル等が抽出できない場合において、当該画像データに座標が付加されている場合には、当該座標を登録地の座標として制御部51のRAMに登録し、当該画像データに座標が付加されていない場合には、現在位置検出処理部10で検出された現在位置の座標を登録地の座標として制御部51のRAMに登録する。この際、座標に関連付けて、当該画像データをRAMに登録する。このように登録地が設定されることで、ユーザは、その後の任意のタイミングで所定方法による指示を行うことにより、制御部51のRAMから登録地の座標を読み出して地図情報DB52aの地図情報上に重畳してディスプレイ30に表示させたり、制御部51のRAMから登録地の画像データを読み出してディスプレイ30に表示させる。そして、表示させた登録地をユーザが所定操作で目的地に設定することで、自車両の現在位置から当該目的地に至る経路が公知の経路探索ロジックにて探索され、当該探索された経路がディスプレイ30及びスピーカ40を介してユーザに案内される。また、アイコンの表示は、例えば、地図情報DB52aから読み出してディスプレイ30に表示した地図情報において、上述のように特定した登録地の座標に、所定形状のアイコンを重畳表示することを意味する。アイコンの形状は任意であるが、画像データから取得された住所を表示していることがユーザに把握容易な形状とすることが好ましい。このようにアイコンが表示されることで、ユーザは、画像データの被写体に含まれる住所を地図情報に関連付けて容易に把握でき、さらに必要であれば所定方法で指示を行うことにより、当該アイコンを表示した住所を目的地に設定することで、自車両の現在位置から当該目的地に至る経路が公知の経路探索ロジックにて探索され、当該探索された経路がディスプレイ30及びスピーカ40を介してユーザに案内される。   On the other hand, when it is determined that the dot pitch of the image data is not larger than the reference dot pitch (SA4, No), the shooting intention estimation unit 51c sets the shooting intention of the image data to the point information included in the subject of the image data. It is presumed that it is not intended to be set to the ground but intended to be set to the registered place, and based on the character recognition result of SA2, the registered place is set and the icon is displayed (SA6). For example, when the name, address, genre, etc. of a facility can be extracted from the character information acquired by the character recognition of SA2 by the same method as SA5, SA5 is based on the name, address, genre, etc. The coordinates acquired by the same method as above are registered in the RAM of the control unit 51 as the coordinates of the registration place. Alternatively, when the name, address, genre, etc. of the facility cannot be extracted, and the coordinates are added to the image data, the coordinates are registered in the RAM of the control unit 51 as the coordinates of the registration location, and the image If no coordinates are added to the data, the coordinates of the current position detected by the current position detection processing unit 10 are registered in the RAM of the control unit 51 as the coordinates of the registration location. At this time, the image data is registered in the RAM in association with the coordinates. By setting the registered location in this way, the user can instruct the registered location from the RAM of the control unit 51 by giving an instruction by a predetermined method at an arbitrary timing thereafter, and on the map information in the map information DB 52a. The image data of the registered place is read from the RAM of the control unit 51 and displayed on the display 30. Then, when the user sets the displayed registered location as a destination by a predetermined operation, a route from the current position of the host vehicle to the destination is searched by a known route search logic, and the searched route is The user is guided through the display 30 and the speaker 40. The display of the icon means, for example, that an icon having a predetermined shape is superimposed on the coordinates of the registered place specified as described above in the map information read from the map information DB 52a and displayed on the display 30. Although the shape of the icon is arbitrary, it is preferable that the icon has a shape that allows the user to easily grasp that the address acquired from the image data is displayed. By displaying the icon in this way, the user can easily grasp the address included in the subject of the image data by associating it with the map information, and if necessary, by giving an instruction by a predetermined method, the icon can be displayed. By setting the displayed address as a destination, a route from the current position of the host vehicle to the destination is searched by a known route search logic, and the searched route is displayed via the display 30 and the speaker 40. Be guided to.

(効果)
このように実施の形態1によれば、画像データの撮影意図を推定し、推定された撮影意図に基づいて、画像データを用いた運転支援を行うので、画像データの撮影意図をユーザが操作によって指示することが不要となり、画像を用いた運転支援を行う上での利便性を高めることができる。
(effect)
As described above, according to the first embodiment, the shooting intention of the image data is estimated, and driving assistance using the image data is performed based on the estimated shooting intention. It becomes unnecessary to give an instruction, and convenience in performing driving support using images can be improved.

また、画像データの撮影意図が、画像データの被写体に含まれる地点情報を目的地に設定する意図であることを推定するので、当該地点情報を自動的に目的地に設定すること等により、画像を用いた目的地設定を行う上での利便性を高めることができる。   In addition, since it is estimated that the shooting intention of the image data is the intention to set the point information included in the subject of the image data as the destination, the point information is automatically set as the destination, etc. Convenience in performing destination setting using can be enhanced.

また、被写体が印刷物であると判定した場合には、画像データの撮影意図が、当該被写体に含まれる地点情報を目的地に設定する意図であると推定し、この被写体に含まれる地点情報を目的地に設定するので、印刷物を被写体とした画像データを入力することで目的地を自動的に設定することができ、印刷物を用いた目的地設定を行う上での利便性を高めることができる。   Further, when it is determined that the subject is a printed matter, it is estimated that the shooting intention of the image data is the intention to set the point information included in the subject as the destination, and the point information included in the subject is Since it is set to the ground, the destination can be automatically set by inputting the image data with the printed matter as the subject, and the convenience in setting the destination using the printed matter can be enhanced.

また、画像データのドットピッチに基づいて、被写体が印刷物であるか否かを判定するので、被写体に含まれる情報に基づいて被写体が印刷物であるか否かを判定することが困難な場合であっても、被写体が印刷物であるか否かを判定することができる。   Further, since it is determined whether or not the subject is a printed matter based on the dot pitch of the image data, it is difficult to determine whether or not the subject is a printed matter based on information included in the subject. However, it can be determined whether or not the subject is a printed matter.

〔実施の形態2〕
次に、実施の形態2について説明する。この実施の形態2は、画像データに唯一の地点情報が含まれると判定した場合には、画像データの撮影意図が、当該唯一の地点情報を目的地に設定する意図であると推定して運転支援を行う形態である。なお、実施の形態2及びそれ以降の実施の形態の構成は、特記する場合を除いて、実施の形態1の構成と略同一であり、実施の形態1の構成と略同一の構成についてはこの実施の形態1で用いたものと同一の符号及び/又は名称を必要に応じて付して、その説明を省略する。
[Embodiment 2]
Next, a second embodiment will be described. In the second embodiment, when it is determined that the image data includes unique point information, it is estimated that the shooting intention of the image data is an intention to set the unique point information as a destination. This is a form of providing support. The configurations of the second embodiment and the subsequent embodiments are substantially the same as the configurations of the first embodiment unless otherwise specified, and this configuration is substantially the same as the configuration of the first embodiment. The same reference numerals and / or names as those used in Embodiment 1 are attached as necessary, and the description thereof is omitted.

(構成)
まず、実施の形態2に係る運転支援システムの構成を説明する。この運転支援システム1は、実施の形態1に係る運転支援システム1とほぼ同様に構成することができるが、撮影意図推定部51cの機能が異なると共に、データ記録部52にテンプレートが格納される点で異なる。
(Constitution)
First, the configuration of the driving support system according to the second embodiment will be described. The driving support system 1 can be configured in substantially the same manner as the driving support system 1 according to the first embodiment, but the function of the shooting intention estimation unit 51c is different and a template is stored in the data recording unit 52. It is different.

ここで、テンプレートとは、画像データの撮影意図の推定を、画像データの構成に基づいて行うために、定型化された画像データの構成を特定するものである。この実施の形態2では、定型化された画像データの構成として、画像データに唯一の地点情報が含まれる場合の構成と、画像データに複数の地点情報が含まれる場合の構成との2種類を想定しており、テンプレートも、前者の構成を特定するテンプレート(以下、「唯一テンプレート」)と、後者の構成を特定するテンプレート(以下、「複数テンプレート」)との2種類を設定している。   Here, the template specifies the configuration of the stylized image data in order to estimate the shooting intention of the image data based on the configuration of the image data. In the second embodiment, as the configuration of the stylized image data, there are two types: a configuration in the case where the image data includes unique point information, and a configuration in which the image data includes a plurality of point information. It is assumed that two types of templates are set: a template for specifying the former configuration (hereinafter referred to as “unique template”) and a template for specifying the latter configuration (hereinafter referred to as “multiple templates”).

図3は、運転支援システム1において登録される唯一テンプレート60を例示する図である。この唯一テンプレート60は、店名領域61、お店紹介本文領域62、住所及び電話領域63、第1の店内写真領域64、及び第2の店内写真領域65の各々を、図示の大きさ及び配置で含んで構成されている。すなわち、この実施の形態2では、唯一の地点情報として、お店の紹介情報が含まれることを想定しており、唯一テンプレート60に合致する構成を有する画像データは、唯一の地点情報を含む画像データであって、住所及び電話領域63に表示された情報が、住所及び電話を示す情報であると特定される。   FIG. 3 is a diagram illustrating a single template 60 registered in the driving support system 1. This unique template 60 includes a store name area 61, a store introduction text area 62, an address and telephone area 63, a first in-store photo area 64, and a second in-store photo area 65 in the size and arrangement shown in the drawing. It is configured to include. That is, in the second embodiment, it is assumed that the introduction information of the shop is included as the only point information, and the image data having a configuration that matches the template 60 is an image including the only point information. It is data, and the information displayed in the address and telephone area 63 is specified as the information indicating the address and telephone.

図4は、運転支援システム1において登録される複数テンプレート70を例示する図である。この複数テンプレート70は、第1表示領域71から第4表示領域74を含んでおり、これら第1表示領域71から第4表示領域74の各々に、店名領域75、お店紹介本文領域76、住所及び電話領域77の各々を、図示の大きさ及び配置で含んで構成されている。すなわち、この実施の形態2では、複数の地点情報として、複数のお店の紹介情報が含まれることを想定しており、複数テンプレート70に合致する構成を有する画像データは、複数の地点情報を含む画像データであって、住所及び電話領域77に表示された情報が、各お店の住所及び電話を示す情報であると特定される。   FIG. 4 is a diagram illustrating a plurality of templates 70 registered in the driving support system 1. The plurality of templates 70 include a first display area 71 to a fourth display area 74. In each of the first display area 71 to the fourth display area 74, a store name area 75, a store introduction text area 76, an address. The telephone area 77 is configured to include the illustrated size and arrangement. That is, in the second embodiment, it is assumed that introduction information of a plurality of shops is included as a plurality of point information, and image data having a configuration that matches the plurality of templates 70 includes a plurality of point information. The image data that is included, and the information displayed in the address and telephone area 77 is specified as the information indicating the address and telephone of each store.

これら唯一テンプレート60及び複数テンプレート70は、ユーザが任意に作成し、後述する運転支援処理に先立つ任意のタイミングで、ユーザが所定方法でデータ記録部52に格納する。例えば、図3及び図4に示した例は、雑誌に掲載されたお店の紹介記事の典型的な構成を反映した唯一テンプレート60及び複数テンプレート70の例であり、雑誌を撮影機器で撮影することで画像データを取得することが想定される場合にユーザが格納した例である。したがって、他の構成の画像データを取得することが想定される場合、ユーザは、当該他の構成に合致したテンプレートを作成して、データ記録部52に格納する。このテンプレートの具体的な作成方法としては、例えば、公知の作図処理を適用することができる。   The unique template 60 and the plurality of templates 70 are arbitrarily created by the user and stored in the data recording unit 52 by the user in a predetermined method at an arbitrary timing prior to a driving support process described later. For example, the example shown in FIGS. 3 and 4 is an example of a unique template 60 and a plurality of templates 70 that reflect a typical configuration of an introductory article of a store published in a magazine, and the magazine is photographed with a photographing device. This is an example stored by the user when it is assumed that image data is acquired. Therefore, when it is assumed that image data of another configuration is acquired, the user creates a template that matches the other configuration and stores it in the data recording unit 52. As a specific method for creating this template, for example, a known drawing process can be applied.

(処理)
次に、このように構成される運転支援装置50によって実行される運転支援処理について説明する。図5は運転支援処理のフローチャートである。ただし、SB1からSB3、SB7は、図2のSA1からSA3、SA7とそれぞれ同じであるため、その説明を省略する。
(processing)
Next, driving support processing executed by the driving support device 50 configured as described above will be described. FIG. 5 is a flowchart of the driving support process. However, SB1 to SB3 and SB7 are the same as SA1 to SA3 and SA7 in FIG.

文字認識を正常に行うことができた場合(SB3、Yes)、撮影意図推定部51cは、画像データにおいて文字が表示された領域を特定する。そして、撮影意図推定部51cは、データ記録部52から唯一テンプレート60及び複数テンプレート70を読み出し、画像データにおいて文字が表示された領域の構成が、これら唯一テンプレート60によって特定される構成と複数テンプレート70によって特定される構成のいずれに合致するかを判定する(SB4)。すなわち、SB1で取得された画像データが、店名領域61、お店紹介本文領域62、住所及び電話領域63、第1の店内写真領域64、及び第2の店内写真領域65の各々を、図3の唯一テンプレート60に示す大きさ及び配置で含んで構成されている場合には、当該画像データの構成が唯一テンプレート60によって特定される構成に合致するものと判定する。あるいは、SB1で取得された画像データが、第1表示領域71から第4表示領域74を含んでおり、これら第1表示領域71から第4表示領域74の各々に、店名領域75、お店紹介本文領域76、住所及び電話領域77の各々を、図4の複数テンプレート70に示す大きさ及び配置で含んで構成されている場合には、当該画像データの構成が複数テンプレート70によって特定される構成に合致するものと判定する。ここでは、SB1で取得された画像データの構成が、唯一テンプレート60や複数テンプレート70によって特定される構成に完全に一致する場合のみでなく、唯一テンプレート60や複数テンプレート70によって特定される構成を基準として予め設定された所定の許容範囲に含まれる場合にも、唯一テンプレート60によって特定される構成や複数テンプレート70によって特定される構成に合致するものと判定してもよい。例えば、SB1で取得された画像データが、第1表示領域71から第4表示領域74を含んでおり、これら第1表示領域71から第4表示領域74の各々に、住所及び電話領域77のみが含まれる場合には、たとえ当該住所及び電話領域77が図4の複数テンプレート70に示す大きさ及び配置とは異なる大きさや配置で含まれている場合であっても、当該画像データの構成は複数テンプレート70によって特定される構成に合致するものと判定してもよい。   When the character recognition can be performed normally (SB3, Yes), the shooting intention estimation unit 51c specifies the area where the character is displayed in the image data. Then, the photographing intention estimation unit 51 c reads the unique template 60 and the plurality of templates 70 from the data recording unit 52, and the configuration of the area where the characters are displayed in the image data is identified by the unique template 60 and the plurality of templates 70. It is determined which of the configurations specified by (SB4). That is, the image data acquired in SB1 includes the store name area 61, the store introduction text area 62, the address and telephone area 63, the first in-store photo area 64, and the second in-store photo area 65 in FIG. If it is configured to include the size and arrangement shown in the only template 60, it is determined that the configuration of the image data matches the configuration specified by the template 60 only. Alternatively, the image data acquired in SB1 includes the first display area 71 to the fourth display area 74. In each of the first display area 71 to the fourth display area 74, the store name area 75 and the store introduction are included. When each of the body area 76, the address, and the telephone area 77 is configured to include the size and arrangement shown in the plurality of templates 70 in FIG. 4, the configuration of the image data is specified by the plurality of templates 70. It is determined that it matches. Here, not only when the configuration of the image data acquired in SB1 completely matches the configuration specified by the template 60 or the plurality of templates 70, but the configuration specified by the template 60 or the plurality of templates 70 is used as a reference. In the case where it is included in a predetermined allowable range set in advance, it may be determined that it matches only the configuration specified by the template 60 or the configuration specified by the plurality of templates 70. For example, the image data acquired in SB1 includes the first display area 71 to the fourth display area 74, and only the address and telephone area 77 are included in each of the first display area 71 to the fourth display area 74. If included, even if the address and telephone area 77 are included in a size and arrangement different from those shown in the plurality of templates 70 in FIG. It may be determined that the configuration specified by the template 70 is matched.

唯一テンプレート60によって特定される構成に合致するものと判定した場合(SB4、Yes)、撮影意図推定部51cは、画像データの撮影意図を、当該画像データの被写体に含まれる地点情報を目的地に設定する意図であると推定し、SB2の文字認識結果に基づいて、目的地を設定する(SB5)。例えば、SB2の文字認識にて取得された文字情報の中で、唯一テンプレート60における住所及び電話領域63に対応する範囲から取得された文字情報の中から、公知の言語解析ロジックに基づいて住所を抽出し、当該抽出された住所に基づいて目的地を設定する。   When it is determined that the image matches only the configuration specified by the template 60 (SB4, Yes), the shooting intention estimation unit 51c sets the shooting intention of the image data to the point information included in the subject of the image data as the destination. Estimating that the intention is to be set, the destination is set based on the character recognition result of SB2 (SB5). For example, among the character information acquired by the character recognition of SB2, only the address in the template 60 and the character information acquired from the range corresponding to the telephone area 63 is used to determine the address based on the well-known language analysis logic. Extraction is performed, and a destination is set based on the extracted address.

一方、複数テンプレート70によって特定される構成に合致するものと判定した場合(SB4、No)、撮影意図推定部51cは、画像データの撮影意図を、当該画像データの被写体に含まれる地点情報を目的地に設定する意図ではなく、登録地として設定する意図であると推定し、SB2の文字認識結果に基づいて、登録地設定及びアイコン表示を行う(SB6)。例えば、SB2の文字認識にて取得された文字情報の中で、複数テンプレート70の第1表示領域71から第4表示領域74の各々における住所及び電話領域77に対応する範囲から取得された文字情報の中から、公知の言語解析ロジックに基づいて住所を抽出し、当該抽出された住所に基づいて、図2のSA6の処理と同様に、登録地の設定を行う。あるいは、図2のSA6の処理と同様に、画像データに付加された座標や現在位置検出処理部10で検出された現在位置の座標に基づいて登録地の設定を行ったり、アイコン表示を行ったり、さらにはユーザが登録地を目的地として設定した場合には当該目的地に至る経路を探索することができる。   On the other hand, when it is determined that it matches the configuration specified by the plurality of templates 70 (SB4, No), the shooting intention estimation unit 51c sets the shooting intention of the image data to the point information included in the subject of the image data. It is presumed that it is not intended to be set to the ground but intended to be set as the registered place, and based on the character recognition result of SB2, registration place setting and icon display are performed (SB6). For example, in the character information acquired by the character recognition of SB2, the character information acquired from the range corresponding to the address and the telephone area 77 in each of the first display area 71 to the fourth display area 74 of the plurality of templates 70. The address is extracted based on the well-known language analysis logic, and the registration location is set based on the extracted address in the same manner as the process of SA6 in FIG. Alternatively, similar to the processing of SA6 in FIG. 2, the registration location is set based on the coordinates added to the image data and the coordinates of the current position detected by the current position detection processing unit 10, or icon display is performed. Furthermore, when the user sets a registered destination as the destination, the route to the destination can be searched.

(効果)
このように実施の形態2によれば、画像データの撮影意図を推定し、推定された撮影意図に基づいて、画像データを用いた運転支援を行うので、画像データの撮影意図をユーザが操作によって指示することが不要となり、画像を用いた運転支援を行う上での利便性を高めることができる。
(effect)
As described above, according to the second embodiment, the shooting intention of the image data is estimated, and driving assistance using the image data is performed based on the estimated shooting intention. It becomes unnecessary to give an instruction, and convenience in performing driving support using images can be improved.

また、画像データの撮影意図が、画像データの被写体に含まれる地点情報を目的地に設定する意図であることを推定するので、当該地点情報を自動的に目的地に設定すること等により、画像を用いた目的地設定を行う上での利便性を高めることができる。   In addition, since it is estimated that the shooting intention of the image data is the intention to set the point information included in the subject of the image data as the destination, the point information is automatically set as the destination, etc. Convenience in performing destination setting using can be enhanced.

また、画像データに唯一の地点情報が含まれると判定した場合には、画像データの撮影意図が、当該唯一の地点情報を目的地に設定する意図であると推定し、この唯一の地点情報を目的地に設定するので、唯一の地点情報を含んだ画像データを入力することで目的地を自動的に設定することができ、画像データを用いた目的地設定を行う上での利便性を高めることができる。   In addition, when it is determined that the image data includes unique point information, the intention to capture the image data is estimated to be the intention to set the unique point information as a destination, and the unique point information is Since the destination is set, the destination can be automatically set by inputting image data including only point information, and the convenience in setting the destination using the image data is improved. be able to.

〔実施の形態に対する変形例〕
以上、本発明に係る実施の形態について説明したが、本発明の具体的な構成及び手段は、特許請求の範囲に記載した各発明の技術的思想の範囲内において、任意に改変及び改良することができる。以下、このような変形例について説明する。
[Modifications to Embodiment]
Although the embodiments of the present invention have been described above, the specific configuration and means of the present invention can be arbitrarily modified and improved within the scope of the technical idea of each invention described in the claims. Can do. Hereinafter, such a modification will be described.

(解決しようとする課題や発明の効果について)
まず、発明が解決しようとする課題や発明の効果は、上述の内容に限定されるものではなく、発明の実施環境や構成の細部に応じて異なる可能性があり、上述した課題の一部のみを解決したり、上述した効果の一部のみを奏することがある。
(About problems to be solved and effects of the invention)
First, the problems to be solved by the invention and the effects of the invention are not limited to the above contents, and may vary depending on the implementation environment and details of the configuration of the invention. May be solved, or only some of the effects described above may be achieved.

(実施の形態の相互の関係について)
実施の形態1、2の相互間においては、その構成や処理の一部を相互に入れ替えたり、一方の構成や処理を他方に適用することもできる。例えば、実施の形態2における唯一テンプレート60や複数テンプレート70を用いたユーザの撮影意図の推定処理を、実施の形態1に加えてもよい。具体的には、ドットピッチに基づく判定において被写体が印刷物であると判定された場合に、唯一テンプレート60や複数テンプレート70を用いた判定を行い、画像データの構成が唯一テンプレート60にて特定される構成に合致する場合には、画像データから文字認識した結果に基づいて目的地を設定し、画像データの構成が唯一テンプレート60にて特定される構成に合致しない場合には、画像データから文字認識した結果に基づいてアイコン表示や登録地設定を行うようにしてもよい。
(Reciprocal relationship between the embodiments)
Between the first and second embodiments, part of the configuration and processing may be interchanged, or one configuration and processing may be applied to the other. For example, the process of estimating the user's shooting intention using only the template 60 or the plurality of templates 70 in the second embodiment may be added to the first embodiment. Specifically, when it is determined that the subject is a printed matter in the determination based on the dot pitch, the determination using only the template 60 or the plurality of templates 70 is performed, and the configuration of the image data is specified by the template 60 only. If it matches the configuration, the destination is set based on the result of character recognition from the image data. If the image data configuration does not match the configuration specified by the template 60, character recognition is performed from the image data. Based on the result, icon display and registration location setting may be performed.

(文字認識タイミングについて)
上記各実施の形態では、文字認識を行った後で、画像データの撮影意図の判定を行っているが、画像データの撮影意図の判定を行った後に、文字認識を行うようにしてもよい。例えば、図2の処理の変形例として、画像取得後、ドットピッチが基準ドットピッチより大きいか否かを判定し、ドットピッチが基準ドットピッチより大きい場合には、文字認識を行い、文字認識が可能であった場合には、当該文字認識結果に基づいてSA5の処理を行い、文字認識可能でなかった場合には、SA7のエラー表示を行うようにしてもよい。また、ドットピッチが基準ドットピッチより大きくない場合には、文字認識を行い、文字認識が可能であった場合には、当該文字認識結果に基づいてSA5の処理を行い、文字認識可能でなかった場合において、画像データに座標が付加されている場合には、当該座標に基づいてSA6の処理を行い、画像データに座標が付加されていない場合には、SA7のエラー表示を行うようにしてもよい。
(About character recognition timing)
In each of the above-described embodiments, the determination of image data capture intention is performed after character recognition is performed. However, character recognition may be performed after determination of image data capture intention is performed. For example, as a modification of the processing of FIG. 2, it is determined whether or not the dot pitch is greater than the reference dot pitch after image acquisition. If the dot pitch is greater than the reference dot pitch, character recognition is performed and character recognition is performed. If it is possible, the SA5 process may be performed based on the character recognition result, and if the character recognition is not possible, an SA7 error display may be performed. If the dot pitch is not larger than the reference dot pitch, character recognition is performed. If character recognition is possible, the process of SA5 is performed based on the character recognition result, and character recognition is not possible. In some cases, if coordinates are added to the image data, the process of SA6 is performed based on the coordinates, and if no coordinates are added to the image data, an error display of SA7 is performed. Good.

(ユーザの撮影意図に応じた運転支援について)
実施の形態1、2においては、画像データの撮影意図を、当該画像データの被写体に含まれる地点情報を目的地に設定する意図ではないと推定した場合には、登録地設定やアイコン表示を行っているが、この他の任意の運転支援を行うようにしてもよい。例えば、画像データを文字認識して取得された文字情報の中から、公知の言語解析ロジックに基づいて住所を抽出し、当該抽出された住所が複数存在する場合には、当該複数の住所をリスト形式でディスプレイ30に表示してもよい。この場合、ユーザが、当該複数の住所の中から一つの住所を選択すると共に、当該選択した住所を目的地や登録地として設定することを指示した場合には、当該指示に基づいて、当該選択された住所を目的地や登録地として設定してもよい。あるいは、当該画像データの被写体に含まれる地点情報を目的地に設定する意図ではないと推定した場合には、当該画像データが、自車両の現在位置でユーザによって撮影されたものであり、画像データの撮影意図は、この現在位置又はその周辺の地点を記録することであると推定し、現在位置検出処理部10から取得した自車両の現在位置を登録地として設定してもよい。
(About driving support according to the user's intention to shoot)
In the first and second embodiments, when it is estimated that the intention of photographing the image data is not intended to set the spot information included in the subject of the image data as the destination, the registered location setting and icon display are performed. However, any other driving assistance may be performed. For example, an address is extracted from character information obtained by character recognition of image data based on a well-known language analysis logic, and when there are a plurality of the extracted addresses, the plurality of addresses are listed. You may display on the display 30 in a format. In this case, when the user selects one address from the plurality of addresses and instructs to set the selected address as a destination or a registered place, the selection is performed based on the instruction. The registered address may be set as the destination or registered location. Alternatively, when it is estimated that the point information included in the subject of the image data is not intended to be set as the destination, the image data is taken by the user at the current position of the host vehicle, and the image data The intent of photographing may be presumed to be to record the current position or the surrounding points, and the current position of the host vehicle acquired from the current position detection processing unit 10 may be set as the registration location.

1 運転支援システム
10 現在位置検出処理部
20 車速センサ
30 ディスプレイ
40 スピーカ
50 運転支援装置
51 制御部
51a 画像取得部
51b 文字認識部
51c 撮影意図推定部
51d 運転支援部
52 データ記録部
52a 地図情報DB
60 唯一テンプレート
61、75 店名領域
62、76 お店紹介本文領域
63、77 住所及び電話領域
64 第1の店内写真領域
65 第2の店内写真領域
70 複数テンプレート
71 第1表示領域
72 第2表示領域
73 第3表示領域
74 第4表示領域
DESCRIPTION OF SYMBOLS 1 Driving assistance system 10 Present position detection process part 20 Vehicle speed sensor 30 Display 40 Speaker 50 Driving assistance apparatus 51 Control part 51a Image acquisition part 51b Character recognition part 51c Image | photographing intention estimation part 51d Driving assistance part 52 Data recording part 52a Map information DB
60 Unique template 61, 75 Store name area 62, 76 Store introduction text area 63, 77 Address and telephone area 64 First in-store photo area 65 Second in-store photo area 70 Multiple templates 71 First display area 72 Second display area 73 Third display area 74 Fourth display area

Claims (7)

撮影機器にて撮影された画像データを取得する画像取得手段と、
前記画像取得手段にて取得された画像データに基づいて、当該画像データの撮影意図を推定する撮影意図推定手段と、
前記撮影意図推定手段にて推定された撮影意図に基づいて、前記画像取得手段にて取得された画像データを用いた運転支援を行う運転支援手段と、
を備える運転支援装置。
Image acquisition means for acquiring image data captured by the imaging device;
Based on the image data acquired by the image acquisition means, shooting intention estimation means for estimating the shooting intention of the image data;
Based on the shooting intention estimated by the shooting intention estimation unit, driving support unit that performs driving support using the image data acquired by the image acquisition unit;
A driving support apparatus comprising:
前記撮影意図推定手段は、前記画像データの撮影意図が、当該画像データの被写体に含まれる地点情報を目的地に設定する意図であることを推定する、
請求項1に記載の運転支援装置。
The shooting intention estimation means estimates that the shooting intention of the image data is an intention to set point information included in a subject of the image data as a destination,
The driving support device according to claim 1.
前記撮影意図推定手段は、前記被写体が印刷物であるか否かを判定し、印刷物であると判定した場合には、前記画像データの撮影意図が、当該被写体に含まれる地点情報を目的地に設定する意図であると推定し、
前記運転支援手段は、前記画像データの撮影意図が、前記被写体に含まれる地点情報を目的地に設定する意図であることが、前記撮影意図推定手段によって推定された場合には、前記被写体に含まれる地点情報を目的地に設定する、
請求項2に記載の運転支援装置。
The shooting intention estimation means determines whether or not the subject is a printed matter. If it is determined that the subject is a printed matter, the shooting intention of the image data sets the point information included in the subject as the destination Presumed to be
The driving support means includes the subject when the intention of photographing the image data is an intention to set the point information included in the subject as a destination by the photographing intention estimating means. Set the destination information as the destination,
The driving support device according to claim 2.
前記撮影意図推定手段は、前記画像取得手段にて取得された画像データのドットピッチに基づいて、前記被写体が印刷物であるか否かを判定する、
請求項3に記載の運転支援装置。
The photographing intention estimation unit determines whether the subject is a printed matter based on the dot pitch of the image data acquired by the image acquisition unit.
The driving support device according to claim 3.
前記撮影意図推定手段は、前記画像取得手段にて取得された画像データに唯一の地点情報が含まれるか否かを判定し、唯一の地点情報が含まれると判定した場合には、前記画像データの撮影意図が、当該唯一の地点情報を目的地に設定する意図であると推定し、
前記運転支援手段は、前記画像データの撮影意図が、前記唯一の地点情報を目的地に設定する意図であることが、前記撮影意図推定手段によって推定された場合には、前記唯一の地点情報を目的地に設定する、
請求項2に記載の運転支援装置。
The shooting intention estimation unit determines whether or not the image data acquired by the image acquisition unit includes unique point information. If it is determined that the unique point information is included, the image data Is supposed to be the only point information set as the destination,
The driving support means, when the shooting intention of the image data is the intention to set the unique point information as a destination, when the shooting intention estimating means has estimated the unique point information, Set as destination,
The driving support device according to claim 2.
撮影機器にて撮影された画像データを取得する画像取得ステップと、
前記画像取得ステップにて取得された画像データに基づいて、当該画像データの撮影意図を推定する撮影意図推定ステップと、
前記撮影意図推定ステップにて推定された撮影意図に基づいて、前記画像取得ステップにて取得された画像データを用いた運転支援を行う運転支援ステップと、
を含む運転支援方法。
An image acquisition step of acquiring image data captured by the imaging device;
Based on the image data acquired in the image acquisition step, a shooting intention estimation step for estimating the shooting intention of the image data;
A driving support step for performing driving support using the image data acquired in the image acquisition step based on the shooting intention estimated in the shooting intention estimation step;
Driving support method including.
請求項6に記載の方法をコンピュータに実行させる運転支援プログラム。   The driving assistance program which makes a computer perform the method of Claim 6.
JP2009167784A 2009-07-16 2009-07-16 Driving support device, driving support method, and driving support program Expired - Fee Related JP5434325B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009167784A JP5434325B2 (en) 2009-07-16 2009-07-16 Driving support device, driving support method, and driving support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009167784A JP5434325B2 (en) 2009-07-16 2009-07-16 Driving support device, driving support method, and driving support program

Publications (2)

Publication Number Publication Date
JP2011022023A true JP2011022023A (en) 2011-02-03
JP5434325B2 JP5434325B2 (en) 2014-03-05

Family

ID=43632237

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009167784A Expired - Fee Related JP5434325B2 (en) 2009-07-16 2009-07-16 Driving support device, driving support method, and driving support program

Country Status (1)

Country Link
JP (1) JP5434325B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005100277A (en) * 2003-09-26 2005-04-14 Mazda Motor Corp Information processor, server, information processing method and program
JP2006038556A (en) * 2004-07-26 2006-02-09 Denso Corp Car navigation system
JP2006038557A (en) * 2004-07-26 2006-02-09 Denso Corp Car navigation system
JP2006064443A (en) * 2004-08-25 2006-03-09 Denso Corp Navigation device
JP2010066959A (en) * 2008-09-10 2010-03-25 Denso It Laboratory Inc Image retrieval device, image retrieval system, image retrieval method, and program
JP2010139475A (en) * 2008-12-15 2010-06-24 Sharp Corp Navigator and control method of navigator

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005100277A (en) * 2003-09-26 2005-04-14 Mazda Motor Corp Information processor, server, information processing method and program
JP2006038556A (en) * 2004-07-26 2006-02-09 Denso Corp Car navigation system
JP2006038557A (en) * 2004-07-26 2006-02-09 Denso Corp Car navigation system
JP2006064443A (en) * 2004-08-25 2006-03-09 Denso Corp Navigation device
JP2010066959A (en) * 2008-09-10 2010-03-25 Denso It Laboratory Inc Image retrieval device, image retrieval system, image retrieval method, and program
JP2010139475A (en) * 2008-12-15 2010-06-24 Sharp Corp Navigator and control method of navigator

Also Published As

Publication number Publication date
JP5434325B2 (en) 2014-03-05

Similar Documents

Publication Publication Date Title
US10506157B2 (en) Image pickup apparatus, electronic device, panoramic image recording method, and program
US9319583B2 (en) Camera device and methods for aiding users in use thereof
EP2252044A2 (en) Electronic apparatus, display controlling method and program
JP5195986B2 (en) Image output apparatus and program
JP2008039628A (en) Route retrieval device
JP6179315B2 (en) Information processing apparatus, image processing system, image processing method and program in information processing apparatus
JP2006287741A (en) Cooperation system of navigation device and photography device and navigation device
JP5434325B2 (en) Driving support device, driving support method, and driving support program
JP5206445B2 (en) MOVIE DISPLAY DEVICE, PROGRAM, AND IMAGING DEVICE
JP2010021885A (en) Imaging device, and imaging support method
JP2004297339A (en) Method and program for image display
JP2006064671A (en) Information-providing device and portable information terminal
US20100254576A1 (en) Digital photographing apparatus, method of controlling the same, and recording medium storing program to implement the method
JP6115673B2 (en) Apparatus and program
JP2008190941A (en) Navigation device and destination setting method
JP5278572B2 (en) Electronic device, display control method and program
JP6436191B2 (en) Server apparatus, information processing method and program using server apparatus
JP2010156815A (en) Map information management device, map information management method, and map information management program
WO2016138621A1 (en) Image processing method and apparatus, and electronic terminal
JP2024008908A (en) Recording system for drive image and position and recording method for drive image and position
JP5920448B2 (en) Imaging device, program
JP5532748B2 (en) Imaging device
JP2005338905A (en) Image reproduction device
JP2009159091A (en) Image management system and method, program, and storage medium
JP2013131226A (en) Image output device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120229

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130522

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130522

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131125

R150 Certificate of patent or registration of utility model

Ref document number: 5434325

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees