JP2005100277A - Information processor, server, information processing method and program - Google Patents

Information processor, server, information processing method and program Download PDF

Info

Publication number
JP2005100277A
JP2005100277A JP2003335621A JP2003335621A JP2005100277A JP 2005100277 A JP2005100277 A JP 2005100277A JP 2003335621 A JP2003335621 A JP 2003335621A JP 2003335621 A JP2003335621 A JP 2003335621A JP 2005100277 A JP2005100277 A JP 2005100277A
Authority
JP
Japan
Prior art keywords
information
identifier
extracted
extracting
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003335621A
Other languages
Japanese (ja)
Inventor
Hiroshi Omura
博志 大村
Kenichi Ikeda
健一 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2003335621A priority Critical patent/JP2005100277A/en
Publication of JP2005100277A publication Critical patent/JP2005100277A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To more easily specify an address of a destination and to improve convenience of a user using a navigation device. <P>SOLUTION: Position information on a facility being an object of an advertisement is retrieved from a photographed picture of the advertisement mentioned in a signboard or the like. An instruction on a retrieval result is given to the navigation device as the destination. An identifier is given to a specified description in the advertisement, in a store or the like so that it is comprehended, for example. The identifier is extracted from the photographed picture. Character recognition is facilitated by giving priority to the description pointed by the identifier. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、情報処理技術に関し、主として移動体端末のナビゲーション機能を支援する技術に関する。   The present invention relates to information processing technology, and mainly relates to technology for supporting a navigation function of a mobile terminal.

カーナビゲーション装置に代表される移動体端末のナビゲーション機能においては、目的地を設定することでその目的地に至る経路等を案内する誘導情報がユーザに提供される。従って、ユーザは地理に疎い地域であってもこの誘導情報に従うことで道に迷うことがなく目的地に到達できる。しかし、目的地の設定は多くの場合ユーザがナビゲーション装置に対して直接手入力で行わなければならず、この目的地の設定に手間が係る場合がある。そこで、例えば、特許文献1にはナビゲーション装置とは別のコンピュータで旅行計画を設定できるシステムが提案されている。   In a navigation function of a mobile terminal typified by a car navigation device, setting a destination provides guidance information for guiding a route or the like to the destination. Therefore, the user can reach the destination without hesitation by following the guidance information even in an area that is not geographically sparse. However, in many cases, the user has to manually set the destination manually with respect to the navigation device, and this setting of the destination may be troublesome. In view of this, for example, Patent Document 1 proposes a system in which a travel plan can be set by a computer different from the navigation device.

特開平11−143358号公報Japanese Patent Laid-Open No. 11-143358

しかし、上述した従来のシステムでは目的地を特定する情報、例えば、目的地の住所等が予め分かっていることが前提となる。このため、例えば、外出先でたまたま見かけた看板や或いは雑誌の記事で紹介されている店舗に行きたい場合であって、店舗の所在地が記載されていない場合等には自分で所在地を調べてナビゲーション装置に入力することが必要となる。   However, in the conventional system described above, it is assumed that information for specifying a destination, for example, an address of the destination is known in advance. For this reason, for example, if you want to go to a store that is introduced by a signboard or magazine article that you happen to see on the go and the location of the store is not listed, you can check the location yourself and navigate It is necessary to input to the device.

従って、本発明の目的は、より簡易に目的地の所在地を特定でき、もってナビゲーション装置を利用するユーザの利便性を向上することにある。   Accordingly, an object of the present invention is to more easily identify the location of the destination, and to improve the convenience of the user who uses the navigation device.

本発明によれば、情報表示媒体上に記載された情報の撮影画像から、予め定めた識別子を抽出する識別子抽出手段と、前記識別子抽出手段により抽出された前記識別子により指し示される前記情報の記載事項を前記撮影画像から抽出する記載事項抽出手段と、前記記載事項抽出手段により抽出された前記記載事項に基づき、前記情報に関連する施設の位置を特定する特定手段と、を備えたことを特徴とする情報処理装置が提供される。   According to the present invention, an identifier extracting unit that extracts a predetermined identifier from a captured image of information described on an information display medium, and the description of the information indicated by the identifier extracted by the identifier extracting unit. A description item extracting unit that extracts items from the photographed image; and a specifying unit that specifies a location of a facility related to the information based on the description item extracted by the description item extraction unit. An information processing apparatus is provided.

本発明によれば、看板、雑誌といった情報表示媒体上に記載された広告等の情報の撮影画像から、その情報に関連する施設の位置が特定される。このため、その情報を見てそこで示された施設に行きたいと思ったユーザは、その情報を撮影するだけで目的地となる施設の位置を知ることが可能となる。従って、本発明はより簡易に目的地の所在地を特定でき、もってナビゲーション装置を利用するユーザの利便性を向上することができる。しかも、本発明では情報に含まれる識別子を抽出し、その識別子により指し示される記載事項を抽出することで、施設の位置の特定の精度を高めることができる。   According to the present invention, the location of a facility related to the information is specified from a photographed image of information such as an advertisement described on an information display medium such as a signboard or a magazine. Therefore, a user who sees the information and wants to go to the facility indicated there can know the position of the destination facility simply by photographing the information. Therefore, the present invention can more easily specify the location of the destination, thereby improving the convenience of the user who uses the navigation device. Moreover, in the present invention, the identifier included in the information is extracted, and the description items indicated by the identifier are extracted, so that the accuracy of specifying the location of the facility can be improved.

本発明においては、前記識別子が、当該識別子により指し示される前記記載事項の内容に応じて、複数種類あり、前記特定手段は、前記識別子抽出手段により抽出された識別子の種類と、前記記載事項抽出手段により抽出された前記記載事項と、に基づき、前記識別子の種類毎に施設の位置情報を蓄積した位置情報データベースから前記情報に関連する施設の位置情報を検索することで、前記施設の位置を特定することもできる。このような構成により、記載事項の認識精度をより向上することができると共に、施設の位置情報の検索効率を向上することができる。   In the present invention, there are a plurality of types of identifiers according to the contents of the description items indicated by the identifiers, and the specifying means includes the types of identifiers extracted by the identifier extraction means and the description item extraction Based on the description items extracted by the means, the location information of the facility related to the information is retrieved from the location information database storing the location information of the facility for each type of the identifier, thereby determining the location of the facility. It can also be specified. With such a configuration, it is possible to further improve the accuracy of recognizing description items, and improve the efficiency of searching for location information of facilities.

この場合、前記特定手段は、前記識別子抽出手段により同じ種類の前記識別子が複数抽出された場合に、当該同じ種類の複数の前記識別子によりそれぞれ指し示される複数の前記記載事項の中から、ユーザが指定したいずれかの前記記載事項に基づいて前記情報に関連する施設の位置を特定することもできる。このような構成により、例えば、撮影画像中に異なる複数の情報が含まれる場合に、各情報に関連する施設のうち、ユーザが希望する施設の位置を特定することができる。   In this case, when the plurality of identifiers of the same type are extracted by the identifier extraction unit, the specifying unit is configured so that the user can select from the plurality of description items respectively indicated by the plurality of identifiers of the same type. The location of the facility related to the information can be specified based on any of the specified items described above. With such a configuration, for example, when a plurality of different pieces of information are included in a captured image, it is possible to specify the location of the facility desired by the user among facilities related to each information.

また、この場合、前記識別子抽出手段により前記識別子が複数種類抽出された場合に、当該複数種類の前記識別子に対応して前記特定手段により複数特定される前記情報に関連する施設のそれぞれの位置が一致するか否かを判定する判定手段と、前記判定手段により一致しないと判定された場合に判定結果を記録する記録手段と、を備えることもできる。このような構成により、施設の位置が変更等され、前記位置情報データベースとの齟齬が生じた場合にも対応することができる。   Further, in this case, when a plurality of types of identifiers are extracted by the identifier extraction unit, the respective positions of the facilities related to the information specified by the specifying unit corresponding to the plurality of types of identifiers are determined. A determination unit that determines whether or not they coincide with each other, and a recording unit that records a determination result when the determination unit determines that they do not coincide with each other can be provided. With such a configuration, it is possible to cope with a case where the location of the facility is changed and a conflict with the location information database occurs.

また、この場合、前記記載事項抽出手段により抽出された前記記載事項に対応する前記位置情報がない場合に、当該記載事項について前記位置情報データベースを更新する更新手段を備えることもできる。このような構成により、前記位置情報データベースに登録されていない情報を新たに登録することができる。   In this case, when there is no position information corresponding to the description item extracted by the description item extraction unit, an update unit that updates the position information database for the description item may be provided. With this configuration, information that is not registered in the position information database can be newly registered.

また、本発明によれば、撮影機能を備えると共にカーナビゲーション装置と情報通信可能な携帯型端末と、ネットワークを介して情報通信可能なサーバであって、前記携帯型端末により撮影された、情報表示媒体上に記載された情報の撮影画像を前記携帯型端末から受信する受信手段と、前記受信手段により受信した前記撮影画像から、予め定めた識別子を抽出する識別子抽出手段と、前記識別子抽出手段により抽出された前記識別子により指し示される前記情報の記載事項を前記撮影画像から抽出する記載事項抽出手段と、前記記載事項抽出手段により抽出された前記記載事項に基づき、前記情報に関連する施設の位置を特定する特定手段と、前記特定手段により特定された前記施設の位置の情報を前記携帯型端末に送信する送信手段と、を備えたことを特徴とするサーバが提供される。
本発明によれば、看板、雑誌といった情報表示媒体上に記載された広告等の情報の撮影画像から、その情報に関連する施設の位置が特定される。このため、その情報を見てそこで示された施設に行きたいと思ったユーザは、その情報を撮影するだけで目的地となる施設の位置を知ることが可能となる。従って、本発明はより簡易に目的地の所在地を特定でき、もってナビゲーション装置を利用するユーザの利便性を向上することができる。しかも、本発明では情報に含まれる識別子を抽出し、その識別子により指し示される記載事項を抽出することで、施設の位置の特定の精度を高めることができる。
According to the present invention, there is provided a portable terminal having a photographing function and capable of communicating information with a car navigation device, and a server capable of communicating information via a network, wherein the information display is photographed by the portable terminal. Receiving means for receiving a photographed image of information described on a medium from the portable terminal; identifier extracting means for extracting a predetermined identifier from the photographed image received by the receiving means; and the identifier extracting means A description item extracting means for extracting the description item of the information indicated by the extracted identifier from the photographed image, and a location of a facility related to the information based on the description item extracted by the description item extraction means. Identifying means for identifying the information, and transmitting means for transmitting information on the location of the facility identified by the identifying means to the portable terminal; Server characterized by comprising is provided.
According to the present invention, the location of a facility related to the information is specified from a photographed image of information such as an advertisement described on an information display medium such as a signboard or a magazine. Therefore, a user who sees the information and wants to go to the facility indicated there can know the position of the facility as the destination only by photographing the information. Therefore, the present invention can more easily specify the location of the destination, thereby improving the convenience of the user who uses the navigation device. Moreover, in the present invention, the identifier included in the information is extracted, and the description items indicated by the identifier are extracted, so that the accuracy of specifying the location of the facility can be improved.

本発明においては、前記撮影画像から前記情報の提供代行者を特定する提供代行者情報を抽出する提供代行者情報抽出手段と、少なくとも前記提供代行者情報抽出手段により前記提供代行者情報が抽出されたことを条件として加算されるポイントを、各々の前記提供代行者毎に記録する記録手段と、を更に備えることもできる。この構成により、情報の普及に対する各提供代行者の貢献度が明らかになり、例えば、各提供代行者に支払う対価の基準とすることができる。   In the present invention, the providing agent information extracting means for extracting providing agent information for identifying the providing agent of the information from the photographed image, and at least the providing agent information extracting means extracts the providing agent information. It is also possible to further comprise recording means for recording the points to be added on condition that each of the providing agents. With this configuration, the degree of contribution of each providing agent to the dissemination of information is clarified, and for example, it can be used as a basis for consideration paid to each providing agent.

また、本発明によれば、情報表示媒体上に記載された情報の撮影画像から、前記情報の記載事項を抽出する抽出手段と、前記抽出手段により抽出された前記記載事項に基づき、前記情報に関連する施設の位置を特定する特定手段と、を備え、前記特定手段は、前記抽出手段により抽出された前記記載事項の中に予め定めた識別子がある場合には、当該識別子により指し示される前記記載事項を優先して前記情報に関連する施設の位置を特定することを特徴とする情報処理装置が提供される。   Further, according to the present invention, the information is extracted from the captured image of the information described on the information display medium, and the information is extracted based on the description items extracted by the extraction means. A specifying means for specifying the location of the related facility, and the specifying means, when there is a predetermined identifier in the description items extracted by the extracting means, is indicated by the identifier There is provided an information processing apparatus characterized in that a facility location related to the information is specified with priority given to a description item.

本発明によれば、看板、雑誌といった情報表示媒体上に記載された広告等の情報の撮影画像から、その情報に関連する施設の位置が特定される。このため、その情報を見てそこで示された施設に行きたいと思ったユーザは、その情報を撮影するだけで目的地となる施設の位置を知ることが可能となる。従って、本発明はより簡易に目的地の所在地を特定でき、もってナビゲーション装置を利用するユーザの利便性を向上することができる。しかも、本発明では情報の記載事項のうち、予め定めた識別子により指し示される記載事項を優先することで、施設の位置の特定の精度を高めることができる。   According to the present invention, the location of a facility related to the information is specified from a photographed image of information such as an advertisement described on an information display medium such as a signboard or a magazine. Therefore, a user who sees the information and wants to go to the facility indicated there can know the position of the destination facility simply by photographing the information. Therefore, the present invention can more easily specify the location of the destination, thereby improving the convenience of the user who uses the navigation device. In addition, in the present invention, it is possible to increase the accuracy of specifying the location of the facility by prioritizing the description items indicated by the predetermined identifier among the description items of the information.

また、本発明によれば、情報表示媒体上に記載された情報の撮影画像から、予め定めた識別子を抽出する識別子抽出工程と、前記識別子抽出工程で抽出された前記識別子により指し示される前記情報の記載事項を前記撮影画像から抽出する記載事項抽出工程と、前記記載事項抽出工程で抽出された前記記載事項に基づき、前記情報に関連する施設の位置を特定する特定工程と、を備えたことを特徴とする情報処理方法が提供される。また、コンピュータに、情報表示媒体上に記載された情報の撮影画像から、予め定めた識別子を抽出する識別子抽出工程と、前記識別子抽出工程で抽出された前記識別子により指し示される前記情報の記載事項を前記撮影画像から抽出する記載事項抽出工程と、前記記載事項抽出工程で抽出された前記記載事項に基づき、前記情報に関連する施設の位置を特定する特定工程と、を実行させるプログラムが提供される。   According to the present invention, an identifier extraction step of extracting a predetermined identifier from a captured image of information described on the information display medium, and the information indicated by the identifier extracted in the identifier extraction step A description item extracting step of extracting the description item from the photographed image, and a specifying step of identifying a location of a facility related to the information based on the description item extracted in the description item extraction step. An information processing method is provided. Also, an identifier extracting step for extracting a predetermined identifier from a captured image of information described on the information display medium on the computer, and a description item of the information indicated by the identifier extracted in the identifier extracting step A program for executing a description item extracting step for extracting the information from the photographed image, and a specifying step for specifying the location of the facility related to the information based on the description item extracted in the description item extraction step is provided. The

これらの本発明の方法及びプログラムによれば、看板、雑誌といった情報表示媒体上に記載された広告等の情報の撮影画像から、その情報に関連する施設の位置が特定される。このため、その情報を見てそこで示された施設に行きたいと思ったユーザは、その情報を撮影するだけで目的地となる施設の位置を知ることが可能となる。従って、本発明はより簡易に目的地の所在地を特定でき、もってナビゲーション装置を利用するユーザの利便性を向上することができる。しかも、本発明では情報に含まれる識別子を抽出し、その識別子により指し示される記載事項を抽出することで、施設の位置の特定の精度を高めることができる。   According to the method and the program of the present invention, the position of the facility related to the information is specified from the photographed image of the information such as the advertisement described on the information display medium such as the signboard and the magazine. Therefore, a user who sees the information and wants to go to the facility indicated there can know the position of the destination facility simply by photographing the information. Therefore, the present invention can more easily specify the location of the destination, thereby improving the convenience of the user who uses the navigation device. Moreover, in the present invention, the identifier included in the information is extracted, and the description items indicated by the identifier are extracted, so that the accuracy of specifying the location of the facility can be improved.

また、本発明によれば、情報表示媒体上に記載された情報の撮影画像から、前記情報の記載事項を抽出する抽出工程と、前記抽出工程により抽出された前記記載事項に基づき、前記情報に関連する施設の位置を特定する特定工程と、を備え、前記特定工程では、前記抽出手段により抽出された前記記載事項の中に予め定めた識別子がある場合には、当該識別子により指し示される前記記載事項を優先して前記情報に関連する施設の位置を特定することを特徴とする情報処理方法が提供される。また、コンピュータに、情報表示媒体上に記載された情報の撮影画像から、前記情報の記載事項を抽出する抽出工程と、前記抽出工程により抽出された前記記載事項に基づき、前記情報に関連する施設の位置を特定する特定工程と、を実行させるプログラムであって、前記特定工程では、前記抽出手段により抽出された前記記載事項の中に予め定めた識別子がある場合には、当該識別子により指し示される前記記載事項を優先して前記情報に関連する施設の位置を特定することを特徴とするプログラムが提供される。   Further, according to the present invention, an extraction process for extracting the description items of the information from a captured image of information described on the information display medium, and the information based on the description items extracted by the extraction process. A specific step of specifying the position of the related facility, and in the specific step, when there is a predetermined identifier in the description items extracted by the extraction means, the identifier indicated by the identifier There is provided an information processing method characterized in that the location of a facility related to the information is specified with priority given to a description item. In addition, an extraction process for extracting the description items of the information from a captured image of the information described on the information display medium in a computer, and a facility related to the information based on the description items extracted by the extraction process A program for executing a specifying step for specifying the position of the item, wherein, in the specifying step, if there is a predetermined identifier in the description items extracted by the extraction means, the identifier is indicated by the identifier. There is provided a program characterized by specifying a location of a facility related to the information in preference to the described items.

これらの本発明の方法及びプログラムによれば、看板、雑誌といった情報表示媒体上に記載された広告等の情報の撮影画像から、その情報に関連する施設の位置が特定される。このため、その情報を見てそこで示された施設に行きたいと思ったユーザは、その情報を撮影するだけで目的地となる施設の位置を知ることが可能となる。従って、本発明はより簡易に目的地の所在地を特定でき、もってナビゲーション装置を利用するユーザの利便性を向上することができる。しかも、本発明では情報の記載事項のうち、予め定めた識別子により指し示される記載事項を優先することで、施設の位置の特定の精度を高めることができる。   According to the method and the program of the present invention, the position of the facility related to the information is specified from the photographed image of the information such as the advertisement described on the information display medium such as the signboard and the magazine. Therefore, a user who sees the information and wants to go to the facility indicated there can know the position of the destination facility simply by photographing the information. Therefore, the present invention can more easily specify the location of the destination, thereby improving the convenience of the user who uses the navigation device. In addition, in the present invention, it is possible to increase the accuracy of specifying the location of the facility by prioritizing the description items indicated by the predetermined identifier among the description items of the information.

以上述べた通り、本発明によれば、より簡易に目的地の所在地を特定でき、もってナビゲーション装置を利用するユーザの利便性を向上することができる。   As described above, according to the present invention, the location of the destination can be specified more easily, and the convenience of the user who uses the navigation device can be improved.

以下、本発明の好適な実施形態について図面を参照して説明する。図1は本発明の一実施形態に係る位置情報検索システムの概略図である。同図を参照して該システムの概略を説明する。このシステムは、カーナビゲーション装置Aと、撮影機能を備えると共にカーナビゲーション装置Aと情報通信可能な携帯型電話機Bと、携帯型電話機Bとネットワーク(同図ではインターネット)を介して情報通信可能なサーバCと、を備える。このシステムは、カーナビゲーション装置Aに対して目的地を設定し誘導情報の提供を受けるに際し、看板、雑誌、チラシその他の情報表示媒体上に記載された、広告等の各種情報の撮影画像から当該目的地の設定を可能とするものである。具体的には、例えば、ユーザが外出先でたまたま見かけた看板や雑誌等の記事で紹介されている店舗、イベント会場、その他の施設に行きたい場合にその情報を撮影することでカーナビゲーション装置Aに対する目的地の設定が可能となる。このため、例えば、その情報に施設の所在地が記載されていないような場合であってもユーザは目的地の設定が可能となる。また、目的地の所在地を示す住所等を手入力でカーナビゲーション装置Aに入力する手間が省けるため、ユーザの利便性が向上する。以下、情報の撮影から目的地の設定に至るまでの手順を概説する。   Preferred embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a schematic diagram of a position information search system according to an embodiment of the present invention. The outline of the system will be described with reference to FIG. This system includes a car navigation device A, a mobile phone B that has a photographing function and can communicate information with the car navigation device A, and a server that can communicate information via the mobile phone B and a network (the Internet in the figure). C. When this system sets a destination for the car navigation apparatus A and receives guidance information, the system uses the captured images of various information such as advertisements described on signboards, magazines, flyers and other information display media. The destination can be set. Specifically, for example, when the user wants to go to a store, event venue, or other facility introduced by an article such as a signboard or magazine that the user happens to see, the car navigation device A It is possible to set the destination for. For this reason, for example, even if the location of the facility is not described in the information, the user can set the destination. In addition, since the trouble of manually inputting an address indicating the location of the destination into the car navigation device A can be saved, convenience for the user is improved. The procedure from information shooting to destination setting will be outlined below.

まず、ユーザは撮影機能を有する携帯型電話機Bにより、看板等に記載された情報を撮影する(同図(1))。次に、携帯型電話機BによりサーバCにアクセスして撮影画像のデータ(以下、単に撮影画像という。)と共に検索指示を送信する(同図(2))。撮影画像を受信したサーバCでは撮影画像に対して文字認識を行い、情報の内容を抽出し、その情報に関連する施設の位置情報を検索する(同図(3))。位置情報を検索したサーバCは、その後、携帯型電話機Bからの検索指示に対する応答として検索した位置情報を送信する(同図(4))。位置情報を受信した携帯型電話機Bはこれをカーナビゲーション装置Aに送信し、目的地として指定する(同図(5))。カーナビゲーション装置Aでは、目的地として指定された位置情報を設定し、その目的地に至る経路、地図等の誘導情報を表示してユーザに提供する。このように本実施形態では、ユーザが関心を持った広告等を撮影するだけで誘導情報が得られるため、より簡易に目的地の所在地を特定でき、もってナビゲーション装置を利用するユーザの利便性を向上することができる。   First, the user photographs information described on a signboard or the like with the portable telephone B having a photographing function ((1) in the figure). Next, the mobile phone B accesses the server C and transmits a retrieval instruction together with data of the photographed image (hereinafter simply referred to as a photographed image) ((2) in the figure). The server C that receives the photographed image performs character recognition on the photographed image, extracts the contents of the information, and searches for the location information of the facility related to the information ((3) in the figure). The server C that has searched for the position information then transmits the searched position information as a response to the search instruction from the mobile phone B ((4) in the figure). The mobile phone B that has received the position information transmits it to the car navigation device A and designates it as a destination ((5) in the figure). In the car navigation device A, position information designated as a destination is set, guidance information such as a route to the destination, a map, etc. is displayed and provided to the user. As described above, in this embodiment, guidance information can be obtained simply by shooting an advertisement or the like that the user is interested in. Therefore, the location of the destination can be specified more easily, and the convenience of the user using the navigation device can be improved. Can be improved.

ここで、本実施形態のように撮影画像に対して文字認識を行い、情報を抽出する場合にはその認識精度が位置情報の正確性に反映される。そこで、本実施形態では看板等に情報を記載するにあたり予め定めた識別子を採用することを提案する。看板等に情報を記載する者がこの識別子を採用することで記載事項の認識精度を向上することができる。図2(a)及び(b)は、情報が記載された情報表示媒体の例を示す図である。図2(a)は看板を情報表示媒体とする例を示しており、”○○商店”という記載事項の両側に示されている”『”及び”』”が識別子である。また、図2(b)は雑誌を情報表示媒体とする例を示しており、”×○ホテル”という記載事項の両側に示されている”『”及び”』”、並びに、”000−1111”という電話番号の両側に示されている”△”及び”△”が識別子である。後述するようにこれらの識別子は、記載事項の内容に応じて複数種類定められていると共に、文字認識すべき記載事項の範囲を指定するものである。この識別子の存在により本実施形態では文字認識の精度の向上や位置情報の検索精度或いは検索速度を向上することができる。   Here, when character recognition is performed on a captured image and information is extracted as in the present embodiment, the recognition accuracy is reflected in the accuracy of position information. Therefore, in this embodiment, it is proposed to adopt a predetermined identifier when describing information on a signboard or the like. A person who writes information on a signboard or the like employs this identifier, so that the recognition accuracy of the written items can be improved. 2A and 2B are diagrams illustrating examples of information display media on which information is described. FIG. 2A shows an example in which a signboard is used as an information display medium, and ““ and “” ”shown on both sides of a description item“ XX store ”are identifiers. FIG. 2B shows an example in which a magazine is used as an information display medium. ““ And “” ”and“ 000-1111 ”shown on both sides of the description item“ X Hotel ”. “Δ” and “Δ” shown on both sides of the telephone number “are identifiers. As will be described later, a plurality of these identifiers are determined according to the contents of the description items, and designate the range of the description items to be recognized. Due to the presence of this identifier, in the present embodiment, it is possible to improve the accuracy of character recognition and improve the search accuracy or search speed of position information.

次に、カーナビゲーション装置A、携帯型電話機B及びサーバCの構成について図3及び図4を参照して説明する。なお、以下の説明はこれらの主要な構成を概説するものである。図3(a)はカーナビゲーション装置Aのブロック図である。CPU101はカーナビゲーション装置A全体の制御を司るプロセッサであり、例えば、車両の乗員であるユーザに上述した誘導情報を提供する処理を行う。ROM(リードオンリメモリ)102は基本プログラムの他、固定的なデータを記憶するメモリである。RAM(ランダムアクセスメモリ)103はCPU101によって処理されるプログラムのワークエリアを有し、可変データ等を記憶する。これらのROM102及びRAM103としては、他の記憶手段を採用してもよいことはいうまでもない。HDD(ハードディスクドライブ)104は、カーナビゲーションのプログラム等を記憶する。ディスプレイ105は誘導情報等の各種情報を表示出力する表示器であり、CPU101の命令により各種情報を表示する。   Next, the configuration of the car navigation device A, the mobile phone B, and the server C will be described with reference to FIGS. The following description outlines these major configurations. FIG. 3A is a block diagram of the car navigation apparatus A. The CPU 101 is a processor that controls the entire car navigation apparatus A, and performs, for example, a process of providing the above-described guidance information to a user who is a vehicle occupant. A ROM (Read Only Memory) 102 is a memory for storing fixed data in addition to the basic program. A RAM (Random Access Memory) 103 has a work area for programs processed by the CPU 101, and stores variable data and the like. Needless to say, other storage means may be employed as the ROM 102 and the RAM 103. An HDD (Hard Disk Drive) 104 stores a car navigation program and the like. The display 105 is a display that displays and outputs various types of information such as guidance information, and displays various types of information according to instructions from the CPU 101.

スピーカ108はユーザに合成音声等の音声により各種情報を提供するものである。GPS(global positioning system)センサ111は、人工衛星から発信される電波を受信して車両の現在位置(経度、緯度)を検出する位置検出センサであり、CPU101に車両の現在位置情報を提供する。カーナビゲーション装置Aはこの現在位置情報と携帯型電話機Bから送信される目的地とに基づいて誘導情報を提供することになる。操作スイッチ108はユーザがカーナビゲーション装置Aに対して各種の指示を行う入力装置である。地図情報DB(データベース。以下、同じ。)109は誘導情報を提供するための地図情報を蓄積したデータベースであり、例えば、ハードディスク、CD、DVD等の記憶手段に構築される。インターフェース110は携帯型電話機Bと情報通信を行うためのインターフェースであり、例えば、通信ケーブルのコネクタ等である。本実施形態ではカーナビゲーション装置Aと携帯型電話機Bとの間を通信ケーブルで接続して両者間の情報通信を行う有線通信を想定するが、もちろん無線通信も可能である。以上がカーナビゲーション装置Aの構成であり、本実施形態ではユーザに誘導情報を提供するナビゲーション装置としてカーナビゲーション装置を例に挙げたが、これに限られず、例えば、歩行者用の携帯型のナビゲーション装置を採用することもできる。   The speaker 108 provides various kinds of information to the user by voice such as synthesized voice. A GPS (global positioning system) sensor 111 is a position detection sensor that receives a radio wave transmitted from an artificial satellite and detects a current position (longitude, latitude) of the vehicle, and provides the current position information of the vehicle to the CPU 101. The car navigation device A provides guidance information based on the current position information and the destination transmitted from the mobile phone B. The operation switch 108 is an input device for the user to give various instructions to the car navigation device A. A map information DB (database, hereinafter the same) 109 is a database that stores map information for providing guidance information, and is constructed in a storage means such as a hard disk, CD, or DVD. The interface 110 is an interface for performing information communication with the mobile phone B, and is, for example, a connector of a communication cable. In this embodiment, it is assumed that the car navigation apparatus A and the portable telephone B are connected by a communication cable and wired communication is performed for information communication between the two, but of course wireless communication is also possible. The above is the configuration of the car navigation apparatus A. In the present embodiment, the car navigation apparatus is exemplified as a navigation apparatus that provides guidance information to the user. However, the present invention is not limited to this, for example, portable navigation for pedestrians. An apparatus can also be employed.

次に、携帯型電話機Bの構成について説明する。図3(b)はそのブロック図である。CPU201は携帯型電話機B全体の制御を司るプロセッサであり、例えば、位置情報検索のための後述する処理を実行する。ROM(リードオンリメモリ)202は基本プログラムの他、固定的なデータを記憶するメモリである。RAM(ランダムアクセスメモリ)203はCPU201によって処理されるプログラムのワークエリアを有し、後述する処理のプログラム等のアプリケーションプログラムや可変データ等を記憶する。これらのROM202及びRAM203としては、他の記憶手段を採用してもよいことはいうまでもない。撮影デバイス204は例えばCCDカメラ等であり、上述した看板等の情報を撮影し、携帯型電話機Bの撮影機能を実現する構成である。無線通信デバイス205は基地局を介してインターネットに接続し、サーバCと無線の情報通信を行う。スピーカ206は音声を出力するものであり、マイク207は音声を入力するものである。これらは、例えば、電話機能時の会話に用いられる。インターフェース209はカーナビゲーション装置Aと情報通信を行うためのインターフェースであり、カーナビゲーション装置Aのインターフェース110と対応する規格のものとなる。ディスプレイ210は各種情報を表示出力する表示器であり、CPU201の命令により各種情報を表示する。例えば、液晶表示デバイスである。以上が携帯型電話機Bの構成であり、本実施形態では撮影機能を有する携帯型端末として携帯型電話機を挙げたが、これに限られず、例えば、撮影機能を有するPDA等、撮影機能を有する他の携帯型端末も採用することができる。   Next, the configuration of the mobile phone B will be described. FIG. 3B is a block diagram thereof. The CPU 201 is a processor that controls the entire mobile phone B, and executes, for example, processing to be described later for position information search. A ROM (Read Only Memory) 202 is a memory for storing fixed data in addition to the basic program. A RAM (Random Access Memory) 203 has a work area for programs to be processed by the CPU 201, and stores application programs such as processing programs to be described later, variable data, and the like. Needless to say, other storage means may be employed as the ROM 202 and RAM 203. The imaging device 204 is, for example, a CCD camera or the like, and is configured to capture the information such as the above-described signboard and realize the imaging function of the mobile phone B. The wireless communication device 205 connects to the Internet via a base station and performs wireless information communication with the server C. The speaker 206 outputs sound, and the microphone 207 inputs sound. These are used, for example, for conversation during a telephone function. The interface 209 is an interface for performing information communication with the car navigation apparatus A, and has a standard corresponding to the interface 110 of the car navigation apparatus A. The display 210 is a display that displays and outputs various types of information, and displays various types of information according to instructions from the CPU 201. For example, a liquid crystal display device. The above is the configuration of the mobile phone B. In the present embodiment, the mobile phone has been described as a mobile terminal having a shooting function. However, the present invention is not limited to this, and for example, a PDA having a shooting function or the like. The portable terminal can also be adopted.

次に、サーバCの構成について説明する。図4(a)はサーバCのブロック図である。CPU301はサーバC全体の制御を司るプロセッサであり、例えば、後述する位置情報の検索処理等を実行する。ROM(リードオンリメモリ)302は基本プログラムの他、固定的なデータを記憶するメモリである。RAM(ランダムアクセスメモリ)303はCPU301によって処理されるプログラムのワークエリアを有し、可変データ等を記憶する。これらのROM302及びRAM303としては、他の記憶手段を採用してもよいことはいうまでもない。HDD(ハードディスクドライブ)304は、後述する位置情報の検索処理等のプログラム等を記憶する。通信装置305はインターネットに接続し、携帯型電話機Bと情報通信を行うものであり、ネットワークインターフェース等である。ディスプレイ306は各種情報を表示出力する表示器であり、CPU301の命令により各種情報を表示する。入力装置307はキーボード、マウス等である。   Next, the configuration of the server C will be described. FIG. 4A is a block diagram of the server C. The CPU 301 is a processor that controls the entire server C, and executes, for example, a position information search process to be described later. A ROM (Read Only Memory) 302 is a memory for storing fixed data in addition to the basic program. A RAM (Random Access Memory) 303 has a work area for programs processed by the CPU 301 and stores variable data and the like. Needless to say, other storage means may be employed as the ROM 302 and the RAM 303. An HDD (hard disk drive) 304 stores a program for searching for position information, which will be described later, and the like. The communication device 305 is connected to the Internet and performs information communication with the mobile phone B, and is a network interface or the like. A display 306 is a display that displays and outputs various types of information, and displays various types of information according to instructions from the CPU 301. The input device 307 is a keyboard, a mouse, or the like.

サーバCには以下に述べる各種のDB(データベース)が設けられている。これらのDBは、例えば、サーバCに内蔵の若しくは外付けのハードディスクドライブ等に代表される、1又は複数の記憶手段に構築される。なお、これらのDBは、例えば、サーバCがインターネットを介してアクセス可能な他のデータベースサーバに構築してもよい。   The server C is provided with various DBs (databases) described below. These DBs are constructed in one or a plurality of storage means represented by, for example, a built-in or external hard disk drive in the server C. Note that these DBs may be constructed in, for example, another database server that the server C can access via the Internet.

識別子DB308には、上述した識別子に関する情報が蓄積されている。図4(b)はその情報の例を示す図である。同図に示すように本実施形態における識別子は、記載事項の開始点を示す識別子と終了点を示す識別子とがセットになっている。「内容」欄はその識別子により指し示される記載事項の内容を示す情報であり、各識別子は情報の記載事項の内容に応じて複数種類設定されている。同図では施設等の名称に対応する「名称」、事業者の商標等のマークに対応する「マーク」、施設等の所在地に対応する「所在地」、施設等の電話番号に対応する「電話番号」の4つを例示しているが、これに限られず記載事項の内容に応じて種々設定することができる。「特徴量データ」は撮影画像から識別子を抽出する際に用いる、識別子の特徴量のデータである。文字認識辞書309は撮影画像から情報の記載事項を抽出する際の文字認識に用いる辞書データ群であり、各文字、単語、記号、数字等の特徴量のデータが蓄積されている。位置情報DB310は抽出された記載事項から、その情報に関連する施設の位置情報を検索するために用いる、各施設の位置情報を蓄積したデータベースであり、識別子の種類に応じて、本実施形態の場合、名称DB310a、マークDB310b、所在地DB310c及び電話番号DB310dを有する。   The identifier DB 308 stores information related to the identifiers described above. FIG. 4B shows an example of the information. As shown in the figure, the identifier in the present embodiment is a set of an identifier indicating the start point of the description item and an identifier indicating the end point. The “content” column is information indicating the content of the description item indicated by the identifier, and a plurality of types of identifiers are set according to the content of the description item of the information. In the figure, “Name” corresponding to the name of the facility, etc., “Mark” corresponding to the mark of the business operator, etc., “Location” corresponding to the location of the facility, etc., “Phone number corresponding to the telephone number of the facility, etc.” However, the present invention is not limited to this, and various settings can be made according to the contents of the items to be described. “Characteristic data” is characteristic data of an identifier used when extracting an identifier from a captured image. The character recognition dictionary 309 is a dictionary data group used for character recognition when extracting information items from a photographed image, and stores data of feature amounts such as characters, words, symbols, and numbers. The position information DB 310 is a database in which position information of each facility is used to search for the position information of the facility related to the information from the extracted description items, and according to the type of the identifier, The name DB 310a, the mark DB 310b, the location DB 310c, and the telephone number DB 310d.

図4(c)は名称DB310aに蓄積される情報の例を示す図である。同図に示すように、各「名称」毎にその名称で表される施設の位置情報が記憶されている。本実施形態の場合、この「位置情報」を施設の緯度と経度の情報としている。これはカーナビゲーション装置Aにおいては緯度と経度とにより位置情報を構成しているためであり、カーナビゲーション装置Aにとって最も利用し易い位置情報としたものである。しかし、これに限られず、カーナビゲーション装置Aにおいて処理可能な位置情報の形態であれば例えば所在地(住所)等でもよい。「添付情報」は各名称で示される施設に関連する情報が任意に蓄積され、検索結果として位置情報が携帯型電話機Bに送信される場合に必要に応じて添付される情報である。添付情報は例えばその施設の広告等を挙げることができる。以上、位置情報DB310に蓄積される情報ついて名称DB310aを例に挙げて説明したが、他のDB310b乃至dも同様の形態で情報が蓄積される。   FIG. 4C is a diagram showing an example of information stored in the name DB 310a. As shown in the figure, the location information of the facility represented by the name is stored for each “name”. In the present embodiment, this “position information” is information on the latitude and longitude of the facility. This is because the position information is constituted by the latitude and the longitude in the car navigation device A, and the position information is most easily used by the car navigation device A. However, the present invention is not limited to this, and may be a location (address) or the like as long as the position information can be processed by the car navigation apparatus A. “Attached information” is information that is optionally attached when information related to the facility indicated by each name is arbitrarily accumulated and position information is transmitted to the mobile phone B as a search result. The attached information can include, for example, an advertisement of the facility. The information stored in the position information DB 310 has been described above by taking the name DB 310a as an example. However, information is stored in the same manner in the other DBs 310b to 310d.

次に、本実施形態のシステム全体の処理について図5を参照して説明する。システム全体の処理は、まず、ユーザが看板等に記載された広告等を携帯型電話機Bで撮影することにより開始される(S10)。広告等が撮影されると携帯型電話機Bはユーザの指示によりサーバCにアクセスして、その広告等に示された記載事項に関連する施設の位置情報の検索要求を撮影画像と共に送信する(S11)。検索要求及び撮影画像を受信したサーバCは、S21で検索処理を実行する。詳細は後述する。検索処理後、サーバCは検索結果である位置情報を携帯型電話機Bに送信する(S22)。ユーザは携帯型電話機Bとカーナビゲーション装置Aとを接続した上で、携帯型電話機Bに対して、受信した位置情報を目的地として設定することを指示すると、携帯型電話機Bは受信した位置情報をカーナビゲーション装置Aに送信して目的地として設定することを指示する(S12)。カーナビゲーション装置Aは受信した位置情報を目的地とし、GPSセンサ107で検出した現在位置情報に基づき地図情報DB109から誘導情報を検索する(S31)。その後、検索した誘導情報をディスプレイ105に出力してユーザに提示し、1単位の処理が終了する。ユーザはディスプレイ105に表示された誘導情報に基づいて車両を運行することになる。   Next, processing of the entire system of this embodiment will be described with reference to FIG. First, the process of the entire system is started when a user photographs an advertisement or the like written on a signboard or the like with the mobile phone B (S10). When an advertisement or the like is photographed, the mobile phone B accesses the server C in accordance with a user instruction, and transmits a search request for location information on the facility related to the description items indicated in the advertisement or the like together with the photographed image (S11). ). The server C that has received the search request and the photographed image executes a search process in S21. Details will be described later. After the search process, the server C transmits position information as a search result to the mobile phone B (S22). When the user connects the mobile phone B and the car navigation device A and instructs the mobile phone B to set the received location information as a destination, the mobile phone B receives the received location information. Is transmitted to the car navigation device A to instruct to set as a destination (S12). The car navigation device A uses the received position information as a destination, and searches for guidance information from the map information DB 109 based on the current position information detected by the GPS sensor 107 (S31). Thereafter, the retrieved guidance information is output to the display 105 and presented to the user, and one unit of processing is completed. The user operates the vehicle based on the guidance information displayed on the display 105.

次に、サーバCによるS21の検索処理について説明する。図6(a)は検索処理の例を示すフローチャートである。S201では携帯型電話機Bから受信した撮影画像から上述した識別子を抽出する処理を行う。S202ではS201で抽出した識別子により指し示される、撮影画像の対象である情報の記載事項を撮影画像から抽出する処理を行う。S203では抽出された記載事項に基づき、撮影画像の対象である情報に関連する施設を検索し、その位置情報を特定する。以上により処理が終了する。以下、S201〜S203の各処理の例を詳細に説明する。図7はS201〜S203の各処理の概念図である。   Next, the search process of S21 by the server C will be described. FIG. 6A is a flowchart illustrating an example of search processing. In S201, the above-described identifier is extracted from the captured image received from the mobile phone B. In S202, a process for extracting the description items of the information that is the target of the captured image indicated by the identifier extracted in S201 from the captured image is performed. In S203, based on the extracted description items, a facility related to the information that is the target of the captured image is searched, and the position information is specified. The process ends as described above. Hereinafter, an example of each process of S201 to S203 will be described in detail. FIG. 7 is a conceptual diagram of each process of S201 to S203.

まず、S201の処理により撮影画像から識別子が抽出される。図7では識別子として”『”、”』”が抽出されている。次に、S202の処理で、抽出された識別子により指し示される記載事項が撮影画像が抽出される。本実施形態の場合、撮影画像のうち、識別子により指し示される一定のエリア(記載事項認識エリア)内の画像が抽出の対象となり、この記載事項認識エリアについて文字認識がなされる。この記載事項認識エリアは識別子間の予め定めた一定の幅の領域に設定される。つまり、本実施形態では撮影画像全体を文字認識の対象とせず、この記載事項認識エリア内の画像のみを文字認識の対象とすることで処理速度を向上することができる。なお、本実施形態では図4(b)に示したように各識別子を開始点用と終了点用とのセットで構成しているが、例えば、開始点用だけで構成してもよく、この場合は記載事項認識エリアの長さ及び幅が識別子に対して定義されることになる。次に、S203の処理で、抽出された記載事項を検索キーとして位置情報DB310を検索し、撮影画像に関連する情報の位置情報(経度、緯度)が特定される。このとき、例えば、”名称”の識別子であった場合は名称DB310aを選択するように、識別子の種類に対応するDBを選択して検索することで、検索精度及び検索速度が向上する。   First, an identifier is extracted from the captured image by the process of S201. In FIG. 7, ““ ”,“ ”” are extracted as identifiers. Next, in the process of S202, a photographed image is extracted from the description items indicated by the extracted identifier. In the case of the present embodiment, an image in a certain area (description item recognition area) indicated by an identifier is taken out of the photographed image, and character recognition is performed on the description item recognition area. This description item recognition area is set to an area having a predetermined width between identifiers. That is, in the present embodiment, the processing speed can be improved by not using the entire captured image as a character recognition target, but only the image in the description item recognition area as a character recognition target. In this embodiment, as shown in FIG. 4B, each identifier is configured as a set for the start point and for the end point. However, for example, the identifier may be configured only for the start point. In this case, the length and width of the entry recognition area are defined for the identifier. Next, in the process of S203, the position information DB 310 is searched using the extracted description items as a search key, and the position information (longitude, latitude) of information related to the captured image is specified. At this time, for example, if the identifier is “name”, the search accuracy and search speed are improved by selecting and searching the DB corresponding to the type of the identifier so that the name DB 310a is selected.

次に、S201〜S203の各処理の例を説明する。図6(b)はS201の識別子抽出処理の例を示すフローチャートである。この識別子抽出処理では公知の文字認識処理を採用することができる。S211では撮影画像に対して前処理を行う。ここでは例えばノイズの除去等の処理を行う。S212では撮影画像に含まれる文字、記号等の切り出しを行う。S213ではS212で切り出した各文字等の画像特徴量を抽出する。S214ではS213で抽出した各文字等の画像特徴量と、識別子DB308に蓄積された各識別子の特徴量とのマッチングを行い、個別に類似度を演算する。S215ではS214による類似度の演算結果から最も類似度が高い識別子を特定する。以上により処理が終了する。   Next, an example of each process of S201 to S203 will be described. FIG. 6B is a flowchart illustrating an example of identifier extraction processing in S201. In this identifier extraction process, a known character recognition process can be employed. In S211, preprocessing is performed on the captured image. Here, for example, processing such as noise removal is performed. In S212, characters, symbols, etc. included in the captured image are cut out. In S213, the image feature amount such as each character cut out in S212 is extracted. In S214, matching is performed between the image feature amount of each character or the like extracted in S213 and the feature amount of each identifier stored in the identifier DB 308, and the similarity is calculated individually. In S215, the identifier having the highest similarity is specified from the calculation result of the similarity in S214. The process ends as described above.

図6(c)はS202の記載事項抽出処理の例を示すフローチャートである。この記載事項抽出処理でも公知の文字認識処理を採用することができる。S221ではS201で抽出した識別子に基づき、上述した記載事項認識エリアを設定する。S222ではS221で設定した記載事項認識エリアに含まれる文字等の切り出しを行う。S223ではS222で切り出した各文字等の画像特徴量を抽出する。S224ではS223で抽出した各文字等の画像特徴量と、文字認識辞書B309に蓄積された各文字等の特徴量とのマッチングを行い、個別に類似度を演算する。S225ではS224による類似度の演算結果から最も類似度が高い文字等を選択してゆき、記載事項を特定する。以上により処理が終了する。   FIG. 6C is a flowchart illustrating an example of the description item extraction processing in S202. A well-known character recognition process can also be employed in this description item extraction process. In S221, the above described item recognition area is set based on the identifier extracted in S201. In S222, characters included in the description item recognition area set in S221 are cut out. In S223, the image feature amount such as each character cut out in S222 is extracted. In S224, the image feature amount of each character or the like extracted in S223 is matched with the feature amount of each character or the like stored in the character recognition dictionary B309, and the similarity is calculated individually. In S225, the character or the like having the highest similarity is selected from the similarity calculation result in S224, and the description items are specified. The process ends as described above.

図6(d)はS203の位置特定処理の例を示すフローチャートである。S231では位置情報DB310(310a〜310d)の中からS201で抽出した識別子の種類に応じたデータベースを選択する。この選択により記載事項の内容に応じたデータベースが選択されるので、検索精度を向上すると共に検索対象である情報量が位置情報DB310全体の場合よりも少なくなるので検索速度も向上できる。S232ではS202で抽出した記載事項を検索キーとしてS231で選択した位置情報DB310の中のいずれかのデータベースを用いて検索を実行する。S233ではS232の検索結果から当該データベースに蓄積された位置情報を取得し特定する。以上により処理が終了する。なお、例えば、同じ名称の施設の場合のように、一つの記載事項について複数の検索結果が得られる場合が考えられるが、その場合は、携帯型電話機Bに検索結果である位置情報を全て送信すると共に図4(c)に示した「添付情報」も併せて送信することで、携帯型電話機Bのユーザにいずれの位置情報を目的地として指定するかを選択させるようにすることができる。   FIG. 6D is a flowchart illustrating an example of the position specifying process in S203. In S231, a database corresponding to the type of identifier extracted in S201 is selected from the position information DB 310 (310a to 310d). Since the database corresponding to the contents of the description items is selected by this selection, the search accuracy can be improved and the amount of information to be searched is smaller than that in the entire position information DB 310, so that the search speed can be improved. In S232, the search is executed using any database in the position information DB 310 selected in S231 using the description item extracted in S202 as a search key. In S233, the position information accumulated in the database is acquired and specified from the search result in S232. The process ends as described above. For example, as in the case of a facility with the same name, there may be a case where a plurality of search results are obtained for one description item. In this case, all the position information as the search results is transmitted to the mobile phone B. At the same time, the “attached information” shown in FIG. 4C is also transmitted, so that the user of the mobile phone B can select which position information is designated as the destination.

このように本実施形態のシステムでは、より簡易に目的地の所在地を特定でき、もってナビゲーション装置を利用するユーザの利便性を向上することができる。しかも、情報に含まれる識別子を抽出し、その識別子により指し示される記載事項を抽出することで、施設の位置の特定の精度を高めることができる。   As described above, in the system of the present embodiment, the location of the destination can be specified more easily, and the convenience of the user who uses the navigation device can be improved. Moreover, by extracting an identifier included in the information and extracting a description item indicated by the identifier, it is possible to improve the accuracy of specifying the location of the facility.

<同種識別子が複数ある場合の処理>
情報表示媒体に複数の情報が記載されていた場合、撮影の仕方によっては撮影画像に複数の情報が写っている場合があり得る。例えば、図8(b)は2つの情報が映っている撮影画像の例を示す図である。これらの各情報に関連する施設(同図の上はビジネスホテル○○○○であり、下は×○ホテルの広告である。)が相互に異なる場合、ユーザが希望するのがどちらの施設の位置情報かが問題となる。本例ではこれをユーザが選択できるようにするものである。図8(a)は本例の場合の処理の例を示すフローチャートである。本例では、上述したS201の処理で同じ種類の識別子が複数抽出された場合、複数の情報が撮影画像に含まれていると判断してユーザに選択を促すものであり、S201の処理後、S202の処理前に行う。
<Processing when there are multiple homogeneous identifiers>
When a plurality of pieces of information are described on the information display medium, a plurality of pieces of information may be shown in the photographed image depending on the manner of photographing. For example, FIG. 8B is a diagram illustrating an example of a captured image in which two pieces of information are shown. If the facilities related to each of these information (the top of the figure is a business hotel ○○○○ and the bottom is an advertisement of × ○ hotel) are different from each other, the user wants which facility Location information is a problem. In this example, the user can select this. FIG. 8A is a flowchart showing an example of processing in this example. In this example, when a plurality of identifiers of the same type are extracted in the process of S201 described above, it is determined that a plurality of pieces of information are included in the captured image, and the user is prompted to select. After the process of S201, This is performed before the processing of S202.

S241では、S201の識別子抽出処理の結果、同じ種類の複数の識別子が抽出されたか否かを判定する。複数抽出された場合、S242へ進み、そうでない場合は処理を終了する。S242では携帯型電話機Bに対してどの情報を選択するか否かの問い合わせを行う。ここでは選択用の表示画面データを携帯型電話機Bに送信する。これを受信した携帯型電話機BではS101でディスプレイ210に選択画面を表示する。図8(c)はディスプレイ210に表示される表示画面の例を示す図である。ここでは、A又はBのいずれの情報を選択するかが表示されている。ユーザは操作スイッチ208により、自分が希望するいずれかの情報を選択することになる。S102ではユーザの選択指示をサーバCに対して送信する。ユーザの選択指示を受信したサーバCではS243でユーザの選択指示に従い、同じ種類の複数の識別子のうち、いずれかの識別子を処理対象に設定して処理を終了する。このような処理により、撮影画像中に異なる複数の情報が含まれる場合に、各情報に関連する施設のうち、ユーザが希望する施設の位置を特定することができる。   In S241, it is determined whether a plurality of identifiers of the same type have been extracted as a result of the identifier extraction processing in S201. If more than one are extracted, the process proceeds to S242. If not, the process ends. In step S242, the mobile phone B is inquired about which information to select. Here, the display screen data for selection is transmitted to the mobile phone B. The mobile phone B that has received this displays a selection screen on the display 210 in S101. FIG. 8C is a diagram illustrating an example of a display screen displayed on the display 210. Here, it is displayed which information of A or B is selected. The user uses the operation switch 208 to select any information he desires. In S102, the user's selection instruction is transmitted to the server C. In the server C that has received the user's selection instruction, in step S243, according to the user's selection instruction, one of a plurality of identifiers of the same type is set as a processing target, and the process ends. By such processing, when a plurality of different information is included in the captured image, it is possible to specify the position of the facility desired by the user among the facilities related to each information.

<複数の記載事項により検索した位置情報が矛盾する場合の処理>
一つの情報から複数種類の識別子が抽出された場合、各識別子により指し示される記載事項から検索される位置情報は本来一致するはずである。しかし、例えば、施設が移転した場合等において、看板等に記載の情報の方が位置情報DB310の情報よりも新しく、両者が一致しない場合も考えられる。図9(b)は各識別子に基づく位置情報が一致しない場合の例を示す図である。同図においては、”名称”の識別子『』と”所在地”の識別子◎○とが存在する。そして、処理の結果、前者の識別子で指し示された記載事項”○○商店”に基づく位置情報の検索結果が(X1、Y1)で後者の識別子で指し示された記載事項”田舎郡田舎町2−1”に基づく位置情報の検索結果が(X2、Y2)であった場合を示している。このような不一致の原因としては、例えば、”○○商店”が店の名称を変更したか、場所を移転した場合であって、そのことをサーバCの管理者に申告せずに看板を建ててしまった場合が考えられる。そこで、本例ではS203の位置特定処理を以下のように構成する。図9(a)は本例における位置特定処理の例を示すフローチャートである。
<Processing when location information retrieved by multiple entries conflicts>
When a plurality of types of identifiers are extracted from one piece of information, the position information retrieved from the description items pointed to by each identifier should essentially match. However, for example, when the facility has moved, the information described on the signboard or the like is newer than the information in the position information DB 310, and the two may not match. FIG. 9B is a diagram illustrating an example when the position information based on each identifier does not match. In the figure, there is a “name” identifier “” and a “location” identifier ○. As a result of the processing, the search result of the location information based on the description item “XX store” indicated by the former identifier is (X1, Y1) and the description item indicated by the latter identifier “country country rural town” The case where the search result of the position information based on 2-1 ″ is (X2, Y2) is shown. The reason for such inconsistency is, for example, when “XX store” has changed the name of the store or moved the location, and a signboard has been built without reporting this to the administrator of server C. It may be the case. Therefore, in this example, the position specifying process in S203 is configured as follows. FIG. 9A is a flowchart showing an example of the position specifying process in this example.

同図においては図6(d)と同じ処理には同じ符号を付してある。異なる処理についてのみ説明すると、S233で複数の位置情報を検索した場合、S251では両者が一致するか否かを判定する。一致する場合は処理を終了し、一致しない場合はS252へ進む。S252ではエラー記録を行う。ここでは位置情報が一致しなかったことを例えばHDD304の所定の記憶エリアに記録する。記録しておくことで、サーバCの管理者は後でデータベースの情報を修正し、更新することが可能となり、施設の位置が変更等され、位置情報DB310との齟齬が生じた場合にも対応することができる。なお、S252ではエラーの報知を行ったり、或いは、サーバCの管理者が別の端末を所有している場合にEメールにてエラーが生じたことを通知することもできる。   In this figure, the same processing as that in FIG. Explaining only the different processing, when a plurality of pieces of position information are searched in S233, it is determined in S251 whether or not they match. If they match, the process ends. If they do not match, the process proceeds to S252. In S252, error recording is performed. Here, the fact that the position information does not match is recorded in a predetermined storage area of the HDD 304, for example. By recording, the administrator of the server C can modify and update the information in the database later, and the location of the facility is changed, etc. can do. In S252, an error can be notified, or when the administrator of the server C owns another terminal, it can be notified by e-mail that an error has occurred.

<位置情報が検索されなかった場合の処理>
本例は位置情報が検索されなかった場合の処理に関するものである。図10(a)は本例の場合の位置特定処理の例を示すフローチャートである。同図においては図6(d)と同じ処理には同じ符号を付してある。異なる処理についてのみ説明すると、S232のデータベース検索の後、S261では位置情報が検索されたか否かを判定する。検索された場合、上述したS233の処理を行い処理を終了する。一方、検索されなかった場合、S262へ進み、エラー処理を行う。図10(b)はエラー処理の例を示すフローチャートである。S252ではエラー記録を行う。ここでは位置情報が検索されなかったことを例えばHDD304の所定の記憶エリアに記録する。記録しておくことで、サーバCの管理者は後でデータベースの情報を修正し、更新することが可能となり、位置情報データベース310で検索できなかった記載事項について対応することが可能となる。なお、S271ではエラーの報知を行ったり、或いは、サーバCの管理者が別の端末を所有している場合にEメールにてエラーが生じたことを通知することもできる。S272ではユーザに対して位置情報が検索できなかったことを示すエラーメッセージを設定する。このエラーメッセージは図5のS22の位置情報送信処理において位置情報に代えて携帯型電話機Bに送信されることになる。
<Processing when location information is not retrieved>
This example relates to processing when position information is not retrieved. FIG. 10A is a flowchart showing an example of the position specifying process in this example. In this figure, the same processing as that in FIG. Only the different processing will be described. After the database search in S232, it is determined in S261 whether or not position information has been searched. If a search is made, the process of S233 described above is performed and the process ends. On the other hand, if no search is made, the process proceeds to S262, and error processing is performed. FIG. 10B is a flowchart illustrating an example of error processing. In S252, error recording is performed. Here, the fact that the position information has not been searched is recorded in a predetermined storage area of the HDD 304, for example. By recording, the administrator of the server C can later correct and update the information in the database, and can deal with the description items that could not be searched in the position information database 310. In S271, an error can be notified, or when the administrator of the server C owns another terminal, it can be notified that an error has occurred by e-mail. In S272, an error message indicating that the position information could not be retrieved is set for the user. This error message is transmitted to the mobile phone B in place of the position information in the position information transmission process of S22 of FIG.

図10(c)はS262のエラー処理の他の例を示す図である。同図の例では、位置情報が検索されなかった場合、検索の範囲を広げて位置情報を検索する。S281では手がかり情報を撮影画像から抽出する。この手がかり情報とは、例えば、識別子により指し示された記載事項以外の記載事項であって、その情報に関連する施設の所在地や電話番号等、位置情報データベース310で検索可能なものである。より具体的には、例えば、識別子で指し示された記載事項が店舗等の”名称”であり、その名称に対応する位置情報が検索できなかったとする。しかし、その情報には識別子で指し示されていない、その店舗等の所在地や電話番号等が記載されている可能性がある。所在地DB310cや電話番号DB310dに、識別子で指し示される記載事項に限定されず、可能な限り対応する位置情報を蓄積しておけば(例えば日本全国の各所在地や電話番号と対応する位置情報を蓄積しておく)、所在地や電話番号等を手がかりとして、位置情報を検索することができる。そこで、そのような記載事項を抽出して再度検索を行うため、これを手がかり情報とするのである。なお、手がかり情報の抽出は上述した記載事項の抽出処理と同様に行うことができ、但し、抽出範囲が撮影画像全体に及ぶことになる。   FIG. 10C is a diagram showing another example of the error processing in S262. In the example shown in the figure, when the position information is not searched, the position information is searched by expanding the search range. In S281, the clue information is extracted from the photographed image. This clue information is, for example, description items other than the description items indicated by the identifier, and can be searched in the location information database 310 such as the location and telephone number of the facility related to the information. More specifically, for example, it is assumed that a description item indicated by an identifier is a “name” of a store or the like, and position information corresponding to the name cannot be retrieved. However, there is a possibility that the location, telephone number, etc. of the store etc. not indicated by the identifier is described in the information. The location DB 310c and the telephone number DB 310d are not limited to the description items indicated by the identifier, and if the corresponding location information is accumulated as much as possible (for example, the location information corresponding to each location and phone number in Japan is accumulated. The location information can be searched using the location, telephone number, or the like as a clue. Therefore, in order to extract such description items and perform a search again, this is used as clue information. Note that the extraction of the clue information can be performed in the same manner as the description item extraction process described above, but the extraction range covers the entire captured image.

S282ではS281で手がかり情報を抽出できたか否かを判定する。抽出できた場合、S287へ進み、そうでない場合はS283へ進む。S283では、情報の記載事項全体からは位置情報が検索できないとして、インターネット上の検索サイトにアクセスしてネット検索を行うことにより手がかり情報を探索する。ここでは、例えば、識別子で指し示された記載事項を検索キーとして検索サイトに渡し検索結果を得る。S284では、S283の検索処理で手がかり情報となるものがあるか否かを判定し、あればS287へ進み、なければS285へ進む。S285ではエラー記録を行い、S286ではエラーメッセージを設定する。これらの処理は図10(b)のS271及びS272の処理と同様である。   In S282, it is determined whether or not the clue information has been extracted in S281. If it can be extracted, the process proceeds to S287, and if not, the process proceeds to S283. In S283, it is assumed that the position information cannot be searched from the entire description of the information, and the clue information is searched by accessing a search site on the Internet and performing a net search. Here, for example, the description item indicated by the identifier is used as a search key to the search site to obtain a search result. In S284, it is determined whether or not there is clue information in the search process of S283. If there is, the process proceeds to S287, and if not, the process proceeds to S285. In S285, error recording is performed, and in S286, an error message is set. These processes are the same as the processes of S271 and S272 in FIG.

S287ではS281又はS283で得た手がかり情報を検索キーとして位置情報データベース310により位置情報を再度検索する。S288ではS287の結果得た位置情報により位置情報データベース310を更新する。ここでは前回検索されなかった、識別子で指し示された記載事項に対応する位置情報が当該記載事項に対応して蓄積されることになる。S287で検索された位置情報は図5のS22の位置情報送信処理において携帯型電話機Bに検索結果として送信される。   In S287, the position information database 310 is searched again using the clue information obtained in S281 or S283 as a search key. In S288, the position information database 310 is updated with the position information obtained as a result of S287. Here, the position information corresponding to the description item indicated by the identifier, which was not searched last time, is stored corresponding to the description item. The position information searched in S287 is transmitted as a search result to the mobile phone B in the position information transmission process in S22 of FIG.

このように本例では、位置情報データベース310を自動更新することができる。この結果、位置情報データベース310をより充実したものとすることができる。例えば、本実施形態のシステムにおいて、看板等の情報表示媒体に記載される情報を提供する者が、何ら事前にサーバCに登録することなく、自由に識別子を使用できるようにしておく場合を想定すると、まず、識別子の使用が一般に普及し、システムの利用度が高くなる。そして、上述したように識別子で指し示された記載事項に対応する位置情報がない場合に、位置情報データベース310がどんどん自動更新されることで、サーバCの管理者が位置情報データベース310を自ら更新しなくてもその記憶情報がより充実したものとなり、サーバCの管理者の手間を省くことも可能となる。   Thus, in this example, the position information database 310 can be automatically updated. As a result, the position information database 310 can be further enriched. For example, in the system of the present embodiment, it is assumed that a person who provides information described in an information display medium such as a signboard can freely use an identifier without registering in the server C in advance. Then, first, the use of identifiers is generally widespread, and the utilization of the system is increased. As described above, when there is no position information corresponding to the description item indicated by the identifier, the position information database 310 is automatically updated more and more so that the administrator of the server C updates the position information database 310 itself. Even if not, the stored information becomes more substantial, and it is possible to save the trouble of the administrator of the server C.

<情報提供代行者に関する処理>
看板や雑誌等に広告等の情報を提供する者(広告主)は、一般に自ら看板等を作成するよりも、専門の業者(提供代行者)にこれを依頼するのが普通である。そして、看板等の広告効果を調べることは一般に困難であるが、本実施形態のシステムではユーザから位置情報の検索要求があった場合、間違いなくその看板等をそのユーザが見たことになり、その頻度を記録することで提供代行者が提供した看板等の広告効果が推し量られる。とすれば、提供代行者としては広告の効果に比例した対価の支払いを広告主に求めたいところであり、また、広告主として広告効果に比例した対価であれば納得のいくところである。
<Processing for information providers>
In general, a person (advertiser) who provides information such as an advertisement to a signboard or a magazine generally requests a specialized contractor (providing agent) for this rather than creating a signboard or the like. And it is generally difficult to examine the advertising effect of a signboard, etc., but in the system of this embodiment, when there is a search request for position information from the user, the user has definitely seen the signboard, By recording the frequency, the advertising effect such as a signboard provided by the providing agent can be estimated. If so, the providing agent wants to ask the advertiser to pay a price proportional to the effectiveness of the advertisement, and if the price is proportional to the advertising effect as the advertiser, it is satisfactory.

そこで、本例では情報の普及に対する各提供代行者の貢献度が明らかとし、例えば、各提供代行者に支払う対価の基準とすることができる仕組みを提供する。図11(a)は本例の概念図である。まず、広告主は提供代行者に広告を依頼する。提供代行者はサーバCの自己を提供代行者として登録し、登録No.を付与して貰う。サーバCでは広告に関する位置情報をユーザに提供した回数を記録しておき、提供代行者にこれを知らせる。提供代行者は提供回数に基づき各広告主に対価を請求し、広告主がこれを支払うことになる。   Therefore, in this example, the degree of contribution of each providing agent to the dissemination of information is clarified, and, for example, a mechanism that can be used as a basis for consideration paid to each providing agent is provided. FIG. 11A is a conceptual diagram of this example. First, the advertiser requests an advertisement from the provider. The providing agent registers the self of the server C as the providing agent, and the registration No. Give and give. The server C records the number of times the location information related to the advertisement is provided to the user, and notifies the providing agent of this. The providing agent charges each advertiser based on the number of times of providing, and the advertiser pays it.

本例の場合、各広告の提供代行者がだれかを特定する必要が生じる。そこで、本例では提供代行者に対して、広告中に自己を特定する提供代行者情報を記載するようにさせ、これをサーバCで抽出することで提供代行者を特定する。図11(b)はそのような提供代行者情報が記載された看板の例である。同図に示すように、提供代行者情報は、提供代行者識別子(☆)とその提供代行者の登録No.(0125)とからなる。サーバCではこの看板の撮影画像を受信した場合、まず提供代行者識別子を抽出し、そして提供代行者識別子で指し示された登録No.を抽出し、その登録No.の提供代行者のポイントを加算することになる。図11(c)はポイント加算テーブルの例を示す図であり、サーバCのHDD304に蓄積される。このポイント加算テーブルは各提供代行者毎に作成され、サーバCが携帯型電話機Bに提供した各位置情報と対応付けてポイントが付される。位置情報は広告主を特定する情報となる。ポイントは提供回数を示すが他の情報(例えば対価の額等)としてもよい。   In the case of this example, it is necessary to identify who is the agent who provides each advertisement. Therefore, in this example, the providing agent is specified in the advertisement by providing the providing agent information for identifying the providing agent, and the providing agent is specified by extracting the information by the server C. FIG.11 (b) is an example of the signboard in which such provision agent information was described. As shown in the figure, the providing agent information includes a providing agent identifier (☆) and a registration number of the providing agent. (0125). When the server C receives the photographed image of the signboard, it first extracts the providing agent identifier, and then registers the registration number indicated by the providing agent identifier. And the registration No. is extracted. The points of the providing agent will be added. FIG. 11C shows an example of the point addition table, which is stored in the HDD 304 of the server C. This point addition table is created for each providing agent, and points are attached in association with each position information provided to the mobile phone B by the server C. The position information is information that identifies the advertiser. The point indicates the number of times of provision, but may be other information (for example, the amount of consideration).

図12は本例におけるサーバCの処理を示すフローチャートである。同図に示すポイント加算処理はS22の位置情報送信処理後に行う。これは、ポイントの加算は例えば上述した提供代行者情報が抽出された時点でも行うことができるが、実際に位置情報がユーザに提供されたことを条件として行うようにしたものである。S291では提供代行者識別子を抽出する処理を行う。ここでは、上述した識別子の抽出処理(S201)と同様の方法で撮影画像から提供代行者識別子を抽出する。すなわち、提供代行者識別子は予め定められており、その特徴量が例えば識別子DB308に格納され、これと撮影画像から切り出された文字等の特徴量とのマッチングにより抽出される。S292ではS291により提供代行者識別子が抽出されたか否かを判定する。抽出された場合はS293へ進み、そうでない場合は提供代行者による広告等ではないとして処理を終了する。S293では提供代行者識別子により指し示された登録No.を抽出して提供代行者を特定する。このS293の処理はS202の記載事項の抽出処理と同様の方法で行う。S294ではS293で特定された提供代行者のポイントを加算する。すなわち、ユーザに提供した位置情報と対応づけてポイントを付する。同じ位置情報を再度提供した場合はポイントが加算され、初めて提供した位置情報の場合は新たにその位置情報の項目が作成されたポイントが一つ記録される。   FIG. 12 is a flowchart showing the processing of the server C in this example. The point addition process shown in the figure is performed after the position information transmission process of S22. For example, the points can be added even when the above-mentioned providing agent information is extracted. However, the points are added on the condition that the position information is actually provided to the user. In S291, a process for extracting the providing agent identifier is performed. Here, the provider representative identifier is extracted from the captured image in the same manner as the identifier extraction process (S201) described above. That is, the providing agent identifier is determined in advance, and the feature amount is stored in, for example, the identifier DB 308 and extracted by matching this with a feature amount such as a character cut out from the photographed image. In S292, it is determined whether or not the providing agent identifier has been extracted in S291. If it has been extracted, the process proceeds to S293, and if not, the process is terminated because it is not an advertisement or the like by a provider. In S293, the registration No. indicated by the providing agent identifier is displayed. To identify the service provider. The processing in S293 is performed in the same manner as the description item extraction processing in S202. In S294, the points of the service agent specified in S293 are added. That is, points are attached in association with the position information provided to the user. When the same position information is provided again, points are added. In the case of position information provided for the first time, one point at which the item of the position information is newly created is recorded.

<検索処理の他の例>
図6(a)の検索処理ではまず識別子を抽出して、記載事項の文字認識範囲を限定したものであったが、本例の検索処理ではまず撮影画像中の記載事項を全て抽出し、その後、識別子と識別子で指し示される記載事項を特定する。図13(a)は本例の検索処理のフローチャートである。S301では撮影画像から記載事項を全て抽出する。S302では撮影画像の情報に関連する位置情報を特定する処理を行う。図13(b)はS301の記載事項抽出処理を示すフローチャートである。この処理は図6(c)の記載事項抽出処理と概ね同様である。S311では撮影画像に対して前処理を行う。ここでは例えばノイズの除去等の処理を行う。S312では撮影画像に含まれる文字、記号等の切り出しを行う。S313ではS312で切り出した各文字等の画像特徴量を抽出する。S313ではS312で切り出した各文字等の画像特徴量を抽出する。S314ではS313で抽出した各文字等の画像特徴量と、文字認識辞書B309に蓄積された各文字等の特徴量とのマッチングを行い、個別に類似度を演算する。S315ではS314による類似度の演算結果から最も類似度が高い文字等を選択してゆき、記載事項を特定する。以上により処理が終了する。
<Other examples of search processing>
In the search process of FIG. 6A, identifiers are first extracted and the character recognition range of the description items is limited. However, in the search process of this example, all description items in the photographed image are first extracted, and then Identifies the identifier and the description item indicated by the identifier. FIG. 13A is a flowchart of the search process of this example. In S301, all description items are extracted from the photographed image. In S302, a process for specifying position information related to information of the captured image is performed. FIG. 13B is a flowchart showing the description item extraction processing in S301. This process is substantially the same as the entry extraction process in FIG. In S311, pre-processing is performed on the captured image. Here, for example, processing such as noise removal is performed. In S312, characters, symbols, etc. included in the captured image are cut out. In S313, the image feature amount such as each character cut out in S312 is extracted. In S313, the image feature amount such as each character cut out in S312 is extracted. In S314, matching is performed between the image feature amount of each character or the like extracted in S313 and the feature amount of each character or the like stored in the character recognition dictionary B309, and the similarity is individually calculated. In S315, the character or the like having the highest similarity is selected from the similarity calculation result in S314, and the description items are specified. The process ends as described above.

図13(c)はS302の位置特定処理を示すフローチャートである。S321ではS315で特定された記載事項中に識別子が存在するか否かを判定する。存在しない場合、S322へ進み、存在する場合はS324へ進む。本例の場合、識別子が存在する場合、その識別子によって指し示された記載事項を優先し、識別子が存在しない場合は各記載事項から適宜検索を行う。S322ではS315で特定された記載事項を所定単位で順番に検索対象としてセットし、これを検索キーとして位置情報データベース310の各データベースから位置情報を検索する。その後、S327へ進み位置情報が取得される。検索結果が複数ある場合は、例えば、一番検索頻度の高かったものを選択するようにしてもよい。   FIG. 13C is a flowchart showing the position specifying process in S302. In S321, it is determined whether or not an identifier exists in the description item specified in S315. When it does not exist, it progresses to S322, and when it exists, it progresses to S324. In the case of this example, when there is an identifier, priority is given to a description item indicated by the identifier, and when there is no identifier, a search is appropriately performed from each description item. In S322, the items specified in S315 are set as search targets in order in a predetermined unit, and the position information is searched from each database of the position information database 310 using this as a search key. Thereafter, the process proceeds to S327, and position information is acquired. When there are a plurality of search results, for example, the search result having the highest search frequency may be selected.

次に、S324では識別子で示された記載事項を検索対象にセットする。S325では識別子の種類に応じて位置情報データベース310の中から対応するデータベースを選択する。S325ではS231でセットした記載事項を検索キーとしてS324で選択したデータベースにより位置情報を検索する。これらの処理は図6(c)及び(d)の処理の場合と概ね同様の処理となり、予め定めた識別子により指し示される記載事項を優先することで、施設の位置の特定の精度を高めることができる。S326では検索結果の位置情報を取得して処理が終了する。   In step S324, the description item indicated by the identifier is set as a search target. In S325, a corresponding database is selected from the position information database 310 according to the type of identifier. In S325, the position information is searched from the database selected in S324 using the description set in S231 as a search key. These processes are substantially the same as the processes in FIGS. 6C and 6D, and the priority is given to the items indicated by a predetermined identifier, thereby increasing the accuracy of the facility location specification. Can do. In S326, the position information of the search result is acquired, and the process ends.

<その他>
上記実施形態では様々な例を説明したが、それらは相互に組み合わせて構成することも可能である。また、上記実施形態では、携帯型電話機Bで画像を撮影し、サーバCにより位置情報を特定する処理を行った。しかし、例えば、カーナビゲーション装置Aに画像撮影機能とサーバCとの通信機能とを備えることにより、カーナビゲーション装置Aにより画像を撮影してサーバCに検索指示を行うこともできる。また、サーバCが行う検索処理(図5のS21)は、例えば、カーナビゲーション装置Aや携帯型電話機Bにおいて行うようにすることもできる。この場合、各データベース(308乃至310)の記憶領域が問題となるが、カーナビゲーションAの場合はDVD等の大容量記憶手段を採用することが挙げられる。また、携帯型電話機Aの場合は、データベースのみネットワーク上のサーバに依存するといったことも考えられる。
<Others>
Although various examples have been described in the above embodiment, they can be configured in combination with each other. Further, in the above-described embodiment, a process is performed in which an image is taken by the mobile phone B and position information is specified by the server C. However, for example, by providing the car navigation device A with an image photographing function and a communication function with the server C, it is possible to photograph the car navigation device A and give a search instruction to the server C. In addition, the search process (S21 in FIG. 5) performed by the server C can be performed in, for example, the car navigation apparatus A or the portable phone B. In this case, the storage area of each database (308 to 310) becomes a problem. In the case of car navigation A, it is possible to employ a large-capacity storage means such as a DVD. In the case of the portable phone A, it may be possible that only the database depends on a server on the network.

本発明の一実施形態に係る位置情報検索システムの概略図である。It is a schematic diagram of a position information retrieval system concerning one embodiment of the present invention. (a)及び(b)は、情報が記載された情報表示媒体の例を示す図である。(A) And (b) is a figure which shows the example of the information display medium with which information was described. (a)はカーナビゲーション装置Aのブロック図、(b)は携帯型電話機Bのブロック図である。(A) is a block diagram of the car navigation device A, and (b) is a block diagram of the mobile phone B. (a)はサーバCのブロック図、(b)は識別子DB308に蓄積された情報の例、(c)は名称DB310aに蓄積された情報の例、を示す図である。(A) is a block diagram of the server C, (b) is an example of information stored in the identifier DB 308, and (c) is a diagram showing an example of information stored in the name DB 310a. 位置情報検索システム全体の処理の例を示すフローチャートである。It is a flowchart which shows the example of a process of the whole position information search system. (a)は検索処理の例を示すフローチャート、(b)は識別子抽出処理の例を示すフローチャート、(c)は記載事項抽出処理の例を示すフローチャート、(d)は位置特定処理の例を示すフローチャートである。(A) is a flowchart showing an example of search processing, (b) is a flowchart showing an example of identifier extraction processing, (c) is a flowchart showing an example of description item extraction processing, and (d) shows an example of position specifying processing. It is a flowchart. 図6(a)のS201〜S203の各処理の概念図である。It is a conceptual diagram of each process of S201-S203 of Fig.6 (a). (a)は同種複数の識別子が抽出された場合の処理の例を示す図、(b)は複数の情報が含まれた撮影画像の例を示す図、(c)は携帯型電話機Bのディスプレイ210に表示される情報選択時の表示画面の例を示す図である。(A) is a diagram showing an example of processing when a plurality of identifiers of the same type are extracted, (b) is a diagram showing an example of a photographed image including a plurality of information, and (c) is a display of the mobile phone B FIG. 12 is a diagram showing an example of a display screen when information displayed on 210 is selected. (a)は各識別子に基づく位置情報が一致しない場合の処理の例を示すフローチャート、(b)は各識別子に基づく位置情報が一致しない場合の例を示す図である。(A) is a flowchart showing an example of processing when position information based on each identifier does not match, and (b) is a diagram showing an example when position information based on each identifier does not match. (a)は位置特定処理の他の例を示すフローチャート、(b)はエラー処理の例を示すフローチャート、(c)はエラー処理の他の例を示す図である。(A) is a flowchart showing another example of position specifying processing, (b) is a flowchart showing an example of error processing, and (c) is a diagram showing another example of error processing. (a)は提供代行者に関する処理の概念図、(b)は提供代行者識別子が付された看板等の例を示す図、(c)はポイント記録テーブルの例を示す図である。(A) is a conceptual diagram of processing related to a provider, (b) is a diagram showing an example of a signboard with a provider representative identifier, and (c) is a diagram showing an example of a point record table. 提供代行者に関する処理の例を示すフローチャートである。It is a flowchart which shows the example of the process regarding a provision agent. (a)検索処理の他の例を示すフローチャート,(b)は記載事項抽出処理の例を示すフローチャート、(c)は位置特定処理の例を示すフローチャートである。(A) The flowchart which shows the other example of a search process, (b) is a flowchart which shows the example of a description item extraction process, (c) is a flowchart which shows the example of a position specific process.

符号の説明Explanation of symbols

A カーナビゲーション装置
B 携帯型電話機
C サーバ
A Car navigation device B Mobile phone C Server

Claims (12)

情報表示媒体上に記載された情報の撮影画像から、予め定めた識別子を抽出する識別子抽出手段と、
前記識別子抽出手段により抽出された前記識別子により指し示される前記情報の記載事項を前記撮影画像から抽出する記載事項抽出手段と、
前記記載事項抽出手段により抽出された前記記載事項に基づき、前記情報に関連する施設の位置を特定する特定手段と、
を備えたことを特徴とする情報処理装置。
An identifier extracting means for extracting a predetermined identifier from a captured image of information described on the information display medium;
Description items extracting means for extracting description items of the information indicated by the identifier extracted by the identifier extraction means from the photographed image;
A specifying means for specifying a location of a facility related to the information based on the description items extracted by the description item extraction means;
An information processing apparatus comprising:
前記識別子が、当該識別子により指し示される前記記載事項の内容に応じて、複数種類あり、
前記特定手段は、
前記識別子抽出手段により抽出された識別子の種類と、前記記載事項抽出手段により抽出された前記記載事項と、に基づき、前記識別子の種類毎に施設の位置情報を蓄積した位置情報データベースから前記情報に関連する施設の位置情報を検索することで、前記施設の位置を特定することを特徴とする請求項1に記載の情報処理装置。
There are a plurality of types of identifiers depending on the contents of the description items indicated by the identifiers,
The specifying means is:
Based on the type of identifier extracted by the identifier extraction unit and the description item extracted by the description item extraction unit, the information from the location information database storing the location information of the facility for each type of identifier The information processing apparatus according to claim 1, wherein the location of the facility is specified by searching for location information of a related facility.
前記特定手段は、
前記識別子抽出手段により同じ種類の前記識別子が複数抽出された場合に、当該同じ種類の複数の前記識別子によりそれぞれ指し示される複数の前記記載事項の中から、ユーザが指定したいずれかの前記記載事項に基づいて前記情報に関連する施設の位置を特定することを特徴とする請求項2に記載の情報処理装置。
The specifying means is:
When a plurality of identifiers of the same type are extracted by the identifier extraction means, any one of the items specified by the user from among the plurality of items described by the plurality of identifiers of the same type. The information processing apparatus according to claim 2, wherein a position of a facility related to the information is specified based on the information.
前記識別子抽出手段により前記識別子が複数種類抽出された場合に、当該複数種類の前記識別子に対応して前記特定手段により複数特定される前記情報に関連する施設のそれぞれの位置が一致するか否かを判定する判定手段と、
前記判定手段により一致しないと判定された場合に判定結果を記録する記録手段と、
を備えたことを特徴とする請求項2に記載の情報処理装置。
If multiple types of identifiers are extracted by the identifier extraction means, whether or not the locations of the facilities related to the information specified by the specification means corresponding to the multiple types of identifiers match Determining means for determining
A recording unit that records a determination result when the determination unit determines that they do not match;
The information processing apparatus according to claim 2, further comprising:
前記記載事項抽出手段により抽出された前記記載事項に対応する前記位置情報がない場合に、当該記載事項について前記位置情報データベースを更新する更新手段を備えたことを特徴とする請求項2に記載の情報処理装置。   The update means for updating the position information database for the description item when there is no position information corresponding to the description item extracted by the description item extraction unit. Information processing device. 撮影機能を備えると共にカーナビゲーション装置と情報通信可能な携帯型端末と、ネットワークを介して情報通信可能なサーバであって、
前記携帯型端末により撮影された、情報表示媒体上に記載された情報の撮影画像を前記携帯型端末から受信する受信手段と、
前記受信手段により受信した前記撮影画像から、予め定めた識別子を抽出する識別子抽出手段と、
前記識別子抽出手段により抽出された前記識別子により指し示される前記情報の記載事項を前記撮影画像から抽出する記載事項抽出手段と、
前記記載事項抽出手段により抽出された前記記載事項に基づき、前記情報に関連する施設の位置を特定する特定手段と、
前記特定手段により特定された前記施設の位置の情報を前記携帯型端末に送信する送信手段と、
を備えたことを特徴とするサーバ。
A portable terminal having a photographing function and capable of information communication with a car navigation device, and a server capable of information communication via a network;
Receiving means for receiving, from the portable terminal, a photographed image of information described on an information display medium photographed by the portable terminal;
Identifier extracting means for extracting a predetermined identifier from the captured image received by the receiving means;
Description items extracting means for extracting description items of the information indicated by the identifier extracted by the identifier extraction means from the photographed image;
A specifying means for specifying a location of a facility related to the information based on the description items extracted by the description item extraction means;
Transmitting means for transmitting information on the location of the facility specified by the specifying means to the portable terminal;
A server comprising:
前記撮影画像から前記情報の提供代行者を特定する提供代行者情報を抽出する提供代行者情報抽出手段と、
少なくとも前記提供代行者情報抽出手段により前記提供代行者情報が抽出されたことを条件として加算されるポイントを、各々の前記提供代行者毎に記録する記録手段と、
を更に備えたことを特徴とする請求項6に記載のサーバ。
Providing agent information extracting means for extracting providing agent information specifying the providing agent of the information from the captured image;
A recording means for recording, for each providing agent, at least a point added on the condition that the providing agent information is extracted by the providing agent information extracting unit;
The server according to claim 6, further comprising:
情報表示媒体上に記載された情報の撮影画像から、前記情報の記載事項を抽出する抽出手段と、
前記抽出手段により抽出された前記記載事項に基づき、前記情報に関連する施設の位置を特定する特定手段と、を備え、
前記特定手段は、前記抽出手段により抽出された前記記載事項の中に予め定めた識別子がある場合には、当該識別子により指し示される前記記載事項を優先して前記情報に関連する施設の位置を特定することを特徴とする情報処理装置。
An extraction means for extracting the description items of the information from the captured image of the information described on the information display medium;
A specifying means for specifying a location of a facility related to the information based on the description items extracted by the extracting means,
In the case where there is a predetermined identifier in the description items extracted by the extraction means, the specifying means prioritizes the description items indicated by the identifier and determines the location of the facility related to the information. An information processing apparatus characterized by specifying.
情報表示媒体上に記載された情報の撮影画像から、予め定めた識別子を抽出する識別子抽出工程と、
前記識別子抽出工程で抽出された前記識別子により指し示される前記情報の記載事項を前記撮影画像から抽出する記載事項抽出工程と、
前記記載事項抽出工程で抽出された前記記載事項に基づき、前記情報に関連する施設の位置を特定する特定工程と、
を備えたことを特徴とする情報処理方法。
An identifier extraction step of extracting a predetermined identifier from a captured image of information described on the information display medium;
A description item extracting step of extracting a description item of the information indicated by the identifier extracted in the identifier extraction step from the photographed image;
Based on the description items extracted in the description item extraction step, a specifying step for specifying the location of the facility related to the information;
An information processing method characterized by comprising:
コンピュータに、
情報表示媒体上に記載された情報の撮影画像から、予め定めた識別子を抽出する識別子抽出工程と、
前記識別子抽出工程で抽出された前記識別子により指し示される前記情報の記載事項を前記撮影画像から抽出する記載事項抽出工程と、
前記記載事項抽出工程で抽出された前記記載事項に基づき、前記情報に関連する施設の位置を特定する特定工程と、
を実行させるプログラム。
On the computer,
An identifier extraction step of extracting a predetermined identifier from a captured image of information described on the information display medium;
A description item extracting step of extracting a description item of the information indicated by the identifier extracted in the identifier extraction step from the photographed image;
Based on the description items extracted in the description item extraction step, a specifying step for specifying the location of the facility related to the information;
A program that executes
情報表示媒体上に記載された情報の撮影画像から、前記情報の記載事項を抽出する抽出工程と、前記抽出工程により抽出された前記記載事項に基づき、前記情報に関連する施設の位置を特定する特定工程と、を備え、
前記特定工程では、前記抽出手段により抽出された前記記載事項の中に予め定めた識別子がある場合には、当該識別子により指し示される前記記載事項を優先して前記情報に関連する施設の位置を特定することを特徴とする情報処理方法。
An extraction process for extracting the description items of the information from a photographed image of the information described on the information display medium, and a location of a facility related to the information is specified based on the description items extracted by the extraction process A specific process,
In the specifying step, when there is a predetermined identifier in the description items extracted by the extraction means, the location of the facility related to the information is given priority over the description items indicated by the identifier. An information processing method characterized by specifying.
コンピュータに、
情報表示媒体上に記載された情報の撮影画像から、前記情報の記載事項を抽出する抽出工程と、前記抽出工程により抽出された前記記載事項に基づき、前記情報に関連する施設の位置を特定する特定工程と、を実行させるプログラムであって、
前記特定工程では、前記抽出手段により抽出された前記記載事項の中に予め定めた識別子がある場合には、当該識別子により指し示される前記記載事項を優先して前記情報に関連する施設の位置を特定することを特徴とするプログラム。
On the computer,
An extraction process for extracting the description items of the information from a photographed image of the information described on the information display medium, and a location of a facility related to the information is specified based on the description items extracted by the extraction process A program for executing a specific process,
In the specifying step, when there is a predetermined identifier in the description items extracted by the extraction means, the location of the facility related to the information is given priority over the description items indicated by the identifier. A program characterized by specifying.
JP2003335621A 2003-09-26 2003-09-26 Information processor, server, information processing method and program Pending JP2005100277A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003335621A JP2005100277A (en) 2003-09-26 2003-09-26 Information processor, server, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003335621A JP2005100277A (en) 2003-09-26 2003-09-26 Information processor, server, information processing method and program

Publications (1)

Publication Number Publication Date
JP2005100277A true JP2005100277A (en) 2005-04-14

Family

ID=34462960

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003335621A Pending JP2005100277A (en) 2003-09-26 2003-09-26 Information processor, server, information processing method and program

Country Status (1)

Country Link
JP (1) JP2005100277A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007206976A (en) * 2006-02-01 2007-08-16 Alpine Electronics Inc Information processor
JP2008058199A (en) * 2006-08-31 2008-03-13 Fujitsu Ltd Data input device, data input system, data input method, printing device, and printed matter
JP2009219166A (en) * 2005-06-20 2009-09-24 Samsung Electronics Co Ltd Method and system for providing image-relevant information to user, and mobile terminal device therefor
WO2010013703A1 (en) * 2008-07-31 2010-02-04 トヨタ自動車株式会社 Vehicle-mounted device, navigation system, and control method for navigation system
JP2010281727A (en) * 2009-06-05 2010-12-16 Nec Corp Portable terminal, car navigation apparatus setting system, and method of setting car navigation
JP2011022023A (en) * 2009-07-16 2011-02-03 Aisin Aw Co Ltd Apparatus, method, and program for driving support
JP2014053030A (en) * 2008-12-23 2014-03-20 Ricoh Co Ltd Processing method, computer program, and processor
US8996386B2 (en) 2011-01-19 2015-03-31 Denso International America, Inc. Method and system for creating a voice recognition database for a mobile device using image processing and optical character recognition
JP2020113184A (en) * 2019-01-16 2020-07-27 株式会社ぐるなび Information processing system, information processing method, and information processing program

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009219166A (en) * 2005-06-20 2009-09-24 Samsung Electronics Co Ltd Method and system for providing image-relevant information to user, and mobile terminal device therefor
JP2007206976A (en) * 2006-02-01 2007-08-16 Alpine Electronics Inc Information processor
US8130267B2 (en) 2006-08-31 2012-03-06 Fujitsu Limited Data input device, data input system, data input method, printing device, and printed matter
JP2008058199A (en) * 2006-08-31 2008-03-13 Fujitsu Ltd Data input device, data input system, data input method, printing device, and printed matter
US8380431B2 (en) 2008-07-31 2013-02-19 Toyota Jidosha Kabushiki Kaisha Vehicle-mounted device, navigation system, and control method for navigation system
CN102112847A (en) * 2008-07-31 2011-06-29 丰田自动车株式会社 Vehicle-mounted device, navigation system, and control method for navigation system
JP2010038591A (en) * 2008-07-31 2010-02-18 Fujitsu Ten Ltd Onboard device, navigation system, and method of controlling the same
WO2010013703A1 (en) * 2008-07-31 2010-02-04 トヨタ自動車株式会社 Vehicle-mounted device, navigation system, and control method for navigation system
CN102112847B (en) * 2008-07-31 2013-07-10 丰田自动车株式会社 Vehicle-mounted device, navigation system, and control method for navigation system
JP2014053030A (en) * 2008-12-23 2014-03-20 Ricoh Co Ltd Processing method, computer program, and processor
JP2010281727A (en) * 2009-06-05 2010-12-16 Nec Corp Portable terminal, car navigation apparatus setting system, and method of setting car navigation
JP2011022023A (en) * 2009-07-16 2011-02-03 Aisin Aw Co Ltd Apparatus, method, and program for driving support
US8996386B2 (en) 2011-01-19 2015-03-31 Denso International America, Inc. Method and system for creating a voice recognition database for a mobile device using image processing and optical character recognition
JP2020113184A (en) * 2019-01-16 2020-07-27 株式会社ぐるなび Information processing system, information processing method, and information processing program

Similar Documents

Publication Publication Date Title
CN101506764B (en) Panoramic ring user interface
US9251252B2 (en) Context server for associating information based on context
CN101287214A (en) Method and system for acquiring information by mobile terminal and applying the same
CN102063512A (en) Virtual earth
JP2003323440A (en) Photographed image information providing system using portable terminal, photographed image information providing method, and program for executing method in computer
JP2010118061A (en) Method, system and computer-readable recording medium for providing service using electronic map
JP2005100277A (en) Information processor, server, information processing method and program
JP2005100276A (en) Information processing system, information processor, information processing method and program
JP4196402B2 (en) Advertisement information processing apparatus and advertisement information processing method
JP5072464B2 (en) Image providing apparatus, image providing method, image providing program, and computer-readable recording medium recording the program
US8325356B2 (en) Method of sending a photograph electronically from a self-service digital photograph processing station to a remote printing facility
JP2002373168A (en) Method and system for retrieving picture based on position information
JP2010026546A (en) Content provision system
JP4712624B2 (en) Information distribution apparatus, information distribution method, and information distribution program
JPH1145264A (en) Three-dimensional information perusal device
JP2003108562A (en) Information providing system, information retrieving server, its client, its cellular phone, its portable electronic equipment, information providing method, its accounting method, its program and recording medium for recording its program
JP2001134595A (en) Geographical information system
CN1902626B (en) Organizing media data using a portable electronic device
JP2001285526A (en) Two-way communication system
KR101135098B1 (en) System and method for providing photo based on map
JP4978219B2 (en) Information transmission system and information server
JP2007158815A (en) Map information service system, and map information providing method, and program
JP2002169823A (en) Computer-readable recording medium where database retrieving program is recorded, and method and device for database retrieval
JP3853761B2 (en) Electronic diary creation device, electronic diary creation method, electronic diary creation program, and recording medium recording the program
JP2005233956A (en) Method and apparatus for managing guest data of navigation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081219

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090706