JP2005182495A - Information processor, information processing method, recording medium and program - Google Patents

Information processor, information processing method, recording medium and program Download PDF

Info

Publication number
JP2005182495A
JP2005182495A JP2003423001A JP2003423001A JP2005182495A JP 2005182495 A JP2005182495 A JP 2005182495A JP 2003423001 A JP2003423001 A JP 2003423001A JP 2003423001 A JP2003423001 A JP 2003423001A JP 2005182495 A JP2005182495 A JP 2005182495A
Authority
JP
Japan
Prior art keywords
information
image
recognition
search
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003423001A
Other languages
Japanese (ja)
Inventor
Toshihiro Watanabe
敏博 渡邉
Futoshi Goto
太 後藤
Makoto Murata
誠 村田
Fumitake Cho
文武 趙
Junko Fukuda
純子 福田
Machiko Segawa
真智子 瀬川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003423001A priority Critical patent/JP2005182495A/en
Publication of JP2005182495A publication Critical patent/JP2005182495A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To narrow down information that a user desires, to retrieve and display it and to speedily grasp an information amount at every type of information. <P>SOLUTION: A picture extracting part 301 extracts a picture near a position detected by a pointer position detecting part 301a among inputted pictures, and supplies it to a recognition part 302. The recognition part 302 recognizes the picture by using recognition DB 303, and supplies a recognition result to a retrieval part 304. The retrieval part 304 retrieves a retrieval picture file and peculiar data, which correspond to the recognition result, by using retrieval DB 305, and supplies them to a display control part 501. An information amount calculation part 501a of the display control part 501 calculates the information amount at every information amount based on the retrieval result supplied from the retrieval part 304. The display control part 501 creates a window displaying the retrieval picture file and peculiar data based on the calculation result calculated by the information amount calculation part 501a so as to display it. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、情報処理装置および方法、記録媒体、並びにプログラムに関し、特に、周辺情報を取得し、取得した周辺情報に基づいて、情報を検索し、さらに、提示するようにした情報処理装置および方法、記録媒体、並びにプログラムに関する。   The present invention relates to an information processing apparatus and method, a recording medium, and a program, and in particular, acquires information about the periphery, searches for information based on the acquired periphery information, and further presents the information. , A recording medium, and a program.

従来、カメラにより撮像された画像を、なんらかの画像認識技術により認識し、それに対応した蓄積データを提示する検索エンジンが提案されている。   2. Description of the Related Art Conventionally, a search engine that recognizes an image captured by a camera by some kind of image recognition technology and presents corresponding stored data has been proposed.

上述の検索エンジンでは、例えば、撮像された画像に含まれる文字列をOCR(Optical Character Reader)により認識し、認識したテキスト文字列に基づいて、言葉の意味を検索したり、地名などであれば、その地名の周辺の地図データを検索して提示したり、さらには、URL(Univarsal Resource Locator)などであれば、対応するHP(Home Page)を開くなどの処理をさせることができる。   In the above search engine, for example, a character string included in a captured image is recognized by an OCR (Optical Character Reader), and the meaning of a word is searched based on the recognized text character string. Then, the map data around the place name can be searched and presented, and further, if it is a URL (Univarsal Resource Locator), the corresponding HP (Home Page) can be opened.

また、例えば、撮像した画像に人物の顔が含まれているような場合、上述の検索エンジンは、画像に含まれる人物の顔が、予め登録されたいずれの人物の画像であるかを認識し(例えば、特許文献1参照)、関連する情報を提示する技術がある。   Also, for example, when a captured image includes a person's face, the search engine described above recognizes which person's face registered in advance is the person's face included in the image. There is a technique for presenting related information (see, for example, Patent Document 1).

特開2002−157596号公報JP 2002-157596 A

しかしながら、この方法では、検索エンジンは、カメラにより撮像された画像の情報に基づいたものでしか検索することができないので、例えば、カメラにより撮像された画像に含まれる様々な情報に基づいて情報が検索されることになるため、膨大な情報が検索されてしまう恐れがあり、結果として、ユーザが所望とする情報を的確に検索することが(見つけ出すことが)できない恐れがあった。   However, in this method, the search engine can search only based on information on the image captured by the camera. For example, information is obtained based on various information included in the image captured by the camera. As a result of the search, a large amount of information may be searched, and as a result, there is a possibility that the information desired by the user cannot be accurately searched (found).

また、ユーザは、検索された情報が膨大であることはわかっても、どの程度の情報量であるかを把握することができず、検索された情報を自らの目で検索すべきか、さらに、別の方法で絞り込みをかけるべきであるのかを判断することができないという課題があった。   In addition, even if the user knows that the searched information is enormous, the user cannot grasp how much information is, and whether the searched information should be searched with his own eyes, There was a problem that it was not possible to determine whether or not to narrow down by another method.

本発明はこのような状況に鑑みてなされたものであり、特に、ユーザの所望とする情報を絞り込んで検索し、表示することを可能にし、情報の種類毎に情報量を迅速に把握できるようにするものである。   The present invention has been made in view of such a situation. In particular, the present invention makes it possible to search and display information desired by the user, and to quickly grasp the amount of information for each type of information. It is to make.

本発明の情報処理装置は、入力情報を取得する取得手段と、取得手段により取得された入力情報を認識する認識手段と、認識手段の認識結果に基づいて提示情報を検索する検索手段と、検索手段により検索された提示情報の情報量を計算する計算手段と、計算手段により計算された情報量に基づいて提示情報を表示する画面を生成する画面生成手段とを備えることを特徴とする。   An information processing apparatus according to the present invention includes an acquisition unit that acquires input information, a recognition unit that recognizes input information acquired by the acquisition unit, a search unit that searches presentation information based on a recognition result of the recognition unit, and a search The present invention is characterized by comprising calculation means for calculating the information amount of the presentation information searched by the means, and screen generation means for generating a screen for displaying the presentation information based on the information amount calculated by the calculation means.

前記取得手段には、画像を入力情報として取得させるようにすることができ、認識手段には、取得手段により取得された画像を認識させるようにすることができる。   The acquisition unit can acquire an image as input information, and the recognition unit can recognize the image acquired by the acquisition unit.

前記画像上のポインタの位置を検出する位置検出手段をさらに設けるようにさせることができ、取得手段には、位置検出手段により検出された位置近傍の画像を入力情報として取得させるようにすることができる。   Position detection means for detecting the position of the pointer on the image may be further provided, and the acquisition means may acquire an image near the position detected by the position detection means as input information. it can.

前記取得手段には、音声を入力情報として取得させるようにすることができ、認識手段には、取得手段により取得された音声を認識させるようにすることができる。   The acquisition unit can acquire voice as input information, and the recognition unit can recognize the voice acquired by the acquisition unit.

前記画面生成手段には、計算手段により計算された情報量に基づいた大きさのアイコンにより提示情報を表示する画面を生成させるようにすることができる。   The screen generating means can generate a screen for displaying the presentation information with an icon having a size based on the amount of information calculated by the calculating means.

本発明の情報処理方法は、入力情報を取得する取得ステップと、取得ステップの処理で取得された入力情報を認識する認識ステップと、認識ステップの処理での認識結果に基づいて提示情報を検索する検索ステップと、検索ステップの処理で検索された提示情報の情報量を計算する計算ステップと、計算ステップの処理で計算された情報量に基づいて提示情報を表示する画面を生成する画面生成ステップとを含むことを特徴とする。   The information processing method of the present invention searches for presentation information based on an acquisition step for acquiring input information, a recognition step for recognizing input information acquired in the processing of the acquisition step, and a recognition result in the processing of the recognition step. A search step, a calculation step for calculating the information amount of the presentation information searched in the processing of the search step, and a screen generation step for generating a screen for displaying the presentation information based on the information amount calculated in the processing of the calculation step; It is characterized by including.

本発明の記録媒体のプログラムは、入力情報の取得を制御する取得制御ステップと、取得制御ステップの処理で取得が制御された入力情報を認識する認識ステップと、認識ステップの処理での認識結果に基づいて提示情報を検索する検索ステップと、検索ステップの処理で検索された提示情報の情報量を計算する計算ステップと、計算ステップの処理で計算された情報量に基づいて提示情報を表示する画面を生成する画面生成ステップとを含むことを特徴とする。   The recording medium program of the present invention includes an acquisition control step for controlling the acquisition of input information, a recognition step for recognizing input information whose acquisition is controlled in the process of the acquisition control step, and a recognition result in the process of the recognition step. A search step for searching for presentation information based on the calculation step, a calculation step for calculating the information amount of the presentation information searched in the processing of the search step, and a screen for displaying the presentation information based on the information amount calculated in the processing of the calculation step And a screen generation step for generating.

本発明のプログラムは、入力情報の取得を制御する取得制御ステップと、取得制御ステップの処理で取得が制御された入力情報を認識する認識ステップと、認識ステップの処理での認識結果に基づいて提示情報を検索する検索ステップと、検索ステップの処理で検索された提示情報の情報量を計算する計算ステップと、計算ステップの処理で計算された情報量に基づいて提示情報を表示する画面を生成する画面生成ステップとをコンピュータに実行させることを特徴とする。   The program of the present invention is presented based on an acquisition control step for controlling the acquisition of input information, a recognition step for recognizing input information whose acquisition is controlled in the process of the acquisition control step, and a recognition result in the process of the recognition step A search step for searching for information, a calculation step for calculating the information amount of the presentation information searched in the processing of the search step, and a screen for displaying the presentation information based on the information amount calculated in the processing of the calculation step are generated The screen generation step is executed by a computer.

本発明の情報処理装置および方法、並びにプログラムにおいては、入力情報が取得され、取得された入力情報が認識され、認識結果に基づいて提示情報が検索され、検索された提示情報の情報量が計算され、計算された情報量に基づいて提示情報が表示される画面が生成される。   In the information processing apparatus, method, and program of the present invention, input information is acquired, the acquired input information is recognized, presentation information is searched based on the recognition result, and an information amount of the searched presentation information is calculated. Then, a screen on which the presentation information is displayed based on the calculated information amount is generated.

本発明の情報処理装置は、独立した装置であっても良いし、情報処理を行うブロックであっても良い。   The information processing apparatus of the present invention may be an independent apparatus or a block that performs information processing.

本発明によれば、迅速にユーザの所望とする情報を絞り込んで検索し、表示することが可能となると共に、情報の種類毎の情報量を迅速に把握することが可能となる。   According to the present invention, it is possible to quickly search and display information desired by a user, and to quickly grasp the amount of information for each type of information.

以下に本発明の実施の形態を説明するが、本明細書に記載の発明と、発明の実施の形態との対応関係を例示すると、次のようになる。この記載は、本明細書に記載されている発明をサポートする実施の形態が本明細書に記載されていることを確認するためのものである。従って、発明の実施の形態中には記載されているが、発明に対応するものとして、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その発明に対応するものではないことを意味するものではない。逆に、実施の形態が発明に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その発明以外の発明には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. The correspondence relationship between the invention described in this specification and the embodiments of the invention is exemplified as follows. This description is intended to confirm that the embodiments supporting the invention described in this specification are described in this specification. Therefore, although there is an embodiment which is described in the embodiment of the invention but is not described here as corresponding to the invention, it means that the embodiment is not It does not mean that it does not correspond to the invention. Conversely, even if an embodiment is described herein as corresponding to an invention, that means that the embodiment does not correspond to an invention other than the invention. Absent.

さらに、この記載は、本明細書に記載されている発明の全てを意味するものではない。換言すれば、この記載は、本明細書に記載されている発明であって、この出願では請求されていない発明の存在、すなわち、将来、分割出願されたり、補正により出現、追加される発明の存在を否定するものではない。   Further, this description does not mean all the inventions described in this specification. In other words, this description is for the invention described in the present specification, which is not claimed in this application, that is, for the invention that will be applied for in the future or that will appear and be added by amendment. It does not deny existence.

即ち、本発明の情報処理装置は、入力情報を取得する取得手段(例えば、図22の画像抽出部301)と、取得手段により取得された入力情報を認識する認識手段(例えば、図22の認識部302)と、認識手段の認識結果に基づいて提示情報を検索する検索手段(例えば、図22の検索部304)と、検索手段により検索された提示情報の情報量を計算する計算手段(例えば、図22の情報量計算部501a)と、計算手段により計算された情報量に基づいて提示情報を表示する画面を生成する画面生成手段(例えば、図22の表示制御部501)とを備えることを特徴とする。   That is, the information processing apparatus according to the present invention includes an acquisition unit (for example, the image extraction unit 301 in FIG. 22) that acquires input information and a recognition unit (for example, the recognition in FIG. 22) that recognizes the input information acquired by the acquisition unit. Unit 302), search means for searching for presentation information based on the recognition result of the recognition means (for example, search section 304 in FIG. 22), and calculation means for calculating the amount of information of the presentation information searched by the search means (for example, 22, and an information amount calculation unit 501a in FIG. 22 and a screen generation unit (for example, the display control unit 501 in FIG. 22) that generates a screen for displaying the presentation information based on the information amount calculated by the calculation unit. It is characterized by.

本発明の情報処理方法は、入力情報を取得する取得ステップ(例えば、図23のフローチャートのステップS42の処理)と、取得ステップの処理で取得された入力情報を認識する認識ステップ(例えば、図23のフローチャートのステップS45の処理)と、認識ステップの処理での認識結果に基づいて提示情報を検索する検索ステップ(例えば、図23のフローチャートのステップS48の処理)と、検索ステップの処理で検索された提示情報の情報量を計算する計算ステップ(例えば、図23のフローチャートのステップS49の処理)と、計算ステップの処理で計算された情報量に基づいて提示情報を表示する画面を生成する画面生成ステップ(例えば、図23のフローチャートのステップS50の処理)とを含むことを特徴とする。   The information processing method of the present invention includes an acquisition step for acquiring input information (for example, step S42 in the flowchart of FIG. 23) and a recognition step for recognizing input information acquired in the processing of the acquisition step (for example, FIG. 23). In step S45 in the flowchart), a search step for searching for presentation information based on the recognition result in the process in the recognition step (for example, step S48 in the flowchart in FIG. 23), and a search step. A calculation step for calculating the information amount of the presented information (for example, processing in step S49 in the flowchart of FIG. 23) and screen generation for generating a screen for displaying the presentation information based on the information amount calculated in the calculation step processing Step (for example, the process of step S50 in the flowchart of FIG. 23).

尚、記録媒体、および、プログラムの発明については、情報処理方法と同様であるのでその説明は省略する。   The recording medium and the program invention are the same as the information processing method, and the description thereof is omitted.

図1は、本発明を適用したサービス提供システムの構成例を表している。   FIG. 1 shows a configuration example of a service providing system to which the present invention is applied.

図1のサービス提供システムにおいては、インターネットを含むネットワーク1に対して、アクセスポイント4、画像データ管理サーバ5乃至7が接続されている。また、情報処理装置2は、アクセスポイント4との間で、無線LAN(Local Area Network)による無線通信を行い、アクセスポイント4経由でネットワーク1に接続されている。情報処理装置3は、情報処理装置2との間でブルートゥースによる通信を行う。なお、情報処理装置3と情報処理装置2間の通信は無線LANによることも可能である。また、以降においては、情報処理装置2は、親機2とも称し、また、情報処理装置3は、子機3とも称するものとする。   In the service providing system of FIG. 1, an access point 4 and image data management servers 5 to 7 are connected to a network 1 including the Internet. Further, the information processing apparatus 2 performs wireless communication with the access point 4 by a wireless local area network (LAN) and is connected to the network 1 via the access point 4. The information processing apparatus 3 performs Bluetooth communication with the information processing apparatus 2. Note that communication between the information processing device 3 and the information processing device 2 can be performed by a wireless LAN. Further, hereinafter, the information processing device 2 is also referred to as a parent device 2, and the information processing device 3 is also referred to as a child device 3.

画像データ管理サーバ5乃至7は、ネットワーク1を介して、後述する認識用DB(データベース)303、および、検索用DB(データベース)305と同様のデータベースを記憶しており、情報処理装置2または3が、画像データによる認識処理、または、検索処理をする際、認識用DB(データベース)303、および、検索用DB(データベース)305と同様のデータベースの情報を情報処理装置2または3に提供する。なお、画像データ管理サーバ5乃至7が有する情報は、情報処理装置2,3においても記憶されているようにしてもよい。また、画像データ管理サーバ5乃至7は、図1においては、3台が示されているが、台数はこれに限るものではなく、3台以外の台数であってもよい。   The image data management servers 5 to 7 store a database similar to a recognition DB (database) 303 and a search DB (database) 305, which will be described later, via the network 1, and the information processing apparatus 2 or 3 However, when performing recognition processing or search processing based on image data, the information processing apparatus 2 or 3 provides database information similar to the recognition DB (database) 303 and the search DB (database) 305. Note that the information included in the image data management servers 5 to 7 may be stored in the information processing apparatuses 2 and 3. Further, although three image data management servers 5 to 7 are shown in FIG. 1, the number of image data management servers 5 to 7 is not limited to this, and may be other than three.

親機2は、画像データ管理サーバ5からの認識用DB、または、検索用DBに関する情報を子機3に送信する。   The parent device 2 transmits information related to the recognition DB or the search DB from the image data management server 5 to the child device 3.

子機3は、後述する撮像部121(図7)により撮像された画像、親機2より取得された画像(親機2を介してその他の装置より取得された画像を含む)、または、自らの記憶部154(図7)に記憶された画像をディスプレイ101に表示する。子機3は、ディスプレイ101(図7)に表示された画像のうち、ポインタで指定された近傍の領域の画像に関連する情報を検索して、ディスプレイ101上に表示する。   The subunit | mobile_unit 3 is the image imaged by the imaging part 121 (FIG. 7) mentioned later, the image acquired from the main | base station 2 (an image acquired from the other apparatus via the main | base station 2), or self The image stored in the storage unit 154 (FIG. 7) is displayed on the display 101. The subunit | mobile_unit 3 searches the information relevant to the image of the area | region of the vicinity designated with the pointer among the images displayed on the display 101 (FIG. 7), and displays it on the display 101. FIG.

子機3は、親機2から着脱可能である。図2および図3に、子機3の着脱例を示す。図2には、子機3が親機2の内部に装着された状態の例が示されている。親機2および子機3は、例えば、略六角形の形状とされ、子機3は、図2に示されるように、その角の1つが、親機2の1つの角と重なるようにして、親機2に装着される。   The handset 3 can be detached from the base unit 2. 2 and 3 show examples of attaching and detaching the slave unit 3. FIG. 2 shows an example in which the slave unit 3 is mounted inside the master unit 2. The master unit 2 and the slave unit 3 have, for example, a substantially hexagonal shape. The slave unit 3 has one of its corners overlapped with one corner of the master unit 2 as shown in FIG. The base unit 2 is attached.

図3には、子機3が、親機2から取り外される場合の例が示されている。図3に示されるように、子機3は、親機2から取り外し可能である。親機2および子機3は、ユーザが携帯可能なサイズとされる。親機2は、例えば、鞄等に入れて持ち運び可能なサイズであり、子機3は、掌に収まる程度のサイズとされる。   FIG. 3 shows an example in which the child device 3 is detached from the parent device 2. As shown in FIG. 3, the handset 3 can be detached from the base unit 2. The parent device 2 and the child device 3 are of a size that can be carried by the user. For example, the parent device 2 has a size that can be carried in a bag or the like, and the child device 3 has a size that fits in a palm.

図4には、子機3のサイズの例が示されている。図4に示されるように、子機3は、対向する辺同士の間の長さが86mmとされ、厚さが約30mmとされており、掌に収まるサイズである。子機3の外観、および内部の構成例を図5に示す。図5の左方には、子機3の外観の構成例が示され、右方には、内部の構成例が示されている。図5の左方に示されているように、子機3の表面には、種々の案内や、撮像部121(図6)で撮像された映像などを表示するディスプレイ101、音声を集音するマイクロフォン102、周囲の温度および湿度を計測する温度湿度センサ103、接触、または非接触によりIC(Integrated Circuit)カードリーダライタとの間で、情報の送受信を行うIC通信部104、および音声を出力するスピーカ105が配置されている。ディスプレイ101は、例えば、LCD(Liquid Crystal Display)により構成される。また、ディスプレイ101は、いわゆるタッチパネルであり、ディスプレイ101上を指などで触れることにより、触れた位置に対応するディスプレイ101上の画像上にポインタを移動させることができ、画像上の位置を指定することが可能である。従って、ディスプレイ101は、操作部156としても機能する。   FIG. 4 shows an example of the size of the handset 3. As shown in FIG. 4, the cordless handset 3 has a length between the opposing sides of 86 mm and a thickness of about 30 mm, which is a size that fits in the palm. FIG. 5 shows an appearance of the slave unit 3 and an internal configuration example. An example of the external configuration of the slave unit 3 is shown on the left side of FIG. 5, and an internal configuration example is shown on the right side. As shown on the left side of FIG. 5, on the surface of the child device 3, various displays, a display 101 that displays images captured by the imaging unit 121 (FIG. 6), and sound are collected. Microphone 102, temperature / humidity sensor 103 that measures ambient temperature and humidity, IC communication unit 104 that transmits / receives information to / from an IC (Integrated Circuit) card reader / writer by contact or non-contact, and outputs sound A speaker 105 is arranged. The display 101 is configured by an LCD (Liquid Crystal Display), for example. The display 101 is a so-called touch panel. By touching the display 101 with a finger or the like, the pointer can be moved on the image on the display 101 corresponding to the touched position, and the position on the image is designated. It is possible. Therefore, the display 101 also functions as the operation unit 156.

IC通信部104は、例えば、ICカードリーダライタとの間の通信により、電子マネーの支払いなどを行う。また図示はしないが、子機3の表面には、この他に、LED(Light Emitting Diode)159(図7参照)も配置されている。なお、図5の右方に示すように、以下の説明においては、子機3のディスプレイ101が配置されている側の面を表面とし、その反対側を裏面とする。   For example, the IC communication unit 104 performs payment of electronic money through communication with an IC card reader / writer. Although not shown, an LED (Light Emitting Diode) 159 (see FIG. 7) is also arranged on the surface of the slave unit 3 in addition to this. Note that, as shown on the right side of FIG. 5, in the following description, the surface on the side where the display 101 of the slave unit 3 is disposed is the front surface, and the opposite side is the back surface.

図6は、子機3の内部の裏面側の配置例を表している。図6に示されるように、子機3の内部には、撮像部121、無線LAN通信部122、GPSアンテナ123、バイブレータ124−1,124−2、GPS検出部125、ブルートゥース通信部126、磁気センサ127、3軸モーションセンサ128、バッテリ129、および心拍検知センサ130が配置されている。   FIG. 6 illustrates an arrangement example on the back side inside the slave unit 3. As shown in FIG. 6, the handset 3 includes an imaging unit 121, a wireless LAN communication unit 122, a GPS antenna 123, vibrators 124-1 and 124-2, a GPS detection unit 125, a Bluetooth communication unit 126, a magnetism. A sensor 127, a three-axis motion sensor 128, a battery 129, and a heartbeat detection sensor 130 are arranged.

撮像部121は、CCD(Charged Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を含み、周囲の被写体を撮影する。この撮像素子は、子機3の裏面側の表面に設置されている。無線LAN通信部122は、無線LANによる通信を行う。GPSアンテナ123は、位置測定用人工衛星からの衛星信号を受信し、これをGPS検出部125に供給する。バイブレータ124−1および124−2は、小型モータを内蔵し、互いに直交するように配置され、前後左右に振動する。GPS検出部125は、GPSアンテナ123からの衛星信号に基づいて、子機3の現在位置の緯度、経度などを算出する。なお、以下の説明において、GPS検出部125が検出した経度、緯度などの情報をGPS情報とも称する。   The imaging unit 121 includes an imaging device such as a CCD (Charged Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), and images a surrounding subject. This image sensor is installed on the back surface of the slave unit 3. The wireless LAN communication unit 122 performs communication by wireless LAN. The GPS antenna 123 receives a satellite signal from a position measurement satellite and supplies it to the GPS detection unit 125. Vibrators 124-1 and 124-2 incorporate a small motor, are arranged so as to be orthogonal to each other, and vibrate in the front-rear and left-right directions. The GPS detection unit 125 calculates the latitude and longitude of the current position of the slave unit 3 based on the satellite signal from the GPS antenna 123. In the following description, information such as longitude and latitude detected by the GPS detection unit 125 is also referred to as GPS information.

ブルートゥース通信部126は、親機2などとの間で、ブルートゥースにより情報の送受信を行う。磁気センサ127は、磁気による情報の読み取り等を行う。3軸モーションセンサ128は、子機3の3次元姿勢角度をリアルタイムで検出する。バッテリ129は、子機3の各部に電力を供給する。心拍検知センサ130は、ユーザの心拍数を検知するためのセンサである。   The Bluetooth communication unit 126 transmits and receives information to and from the parent device 2 and the like by Bluetooth. The magnetic sensor 127 reads information by magnetism. The three-axis motion sensor 128 detects the three-dimensional posture angle of the child device 3 in real time. The battery 129 supplies power to each unit of the child device 3. The heartbeat detection sensor 130 is a sensor for detecting a user's heart rate.

図7は、子機3の内部の電気的構成例を表すブロック図である。なお、上記において既に説明した部分については、適宜、説明を省略する。   FIG. 7 is a block diagram illustrating an example of an electrical configuration inside the handset 3. In addition, about the part already demonstrated in the above, description is abbreviate | omitted suitably.

CPU(Central Processing Unit)151は、ROM(Read Only Memory)152に記憶されているプログラム、または記憶部154からRAM(Random Access Memory)153にロードされたプログラムに従って、子機3の各部の動作を制御し、各種の処理を実行する。RAM153にはまた、CPU151が各種の処理を実行する上において必要なデータなども適宜記憶される。また、CPU151は、ドライブ170に接続された磁気ディスク171(フレキシブルディスクを含む)、光ディスク172(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク173(MD(Mini-Disc)を含む)、もしくは半導体メモリ174に記録されたプログラムやデータを適宜読み出して実行すると共に、所定のプログラムやデータを記録させる。   The CPU (Central Processing Unit) 151 performs the operation of each unit of the slave unit 3 according to a program stored in a ROM (Read Only Memory) 152 or a program loaded from a storage unit 154 to a RAM (Random Access Memory) 153. Control and execute various processes. The RAM 153 also appropriately stores data necessary for the CPU 151 to execute various processes. The CPU 151 also includes a magnetic disk 171 (including a flexible disk), an optical disk 172 (including a CD-ROM (Compact Disc-Read Only Memory), a DVD (Digital Versatile Disk)), a magneto-optical disk 173 connected to the drive 170. (Including MD (Mini-Disc)) or a program and data recorded in the semiconductor memory 174 are read and executed as appropriate, and a predetermined program and data are recorded.

CPU151、ROM152、およびRAM153は、バス155を介して相互に接続されている。バス155にはまた、記憶部154、無線LAN通信部122、ブルートゥース通信部126、IC通信部104、操作部156、マイクロフォン102、心拍検知部157、温度湿度センサ103、GPS検出部125、撮像部121、3軸モーションセンサ128、磁気センサ127、バイブレータ124−1,124−2、音声出力制御部158、ディスプレイ101、LED159、RTC160、およびドライブ171が接続されている。   The CPU 151, ROM 152, and RAM 153 are connected to each other via a bus 155. The bus 155 also includes a storage unit 154, a wireless LAN communication unit 122, a Bluetooth communication unit 126, an IC communication unit 104, an operation unit 156, a microphone 102, a heart rate detection unit 157, a temperature / humidity sensor 103, a GPS detection unit 125, and an imaging unit. 121, a 3-axis motion sensor 128, a magnetic sensor 127, vibrators 124-1, 124-2, an audio output control unit 158, a display 101, an LED 159, an RTC 160, and a drive 171 are connected.

操作部156は、ボタン類およびジョグダイヤル等により構成され、ユーザからの操作を受け付ける。心拍検知部157は、心拍検知センサ130からの信号に基づいて、ユーザの心拍数を算出する。音声出力制御部158は、供給された音声情報(電気信号)に対応する音声を、スピーカ105から出力させる。LED159は、例えば、ユーザに情報を提示する際、子機3にユーザの注意を向けさせるために発光する。   The operation unit 156 includes buttons, a jog dial, and the like, and accepts an operation from the user. The heart rate detection unit 157 calculates the user's heart rate based on the signal from the heart rate detection sensor 130. The sound output control unit 158 causes the speaker 105 to output sound corresponding to the supplied sound information (electrical signal). For example, the LED 159 emits light to direct the user's attention to the slave unit 3 when presenting information to the user.

RTC(Real Time Clock)160は、現在時刻を計算し処理に必要な時刻情報を生成し、各種の装置に供給する。   An RTC (Real Time Clock) 160 calculates the current time, generates time information necessary for processing, and supplies it to various devices.

次に、図8は、親機2のサイズの例を表している。図8に示されるように、親機2は、対向する辺同士の間の長さが155mmとされ、厚さが約30mmとされており、例えば鞄等に収納して携帯可能なサイズである。   Next, FIG. 8 illustrates an example of the size of the parent device 2. As shown in FIG. 8, the base unit 2 has a length between opposing sides of 155 mm and a thickness of about 30 mm. For example, the base unit 2 can be stored in a bag or the like and portable. .

図9は、親機2の内部の電気的な構成例を表している。図9において、CPU201は、例えば、インテル(Intel)社製のペンティアム(登録商標)プロセッサ等で構成され、フロントサイドバス(FSB)202に接続されている。FSB202には、更に、ノースブリッジ203が接続されており、ノースブリッジ203は、AGP(Accelerated Graphics Port)204を有しているとともに、ハブインタフェース210に接続されている。   FIG. 9 illustrates an example of an electrical configuration inside the parent device 2. In FIG. 9, a CPU 201 is configured by, for example, a Pentium (registered trademark) processor manufactured by Intel, and is connected to a front side bus (FSB) 202. A north bridge 203 is further connected to the FSB 202, and the north bridge 203 has an AGP (Accelerated Graphics Port) 204 and is connected to the hub interface 210.

ノースブリッジ203は、例えば、インテル社製のAGP Host Bridge Controllerである440BXなどで構成されており、CPU201およびRAM(Random Access Memory)209(いわゆる、メインメモリ)等を制御する。更に、ノースブリッジ203は、AGP204を介して、ビデオコントローラ205を制御する。ビデオコントローラ205は、LCD206またはVGA(Video Graphics Array)方式のディスプレイ(以下、VGA207と記述する)をコントロールする。   The north bridge 203 includes, for example, Intel's AGP Host Bridge Controller 440BX and the like, and controls the CPU 201 and RAM (Random Access Memory) 209 (so-called main memory). Further, the north bridge 203 controls the video controller 205 via the AGP 204. The video controller 205 controls the LCD 206 or a VGA (Video Graphics Array) display (hereinafter referred to as VGA 207).

ビデオコントローラ205は、CPU201から供給されるデータ(イメージデータまたはテキストデータなど)を受信して、受信したデータに対応するイメージデータを生成するか、または、受信したデータをそのまま内蔵するビデオメモリ(不図示)に記憶する。ビデオコントローラ205は、LCD206またはVGA207に、ビデオメモリに記憶されているイメージデータに対応する画像を表示させる。LCD206またはVGA207は、ビデオコントローラ205から供給されたデータを基に、画像または文字などを表示する。   The video controller 205 receives data (such as image data or text data) supplied from the CPU 201 and generates image data corresponding to the received data, or a video memory (not-ready) containing the received data as it is. Stored in the figure). The video controller 205 causes the LCD 206 or the VGA 207 to display an image corresponding to the image data stored in the video memory. The LCD 206 or VGA 207 displays an image or text based on the data supplied from the video controller 205.

ノースブリッジ203は、更に、キャッシュメモリ208とも接続されている。キャッシュメモリ208は、SRAM(Static RAM)などRAM209と比較して、より高速な書き込みまたは読み出しの動作を実行できるメモリで構成され、CPU201が使用するプログラムまたはデータをキャッシュする(一時的に記憶する)。   The north bridge 203 is further connected to a cache memory 208. The cache memory 208 is configured by a memory that can execute a higher-speed writing or reading operation than the RAM 209 such as an SRAM (Static RAM), and caches (temporarily stores) a program or data used by the CPU 201. .

なお、CPU201は、その内部に1次的な、キャッシュメモリ208に比較して、より高速に動作でき、CPU201自身が制御するキャッシュを有する。   Note that the CPU 201 has a cache that can operate at a higher speed than the cache memory 208 that is primary, and that is controlled by the CPU 201 itself.

RAM209は、例えば、DRAM(Dynamic RAM)で構成され、CPU201が実行するプログラム、またはCPU201の動作に必要なデータを記憶する。具体的には、例えば、RAM204は、起動が完了した時点において、HDD(Hard Disk Drive)223からロードされたオペレーティングシステムやインターネットプログラムなどを記憶する。   The RAM 209 is composed of, for example, a DRAM (Dynamic RAM), and stores a program executed by the CPU 201 or data necessary for the operation of the CPU 201. Specifically, for example, the RAM 204 stores an operating system, an Internet program, and the like loaded from an HDD (Hard Disk Drive) 223 when the activation is completed.

オペレーションシステム(OS(Operating System))は、例えば、マイクロソフト社のいわゆるウィンドウズ(登録商標)XP、またはアップルコンピュータ社のいわゆるMac OS(登録商標)等に代表される、コンピュータの基本的な動作を制御するプログラムである。   The operating system (OS (Operating System)) controls basic computer operations such as the so-called Windows (registered trademark) XP of Microsoft or the so-called Mac OS (registered trademark) of Apple Computer. It is a program to do.

ノースブリッジ203は、ハブインタフェース210を介して、サウスブリッジ211とも接続されている。サウスブリッジ211は、例えば、インテル社製のPIIX4Eなどで構成されており、ACリンクインタフェース211A、USB(Universal Serial Bus)インタフェース211B、IDE(Integrated Drive Electronics)インタフェース211C、PCI(Peripheral Component Interconnect)インタフェース211D、LPC(Low Pin Count)インタフェース211E、および、LANインタフェース211F等を内蔵している。   The north bridge 203 is also connected to the south bridge 211 via the hub interface 210. The south bridge 211 is composed of, for example, PIIX4E manufactured by Intel Corporation, and includes an AC link interface 211A, a USB (Universal Serial Bus) interface 211B, an IDE (Integrated Drive Electronics) interface 211C, and a PCI (Peripheral Component Interconnect) interface 211D. , An LPC (Low Pin Count) interface 211E, a LAN interface 211F, and the like are incorporated.

サウスブリッジ211は、ACリンクバス212、USBバス217、IDEバス222に接続されるデバイスを介して接続されるデバイスの制御等、各種のI/O(Input/Output)を制御する。   The south bridge 211 controls various I / Os (Input / Output) such as control of devices connected via devices connected to the AC link bus 212, USB bus 217, and IDE bus 222.

ACリンクバス212には、モデム213、サウンドコントローラ214が接続されている。モデム213は、公衆回線網に接続された場合、公衆回線網またはインターネット(いずれも不図示)を介する通信処理を実行する。サウンドコントローラ214は、マイクロフォン215から音声を取り込み、その音声に対応するデータを生成して、RAM209に出力する。またサウンドコントローラ214は、スピーカ216を駆動して、スピーカ216に音声を出力させる。   A modem 213 and a sound controller 214 are connected to the AC link bus 212. When the modem 213 is connected to the public line network, the modem 213 executes communication processing via the public line network or the Internet (both not shown). The sound controller 214 captures sound from the microphone 215, generates data corresponding to the sound, and outputs the data to the RAM 209. The sound controller 214 drives the speaker 216 to cause the speaker 216 to output sound.

サウスブリッジ211のUSBバス217には、USBコネクタ218が接続され、各種USBデバイスが接続可能になされている。またUSBバス217を介して、メモリースティックスロット219とブルートゥース通信部221が設けられている。メモリースティックスロット219には、メモリースティック(商標)220が接続される。   A USB connector 218 is connected to the USB bus 217 of the south bridge 211 so that various USB devices can be connected. In addition, a memory stick slot 219 and a Bluetooth communication unit 221 are provided via the USB bus 217. A Memory Stick (trademark) 220 is connected to the Memory Stick slot 219.

メモリースティック220は、本願出願人であるソニー株式会社によって開発されたフラッシュメモリカードの一種である。このメモリースティック220は、小型薄型形状のプラスチックケース内に電気的に書換えや消去が可能な不揮発性メモリであるEEPROM(Electrically Erasable and Programmable Read Only Memory)の一種であるフラッシュメモリ素子を格納したものであり、10ピン端子を介して画像や音声、音楽等の各種データの書き込み及び読み出しが可能となっている。   The memory stick 220 is a type of flash memory card developed by Sony Corporation, the applicant of the present application. This memory stick 220 stores a flash memory device, which is a kind of EEPROM (Electrically Erasable and Programmable Read Only Memory), which is a nonvolatile memory that can be electrically rewritten and erased in a small and thin plastic case. Various data such as images, sounds, music, etc. can be written and read via the 10-pin terminal.

ブルートゥース通信部221は、ブルートゥース規格による通信を行う。USBインタフェース221Bは、USBバス217を介して接続されている外部の装置にデータを送信するとともにデバイスからデータを受信する。   The Bluetooth communication unit 221 performs communication according to the Bluetooth standard. The USB interface 221B transmits data to an external device connected via the USB bus 217 and receives data from the device.

IDEインタフェース221Cは、いわゆるプライマリIDEコントローラとセカンダリIDEコントローラとの2つのIDEコントローラ、およびコンフィギュレーションレジスタ(configuration register)等から構成されている(いずれも図示せず)。   The IDE interface 221C includes two IDE controllers, a so-called primary IDE controller and a secondary IDE controller, a configuration register, and the like (both not shown).

プライマリIDEコントローラには、IDEバス222を介して、HDD223が接続されている。また、セカンダリIDEコントローラには、他のIDEバスに、CD-ROMドライブ224またはHDD(不図示)などの、いわゆるIDEデバイスが装着されたとき、その装着されたIDEデバイスが電気的に接続される。   The HDD 223 is connected to the primary IDE controller via the IDE bus 222. Further, when a so-called IDE device such as a CD-ROM drive 224 or an HDD (not shown) is attached to another IDE bus, the attached IDE device is electrically connected to the secondary IDE controller. .

無線LAN通信部225は、例えばIEEE802.11aやIEEE802.11bなどの無線LAN通信により、ネットワークに接続される。LANインタフェース211Fは、無線LAN通信部225に接続されたネットワークにデータを送信するとともに、データを受信する。   The wireless LAN communication unit 225 is connected to the network by wireless LAN communication such as IEEE802.11a or IEEE802.11b. The LAN interface 211F transmits data to a network connected to the wireless LAN communication unit 225 and receives data.

LPCバス251には、BIOS(Basic Input Output System)252、I/O(Input/Output)インタフェース253、およびコントローラ256が接続されている。BIOS252は、親機2の基本動作命令を集めたプログラム群であり、例えば、ROM(Read Only Memory)などに記憶されている。また、BIOS252は、OSまたはアプリケーションプログラムと周辺機器との間でのデータの受け渡し(入出力)を制御する。   A BIOS (Basic Input Output System) 252, an I / O (Input / Output) interface 253, and a controller 256 are connected to the LPC bus 251. The BIOS 252 is a program group that collects basic operation instructions of the parent device 2, and is stored in, for example, a ROM (Read Only Memory). The BIOS 252 controls data transfer (input / output) between the OS or application program and peripheral devices.

I/Oインタフェース253には、シリアル端子254とパラレル端子255が接続されており、それぞれの端子に接続された機器とのデータの授受を行う。コントローラ256には、ジョグダイヤル259、およびバッテリ260が接続されている。コントローラ256にはまた、キーボード258、およびマウス257などが接続可能である。   A serial terminal 254 and a parallel terminal 255 are connected to the I / O interface 253, and data is exchanged with devices connected to the respective terminals. A jog dial 259 and a battery 260 are connected to the controller 256. A keyboard 258, a mouse 257, and the like can also be connected to the controller 256.

PCIバス226には、PCカードインタフェース229とIEEE1394インタフェース227が接続されている。PCカードインタフェース229は、スロット230に接続された機器(カード)から供給されたデータを、CPU201またはRAM209に供給するとともに、CPU201から供給されたデータをPCカードスロットに接続されているカードに出力する。PCIバス226には、スロット33およびPCカードインタフェース78を介して、ドライブ231が接続可能である。   A PC card interface 229 and an IEEE1394 interface 227 are connected to the PCI bus 226. The PC card interface 229 supplies the data supplied from the device (card) connected to the slot 230 to the CPU 201 or the RAM 209 and outputs the data supplied from the CPU 201 to the card connected to the PC card slot. . A drive 231 can be connected to the PCI bus 226 via the slot 33 and the PC card interface 78.

ドライブ231は、装着されている磁気ディスク241、光ディスク242、光磁気ディスク243、または半導体メモリ244に記録されているデータを読み出し、読み出したデータをRAM209に供給する。また、CPU201の処理により生成されたデータを、ドライブ231に装着される磁気ディスク241、光ディスク242、光磁気ディスク243、または半導体メモリ244に記憶させることができる。   The drive 231 reads data recorded on the magnetic disk 241, the optical disk 242, the magneto-optical disk 243, or the semiconductor memory 244 that is loaded, and supplies the read data to the RAM 209. In addition, data generated by the processing of the CPU 201 can be stored in the magnetic disk 241, the optical disk 242, the magneto-optical disk 243, or the semiconductor memory 244 that is mounted on the drive 231.

IEEE1394インタフェース227は、IEEE1394ポート228を介して、IEEE1394の規格に準拠するデータ(パケットに格納されているデータ)を送受信する。   The IEEE1394 interface 227 transmits and receives data conforming to the IEEE1394 standard (data stored in a packet) via the IEEE1394 port 228.

次に、図10の機能ブロック図を参照して、図7を参照して説明した情報処理装置3により実現される機能について説明する。   Next, functions realized by the information processing apparatus 3 described with reference to FIG. 7 will be described with reference to the functional block diagram of FIG.

尚、図10で示される情報処理装置3により実現される機能については、各ブロックについてソフトウェアにより実現されることを前提として説明するが、各ブロックの機能を備えたハードウェアにより実現するようにしてもよいことは言うまでない。従って、図10で示される機能ブロック図は、ソフトウェアにより実現される機能ブロックを示すものとして認識してもよいし、ハードウェアにより実現される機能ブロックと認識してもよいものである。   Note that the functions realized by the information processing apparatus 3 shown in FIG. 10 will be described on the assumption that each block is realized by software. However, the function is realized by hardware having the function of each block. Needless to say. Therefore, the functional block diagram shown in FIG. 10 may be recognized as a functional block realized by software, or may be recognized as a functional block realized by hardware.

画像抽出部301は、ポインタ位置検出部301aによりディスプレイ101上に表示された画像上の位置情報に基づいて、検出された位置近傍の画像を抽出し、抽出した画像を認識部302に供給する。より詳細には、ポインタ位置検出部301aは、ディスプレイ101上のポインタの画素位置を示す座標(例えば、ポインタの先端部分の画素位置を示す座標)を検出する。例えば、ポインタ位置検出部301aにより検出された画素の座標位置が(X,Y)であった場合、画像抽出部301は、(X−α<X<X+α,Y−β<Y<Y+β)の範囲の画像を抽出する。ここで、α,βは、ディスプレイ101上のポインタ近傍の範囲を示す画素数である。例えば、ディスプレイ101上に人物の顔が表示されているような場合、その顔の部分にポインタが存在するとき、画像抽出部301は、ポインタの近傍の画像として、2α画素×2β画素のサイズの、その人物の顔の部分の画像を抽出し、認識部302に供給する。尚、α,βは、任意に設定することができるので、抽出される画像のサイズを任意に設定することが可能である。従って、抽出される画像のサイズは、例えば、サムネール画像として表示されるサイズや、ウィンドウ1枚分などに設定することができる。   The image extraction unit 301 extracts an image in the vicinity of the detected position based on the position information on the image displayed on the display 101 by the pointer position detection unit 301 a and supplies the extracted image to the recognition unit 302. More specifically, the pointer position detection unit 301a detects coordinates indicating the pixel position of the pointer on the display 101 (for example, coordinates indicating the pixel position of the tip portion of the pointer). For example, when the coordinate position of the pixel detected by the pointer position detection unit 301a is (X, Y), the image extraction unit 301 satisfies (X−α <X <X + α, Y−β <Y <Y + β). Extract a range image. Here, α and β are the number of pixels indicating the range in the vicinity of the pointer on the display 101. For example, when a person's face is displayed on the display 101 and the pointer is present on the face part, the image extraction unit 301 has a size of 2α pixels × 2β pixels as an image in the vicinity of the pointer. Then, the face image of the person is extracted and supplied to the recognition unit 302. Since α and β can be set arbitrarily, the size of the extracted image can be set arbitrarily. Therefore, the size of the extracted image can be set to, for example, the size displayed as a thumbnail image or one window.

認識部302は、画像抽出部301より供給された画像に基づいて、認識用DB303に記録されている認識用の画像データを用いて画像を認識し、認識結果を検索部304に供給する。   The recognition unit 302 recognizes an image using the image data for recognition recorded in the recognition DB 303 based on the image supplied from the image extraction unit 301, and supplies the recognition result to the search unit 304.

より詳細には、認識用DB303は、カテゴリ毎の複数のDBから構成されている。すなわち、例えば、会社というカテゴリのDBには、会社に存在する人物の顔写真などの画像データと共に、各画像データに対応する人物の情報が記録されている。また、家族というカテゴリのDBには、自宅に存在する人物の顔写真などの画像データと共に、各画像データに対応する人物などの情報が記録されている。   More specifically, the recognition DB 303 is composed of a plurality of DBs for each category. That is, for example, in the DB of the category “company”, information on a person corresponding to each image data is recorded together with image data such as a facial photograph of a person existing in the company. In addition, in the DB of the family category, information such as a person corresponding to each image data is recorded together with image data such as a facial photograph of a person existing at home.

認識部302は、RTC160より供給された現在時刻の情報と、GPS検出部125より供給されたGPS情報に基づいて、認識用DB303に問い合わせて、どのカテゴリのDBを利用するかを決定し、決定したDBに記録されている画像データと、画像抽出部301より抽出された画像データとを比較し、一致する画像データに対応する画像IDの情報を、認識結果として検索部304に供給する。   Based on the current time information supplied from the RTC 160 and the GPS information supplied from the GPS detection unit 125, the recognition unit 302 makes an inquiry to the recognition DB 303 to determine which category of DB to use. The image data recorded in the DB and the image data extracted by the image extraction unit 301 are compared, and image ID information corresponding to the matching image data is supplied to the search unit 304 as a recognition result.

検索部304は、認識部302より供給された認識結果に基づいて検索用DB305に記録されている画像データのうち、認識された情報に対応付けられた検索画像ファイルを検索して表示制御部306に供給する。より詳細には、検索用DB305には、認識に用いられた画像データに対応する検索画像ファイルとその人物に関する固有データが記録されており、認識結果である人物の情報に対応する検索画像ファイルと固有データを検索して、検索された検索画像ファイルと固有データを表示制御部306に供給する。   The search unit 304 searches for a search image file associated with the recognized information from the image data recorded in the search DB 305 based on the recognition result supplied from the recognition unit 302 and displays the search control unit 306. To supply. More specifically, the search DB 305 stores a search image file corresponding to the image data used for recognition and unique data related to the person, and a search image file corresponding to the person information as a recognition result, The unique data is retrieved, and the retrieved search image file and unique data are supplied to the display control unit 306.

表示制御部306は、検索された検索画像ファイルと固有データを表示する画像を、例えば、ウィンドウとして生成し、ディスプレイ101上の画像にオーバーラップして表示させる。   The display control unit 306 generates an image that displays the searched image file and the unique data as a window, for example, and displays the image overlapping the image on the display 101.

次に、図11のフローチャートを参照して、図10の情報処理装置(子機)3によるデータ表示処理について説明する。   Next, data display processing by the information processing apparatus (child device) 3 in FIG. 10 will be described with reference to the flowchart in FIG.

ステップS1において、画像抽出部301のポインタ位置検出部301aは、操作部156として機能するディスプレイ101からの情報に基づいて、画像上のポインタの位置を示す座標情報として、例えば、矢印状のポインタの先端部分の位置を示す座標(X,Y)を検出する。   In step S1, the pointer position detection unit 301a of the image extraction unit 301 uses, for example, an arrow-shaped pointer as coordinate information indicating the position of the pointer on the image based on information from the display 101 functioning as the operation unit 156. Coordinates (X, Y) indicating the position of the tip portion are detected.

ステップS2において、画像抽出部301は、ポインタ位置検出部301aにより検出されたポインタの画素位置を示す座標情報(X,Y)に基づいて、ポインタの座標近傍の画像として、例えば、水平方向に対して、X−α<X<X+αの範囲で、かつ、垂直方向に対して、Y−β<Y<Y+βの範囲の画像を抽出して認識部302に供給する。すなわち、画像抽出部301は、ポインタの座標位置である(X,Y)を中心として、2α画素×2β画素の画像をポインタの近傍の画像として抽出し、認識部302に供給する。   In step S <b> 2, the image extraction unit 301 uses, for example, an image in the vicinity of the coordinates of the pointer, for example, in the horizontal direction based on the coordinate information (X, Y) indicating the pixel position of the pointer detected by the pointer position detection unit 301 a. Thus, an image in the range of X−α <X <X + α and the range of Y−β <Y <Y + β with respect to the vertical direction is extracted and supplied to the recognition unit 302. That is, the image extraction unit 301 extracts an image of 2α pixels × 2β pixels as an image in the vicinity of the pointer with (X, Y) that is the coordinate position of the pointer as the center, and supplies the image to the recognition unit 302.

ステップS3において、認識部302は、認識用DB特定情報を取得し、ステップS4において、複数のカテゴリのDBからなる認識用DB303のうちのどのカテゴリの認識用DB303を利用するかを特定する。   In step S3, the recognizing unit 302 acquires the recognition DB specifying information, and in step S4, identifies which category of the recognition DB 303 is to be used among the recognition DBs 303 including a plurality of category DBs.

より具体的には、認識用DB303は、図12で示されるように、ユーザが勤務する会社に属する人物(上司や同僚、部下など)の参照顔画像を登録した会社DB303aや、家族の参照顔画像を登録した家族DB303b等、ユーザの人間関係などから所在地毎にカテゴリ別に分けて人物の参照顔画像を登録したDBの集合体として構成されている。尚、今の場合、認識用DB303に含まれる各DBは、図12においては、2個の場合について説明しているが、それ以上の数であってもよく、また、所在地毎にカテゴリが設定されたDBが構成されているが、例えば、会うことが多い時間帯毎としたり、性別など、様々なカテゴリを設定するようにしてもよい。   More specifically, as shown in FIG. 12, the recognition DB 303 includes a company DB 303a in which reference face images of persons (supervisors, colleagues, subordinates, etc.) belonging to the company where the user works, and family reference faces. The family DB 303b or the like in which images are registered is configured as a collection of DBs in which reference face images of persons are registered by category for each location based on user relationships. In this case, the number of DBs included in the recognition DB 303 is two in FIG. 12. However, the number of DBs may be more than that, and a category may be set for each location. However, for example, it may be possible to set various categories such as for every time period often met or sex.

これら会社DB303a、および、家族DB303bは、後述するように、認識処理が行われる状況に応じて選択される。各DBは、少なくとも認識IDと、それに対応付けられた人物の参照顔画像データとから構成される複数の情報を記憶し、管理する。認識率の低下を避けるため、1つのカテゴリのDBについて10人程度の参照顔画像データを登録することが好ましい。   These company DB 303a and family DB 303b are selected according to the situation in which recognition processing is performed, as will be described later. Each DB stores and manages a plurality of pieces of information including at least a recognition ID and reference face image data of a person associated therewith. In order to avoid a decrease in recognition rate, it is preferable to register reference face image data of about 10 people for one category of DB.

さらに、認識部302は、図12を参照して説明した認識用DB302のうち、認識用DB特定情報として、RTC160より現在時刻の情報を取得すると共に、GPS検出部125より現在位置のGPS情報を取得する。そして、認識部302は、取得した時刻情報とGPS情報に基づいて、認識用DB303のいずれのカテゴリのDBを使用するかを判定する。図12の場合、認識部302は、取得した時刻情報とGPS情報に基づいて、会社DB303aか、または、家族DB303bかのいずれかのDBを選択する。   Further, the recognizing unit 302 acquires the current time information from the RTC 160 as the recognizing DB specifying information in the recognizing DB 302 described with reference to FIG. 12, and the GPS detecting unit 125 obtains the GPS information of the current position. get. Then, the recognizing unit 302 determines which category of the DB for recognition 303 is to be used based on the acquired time information and GPS information. In the case of FIG. 12, the recognition unit 302 selects either the company DB 303a or the family DB 303b based on the acquired time information and GPS information.

より具体的には、例えば、時刻情報の時間帯が朝、または、夜であって、かつ、GPS情報が自宅近傍の場合、家族と接する可能性が高いので撮像部121において、家族DB303bに属する家族の画像が撮像される可能性が高いので、家族DB303bを選択する。一方、時刻情報の時間帯が日中で、かつ、GPS情報が会社近傍の場合、会社DB303aに属する人物と接する可能性が高いので撮像部121において、会社DB303aに属する画像が撮像される可能性が高いので、会社DB303aを選択する(特定する)。このようにカテゴリによりDBを設定することで、認識率と認識速度を向上させることが可能となる。   More specifically, for example, when the time zone of the time information is morning or night and the GPS information is in the vicinity of the home, the imaging unit 121 belongs to the family DB 303b because the possibility of contact with the family is high. Since there is a high possibility that a family image is taken, the family DB 303b is selected. On the other hand, when the time zone of the time information is daytime and the GPS information is in the vicinity of the company, there is a high possibility that the person will belong to the company DB 303a, so the imaging unit 121 may capture an image belonging to the company DB 303a. Therefore, the company DB 303a is selected (specified). In this way, by setting the DB by category, it is possible to improve the recognition rate and the recognition speed.

ステップS5において、認識部302は、画像抽出部301より供給された画像に基づいて、撮像されている画像と認識用DB302に記憶されている画像との差分により一致している画像を見つけ出すことにより認識し、認識結果として見つけ出された画像の画像IDを検索部304に供給する。より具体的には、認識部302は、供給された2枚の画像に対してその画像中の人物が同一人物か、他人であるかの判定をすることで実現している。その判定については、2枚の顔画像の差分画像に基づいて行っている。   In step S <b> 5, the recognition unit 302 finds a matching image based on the difference between the captured image and the image stored in the recognition DB 302 based on the image supplied from the image extraction unit 301. The image ID of the image that is recognized and found as the recognition result is supplied to the search unit 304. More specifically, the recognizing unit 302 realizes the two supplied images by determining whether the person in the images is the same person or another person. The determination is made based on the difference image between the two face images.

すなわち、顔の識別では、先ず、同一人物の2枚の画像の差分を学習段階として予め求めており、これを参照して、2枚の画像の差分結果から同一の画像であるか否か(今の場合、同一の人物であるか否か)を判定している。   That is, in identifying a face, first, a difference between two images of the same person is obtained in advance as a learning stage, and referring to this, whether or not the images are the same from the difference result of the two images ( In this case, it is determined whether or not they are the same person.

その学習段階では、同一の被写体(例えば、同一人物)の2枚の画像の差分を求め、同一の差分画像群(intra-personal class)を生成し、これを固有値展開することで特徴空間とされるintra-personal classの固有空間を獲得している。例えば、このような学習手法の技術としては、B.Moghaddamらの報告(B. Moghaddam, W.Wahid, A.Pentland, "Beyond Eigenfaces: Probabilistic Matching for Face Recognition", MIT Media Lab. Perceptual Computing Section Technical Report No.443, 1998.)に開示されている技術が挙げられる。   In the learning stage, the difference between two images of the same subject (for example, the same person) is obtained, the same difference image group (intra-personal class) is generated, and the eigenvalue expansion is performed to obtain a feature space. Has acquired a unique space of intra-personal class. For example, as a technique of such learning method, a report of B. Moghaddam et al. (B. Moghaddam, W. Wahid, A. Pentland, "Beyond Eigenfaces: Probabilistic Matching for Face Recognition", MIT Media Lab. Perceptual Computing Section Technical Report No. 443, 1998.).

そして、このような学習を経て実現される認識処理は次のようになる。先ず、2枚の画像の差分を正しく得るため、画像上の被写体の位置(今の場合、人物の顔の位置)を精度良く求める必要がある。特に、顔の場合、顔の中の眼、鼻の位置は人によって異なるため、これらの位置を正規化する必要もある。例えば、ここでは、得られた画像に対し固有眼と固有鼻のマッチングを行うことで眼と鼻の位置同定を行い、検出された眼と鼻が定められた位置になるように、アフィン変換で回転・伸縮(モーフィング処理)を行う。   The recognition process realized through such learning is as follows. First, in order to correctly obtain the difference between the two images, it is necessary to accurately obtain the position of the subject on the image (in this case, the position of the person's face). In particular, in the case of a face, the positions of the eyes and nose in the face differ depending on the person, so that these positions need to be normalized. For example, here, eye-nose position identification is performed by matching the proper eye with the proper nose on the obtained image, and affine transformation is performed so that the detected eye and nose are in a predetermined position. Performs rotation and expansion / contraction (morphing process).

さらに、このようなモーフィング操作を経て、画像抽出部301により抽出された画像と認識用DB303中の画像データとされる画像との差分を生成する。   Further, through such a morphing operation, a difference between the image extracted by the image extraction unit 301 and the image used as the image data in the recognition DB 303 is generated.

次に、上述したような差分により得られた差分画像と上述の固有空間とに基づいて、認識用DB302に記憶されているいずれの画像であるかを特定する。具体的には、差分画像とintra-personal class空間の距離(distance from feature space,DFFS)及び差分画像をintra-personal空間に投影した点と原点からの距離(distance in feature space,DIFS)を計算する。例えば、同一人物の差分画像がintra-personal class空間内で正規分布をとると仮定すれば、DFFSとDIFSの加算値(DFFS+DIFS)が分布からの距離を表すことになる。そして、この距離が小さいほど同一人物である確率が高いことになる。このような関係を利用して、画像抽出部301により抽出された画像と最も同一である確率が高い画像を決定することにより、画像を認識する。例えば、差分値が小さい場合には、差分画像はメリハリなく、いわゆるのっぺりとした画像として得られる。   Next, which image is stored in the recognition DB 302 is specified based on the difference image obtained by the difference as described above and the eigenspace described above. Specifically, the distance between the difference image and the intra-personal class space (distance from feature space, DFFS) and the distance from the point where the difference image is projected to the intra-personal space and the origin (distance in feature space, DIFS) are calculated. To do. For example, assuming that difference images of the same person have a normal distribution in the intra-personal class space, the added value of DFFS and DIFS (DFFS + DIFS) represents the distance from the distribution. And the probability that it is the same person will become high, so that this distance is small. By using such a relationship, the image is recognized by determining the image having the highest probability of being the same as the image extracted by the image extraction unit 301. For example, when the difference value is small, the difference image is not sharp and is obtained as a so-called flat image.

より詳細には、図13で示されるように、ステップS2の処理により、画像抽出部301は、入力された画像G0より画像G1を抽出する。そして、認識部302は、画像G2のように画像の4隅をマスクして、背景部分を取り除き、さらに、モーフィング操作をして画像G3を取得する。   More specifically, as shown in FIG. 13, the image extraction unit 301 extracts an image G1 from the input image G0 by the process of step S2. Then, the recognition unit 302 masks the four corners of the image as in the image G2, removes the background portion, and further performs a morphing operation to acquire the image G3.

そして、認識部302は、図14で示されるように、モーフィング操作により得た画像G3について、認識用DB303のうち、選択されたカテゴリのDBに予め記憶されている、例えば、画像DG1,DG2,DG3,・・・との差分を得る。これにより、差分の画像SD1,SD2,SD3,・・・がそれぞれ得られる。本例では、画像G1乃至G3内に顔が含まれていた画像は、差分値Pが、それぞれP=2.79e-64(図中では、P=2.79e−64), 1.53e-69(図中では、P=1.53e−69)、および9.73e-72(図中では、P=9.73e-72)となっており、P=9.73e-72となる第3の画像DG3と同一人物である確率が最も高い結果となっている。そこで、認識部302は、画像抽出部301により抽出された画像に映し出されている人物が、画像DG3の人物であると認識し、認識結果を検索部304に供給する。尚、以上の例においは、画像中に撮像されている人物を認識する場合を例として用いてきたが、同様の手法により物体を認識することも可能である。また、同様の手法により、文字などをテキストデータとして認識することも可能である。 Then, as shown in FIG. 14, the recognition unit 302 stores the image G3 obtained by the morphing operation in advance in the selected category DB in the recognition DB 303, for example, the images DG1, DG2, and the like. A difference from DG3,... Is obtained. Thereby, difference images SD1, SD2, SD3,... Are obtained. In this example, the images whose faces are included in the images G1 to G3 have difference values P of P = 2.79e −64 (P = 2.79e−64 in the figure) and 1.53e −69 (FIG. In the figure, P = 1.53e−69) and 9.73e −72 (in the figure, P = 9.73e −72 ), and the same person as the third image DG3 in which P = 9.73e −72 A certain probability is the highest result. Therefore, the recognition unit 302 recognizes that the person shown in the image extracted by the image extraction unit 301 is the person of the image DG3, and supplies the recognition result to the search unit 304. In the above example, the case of recognizing a person imaged in an image has been used as an example. However, it is also possible to recognize an object by a similar method. Moreover, it is also possible to recognize a character etc. as text data by the same method.

ここで、図11のフローチャートの説明に戻る。   Now, the description returns to the flowchart of FIG.

ステップS6において、検索部304は、認識部302より供給された画像IDの有無により、画像を認識することができたか否かを判定する。すなわち、認識部302は、画像中に撮像されている人物(人物のみならず、物体、または、文字なども含む)を認識するには、認識用DB303に予め登録された画像データであることが前提となるが、登録された画像データに、画像抽出部301より供給される抽出された画像と一致する画像データが含まれていないことがある。このような場合、認識部302は、画像を認識することができないことになり、結果として、認識結果としての画像IDがないことになるので、検索部304は、画像が認識されなかったと判定し、その処理は、ステップS7に進む。   In step S <b> 6, the search unit 304 determines whether the image can be recognized based on the presence / absence of the image ID supplied from the recognition unit 302. That is, the recognition unit 302 may be image data registered in advance in the recognition DB 303 in order to recognize a person (including not only a person but also an object or a character) captured in the image. As a premise, registered image data may not include image data that matches the extracted image supplied from the image extraction unit 301. In such a case, the recognition unit 302 cannot recognize the image, and as a result, there is no image ID as a recognition result. Therefore, the search unit 304 determines that the image has not been recognized. The process proceeds to step S7.

ステップS7において、検索部304は、認識部302に対して画像抽出部301より供給された画像を認識用DB302のうち、ステップS4の処理で特定されたカテゴリのDBに登録させて、その処理は、ステップS1に戻りそれ以降の処理を繰り返す。より詳細には、検索部304は、表示制御部306を制御して、入力された画像に対する固有データなどを登録するためのダイアログボックスを表示させて、ユーザに対して、これらの情報の入力を促し、ユーザにより入力された固有データと、入力された画像を認識IDに対応付けて検索用DB305に登録する。このようにすることで、後述する検索用DB305に新たな画像を蓄積させることができる。   In step S <b> 7, the search unit 304 registers the image supplied from the image extraction unit 301 to the recognition unit 302 in the DB of the category specified in step S <b> 4 in the recognition DB 302. Returning to step S1, the subsequent processing is repeated. More specifically, the search unit 304 controls the display control unit 306 to display a dialog box for registering unique data or the like for the input image, and allows the user to input such information. The unique data input by the user and the input image are registered in the search DB 305 in association with the recognition ID. In this way, new images can be accumulated in the search DB 305 described later.

一方、ステップS6において、上述した手法により画像を認識することができたと判定された場合、ステップS8において、検索部304は、認識部302より供給された認識結果である画像IDに基づいて、対応する検索画像ファイルを検索用DB305より検索する。   On the other hand, if it is determined in step S6 that the image can be recognized by the above-described method, the search unit 304 responds based on the image ID that is the recognition result supplied from the recognition unit 302 in step S8. The search image file to be searched is searched from the search DB 305.

ここで、検索用DB305について説明する。検索用DB305は、例えば、図15で示されるように構成されている。すなわち、図15においては、左から画像ID欄、検索画像ファイル欄、および、固有データ欄が設けられている。   Here, the search DB 305 will be described. The search DB 305 is configured, for example, as shown in FIG. That is, in FIG. 15, an image ID column, a search image file column, and a unique data column are provided from the left.

更に、画像ID欄には、認識用DB303に記録されている画像データに対応するIDが示されており、今の場合、画像IDとして、上から1,2,3が示されている。さらに、検索画像ファイル欄には、上から「ID1-1.jpg;ID1-2.jpg」、「ID2-1.jpg;ID2-2.tiff;ID2-3.mpeg」、および、「picture01.jpg;picture02.jpg;picture03.jpg;picture04.jpg;picture05.jpg」が示されている。さらに、固有データ欄には、上から「田中一郎;ichiro_tanaka@ABC.com」、「山田けいこ;○△商事経理部」、および、「山田太郎;taro_yamada@zony.com;1000円貸した」と示されている。   Furthermore, in the image ID column, IDs corresponding to the image data recorded in the recognition DB 303 are shown. In this case, 1, 2, 3 are shown as image IDs from the top. Further, in the search image file column, "ID1-1.jpg; ID1-2.jpg", "ID2-1.jpg; ID2-2.tiff; ID2-3.mpeg", and "picture01. jpg; picture02.jpg; picture03.jpg; picture04.jpg; picture05.jpg "are shown. Furthermore, in the specific data column, “Ichiro Tanaka; ichiro_tanaka@ABC.com”, “Keiko Yamada; ○ △ Commercial Accounting Department”, and “Taro Yamada; taro_yamada@zony.com; It is shown.

すなわち、図12において、検索用DB305には、画像ID=1に対応する検索画像ファイルは、「ID1-1.jpg;ID1-2.jpg」であり、画像ID=1に対応する固有データは、「田中一郎;ichiro_tanaka@ABC.com」であることが示されている。同様にして、画像ID=2に対応する検索画像ファイルは、「ID2-1.jpg;ID2-2.tiff;ID2-3.mpeg」であり、画像ID=2に対応する固有データは、「山田けいこ;○△商事経理部」であることが示されている。さらに、画像ID=3に対応する検索画像ファイルは、「picture01.jpg;picture02.jpg;picture03.jpg;picture04.jpg」であり、画像ID=2に対応する固有データは、「山田太郎;taro_yamada@zony.com;1,000円貸した」であることが示されている。   That is, in FIG. 12, in the search DB 305, the search image file corresponding to the image ID = 1 is “ID1-1.jpg; ID1-2.jpg”, and the unique data corresponding to the image ID = 1 is , “Ichiro Tanaka; ichiro_tanaka@ABC.com”. Similarly, the search image file corresponding to the image ID = 2 is “ID2-1.jpg; ID2-2.tiff; ID2-3.mpeg”, and the unique data corresponding to the image ID = 2 is “ It is shown that it is Keiko Yamada; Further, the search image file corresponding to the image ID = 3 is “picture01.jpg; picture02.jpg; picture03.jpg; picture04.jpg”, and the unique data corresponding to the image ID = 2 is “Taro Yamada; taro_yamada @ zony.com; rented 1,000 yen ”.

ここで、「.jpg」の拡張子が付されているファイルは、JPEG(Joint Photographic Experts Group)方式で圧縮された静止画の画像データを示し、同様に「.tiff」の拡張子が付されているファイルは、TIFF(Tagged Image File Format)方式で圧縮された静止画の画像データを示し、さらに、「.mpeg」の拡張子が付されているファイルは、mpeg(Moving Picture Experts Group)方式で圧縮された動画の画像データを示している。尚、画像の形式は、この方式に限るものではなく、その他の形式であってもよいことは言うまでもない。固有データにおける「田中一郎」、「山田けいこ」、および、「山田太郎」は、固有データの氏名を示すテキストデータであり、「ichiro_tanaka@ABC.com」および「taro_yamada@zony.com」は、それぞれメールアドレスを示すテキストデータであり、さらに、「1,000円貸した」、および、「○△商事経理部」は、メモ情報を示すテキストデータである。   Here, a file with an extension of “.jpg” indicates image data of a still image compressed by the JPEG (Joint Photographic Experts Group) method. Similarly, an extension of “.tiff” is added. Indicates the still image data compressed with TIFF (Tagged Image File Format), and files with the extension “.mpeg” are mpeg (Moving Picture Experts Group) The image data of the moving image compressed in FIG. Needless to say, the format of the image is not limited to this method, and may be any other format. “Ichiro Tanaka”, “Keiko Yamada”, and “Taro Yamada” in the specific data are text data indicating the name of the specific data, and “ichiro_tanaka@ABC.com” and “taro_yamada@zony.com” are respectively The text data indicates an e-mail address. Further, “1,000 yen lent” and “◯ △ Commercial Accounting Department” are text data indicating memo information.

より詳細には、これらの検索用DB304の情報は、画像ID毎に例えば、XML(Extesible Markup Language)により図16で示されるように記述される。尚、この記述例は、図15の画像ID=3に対応するものである。   More specifically, the information in the search DB 304 is described for each image ID as shown in FIG. 16, for example, in XML (Extesible Markup Language). This description example corresponds to the image ID = 3 in FIG.

図16の場合、第01行目の「<record>」は、記録開始を示し、第13行目の「</record>」で示される終了位置までが、画像ID=3に関する記述であることを示している。   In the case of FIG. 16, “<record>” on the 01st line indicates the start of recording, and the description up to the end position indicated by “</ record>” on the 13th line is a description relating to the image ID = 3. Is shown.

第02行目の「<name>山田太郎</name>」は、画像ID=3に対応する画像に撮像されている人物の名前が「山田太郎」であることが示されている。第03行目の「<mail>taro_yamada@jp.zony.com</mail>」は、メールアドレスが「taro_yamada@jp.zony.com」であることが示されている。   “<Name> Taro Yamada </ name>” in the second line indicates that the name of the person captured in the image corresponding to the image ID = 3 is “Taro Yamada”. “<Mail> taro_yamada@jp.zony.com </ mail>” on the third line indicates that the mail address is “taro_yamada@jp.zony.com”.

第04行目の「<picture>」は、この行から「</picture>」が示されるまでが検索画像ファイルが記述された範囲であることを示している。今の場合、「</picture>」は、第09行目に記述されているので、第05行目乃至第08行目の範囲に検索画像ファイルが記述さされていることが示されている。   “<Picture>” in the 04th line indicates that the range from the line until “</ picture>” is described is the range in which the search image file is described. In this case, “</ picture>” is described in the 09th line, which indicates that the search image file is described in the range from the 05th line to the 08th line. .

今の場合、第05行目乃至第08行目には、それぞれ「<path>c:\my pictures\picture01.jpg</path>」、「<path>c:\my pictures\picture02.jpg</path>」、「<path>c:\my pictures\picture03.jpg</path>」、および、「<path>c:\my pictures\picture04.jpg</path>」と記述されており、検索画像ファイル「picture01.jpg」乃至「picture04.jpg」のパス(ファイルの所在を示す情報)が記録されている。   In this case, in the 05th to 08th lines, "<path> c: \ my pictures \ picture01.jpg </ path>" and "<path> c: \ my pictures \ picture02.jpg < / path> "," <path> c: \ my pictures \ picture03.jpg </ path> ", and" <path> c: \ my pictures \ picture04.jpg </ path> " The path (information indicating the location of the file) of the search image files “picture01.jpg” to “picture04.jpg” is recorded.

さらに、第10行目には、「<memo>」が記述されており、第12行目の「</memo>」までの範囲にメモ情報が記録されていることが示されており、今の場合、第11行目に「<content>1,000円貸した</content>」と記述されており、「1,000円貸した」ことがメモとして記述されている。   In addition, “<memo>” is described in the 10th line, and it is shown that memo information is recorded in the range up to “</ memo>” in the 12th line. In this case, “<content> rented 1,000 yen </ content>” is described in the 11th line, and “1,000 yen loaned” is described as a memo.

検索部304は、認識結果として供給された画像IDに対応する検索画像ファイル、および、固有データを上述した検索用DB305から検索し、検索結果として表示制御部306に供給する。   The search unit 304 searches the search DB 305 for the search image file corresponding to the image ID supplied as the recognition result and the unique data, and supplies the search result to the display control unit 306 as the search result.

ここで、図11のフローチャートの説明に戻る。   Now, the description returns to the flowchart of FIG.

ステップS9において、表示制御部306は、検索部304より供給された検索結果に基づいて、表示画面を生成し、ステップS10において、ディスプレイ101に表示し、その処理は、ステップS1に戻り、それ以降の処理が繰り返される。   In step S9, the display control unit 306 generates a display screen based on the search result supplied from the search unit 304, and displays it on the display 101 in step S10. The processing returns to step S1, and thereafter The process is repeated.

すなわち、以上の処理により、例えば、図17で示されるようなブラウザの表示画面が、ディスプレイ101に表示されていた場合、写真が表示されている領域451上にポインタ452が表示されているものとする。   That is, by the above processing, for example, when the display screen of the browser as shown in FIG. 17 is displayed on the display 101, the pointer 452 is displayed on the area 451 where the photograph is displayed. To do.

ステップS1において、ポインタ452の先端部の位置がポインタの位置として検出され、さらに、そのポインタ452の近傍の画像として、例えば、抽出画像453が抽出される。   In step S1, the position of the tip of the pointer 452 is detected as the position of the pointer, and for example, an extracted image 453 is extracted as an image in the vicinity of the pointer 452.

ステップS3,S4の処理により、この抽出画像453に基づいて認識用DB303のどのDBを用いるかが特定され、ステップS5において、この抽出画像453に含まれる人物の画像IDを決定することにより、画像を認識する。   Through the processing in steps S3 and S4, which DB of the recognition DB 303 is used is specified based on the extracted image 453, and in step S5, the image ID of the person included in the extracted image 453 is determined. Recognize

ステップS8の処理により、検索用DB305より、認識結果となる画像IDに対応する検索画像ファイルと固有データが抽出され、さらに、ステップS9の処理により、検索された検索画像ファイルと固有データが、加工されて、ステップS10によりディスプレイ101に表示される。   The search image file and unique data corresponding to the image ID that is the recognition result are extracted from the search DB 305 by the process of step S8, and the searched search image file and unique data are further processed by the process of step S9. And it is displayed on the display 101 by step S10.

より具体的には、例えば、画像IDに対応する検索画像ファイルと固有データは、今の場合、図15の画像IDに対応する検索画像データと固有データであるので、図18で示されるように、これらの情報を用いて、固有データ表示欄461と検索画像ファイル表示欄462を生成する。   More specifically, for example, the search image file and the unique data corresponding to the image ID are the search image data and the unique data corresponding to the image ID of FIG. 15 in this case, so that as shown in FIG. The unique data display field 461 and the search image file display field 462 are generated using these pieces of information.

固有データ表示欄461はウィンドウであり、今の場合、図15の画像ID=3に対応する固有データが示されており、「山田太郎」、「taro_yamada@zony.com」、および、「1000円貸した」が表示されている。また、検索画像ファイル表示欄462には、選択画像表示欄471が設けられており、picture01.jpg乃至picture04.jpgに対応する検索画像474乃至477のうち選択された画像が表示されている。また、検索画像474乃至477は、ボタン472,473により切り替えることができ、今の場合、検索画像475が選択されて、選択画像表示欄471に表示されているので、検索画像474を表示させたいときには、ボタン472を押下することにより切り替えることができる。一方、図18の状態から検索画像476を表示させたいときには、ボタン473を押下することで切り替えることができ、検索画像477を表示させたいときには、さらに、ボタン473を押下することで切り替えることが可能となる。   The unique data display column 461 is a window, and in this case, unique data corresponding to the image ID = 3 in FIG. 15 is shown, and “Taro Yamada”, “taro_yamada@zony.com”, and “1000 yen” Lent "is displayed. The search image file display field 462 is provided with a selection image display field 471 in which an image selected from the search images 474 to 477 corresponding to picture01.jpg to picture04.jpg is displayed. The search images 474 to 477 can be switched by buttons 472 and 473. In this case, the search image 475 is selected and displayed in the selected image display field 471. Therefore, the search image 474 is to be displayed. Sometimes, it can be switched by pressing a button 472. On the other hand, when it is desired to display the search image 476 from the state of FIG. 18, it can be switched by pressing the button 473, and when it is desired to display the search image 477, it can be switched by further pressing the button 473. It becomes.

以上のような処理により、ポインタを図17で示すような画像上の所定の位置に移動させることで、ポインタ近傍の画像に含まれる人物の情報を図18で示すように表示させることができ、例えば、固有データ表示欄461で示されるように固有データを検索することで、名前やメールアドレスなどを検索することができると共に、「1,000円貸した」といった忘れがちな情報を思い出すようなことも可能となる。また、検索画像ファイル表示欄462に表示される画像を見ることにより、映し出された人物とどの様なことをしたことがあったかなどを確認することが可能となる。すなわち、画像を認識して、認識結果に基づいて情報を検索して提示することにより、人間が画像を見ることで思い出すといった処理を合理的に補助することが可能となる。   By moving the pointer to a predetermined position on the image as shown in FIG. 17 by the processing as described above, the information of the person included in the image near the pointer can be displayed as shown in FIG. For example, by searching for unique data as shown in the unique data display column 461, it is possible to search for a name, an e-mail address, etc., and to recall information that is often forgotten such as "rented 1,000 yen". It becomes possible. Further, by looking at the image displayed in the search image file display field 462, it is possible to confirm what has been done with the projected person. That is, by recognizing an image and retrieving and presenting information based on the recognition result, it is possible to rationally assist a process in which a person remembers by looking at the image.

また、以上においては、画像に基づいて、人の顔を認識し、認識した人物に対応する固有データと検索画像ファイルを表示する場合(認識部302が顔認識エンジンとしての機能を備えている場合)について説明してきたが、例えば、画像認識エンジンを用いて画像中のロゴマークなどの形状を認識して、そのロゴマークに対応する情報を提示し、ロゴマークに対応する、例えば、URL(Universal Resource Locator)などにアクセスするようにしてもよい。   Further, in the above, when a human face is recognized based on an image and unique data and a search image file corresponding to the recognized person are displayed (when the recognition unit 302 has a function as a face recognition engine). ), For example, the image recognition engine is used to recognize the shape of a logo mark or the like in the image, information corresponding to the logo mark is presented, and the URL corresponding to the logo mark, for example, URL (Universal Resource Locator) may be accessed.

図19は、画像中に含まれるロゴマークなどの記号を認識し、対応する処理を実行できるようにした情報処理装置3により実現されるその他の機能を示している。尚、図10の情報処理装置3と同一の構成については、同一の番号を付しており、その説明は適宜省略するものとする。   FIG. 19 shows other functions realized by the information processing apparatus 3 that recognizes a symbol such as a logo mark included in an image and can execute a corresponding process. The same components as those of the information processing apparatus 3 in FIG. 10 are denoted by the same reference numerals, and the description thereof will be omitted as appropriate.

図19において、図10の情報処理装置3と異なる点は、表示制御部306に代えて、表示制御部311を備えた点である。表示制御部311の機能は、表示制御部306と同様であるが、さらに、検索用DB305に記憶されている固有データにURLが含まれていた場合、親機2およびアクセスポイント4を介してネットワーク1上のURLにアクセスし、対応するブラウザを表示させるようにする機能が設けられている。   19 is different from the information processing apparatus 3 in FIG. 10 in that a display control unit 311 is provided instead of the display control unit 306. The function of the display control unit 311 is the same as that of the display control unit 306, but if the URL is included in the unique data stored in the search DB 305, the network is connected via the base unit 2 and the access point 4. A function is provided to access the URL above 1 and display the corresponding browser.

次に、図20のフローチャートを参照して、図19の情報処理装置3によるデータ表示処理について説明する。尚、図20のフローチャートにおけるステップS21乃至S29の処理は、図11のフローチャートにおけるステップS1乃至S9と同一の処理であるので、その説明は省略する。   Next, data display processing by the information processing apparatus 3 in FIG. 19 will be described with reference to the flowchart in FIG. Note that the processing of steps S21 to S29 in the flowchart of FIG. 20 is the same as that of steps S1 to S9 in the flowchart of FIG.

例えば、図21の場合、ポインタ491がロゴマーク493の近傍に存在するので、ステップS30において、表示制御部311は、表示画像494上にロゴマーク493に対応する画像IDに対応する、検索用DB305に記憶されている固有データに基づいて、「MIKE Japanのホームページにアクセス」と示された情報表示欄492を表示させる。すなわち、このロゴマーク493に対応するURLが固有データとして登録されており、この画像を選択することでURLにアクセスすることが可能であることが示される。   For example, in the case of FIG. 21, since the pointer 491 exists in the vicinity of the logo mark 493, the display control unit 311 in step S30, the search DB 305 corresponding to the image ID corresponding to the logo mark 493 on the display image 494. The information display column 492 “Access the MIKE Japan homepage” is displayed based on the unique data stored in. That is, the URL corresponding to the logo mark 493 is registered as unique data, and it is indicated that the URL can be accessed by selecting this image.

ステップS31において、表示制御部311は、操作部156としてのディスプレイ101よりロゴマーク493が選択されたか否かを判定し、選択されたと判定された場合、親機2およびアクセスポイント4を介して、そのロゴマークの画像IDに対応する固有データに含まれるURLにアクセスし、対応する画面をディスプレイ101に表示させ、その処理は、ステップS21に戻る。   In step S31, the display control unit 311 determines whether or not the logo mark 493 has been selected from the display 101 as the operation unit 156. If it is determined that the logo mark 493 has been selected, the display control unit 311 via the parent device 2 and the access point 4 The URL included in the unique data corresponding to the image ID of the logo mark is accessed, the corresponding screen is displayed on the display 101, and the process returns to step S21.

ステップS31において、ロゴマーク493が選択されていないと判定された場合、ステップS32の処理はスキップされて、その処理は、ステップS21に戻り、それ以降の処理が繰り返される。   If it is determined in step S31 that the logo mark 493 has not been selected, the process in step S32 is skipped, the process returns to step S21, and the subsequent processes are repeated.

以上の処理により、認識部302は、画像認識エンジンとして機能することになり、結果として、ポインタ近傍の画像のロゴマークなどの情報に基づいて、対応する情報をユーザが意識することなく提示することができ、検索などの手間を省き、迅速にユーザの欲しい情報を提供することが可能となる。   As a result of the above processing, the recognition unit 302 functions as an image recognition engine, and as a result, the corresponding information is presented without the user's awareness based on information such as a logo mark of an image near the pointer. Thus, it is possible to quickly provide the information desired by the user without the need for searching and the like.

以上においては、認識部302が、顔認識エンジン、または、画像認識エンジンとしての機能を備えており、結果として、認識結果に応じた情報を提示する場合について説明してきたが、認識対象に応じた複数の認識エンジンとしての機能を認識部302に備えるようにして、認識対象に応じて切り替えるようにすることで、様々な情報を認識し、認識内容に対応して情報を提示するようにしてもよい。   In the above description, the recognition unit 302 has a function as a face recognition engine or an image recognition engine, and as a result, the case where information corresponding to the recognition result is presented has been described. A function as a plurality of recognition engines is provided in the recognition unit 302, and switching is performed according to the recognition target so that various information is recognized and information is presented corresponding to the recognition content. Good.

さらに、入力される画像を撮像部121により撮像される画像とすることにより、撮像された人物の情報のみならず、例えば、店舗などの情報をリアルタイムで提示することができるので、例えば、ユーザが不案内な場所を歩くような場合にでも、付近の店舗の情報を取得することが可能となる。   Furthermore, by setting the input image as an image picked up by the image pickup unit 121, it is possible to present not only information of the picked-up person but also information such as a store in real time. Even when walking in an unguided place, information on nearby stores can be acquired.

また、以上においては、検索結果である検索画像ファイルを図18で示される固有データ表示欄461や検索画像ファイル表示欄462のように表示する例について説明してきたが、図18の場合、検索された固有データや検索画像ファイルが膨大なものとなると見つけ出したい情報を目で確認しながら検索するだけでも手間がかかるうえ、検索された情報量がわからないため、目で検索する際にどの程度手間がかかるかすら予測できない恐れがある。   In the above description, an example in which a search image file as a search result is displayed as in the unique data display field 461 and the search image file display field 462 shown in FIG. 18 has been described. If there is a huge amount of unique data or search image files, it will take time and effort to search for the information you want to find while checking the information you want to find, and the amount of information searched will not be known. There is a possibility that even such a situation cannot be predicted.

そこで、検索された固有データや検索画像ファイルの情報量を直感的に把握できるように表示させることで、検索にかかる手間の程度を予測し易くするようにしてもよい。   In view of this, it is possible to make it easier to predict the time and effort required for the search by displaying the unique data and the information amount of the search image file so that they can be intuitively grasped.

図22は、検索された固有データや検索画像ファイルの情報量を直感的に把握できるようにした情報処理装置3により実現される更にその他の機能を示している。尚、図10の情報処理装置3と同一の構成については、同一の番号を付しており、その説明は適宜省略するものとする。   FIG. 22 shows still other functions realized by the information processing apparatus 3 that can intuitively grasp the searched unique data and the information amount of the search image file. The same components as those of the information processing apparatus 3 in FIG. 10 are denoted by the same reference numerals, and the description thereof will be omitted as appropriate.

図22において、図10の情報処理装置3と異なる点は、表示制御部306に代えて、表示制御部501を備えた点である。表示制御部501の機能は、表示制御部306と同様であるが、情報量計算部501aが更に設けられており、検索部304により検索された固有データ、および、検索画像ファイルの情報量が計算される。表示制御部501は、この情報量計算部501aにより計算された情報量に基づいて、各固有データや検索画像ファイルを示すアイコンの大きさを変化させて、表示画面を生成し表示する。   22 is different from the information processing apparatus 3 in FIG. 10 in that a display control unit 501 is provided instead of the display control unit 306. The function of the display control unit 501 is the same as that of the display control unit 306, but an information amount calculation unit 501a is further provided to calculate the specific data searched by the search unit 304 and the information amount of the search image file. Is done. Based on the information amount calculated by the information amount calculation unit 501a, the display control unit 501 generates and displays a display screen by changing the size of the icon indicating each unique data or search image file.

次に、図23のフローチャートを参照して、図22の情報処理装置(子機)3によるデータ表示処理について説明する。尚、図23のフローチャートにおける、ステップS41乃至S48の処理については、図11のフローチャートを参照して説明したステップS1乃至S8の処理と同様であるので、その説明は、省略する。   Next, a data display process performed by the information processing apparatus (child device) 3 shown in FIG. 22 will be described with reference to the flowchart shown in FIG. In addition, since the process of step S41 thru | or S48 in the flowchart of FIG. 23 is the same as the process of step S1 thru | or S8 demonstrated with reference to the flowchart of FIG. 11, the description is abbreviate | omitted.

ステップS49において、表示制御部501の情報量計算部501aは、検索された固有データおよび検索画像ファイルの情報の情報量を項目毎に計算する。すなわち、上述したように、検索用DB305には、図15で示されるように、静止画、および、動画からなる検索用画像ファイルのほかに固有データとして、名前、E-mailアドレス、および、メモの情報が記録されているので、情報量計算部501aは、静止画、動画、および、名前、E-mailアドレスなどからなる個人データ、並びにメモの情報毎に情報量を計算する。より具体的には、情報量計算部501aは、例えば、静止画の場合は、画像枚数、動画の場合は、記録時間、個人データ、および、メモの情報は、その文字数などを情報量として計算する。もちろん、情報量としては、データのサイズ(例えば、何Byteであるかなど)をそのまま利用するようにしてもよいことは言うまでもない。   In step S49, the information amount calculation unit 501a of the display control unit 501 calculates the information amount of the searched unique data and information of the search image file for each item. That is, as described above, in the search DB 305, as shown in FIG. 15, in addition to the search image file consisting of still images and moving images, the name, e-mail address, and memo are included as specific data. Therefore, the information amount calculation unit 501a calculates the amount of information for each piece of still data, moving image, personal data including names, e-mail addresses, and memo information. More specifically, the information amount calculation unit 501a calculates, for example, the number of images in the case of a still image, the recording time in the case of a moving image, personal data, and information on the memo as the amount of characters. To do. Of course, as an information amount, it goes without saying that the size of data (for example, how many bytes it is) may be used as it is.

ステップS50において、表示制御部501は、検索部24より供給された検索画像ファイルと固有データ、並びに、情報量計算部501aにより計算された情報量の計算結果に基づいて、例えば、図18で示される固有データ表示欄461や検索画像ファイル表示欄462に代えて、図24で示されるようなウィンドウ551からなる表示画像を生成する。   In step S50, the display control unit 501 shows, for example, in FIG. 18 based on the search image file and unique data supplied from the search unit 24 and the information amount calculation result calculated by the information amount calculation unit 501a. Instead of the unique data display field 461 and the search image file display field 462, a display image including a window 551 as shown in FIG. 24 is generated.

すなわち、図24のウィンドウ551においては、入力画像に含まれる画像の被写体である人物556(検索エンジンで検索される対象)に対応する検索画像ファイルのうち、静止画を示すバルーン状のアイコン552が表示され、その右側に検索画像ファイルのうち静止画を示すバルーン状のアイコン553が表示され、さらに、その右側に、固有データのうち個人データを示すバルーン状のアイコン555が示され、その下には、固有データのうちメモの情報を示すバルーン状のアイコン554が示されている。さらに、ウィンドウ551の右上には、この表示画像を終了させる終了ボタン557が表示されている。   That is, in the window 551 in FIG. 24, a balloon-like icon 552 indicating a still image is displayed in the search image file corresponding to the person 556 (target to be searched by the search engine) that is the subject of the image included in the input image. A balloon-like icon 553 indicating a still image of the search image file is displayed on the right side, and a balloon-like icon 555 indicating personal data among the unique data is further displayed on the right side. Shows a balloon-shaped icon 554 indicating memo information in the unique data. Further, an end button 557 for ending this display image is displayed on the upper right of the window 551.

アイコン552乃至555は、それぞれ上述した情報量計算部501aにより計算された情報量に基づいて、そのバルーンの径が変化するように生成されている。従って、ユーザは、ウィンドウ551に表示されたアイコン552乃至555の大きさを見るだけで、検索画像ファイルの量や、固有データの量を直感的に把握することが可能となる。結果として、検索画像ファイルの量、および、固有データの量に応じて自らで情報を検索するか否かを迅速に判断することが可能となる。   The icons 552 to 555 are generated so that the diameter of the balloon changes based on the information amount calculated by the above-described information amount calculation unit 501a. Therefore, the user can intuitively grasp the amount of the search image file and the amount of unique data only by looking at the size of the icons 552 to 555 displayed on the window 551. As a result, it is possible to quickly determine whether or not to search information by itself according to the amount of search image files and the amount of unique data.

ステップS52において、表示制御部501は、ウィンドウ551上のアイコン552乃至555のうち、個人データの情報を示すアイコン555上にポインタが存在するか否かを判定する。例えば、図25で示されるようにアイコン561がメモ情報を示すアイコン555上に存在すると判定された場合、ステップS53において、図25で示されるように、固有データのうち個人データを表示するウィンドウ562を生成し、個人データを表示し、その処理は、ステップS56に進む。   In step S52, the display control unit 501 determines whether or not a pointer is present on the icon 555 indicating personal data information among the icons 552 to 555 on the window 551. For example, if it is determined that the icon 561 is present on the icon 555 indicating the memo information as shown in FIG. 25, in step S53, as shown in FIG. 25, a window 562 for displaying personal data among the unique data. Is generated and personal data is displayed, and the process proceeds to step S56.

図25においては、図15の検索用DB305の画像ID=2の個人データである、「山田けいこ ○△商事 経理部」がウィンドウ502に表示されている。また、「OK」と表示されたボタン563は、ウィンドウ562を閉じるとき、押下されるものである。ユーザは、このように個人データを示すバルーン状のアイコンにポインタ561を移動させるだけで、個人データを参照することができるので、例えば、入力画像に表示された人物をうっかりと忘れているような状態でも、名前などの個人データの提示を受けることにより、思い出すことが可能となる。   In FIG. 25, “Keiko Yamada ○ △ Commercial Accounting Department”, which is personal data of image ID = 2 in the search DB 305 of FIG. A button 563 displayed as “OK” is pressed when the window 562 is closed. Since the user can refer to the personal data simply by moving the pointer 561 to the balloon-like icon indicating the personal data in this way, for example, the user displayed inadvertently forgets the person displayed in the input image. Even in the state, it is possible to remember by receiving the presentation of personal data such as name.

一方、ステップS52において、個人データのバルーン状のアイコン555上にポインタ561が存在しない場合、ステップS54において、表示制御部501は、アイコン555以外のアイコン552乃至554がポインタ561により選択されたか否かを判定する。   On the other hand, if the pointer 561 does not exist on the balloon-like icon 555 of personal data in step S52, the display control unit 501 determines in step S54 whether the icons 552 to 554 other than the icon 555 have been selected by the pointer 561. Determine.

ステップS54において、例えば、図26で示されるように、ポインタ561が、アイコン552上に存在する状態で、クリックされるなどして選択された場合、アイコン552乃至554のいずれかが選択されたと判定され、その処理は、ステップS55に進む。   In step S54, for example, as shown in FIG. 26, when the pointer 561 is selected by being clicked in a state of being on the icon 552, it is determined that any of the icons 552 to 554 has been selected. Then, the process proceeds to step S55.

ステップS55において、表示制御部501は、選択されたアイコン552乃至554のうち、選択されたアイコンに対応する情報を、表示する。   In step S55, the display control unit 501 displays information corresponding to the selected icon among the selected icons 552 to 554.

より詳細には、例えば、図26で示されるように、検索画像ファイルのうち静止画についてのアイコン552が選択されている場合、表示制御部501は、選択されたバルーン状のアイコン552を、はじけて破裂したように表示した後、静止画を表示するためのウィンドウ571を表示する。   More specifically, for example, as shown in FIG. 26, when the icon 552 for a still image is selected in the search image file, the display control unit 501 repels the selected balloon-shaped icon 552. Then, a window 571 for displaying a still image is displayed.

ウィンドウ571には、検索画像ファイルのうちの1の静止画を表示する静止画表示欄572が表示される。また、静止画表示欄572の下には、ボタン573乃至575が設けられている。ボタン573は、検索画像ファイルのうち、静止画表示欄572に表示された静止画よりも1前に配置された静止画に戻って表示するときに操作される。また、ボタン574は、ウィンドウ571を閉じるとき操作される。さらに、ボタン575は、検索画像ファイルのうち、静止画表示欄572に表示された静止画よりも1後に配置された静止画に進めて表示するときに操作される。   In the window 571, a still image display field 572 for displaying one still image of the search image file is displayed. In addition, buttons 573 to 575 are provided below the still image display field 572. The button 573 is operated when returning to and displaying the still image arranged one before the still image displayed in the still image display field 572 in the search image file. The button 574 is operated when the window 571 is closed. Further, the button 575 is operated when the search image file is advanced to a still image arranged one after the still image displayed in the still image display field 572 and displayed.

尚、以上においては、検索画像ファイルのうち静止画のアイコン552が選択された場合について説明したが、動画が選択された場合も同様にウィンドウが生成されて表示されるが、動画の場合、再生ボタン、停止ボタン、早送りボタン、および、早戻しボタンがさらに表示される。また、固有データのうちメモに対応するアイコン553が選択された場合、固有データのうちメモに対応する情報が表示され、例えば、図15の検索用DB305の画像ID=3のような場合、「1,000円貸した」といった情報が表示される。   Although the case where the still image icon 552 is selected from the search image file has been described above, a window is generated and displayed in the same manner when a moving image is selected. A button, a stop button, a fast forward button, and a fast reverse button are further displayed. When the icon 553 corresponding to the memo is selected from the unique data, information corresponding to the memo is displayed from the unique data. For example, when the image ID of the search DB 305 in FIG. Information such as “I rented 1,000 yen” is displayed.

ステップS56において、表示制御部501は、ウィンドウ551,572、または562の表示を終了する処理が指示されたか否かを判定し、終了が指示されていないと判定された場合、その処理は、ステップS52に戻り、終了が指示されたと判定された場合、その処理は、ステップS41に戻り、それ以降の処理が繰り返される。また、ステップS55において、いずれのバルーンも選択されなかった場合、すなわち、アイコン552乃至554のいずれの位置にもポインタ561が移動されて、選択されなかった場合、ステップS55の処理がスキップされて、その処理は、ステップS56に進む。   In step S56, the display control unit 501 determines whether or not an instruction to end the display of the windows 551, 572, or 562 has been instructed. If it is determined that the end has not been instructed, the process proceeds to step S56. Returning to S52, if it is determined that the end has been instructed, the process returns to step S41, and the subsequent processes are repeated. If no balloon is selected in step S55, that is, if the pointer 561 is moved to any position of the icons 552 to 554 and is not selected, the process in step S55 is skipped. The process proceeds to step S56.

以上のような処理により、自分が取り溜めた画像などを見ながら、そこに映し出された画像上の、例えば、特定の人物の位置にポインタを移動させるだけで、個人データの提示させることができ、その人物に関連する画像を表示させることが可能となる。また、情報の種類毎に表示されるバルーン状のアイコンが情報量に応じて大きさを変化させて表示されることになるので、情報の種類毎に情報量を迅速に把握することが可能となる。結果として、検索された情報を自らの目で検索すべきか、さらに、別の方法で絞り込みをかけるべきであるのかといった判断を容易なものとすることが可能となる。   Through the above processing, personal data can be presented simply by moving the pointer to the position of a specific person, for example, on the image displayed while viewing the image collected by the user. It becomes possible to display an image related to the person. In addition, since the balloon-like icon displayed for each type of information is displayed with the size changed according to the amount of information, it is possible to quickly grasp the amount of information for each type of information. Become. As a result, it is possible to easily determine whether the searched information should be searched with one's own eyes or whether the information should be narrowed down by another method.

さらに、入力画像を撮像部121により撮像された画像にすることで、例えば、街中で情報処理装置3を持ち歩きながら、付近の風景を撮像することにより、知り合いであるのだが、誰であったかをうっかり忘れてしまったような場合にでも、認識用DB302および検索用DB304に登録された人物であれば、名前などの個人データが提示されるので、思い出すことが可能となる。   Furthermore, by making the input image an image captured by the image capturing unit 121, for example, by taking an image of a nearby landscape while carrying the information processing apparatus 3 in the city, it is inadvertently known who was an acquaintance. Even if it is forgotten, personal data such as a name is presented to a person registered in the recognition DB 302 and the search DB 304 so that it can be recalled.

また、認識できる情報は人物の顔のみならず、上述したように店などのロゴマークなどを認識できるようにすることで、店舗の看板などに記載された店舗名や、ロゴマークなどを認識させることができ、対応して固有データを表示させることや、その店舗のURLなどにアクセスさせるようにし、さらに、関連情報を提示させるようにしてもよい。この際、上述のバルーン状のアイコンに店舗のクーポン情報を表示させるなどして、選択することによりバルーンがはじけて破裂すると、クーポンが表示されるようにしてもよい。   In addition to recognizable information, not only the face of a person but also the logo mark of the store etc. as described above can be recognized, so that the store name and logo mark etc. written on the signboard of the store etc. can be recognized. It is possible to display unique data correspondingly, to access the URL of the store, and to present related information. At this time, the coupon information of the store may be displayed on the above-described balloon-shaped icon, and the coupon may be displayed when the balloon is popped and bursts by selection.

さらに、以上の例においては、情報量を情報の種類毎のバルーン状のアイコンの大きさにより提示していたが、これは、バルーン状のアイコンに限らず、大きさを情報量に応じて変化させて表示できるアイコンであればよく、その他の形状のアイコンであってもよい。   Furthermore, in the above example, the amount of information is presented by the size of a balloon-shaped icon for each type of information, but this is not limited to a balloon-shaped icon, and the size changes according to the amount of information. Any icon can be used as long as it can be displayed, and icons of other shapes may be used.

以上においては、情報処理装置3が上述の処理を実行する場合について説明してきたが、親機である情報処理装置2が同様の処理を実行できるようにしてもよい。尚、情報処理装置2により上述の処理が実行される場合、図10,図19、および図22に示された機能が、情報処理装置2により実現されることになる。各処理については同様であるので、その説明は省略する。   In the above, the case where the information processing device 3 executes the above-described processing has been described, but the information processing device 2 that is the parent device may execute the same processing. When the above-described processing is executed by the information processing apparatus 2, the functions shown in FIGS. 10, 19, and 22 are realized by the information processing apparatus 2. Since each process is the same, description thereof is omitted.

また、以上においては、画像を認識する例について説明してきたが、例えば、マイクロフォン102、または、215により検出された音声により音声認識処理を行うようにして、音声認識結果に基づいて情報を提示するさせるようにしてもよい。すなわち、予め音声に関する認識用DB303に音声認識に必要な情報を記憶させておき、認識部302が、認識用DB303を用いて、入力された音声により、例えば、人物の声の種類などから人物を特定したり、動物の鳴き声や、機械の動作音などにより人物、動物、または機械を特定することで認識する。さらに、検索用DB304に、認識結果に対応する検索情報を蓄積することにより、認識結果に対応して検索部304が、情報を検索するようにしてもよい。   In the above, an example of recognizing an image has been described. For example, information is presented based on a voice recognition result by performing voice recognition processing using voice detected by the microphone 102 or 215. You may make it make it. That is, information necessary for speech recognition is stored in advance in the speech recognition DB 303, and the recognition unit 302 uses the recognition DB 303 to input a person from, for example, the type of person's voice. It can be identified or identified by identifying a person, animal, or machine using animal calls or machine operating sounds. Further, by storing search information corresponding to the recognition result in the search DB 304, the search unit 304 may search for information corresponding to the recognition result.

また、上述した例においては、情報処理装置2または3に認識用DB302、および、検索用DB305を備えた場合について説明してきたが、認識用DB302、および、検索用DB305は、自らで備えたものに限らず、例えば、画像データ管理サーバ5乃至7のいずれかから、認識部302、および、検索部304がそれぞれ、ネットワーク1を介して利用するようにしてもよい。   In the above example, the case where the information processing apparatus 2 or 3 includes the recognition DB 302 and the search DB 305 has been described. However, the recognition DB 302 and the search DB 305 are provided by themselves. For example, the recognition unit 302 and the search unit 304 may be used via the network 1 from any one of the image data management servers 5 to 7.

以上によれば、入力情報を取得し、取得した入力情報に基づいて、ユーザの所望とする提示情報を検索し、表示することが可能となり、さらに、提示情報の情報量に応じて提示情報を表示する表示画面を生成するようにしたので、情報の種類毎に情報量を迅速に把握することが可能となる。   According to the above, it is possible to acquire input information, search and display the presentation information desired by the user based on the acquired input information, and display the presentation information according to the information amount of the presentation information. Since the display screen to be displayed is generated, it is possible to quickly grasp the amount of information for each type of information.

上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。   The series of processes described above can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, a general-purpose personal computer is installed from a network or a recording medium.

この記録媒体は、図7,図9に示す装置では、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク171,241(フレキシブルディスクを含む)、光ディスク172,242(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク173,243(MD(Mini-Disc)を含む)、もしくは半導体メモリ174,244などよりなるパッケージメディアにより構成されるだけでなく、装置に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM152や、記憶部154,HDD223に含まれるハードディスクなどで構成される。   7 and 9, this recording medium is distributed to provide a program to the user separately from the computer. Magnetic disks 171 and 241 (including a flexible disk) on which the program is recorded are distributed. Optical disks 172 and 242 (including CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc)), magneto-optical disks 173 and 243 (including MD (Mini-Disc)), or semiconductor memories 174 and 244 In addition to a package medium composed of, etc., it is composed of a ROM 152 on which a program is recorded, a hard disk included in the storage unit 154, the HDD 223, etc. provided to the user in a state pre-installed in the apparatus. .

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.

また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。   Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.

本発明のサービス提供システムの構成を示す図である。It is a figure which shows the structure of the service provision system of this invention. 図1の親機に子機を装着した場合の例を説明する図である。It is a figure explaining the example at the time of attaching a subunit | mobile_unit to the main | base station of FIG. 図1の親機から子機を取り外した場合の例を説明する図である。It is a figure explaining the example at the time of removing a subunit | mobile_unit from the main | base station of FIG. 図1の子機の形状およびサイズの例を説明する図である。It is a figure explaining the example of the shape and size of the subunit | mobile_unit of FIG. 図1の子機の外観および内部の構成例を説明する図である。It is a figure explaining the external appearance of the subunit | mobile_unit of FIG. 1, and an example of an internal structure. 図1の子機の外観の構成例を説明する図である。It is a figure explaining the structural example of the external appearance of the subunit | mobile_unit of FIG. 図1の子機の内部の電気的構成例を示すブロック図である。It is a block diagram which shows the electrical structural example inside the subunit | mobile_unit of FIG. 図1の親機の形状およびサイズの例を説明する図である。It is a figure explaining the example of the shape and size of the main | base station of FIG. 図1の親機の内部の電気的構成例を示すブロック図である。It is a block diagram which shows the electrical structural example inside the main | base station of FIG. 図7の情報処理装置により実現される機能を説明する機能ブロック図である。It is a functional block diagram explaining the function implement | achieved by the information processing apparatus of FIG. 図10の情報処理装置により実現される機能によるデータ表示処理を説明するフローチャートである。It is a flowchart explaining the data display process by the function implement | achieved by the information processing apparatus of FIG. 認識用DBを説明する図である。It is a figure explaining DB for recognition. 画像認識を説明する図である。It is a figure explaining image recognition. 画像認識を説明する図である。It is a figure explaining image recognition. 検索用DBを説明する図である。It is a figure explaining DB for search. 検索用DBの記述例を説明する図である。It is a figure explaining the example of description of DB for search. ウィンドウの表示例を説明する図である。It is a figure explaining the example of a display of a window. ウィンドウの表示例を説明する図である。It is a figure explaining the example of a display of a window. 図7の情報処理装置により実現されるその他の機能を説明する機能ブロック図である。It is a functional block diagram explaining the other function implement | achieved by the information processing apparatus of FIG. 図19の情報処理装置により実現される機能によるデータ表示処理を説明するフローチャートである。It is a flowchart explaining the data display process by the function implement | achieved by the information processing apparatus of FIG. ウィンドウの表示例を説明する図である。It is a figure explaining the example of a display of a window. 図7の情報処理装置により実現される更にその他の機能を説明する機能ブロック図である。FIG. 8 is a functional block diagram for explaining still another function realized by the information processing apparatus of FIG. 7. 図22の情報処理装置により実現される機能によるデータ表示処理を説明するフローチャートである。It is a flowchart explaining the data display process by the function implement | achieved by the information processing apparatus of FIG. ウィンドウの表示例を説明する図である。It is a figure explaining the example of a display of a window. ウィンドウの表示例を説明する図である。It is a figure explaining the example of a display of a window. ウィンドウの表示例を説明する図である。It is a figure explaining the example of a display of a window.

符号の説明Explanation of symbols

301 画像抽出部, 301a ポインタ位置検出部, 302 認識部, 303 認識用DB, 304 検索部, 305 検索用DB, 306,311,501 表示制御部, 501a 情報量計算部   301 Image Extraction Unit, 301a Pointer Position Detection Unit, 302 Recognition Unit, 303 Recognition DB, 304 Search Unit, 305 Search DB, 306, 311, 501 Display Control Unit, 501a Information Amount Calculation Unit

Claims (8)

入力情報を取得する取得手段と、
前記取得手段により取得された入力情報を認識する認識手段と、
前記認識手段の認識結果に基づいて提示情報を検索する検索手段と、
前記検索手段により検索された提示情報の情報量を計算する計算手段と、
前記計算手段により計算された情報量に基づいて前記提示情報を表示する画面を生成する画面生成手段と
を備えることを特徴とする情報処理装置。
An acquisition means for acquiring input information;
Recognition means for recognizing input information acquired by the acquisition means;
Search means for searching for presentation information based on a recognition result of the recognition means;
A calculation means for calculating an information amount of the presentation information searched by the search means;
An information processing apparatus comprising: screen generation means for generating a screen for displaying the presentation information based on the amount of information calculated by the calculation means.
前記取得手段は、画像を前記入力情報として取得し、
前記認識手段は、前記取得手段により取得された前記画像を認識する
ことを特徴とする請求項1に記載の情報処理装置。
The acquisition means acquires an image as the input information,
The information processing apparatus according to claim 1, wherein the recognition unit recognizes the image acquired by the acquisition unit.
前記画像上のポインタの位置を検出する位置検出手段をさらに備え、
前記取得手段は、前記位置検出手段により検出された位置近傍の画像を入力情報として取得する
ことを特徴とする請求項2に記載の情報処理装置。
Further comprising position detecting means for detecting the position of the pointer on the image;
The information processing apparatus according to claim 2, wherein the acquisition unit acquires an image in the vicinity of the position detected by the position detection unit as input information.
前記取得手段は、音声を前記入力情報として取得し、
前記認識手段は、前記取得手段により取得された前記音声を認識する
ことを特徴とする請求項1に記載の情報処理装置。
The acquisition means acquires voice as the input information,
The information processing apparatus according to claim 1, wherein the recognition unit recognizes the voice acquired by the acquisition unit.
前記画面生成手段は、前記計算手段により計算された情報量に基づいた大きさのアイコンにより前記提示情報を表示する画面を生成する
ことを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the screen generation unit generates a screen that displays the presentation information with an icon having a size based on the amount of information calculated by the calculation unit.
入力情報を取得する取得ステップと、
前記取得ステップの処理で取得された入力情報を認識する認識ステップと、
前記認識ステップの処理での認識結果に基づいて提示情報を検索する検索ステップと、
前記検索ステップの処理で検索された提示情報の情報量を計算する計算ステップと、
前記計算ステップの処理で計算された情報量に基づいて前記提示情報を表示する画面を生成する画面生成ステップと
を含むことを特徴とする情報処理方法。
An acquisition step for acquiring input information;
A recognition step for recognizing input information acquired in the processing of the acquisition step;
A search step of searching for presentation information based on a recognition result in the processing of the recognition step;
A calculation step of calculating an information amount of the presentation information searched in the processing of the search step;
A screen generation step of generating a screen for displaying the presentation information based on the amount of information calculated in the processing of the calculation step.
入力情報の取得を制御する取得制御ステップと、
前記取得制御ステップの処理で取得が制御された入力情報を認識する認識ステップと、
前記認識ステップの処理での認識結果に基づいて提示情報を検索する検索ステップと、
前記検索ステップの処理で検索された提示情報の情報量を計算する計算ステップと、
前記計算ステップの処理で計算された情報量に基づいて前記提示情報を表示する画面を生成する画面生成ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。
An acquisition control step for controlling the acquisition of input information;
A recognition step for recognizing input information whose acquisition is controlled in the processing of the acquisition control step;
A search step of searching for presentation information based on a recognition result in the processing of the recognition step;
A calculation step for calculating an information amount of the presentation information searched in the processing of the search step;
A screen generation step for generating a screen for displaying the presentation information based on the amount of information calculated in the processing of the calculation step. A recording medium on which a computer-readable program is recorded.
入力情報の取得を制御する取得制御ステップと、
前記取得制御ステップの処理で取得が制御された入力情報を認識する認識ステップと、
前記認識ステップの処理での認識結果に基づいて提示情報を検索する検索ステップと、
前記検索ステップの処理で検索された提示情報の情報量を計算する計算ステップと、
前記計算ステップの処理で計算された情報量に基づいて前記提示情報を表示する画面を生成する画面生成ステップと
をコンピュータに実行させることを特徴とするプログラム。
An acquisition control step for controlling the acquisition of input information;
A recognition step for recognizing input information whose acquisition is controlled in the processing of the acquisition control step;
A search step of searching for presentation information based on a recognition result in the processing of the recognition step;
A calculation step of calculating an information amount of the presentation information searched in the processing of the search step;
A program causing a computer to execute a screen generation step of generating a screen for displaying the presentation information based on the amount of information calculated in the processing of the calculation step.
JP2003423001A 2003-12-19 2003-12-19 Information processor, information processing method, recording medium and program Pending JP2005182495A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003423001A JP2005182495A (en) 2003-12-19 2003-12-19 Information processor, information processing method, recording medium and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003423001A JP2005182495A (en) 2003-12-19 2003-12-19 Information processor, information processing method, recording medium and program

Publications (1)

Publication Number Publication Date
JP2005182495A true JP2005182495A (en) 2005-07-07

Family

ID=34783681

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003423001A Pending JP2005182495A (en) 2003-12-19 2003-12-19 Information processor, information processing method, recording medium and program

Country Status (1)

Country Link
JP (1) JP2005182495A (en)

Similar Documents

Publication Publication Date Title
CN111652678B (en) Method, device, terminal, server and readable storage medium for displaying article information
KR101993241B1 (en) Method and system for tagging and searching additional information about image, apparatus and computer readable recording medium thereof
KR102173123B1 (en) Method and apparatus for recognizing object of image in electronic device
CN109189879B (en) Electronic book display method and device
US20140253592A1 (en) Method for providing augmented reality, machine-readable storage medium, and portable terminal
US8364680B2 (en) Computer systems and methods for collecting, associating, and/or retrieving data
CN110059686B (en) Character recognition method, device, equipment and readable storage medium
JP2013105345A (en) Information registration device, information registration method, information registration system, information presentation device, information presentation method, information presentation system, and program
US11651019B2 (en) Contextual media filter search
US11550754B2 (en) Electronic apparatus and control method thereof
TWI521963B (en) Electronic device and video tagging method
JP2013105346A (en) Information presentation device, information presentation method, information presentation system, information registration device, information registration method, information registration system, and program
US11531702B2 (en) Electronic device for generating video comprising character and method thereof
CN112236767A (en) Electronic device and method for providing information related to an image to an application through an input unit
US20230186498A1 (en) Depth estimation using biometric data
US8704939B1 (en) Mobile device and method for controlling the same
KR20200127928A (en) Method and apparatus for recognizing object of image in electronic device
US10069984B2 (en) Mobile device and method for controlling the same
JP2005182496A (en) Information processor, information processing method, recording medium and program
JP2005182495A (en) Information processor, information processing method, recording medium and program
CN113377271A (en) Text acquisition method and device, computer equipment and medium
KR102560607B1 (en) Augmented reality-based memo processing device, system and method
JP5655916B2 (en) Image search system
CN114691614A (en) Application program searching method, device and medium
JP5532748B2 (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090609

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090807

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091105