JP2005182495A - Information processor, information processing method, recording medium and program - Google Patents
Information processor, information processing method, recording medium and program Download PDFInfo
- Publication number
- JP2005182495A JP2005182495A JP2003423001A JP2003423001A JP2005182495A JP 2005182495 A JP2005182495 A JP 2005182495A JP 2003423001 A JP2003423001 A JP 2003423001A JP 2003423001 A JP2003423001 A JP 2003423001A JP 2005182495 A JP2005182495 A JP 2005182495A
- Authority
- JP
- Japan
- Prior art keywords
- information
- image
- recognition
- search
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、情報処理装置および方法、記録媒体、並びにプログラムに関し、特に、周辺情報を取得し、取得した周辺情報に基づいて、情報を検索し、さらに、提示するようにした情報処理装置および方法、記録媒体、並びにプログラムに関する。 The present invention relates to an information processing apparatus and method, a recording medium, and a program, and in particular, acquires information about the periphery, searches for information based on the acquired periphery information, and further presents the information. , A recording medium, and a program.
従来、カメラにより撮像された画像を、なんらかの画像認識技術により認識し、それに対応した蓄積データを提示する検索エンジンが提案されている。 2. Description of the Related Art Conventionally, a search engine that recognizes an image captured by a camera by some kind of image recognition technology and presents corresponding stored data has been proposed.
上述の検索エンジンでは、例えば、撮像された画像に含まれる文字列をOCR(Optical Character Reader)により認識し、認識したテキスト文字列に基づいて、言葉の意味を検索したり、地名などであれば、その地名の周辺の地図データを検索して提示したり、さらには、URL(Univarsal Resource Locator)などであれば、対応するHP(Home Page)を開くなどの処理をさせることができる。 In the above search engine, for example, a character string included in a captured image is recognized by an OCR (Optical Character Reader), and the meaning of a word is searched based on the recognized text character string. Then, the map data around the place name can be searched and presented, and further, if it is a URL (Univarsal Resource Locator), the corresponding HP (Home Page) can be opened.
また、例えば、撮像した画像に人物の顔が含まれているような場合、上述の検索エンジンは、画像に含まれる人物の顔が、予め登録されたいずれの人物の画像であるかを認識し(例えば、特許文献1参照)、関連する情報を提示する技術がある。 Also, for example, when a captured image includes a person's face, the search engine described above recognizes which person's face registered in advance is the person's face included in the image. There is a technique for presenting related information (see, for example, Patent Document 1).
しかしながら、この方法では、検索エンジンは、カメラにより撮像された画像の情報に基づいたものでしか検索することができないので、例えば、カメラにより撮像された画像に含まれる様々な情報に基づいて情報が検索されることになるため、膨大な情報が検索されてしまう恐れがあり、結果として、ユーザが所望とする情報を的確に検索することが(見つけ出すことが)できない恐れがあった。 However, in this method, the search engine can search only based on information on the image captured by the camera. For example, information is obtained based on various information included in the image captured by the camera. As a result of the search, a large amount of information may be searched, and as a result, there is a possibility that the information desired by the user cannot be accurately searched (found).
また、ユーザは、検索された情報が膨大であることはわかっても、どの程度の情報量であるかを把握することができず、検索された情報を自らの目で検索すべきか、さらに、別の方法で絞り込みをかけるべきであるのかを判断することができないという課題があった。 In addition, even if the user knows that the searched information is enormous, the user cannot grasp how much information is, and whether the searched information should be searched with his own eyes, There was a problem that it was not possible to determine whether or not to narrow down by another method.
本発明はこのような状況に鑑みてなされたものであり、特に、ユーザの所望とする情報を絞り込んで検索し、表示することを可能にし、情報の種類毎に情報量を迅速に把握できるようにするものである。 The present invention has been made in view of such a situation. In particular, the present invention makes it possible to search and display information desired by the user, and to quickly grasp the amount of information for each type of information. It is to make.
本発明の情報処理装置は、入力情報を取得する取得手段と、取得手段により取得された入力情報を認識する認識手段と、認識手段の認識結果に基づいて提示情報を検索する検索手段と、検索手段により検索された提示情報の情報量を計算する計算手段と、計算手段により計算された情報量に基づいて提示情報を表示する画面を生成する画面生成手段とを備えることを特徴とする。 An information processing apparatus according to the present invention includes an acquisition unit that acquires input information, a recognition unit that recognizes input information acquired by the acquisition unit, a search unit that searches presentation information based on a recognition result of the recognition unit, and a search The present invention is characterized by comprising calculation means for calculating the information amount of the presentation information searched by the means, and screen generation means for generating a screen for displaying the presentation information based on the information amount calculated by the calculation means.
前記取得手段には、画像を入力情報として取得させるようにすることができ、認識手段には、取得手段により取得された画像を認識させるようにすることができる。 The acquisition unit can acquire an image as input information, and the recognition unit can recognize the image acquired by the acquisition unit.
前記画像上のポインタの位置を検出する位置検出手段をさらに設けるようにさせることができ、取得手段には、位置検出手段により検出された位置近傍の画像を入力情報として取得させるようにすることができる。 Position detection means for detecting the position of the pointer on the image may be further provided, and the acquisition means may acquire an image near the position detected by the position detection means as input information. it can.
前記取得手段には、音声を入力情報として取得させるようにすることができ、認識手段には、取得手段により取得された音声を認識させるようにすることができる。 The acquisition unit can acquire voice as input information, and the recognition unit can recognize the voice acquired by the acquisition unit.
前記画面生成手段には、計算手段により計算された情報量に基づいた大きさのアイコンにより提示情報を表示する画面を生成させるようにすることができる。 The screen generating means can generate a screen for displaying the presentation information with an icon having a size based on the amount of information calculated by the calculating means.
本発明の情報処理方法は、入力情報を取得する取得ステップと、取得ステップの処理で取得された入力情報を認識する認識ステップと、認識ステップの処理での認識結果に基づいて提示情報を検索する検索ステップと、検索ステップの処理で検索された提示情報の情報量を計算する計算ステップと、計算ステップの処理で計算された情報量に基づいて提示情報を表示する画面を生成する画面生成ステップとを含むことを特徴とする。 The information processing method of the present invention searches for presentation information based on an acquisition step for acquiring input information, a recognition step for recognizing input information acquired in the processing of the acquisition step, and a recognition result in the processing of the recognition step. A search step, a calculation step for calculating the information amount of the presentation information searched in the processing of the search step, and a screen generation step for generating a screen for displaying the presentation information based on the information amount calculated in the processing of the calculation step; It is characterized by including.
本発明の記録媒体のプログラムは、入力情報の取得を制御する取得制御ステップと、取得制御ステップの処理で取得が制御された入力情報を認識する認識ステップと、認識ステップの処理での認識結果に基づいて提示情報を検索する検索ステップと、検索ステップの処理で検索された提示情報の情報量を計算する計算ステップと、計算ステップの処理で計算された情報量に基づいて提示情報を表示する画面を生成する画面生成ステップとを含むことを特徴とする。 The recording medium program of the present invention includes an acquisition control step for controlling the acquisition of input information, a recognition step for recognizing input information whose acquisition is controlled in the process of the acquisition control step, and a recognition result in the process of the recognition step. A search step for searching for presentation information based on the calculation step, a calculation step for calculating the information amount of the presentation information searched in the processing of the search step, and a screen for displaying the presentation information based on the information amount calculated in the processing of the calculation step And a screen generation step for generating.
本発明のプログラムは、入力情報の取得を制御する取得制御ステップと、取得制御ステップの処理で取得が制御された入力情報を認識する認識ステップと、認識ステップの処理での認識結果に基づいて提示情報を検索する検索ステップと、検索ステップの処理で検索された提示情報の情報量を計算する計算ステップと、計算ステップの処理で計算された情報量に基づいて提示情報を表示する画面を生成する画面生成ステップとをコンピュータに実行させることを特徴とする。 The program of the present invention is presented based on an acquisition control step for controlling the acquisition of input information, a recognition step for recognizing input information whose acquisition is controlled in the process of the acquisition control step, and a recognition result in the process of the recognition step A search step for searching for information, a calculation step for calculating the information amount of the presentation information searched in the processing of the search step, and a screen for displaying the presentation information based on the information amount calculated in the processing of the calculation step are generated The screen generation step is executed by a computer.
本発明の情報処理装置および方法、並びにプログラムにおいては、入力情報が取得され、取得された入力情報が認識され、認識結果に基づいて提示情報が検索され、検索された提示情報の情報量が計算され、計算された情報量に基づいて提示情報が表示される画面が生成される。 In the information processing apparatus, method, and program of the present invention, input information is acquired, the acquired input information is recognized, presentation information is searched based on the recognition result, and an information amount of the searched presentation information is calculated. Then, a screen on which the presentation information is displayed based on the calculated information amount is generated.
本発明の情報処理装置は、独立した装置であっても良いし、情報処理を行うブロックであっても良い。 The information processing apparatus of the present invention may be an independent apparatus or a block that performs information processing.
本発明によれば、迅速にユーザの所望とする情報を絞り込んで検索し、表示することが可能となると共に、情報の種類毎の情報量を迅速に把握することが可能となる。 According to the present invention, it is possible to quickly search and display information desired by a user, and to quickly grasp the amount of information for each type of information.
以下に本発明の実施の形態を説明するが、本明細書に記載の発明と、発明の実施の形態との対応関係を例示すると、次のようになる。この記載は、本明細書に記載されている発明をサポートする実施の形態が本明細書に記載されていることを確認するためのものである。従って、発明の実施の形態中には記載されているが、発明に対応するものとして、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その発明に対応するものではないことを意味するものではない。逆に、実施の形態が発明に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その発明以外の発明には対応しないものであることを意味するものでもない。 Embodiments of the present invention will be described below. The correspondence relationship between the invention described in this specification and the embodiments of the invention is exemplified as follows. This description is intended to confirm that the embodiments supporting the invention described in this specification are described in this specification. Therefore, although there is an embodiment which is described in the embodiment of the invention but is not described here as corresponding to the invention, it means that the embodiment is not It does not mean that it does not correspond to the invention. Conversely, even if an embodiment is described herein as corresponding to an invention, that means that the embodiment does not correspond to an invention other than the invention. Absent.
さらに、この記載は、本明細書に記載されている発明の全てを意味するものではない。換言すれば、この記載は、本明細書に記載されている発明であって、この出願では請求されていない発明の存在、すなわち、将来、分割出願されたり、補正により出現、追加される発明の存在を否定するものではない。 Further, this description does not mean all the inventions described in this specification. In other words, this description is for the invention described in the present specification, which is not claimed in this application, that is, for the invention that will be applied for in the future or that will appear and be added by amendment. It does not deny existence.
即ち、本発明の情報処理装置は、入力情報を取得する取得手段(例えば、図22の画像抽出部301)と、取得手段により取得された入力情報を認識する認識手段(例えば、図22の認識部302)と、認識手段の認識結果に基づいて提示情報を検索する検索手段(例えば、図22の検索部304)と、検索手段により検索された提示情報の情報量を計算する計算手段(例えば、図22の情報量計算部501a)と、計算手段により計算された情報量に基づいて提示情報を表示する画面を生成する画面生成手段(例えば、図22の表示制御部501)とを備えることを特徴とする。
That is, the information processing apparatus according to the present invention includes an acquisition unit (for example, the
本発明の情報処理方法は、入力情報を取得する取得ステップ(例えば、図23のフローチャートのステップS42の処理)と、取得ステップの処理で取得された入力情報を認識する認識ステップ(例えば、図23のフローチャートのステップS45の処理)と、認識ステップの処理での認識結果に基づいて提示情報を検索する検索ステップ(例えば、図23のフローチャートのステップS48の処理)と、検索ステップの処理で検索された提示情報の情報量を計算する計算ステップ(例えば、図23のフローチャートのステップS49の処理)と、計算ステップの処理で計算された情報量に基づいて提示情報を表示する画面を生成する画面生成ステップ(例えば、図23のフローチャートのステップS50の処理)とを含むことを特徴とする。 The information processing method of the present invention includes an acquisition step for acquiring input information (for example, step S42 in the flowchart of FIG. 23) and a recognition step for recognizing input information acquired in the processing of the acquisition step (for example, FIG. 23). In step S45 in the flowchart), a search step for searching for presentation information based on the recognition result in the process in the recognition step (for example, step S48 in the flowchart in FIG. 23), and a search step. A calculation step for calculating the information amount of the presented information (for example, processing in step S49 in the flowchart of FIG. 23) and screen generation for generating a screen for displaying the presentation information based on the information amount calculated in the calculation step processing Step (for example, the process of step S50 in the flowchart of FIG. 23).
尚、記録媒体、および、プログラムの発明については、情報処理方法と同様であるのでその説明は省略する。 The recording medium and the program invention are the same as the information processing method, and the description thereof is omitted.
図1は、本発明を適用したサービス提供システムの構成例を表している。 FIG. 1 shows a configuration example of a service providing system to which the present invention is applied.
図1のサービス提供システムにおいては、インターネットを含むネットワーク1に対して、アクセスポイント4、画像データ管理サーバ5乃至7が接続されている。また、情報処理装置2は、アクセスポイント4との間で、無線LAN(Local Area Network)による無線通信を行い、アクセスポイント4経由でネットワーク1に接続されている。情報処理装置3は、情報処理装置2との間でブルートゥースによる通信を行う。なお、情報処理装置3と情報処理装置2間の通信は無線LANによることも可能である。また、以降においては、情報処理装置2は、親機2とも称し、また、情報処理装置3は、子機3とも称するものとする。
In the service providing system of FIG. 1, an access point 4 and image
画像データ管理サーバ5乃至7は、ネットワーク1を介して、後述する認識用DB(データベース)303、および、検索用DB(データベース)305と同様のデータベースを記憶しており、情報処理装置2または3が、画像データによる認識処理、または、検索処理をする際、認識用DB(データベース)303、および、検索用DB(データベース)305と同様のデータベースの情報を情報処理装置2または3に提供する。なお、画像データ管理サーバ5乃至7が有する情報は、情報処理装置2,3においても記憶されているようにしてもよい。また、画像データ管理サーバ5乃至7は、図1においては、3台が示されているが、台数はこれに限るものではなく、3台以外の台数であってもよい。
The image
親機2は、画像データ管理サーバ5からの認識用DB、または、検索用DBに関する情報を子機3に送信する。
The
子機3は、後述する撮像部121(図7)により撮像された画像、親機2より取得された画像(親機2を介してその他の装置より取得された画像を含む)、または、自らの記憶部154(図7)に記憶された画像をディスプレイ101に表示する。子機3は、ディスプレイ101(図7)に表示された画像のうち、ポインタで指定された近傍の領域の画像に関連する情報を検索して、ディスプレイ101上に表示する。
The subunit | mobile_unit 3 is the image imaged by the imaging part 121 (FIG. 7) mentioned later, the image acquired from the main | base station 2 (an image acquired from the other apparatus via the main | base station 2), or self The image stored in the storage unit 154 (FIG. 7) is displayed on the
子機3は、親機2から着脱可能である。図2および図3に、子機3の着脱例を示す。図2には、子機3が親機2の内部に装着された状態の例が示されている。親機2および子機3は、例えば、略六角形の形状とされ、子機3は、図2に示されるように、その角の1つが、親機2の1つの角と重なるようにして、親機2に装着される。
The
図3には、子機3が、親機2から取り外される場合の例が示されている。図3に示されるように、子機3は、親機2から取り外し可能である。親機2および子機3は、ユーザが携帯可能なサイズとされる。親機2は、例えば、鞄等に入れて持ち運び可能なサイズであり、子機3は、掌に収まる程度のサイズとされる。
FIG. 3 shows an example in which the
図4には、子機3のサイズの例が示されている。図4に示されるように、子機3は、対向する辺同士の間の長さが86mmとされ、厚さが約30mmとされており、掌に収まるサイズである。子機3の外観、および内部の構成例を図5に示す。図5の左方には、子機3の外観の構成例が示され、右方には、内部の構成例が示されている。図5の左方に示されているように、子機3の表面には、種々の案内や、撮像部121(図6)で撮像された映像などを表示するディスプレイ101、音声を集音するマイクロフォン102、周囲の温度および湿度を計測する温度湿度センサ103、接触、または非接触によりIC(Integrated Circuit)カードリーダライタとの間で、情報の送受信を行うIC通信部104、および音声を出力するスピーカ105が配置されている。ディスプレイ101は、例えば、LCD(Liquid Crystal Display)により構成される。また、ディスプレイ101は、いわゆるタッチパネルであり、ディスプレイ101上を指などで触れることにより、触れた位置に対応するディスプレイ101上の画像上にポインタを移動させることができ、画像上の位置を指定することが可能である。従って、ディスプレイ101は、操作部156としても機能する。
FIG. 4 shows an example of the size of the
IC通信部104は、例えば、ICカードリーダライタとの間の通信により、電子マネーの支払いなどを行う。また図示はしないが、子機3の表面には、この他に、LED(Light Emitting Diode)159(図7参照)も配置されている。なお、図5の右方に示すように、以下の説明においては、子機3のディスプレイ101が配置されている側の面を表面とし、その反対側を裏面とする。
For example, the IC communication unit 104 performs payment of electronic money through communication with an IC card reader / writer. Although not shown, an LED (Light Emitting Diode) 159 (see FIG. 7) is also arranged on the surface of the
図6は、子機3の内部の裏面側の配置例を表している。図6に示されるように、子機3の内部には、撮像部121、無線LAN通信部122、GPSアンテナ123、バイブレータ124−1,124−2、GPS検出部125、ブルートゥース通信部126、磁気センサ127、3軸モーションセンサ128、バッテリ129、および心拍検知センサ130が配置されている。
FIG. 6 illustrates an arrangement example on the back side inside the
撮像部121は、CCD(Charged Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を含み、周囲の被写体を撮影する。この撮像素子は、子機3の裏面側の表面に設置されている。無線LAN通信部122は、無線LANによる通信を行う。GPSアンテナ123は、位置測定用人工衛星からの衛星信号を受信し、これをGPS検出部125に供給する。バイブレータ124−1および124−2は、小型モータを内蔵し、互いに直交するように配置され、前後左右に振動する。GPS検出部125は、GPSアンテナ123からの衛星信号に基づいて、子機3の現在位置の緯度、経度などを算出する。なお、以下の説明において、GPS検出部125が検出した経度、緯度などの情報をGPS情報とも称する。
The imaging unit 121 includes an imaging device such as a CCD (Charged Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), and images a surrounding subject. This image sensor is installed on the back surface of the
ブルートゥース通信部126は、親機2などとの間で、ブルートゥースにより情報の送受信を行う。磁気センサ127は、磁気による情報の読み取り等を行う。3軸モーションセンサ128は、子機3の3次元姿勢角度をリアルタイムで検出する。バッテリ129は、子機3の各部に電力を供給する。心拍検知センサ130は、ユーザの心拍数を検知するためのセンサである。
The
図7は、子機3の内部の電気的構成例を表すブロック図である。なお、上記において既に説明した部分については、適宜、説明を省略する。
FIG. 7 is a block diagram illustrating an example of an electrical configuration inside the
CPU(Central Processing Unit)151は、ROM(Read Only Memory)152に記憶されているプログラム、または記憶部154からRAM(Random Access Memory)153にロードされたプログラムに従って、子機3の各部の動作を制御し、各種の処理を実行する。RAM153にはまた、CPU151が各種の処理を実行する上において必要なデータなども適宜記憶される。また、CPU151は、ドライブ170に接続された磁気ディスク171(フレキシブルディスクを含む)、光ディスク172(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク173(MD(Mini-Disc)を含む)、もしくは半導体メモリ174に記録されたプログラムやデータを適宜読み出して実行すると共に、所定のプログラムやデータを記録させる。
The CPU (Central Processing Unit) 151 performs the operation of each unit of the
CPU151、ROM152、およびRAM153は、バス155を介して相互に接続されている。バス155にはまた、記憶部154、無線LAN通信部122、ブルートゥース通信部126、IC通信部104、操作部156、マイクロフォン102、心拍検知部157、温度湿度センサ103、GPS検出部125、撮像部121、3軸モーションセンサ128、磁気センサ127、バイブレータ124−1,124−2、音声出力制御部158、ディスプレイ101、LED159、RTC160、およびドライブ171が接続されている。
The CPU 151,
操作部156は、ボタン類およびジョグダイヤル等により構成され、ユーザからの操作を受け付ける。心拍検知部157は、心拍検知センサ130からの信号に基づいて、ユーザの心拍数を算出する。音声出力制御部158は、供給された音声情報(電気信号)に対応する音声を、スピーカ105から出力させる。LED159は、例えば、ユーザに情報を提示する際、子機3にユーザの注意を向けさせるために発光する。
The operation unit 156 includes buttons, a jog dial, and the like, and accepts an operation from the user. The heart rate detection unit 157 calculates the user's heart rate based on the signal from the heart
RTC(Real Time Clock)160は、現在時刻を計算し処理に必要な時刻情報を生成し、各種の装置に供給する。 An RTC (Real Time Clock) 160 calculates the current time, generates time information necessary for processing, and supplies it to various devices.
次に、図8は、親機2のサイズの例を表している。図8に示されるように、親機2は、対向する辺同士の間の長さが155mmとされ、厚さが約30mmとされており、例えば鞄等に収納して携帯可能なサイズである。
Next, FIG. 8 illustrates an example of the size of the
図9は、親機2の内部の電気的な構成例を表している。図9において、CPU201は、例えば、インテル(Intel)社製のペンティアム(登録商標)プロセッサ等で構成され、フロントサイドバス(FSB)202に接続されている。FSB202には、更に、ノースブリッジ203が接続されており、ノースブリッジ203は、AGP(Accelerated Graphics Port)204を有しているとともに、ハブインタフェース210に接続されている。
FIG. 9 illustrates an example of an electrical configuration inside the
ノースブリッジ203は、例えば、インテル社製のAGP Host Bridge Controllerである440BXなどで構成されており、CPU201およびRAM(Random Access Memory)209(いわゆる、メインメモリ)等を制御する。更に、ノースブリッジ203は、AGP204を介して、ビデオコントローラ205を制御する。ビデオコントローラ205は、LCD206またはVGA(Video Graphics Array)方式のディスプレイ(以下、VGA207と記述する)をコントロールする。
The
ビデオコントローラ205は、CPU201から供給されるデータ(イメージデータまたはテキストデータなど)を受信して、受信したデータに対応するイメージデータを生成するか、または、受信したデータをそのまま内蔵するビデオメモリ(不図示)に記憶する。ビデオコントローラ205は、LCD206またはVGA207に、ビデオメモリに記憶されているイメージデータに対応する画像を表示させる。LCD206またはVGA207は、ビデオコントローラ205から供給されたデータを基に、画像または文字などを表示する。
The
ノースブリッジ203は、更に、キャッシュメモリ208とも接続されている。キャッシュメモリ208は、SRAM(Static RAM)などRAM209と比較して、より高速な書き込みまたは読み出しの動作を実行できるメモリで構成され、CPU201が使用するプログラムまたはデータをキャッシュする(一時的に記憶する)。
The
なお、CPU201は、その内部に1次的な、キャッシュメモリ208に比較して、より高速に動作でき、CPU201自身が制御するキャッシュを有する。
Note that the
RAM209は、例えば、DRAM(Dynamic RAM)で構成され、CPU201が実行するプログラム、またはCPU201の動作に必要なデータを記憶する。具体的には、例えば、RAM204は、起動が完了した時点において、HDD(Hard Disk Drive)223からロードされたオペレーティングシステムやインターネットプログラムなどを記憶する。
The
オペレーションシステム(OS(Operating System))は、例えば、マイクロソフト社のいわゆるウィンドウズ(登録商標)XP、またはアップルコンピュータ社のいわゆるMac OS(登録商標)等に代表される、コンピュータの基本的な動作を制御するプログラムである。 The operating system (OS (Operating System)) controls basic computer operations such as the so-called Windows (registered trademark) XP of Microsoft or the so-called Mac OS (registered trademark) of Apple Computer. It is a program to do.
ノースブリッジ203は、ハブインタフェース210を介して、サウスブリッジ211とも接続されている。サウスブリッジ211は、例えば、インテル社製のPIIX4Eなどで構成されており、ACリンクインタフェース211A、USB(Universal Serial Bus)インタフェース211B、IDE(Integrated Drive Electronics)インタフェース211C、PCI(Peripheral Component Interconnect)インタフェース211D、LPC(Low Pin Count)インタフェース211E、および、LANインタフェース211F等を内蔵している。
The
サウスブリッジ211は、ACリンクバス212、USBバス217、IDEバス222に接続されるデバイスを介して接続されるデバイスの制御等、各種のI/O(Input/Output)を制御する。
The
ACリンクバス212には、モデム213、サウンドコントローラ214が接続されている。モデム213は、公衆回線網に接続された場合、公衆回線網またはインターネット(いずれも不図示)を介する通信処理を実行する。サウンドコントローラ214は、マイクロフォン215から音声を取り込み、その音声に対応するデータを生成して、RAM209に出力する。またサウンドコントローラ214は、スピーカ216を駆動して、スピーカ216に音声を出力させる。
A
サウスブリッジ211のUSBバス217には、USBコネクタ218が接続され、各種USBデバイスが接続可能になされている。またUSBバス217を介して、メモリースティックスロット219とブルートゥース通信部221が設けられている。メモリースティックスロット219には、メモリースティック(商標)220が接続される。
A
メモリースティック220は、本願出願人であるソニー株式会社によって開発されたフラッシュメモリカードの一種である。このメモリースティック220は、小型薄型形状のプラスチックケース内に電気的に書換えや消去が可能な不揮発性メモリであるEEPROM(Electrically Erasable and Programmable Read Only Memory)の一種であるフラッシュメモリ素子を格納したものであり、10ピン端子を介して画像や音声、音楽等の各種データの書き込み及び読み出しが可能となっている。
The
ブルートゥース通信部221は、ブルートゥース規格による通信を行う。USBインタフェース221Bは、USBバス217を介して接続されている外部の装置にデータを送信するとともにデバイスからデータを受信する。
The
IDEインタフェース221Cは、いわゆるプライマリIDEコントローラとセカンダリIDEコントローラとの2つのIDEコントローラ、およびコンフィギュレーションレジスタ(configuration register)等から構成されている(いずれも図示せず)。 The IDE interface 221C includes two IDE controllers, a so-called primary IDE controller and a secondary IDE controller, a configuration register, and the like (both not shown).
プライマリIDEコントローラには、IDEバス222を介して、HDD223が接続されている。また、セカンダリIDEコントローラには、他のIDEバスに、CD-ROMドライブ224またはHDD(不図示)などの、いわゆるIDEデバイスが装着されたとき、その装着されたIDEデバイスが電気的に接続される。
The
無線LAN通信部225は、例えばIEEE802.11aやIEEE802.11bなどの無線LAN通信により、ネットワークに接続される。LANインタフェース211Fは、無線LAN通信部225に接続されたネットワークにデータを送信するとともに、データを受信する。
The wireless
LPCバス251には、BIOS(Basic Input Output System)252、I/O(Input/Output)インタフェース253、およびコントローラ256が接続されている。BIOS252は、親機2の基本動作命令を集めたプログラム群であり、例えば、ROM(Read Only Memory)などに記憶されている。また、BIOS252は、OSまたはアプリケーションプログラムと周辺機器との間でのデータの受け渡し(入出力)を制御する。
A BIOS (Basic Input Output System) 252, an I / O (Input / Output)
I/Oインタフェース253には、シリアル端子254とパラレル端子255が接続されており、それぞれの端子に接続された機器とのデータの授受を行う。コントローラ256には、ジョグダイヤル259、およびバッテリ260が接続されている。コントローラ256にはまた、キーボード258、およびマウス257などが接続可能である。
A
PCIバス226には、PCカードインタフェース229とIEEE1394インタフェース227が接続されている。PCカードインタフェース229は、スロット230に接続された機器(カード)から供給されたデータを、CPU201またはRAM209に供給するとともに、CPU201から供給されたデータをPCカードスロットに接続されているカードに出力する。PCIバス226には、スロット33およびPCカードインタフェース78を介して、ドライブ231が接続可能である。
A
ドライブ231は、装着されている磁気ディスク241、光ディスク242、光磁気ディスク243、または半導体メモリ244に記録されているデータを読み出し、読み出したデータをRAM209に供給する。また、CPU201の処理により生成されたデータを、ドライブ231に装着される磁気ディスク241、光ディスク242、光磁気ディスク243、または半導体メモリ244に記憶させることができる。
The drive 231 reads data recorded on the
IEEE1394インタフェース227は、IEEE1394ポート228を介して、IEEE1394の規格に準拠するデータ(パケットに格納されているデータ)を送受信する。
The
次に、図10の機能ブロック図を参照して、図7を参照して説明した情報処理装置3により実現される機能について説明する。
Next, functions realized by the
尚、図10で示される情報処理装置3により実現される機能については、各ブロックについてソフトウェアにより実現されることを前提として説明するが、各ブロックの機能を備えたハードウェアにより実現するようにしてもよいことは言うまでない。従って、図10で示される機能ブロック図は、ソフトウェアにより実現される機能ブロックを示すものとして認識してもよいし、ハードウェアにより実現される機能ブロックと認識してもよいものである。
Note that the functions realized by the
画像抽出部301は、ポインタ位置検出部301aによりディスプレイ101上に表示された画像上の位置情報に基づいて、検出された位置近傍の画像を抽出し、抽出した画像を認識部302に供給する。より詳細には、ポインタ位置検出部301aは、ディスプレイ101上のポインタの画素位置を示す座標(例えば、ポインタの先端部分の画素位置を示す座標)を検出する。例えば、ポインタ位置検出部301aにより検出された画素の座標位置が(X,Y)であった場合、画像抽出部301は、(X−α<X<X+α,Y−β<Y<Y+β)の範囲の画像を抽出する。ここで、α,βは、ディスプレイ101上のポインタ近傍の範囲を示す画素数である。例えば、ディスプレイ101上に人物の顔が表示されているような場合、その顔の部分にポインタが存在するとき、画像抽出部301は、ポインタの近傍の画像として、2α画素×2β画素のサイズの、その人物の顔の部分の画像を抽出し、認識部302に供給する。尚、α,βは、任意に設定することができるので、抽出される画像のサイズを任意に設定することが可能である。従って、抽出される画像のサイズは、例えば、サムネール画像として表示されるサイズや、ウィンドウ1枚分などに設定することができる。
The
認識部302は、画像抽出部301より供給された画像に基づいて、認識用DB303に記録されている認識用の画像データを用いて画像を認識し、認識結果を検索部304に供給する。
The
より詳細には、認識用DB303は、カテゴリ毎の複数のDBから構成されている。すなわち、例えば、会社というカテゴリのDBには、会社に存在する人物の顔写真などの画像データと共に、各画像データに対応する人物の情報が記録されている。また、家族というカテゴリのDBには、自宅に存在する人物の顔写真などの画像データと共に、各画像データに対応する人物などの情報が記録されている。
More specifically, the
認識部302は、RTC160より供給された現在時刻の情報と、GPS検出部125より供給されたGPS情報に基づいて、認識用DB303に問い合わせて、どのカテゴリのDBを利用するかを決定し、決定したDBに記録されている画像データと、画像抽出部301より抽出された画像データとを比較し、一致する画像データに対応する画像IDの情報を、認識結果として検索部304に供給する。
Based on the current time information supplied from the
検索部304は、認識部302より供給された認識結果に基づいて検索用DB305に記録されている画像データのうち、認識された情報に対応付けられた検索画像ファイルを検索して表示制御部306に供給する。より詳細には、検索用DB305には、認識に用いられた画像データに対応する検索画像ファイルとその人物に関する固有データが記録されており、認識結果である人物の情報に対応する検索画像ファイルと固有データを検索して、検索された検索画像ファイルと固有データを表示制御部306に供給する。
The
表示制御部306は、検索された検索画像ファイルと固有データを表示する画像を、例えば、ウィンドウとして生成し、ディスプレイ101上の画像にオーバーラップして表示させる。
The
次に、図11のフローチャートを参照して、図10の情報処理装置(子機)3によるデータ表示処理について説明する。 Next, data display processing by the information processing apparatus (child device) 3 in FIG. 10 will be described with reference to the flowchart in FIG.
ステップS1において、画像抽出部301のポインタ位置検出部301aは、操作部156として機能するディスプレイ101からの情報に基づいて、画像上のポインタの位置を示す座標情報として、例えば、矢印状のポインタの先端部分の位置を示す座標(X,Y)を検出する。
In step S1, the pointer
ステップS2において、画像抽出部301は、ポインタ位置検出部301aにより検出されたポインタの画素位置を示す座標情報(X,Y)に基づいて、ポインタの座標近傍の画像として、例えば、水平方向に対して、X−α<X<X+αの範囲で、かつ、垂直方向に対して、Y−β<Y<Y+βの範囲の画像を抽出して認識部302に供給する。すなわち、画像抽出部301は、ポインタの座標位置である(X,Y)を中心として、2α画素×2β画素の画像をポインタの近傍の画像として抽出し、認識部302に供給する。
In step S <b> 2, the
ステップS3において、認識部302は、認識用DB特定情報を取得し、ステップS4において、複数のカテゴリのDBからなる認識用DB303のうちのどのカテゴリの認識用DB303を利用するかを特定する。
In step S3, the recognizing
より具体的には、認識用DB303は、図12で示されるように、ユーザが勤務する会社に属する人物(上司や同僚、部下など)の参照顔画像を登録した会社DB303aや、家族の参照顔画像を登録した家族DB303b等、ユーザの人間関係などから所在地毎にカテゴリ別に分けて人物の参照顔画像を登録したDBの集合体として構成されている。尚、今の場合、認識用DB303に含まれる各DBは、図12においては、2個の場合について説明しているが、それ以上の数であってもよく、また、所在地毎にカテゴリが設定されたDBが構成されているが、例えば、会うことが多い時間帯毎としたり、性別など、様々なカテゴリを設定するようにしてもよい。
More specifically, as shown in FIG. 12, the
これら会社DB303a、および、家族DB303bは、後述するように、認識処理が行われる状況に応じて選択される。各DBは、少なくとも認識IDと、それに対応付けられた人物の参照顔画像データとから構成される複数の情報を記憶し、管理する。認識率の低下を避けるため、1つのカテゴリのDBについて10人程度の参照顔画像データを登録することが好ましい。
These
さらに、認識部302は、図12を参照して説明した認識用DB302のうち、認識用DB特定情報として、RTC160より現在時刻の情報を取得すると共に、GPS検出部125より現在位置のGPS情報を取得する。そして、認識部302は、取得した時刻情報とGPS情報に基づいて、認識用DB303のいずれのカテゴリのDBを使用するかを判定する。図12の場合、認識部302は、取得した時刻情報とGPS情報に基づいて、会社DB303aか、または、家族DB303bかのいずれかのDBを選択する。
Further, the recognizing
より具体的には、例えば、時刻情報の時間帯が朝、または、夜であって、かつ、GPS情報が自宅近傍の場合、家族と接する可能性が高いので撮像部121において、家族DB303bに属する家族の画像が撮像される可能性が高いので、家族DB303bを選択する。一方、時刻情報の時間帯が日中で、かつ、GPS情報が会社近傍の場合、会社DB303aに属する人物と接する可能性が高いので撮像部121において、会社DB303aに属する画像が撮像される可能性が高いので、会社DB303aを選択する(特定する)。このようにカテゴリによりDBを設定することで、認識率と認識速度を向上させることが可能となる。
More specifically, for example, when the time zone of the time information is morning or night and the GPS information is in the vicinity of the home, the imaging unit 121 belongs to the
ステップS5において、認識部302は、画像抽出部301より供給された画像に基づいて、撮像されている画像と認識用DB302に記憶されている画像との差分により一致している画像を見つけ出すことにより認識し、認識結果として見つけ出された画像の画像IDを検索部304に供給する。より具体的には、認識部302は、供給された2枚の画像に対してその画像中の人物が同一人物か、他人であるかの判定をすることで実現している。その判定については、2枚の顔画像の差分画像に基づいて行っている。
In step S <b> 5, the
すなわち、顔の識別では、先ず、同一人物の2枚の画像の差分を学習段階として予め求めており、これを参照して、2枚の画像の差分結果から同一の画像であるか否か(今の場合、同一の人物であるか否か)を判定している。 That is, in identifying a face, first, a difference between two images of the same person is obtained in advance as a learning stage, and referring to this, whether or not the images are the same from the difference result of the two images ( In this case, it is determined whether or not they are the same person.
その学習段階では、同一の被写体(例えば、同一人物)の2枚の画像の差分を求め、同一の差分画像群(intra-personal class)を生成し、これを固有値展開することで特徴空間とされるintra-personal classの固有空間を獲得している。例えば、このような学習手法の技術としては、B.Moghaddamらの報告(B. Moghaddam, W.Wahid, A.Pentland, "Beyond Eigenfaces: Probabilistic Matching for Face Recognition", MIT Media Lab. Perceptual Computing Section Technical Report No.443, 1998.)に開示されている技術が挙げられる。 In the learning stage, the difference between two images of the same subject (for example, the same person) is obtained, the same difference image group (intra-personal class) is generated, and the eigenvalue expansion is performed to obtain a feature space. Has acquired a unique space of intra-personal class. For example, as a technique of such learning method, a report of B. Moghaddam et al. (B. Moghaddam, W. Wahid, A. Pentland, "Beyond Eigenfaces: Probabilistic Matching for Face Recognition", MIT Media Lab. Perceptual Computing Section Technical Report No. 443, 1998.).
そして、このような学習を経て実現される認識処理は次のようになる。先ず、2枚の画像の差分を正しく得るため、画像上の被写体の位置(今の場合、人物の顔の位置)を精度良く求める必要がある。特に、顔の場合、顔の中の眼、鼻の位置は人によって異なるため、これらの位置を正規化する必要もある。例えば、ここでは、得られた画像に対し固有眼と固有鼻のマッチングを行うことで眼と鼻の位置同定を行い、検出された眼と鼻が定められた位置になるように、アフィン変換で回転・伸縮(モーフィング処理)を行う。 The recognition process realized through such learning is as follows. First, in order to correctly obtain the difference between the two images, it is necessary to accurately obtain the position of the subject on the image (in this case, the position of the person's face). In particular, in the case of a face, the positions of the eyes and nose in the face differ depending on the person, so that these positions need to be normalized. For example, here, eye-nose position identification is performed by matching the proper eye with the proper nose on the obtained image, and affine transformation is performed so that the detected eye and nose are in a predetermined position. Performs rotation and expansion / contraction (morphing process).
さらに、このようなモーフィング操作を経て、画像抽出部301により抽出された画像と認識用DB303中の画像データとされる画像との差分を生成する。
Further, through such a morphing operation, a difference between the image extracted by the
次に、上述したような差分により得られた差分画像と上述の固有空間とに基づいて、認識用DB302に記憶されているいずれの画像であるかを特定する。具体的には、差分画像とintra-personal class空間の距離(distance from feature space,DFFS)及び差分画像をintra-personal空間に投影した点と原点からの距離(distance in feature space,DIFS)を計算する。例えば、同一人物の差分画像がintra-personal class空間内で正規分布をとると仮定すれば、DFFSとDIFSの加算値(DFFS+DIFS)が分布からの距離を表すことになる。そして、この距離が小さいほど同一人物である確率が高いことになる。このような関係を利用して、画像抽出部301により抽出された画像と最も同一である確率が高い画像を決定することにより、画像を認識する。例えば、差分値が小さい場合には、差分画像はメリハリなく、いわゆるのっぺりとした画像として得られる。
Next, which image is stored in the
より詳細には、図13で示されるように、ステップS2の処理により、画像抽出部301は、入力された画像G0より画像G1を抽出する。そして、認識部302は、画像G2のように画像の4隅をマスクして、背景部分を取り除き、さらに、モーフィング操作をして画像G3を取得する。
More specifically, as shown in FIG. 13, the
そして、認識部302は、図14で示されるように、モーフィング操作により得た画像G3について、認識用DB303のうち、選択されたカテゴリのDBに予め記憶されている、例えば、画像DG1,DG2,DG3,・・・との差分を得る。これにより、差分の画像SD1,SD2,SD3,・・・がそれぞれ得られる。本例では、画像G1乃至G3内に顔が含まれていた画像は、差分値Pが、それぞれP=2.79e-64(図中では、P=2.79e−64), 1.53e-69(図中では、P=1.53e−69)、および9.73e-72(図中では、P=9.73e-72)となっており、P=9.73e-72となる第3の画像DG3と同一人物である確率が最も高い結果となっている。そこで、認識部302は、画像抽出部301により抽出された画像に映し出されている人物が、画像DG3の人物であると認識し、認識結果を検索部304に供給する。尚、以上の例においは、画像中に撮像されている人物を認識する場合を例として用いてきたが、同様の手法により物体を認識することも可能である。また、同様の手法により、文字などをテキストデータとして認識することも可能である。
Then, as shown in FIG. 14, the
ここで、図11のフローチャートの説明に戻る。 Now, the description returns to the flowchart of FIG.
ステップS6において、検索部304は、認識部302より供給された画像IDの有無により、画像を認識することができたか否かを判定する。すなわち、認識部302は、画像中に撮像されている人物(人物のみならず、物体、または、文字なども含む)を認識するには、認識用DB303に予め登録された画像データであることが前提となるが、登録された画像データに、画像抽出部301より供給される抽出された画像と一致する画像データが含まれていないことがある。このような場合、認識部302は、画像を認識することができないことになり、結果として、認識結果としての画像IDがないことになるので、検索部304は、画像が認識されなかったと判定し、その処理は、ステップS7に進む。
In step S <b> 6, the
ステップS7において、検索部304は、認識部302に対して画像抽出部301より供給された画像を認識用DB302のうち、ステップS4の処理で特定されたカテゴリのDBに登録させて、その処理は、ステップS1に戻りそれ以降の処理を繰り返す。より詳細には、検索部304は、表示制御部306を制御して、入力された画像に対する固有データなどを登録するためのダイアログボックスを表示させて、ユーザに対して、これらの情報の入力を促し、ユーザにより入力された固有データと、入力された画像を認識IDに対応付けて検索用DB305に登録する。このようにすることで、後述する検索用DB305に新たな画像を蓄積させることができる。
In step S <b> 7, the
一方、ステップS6において、上述した手法により画像を認識することができたと判定された場合、ステップS8において、検索部304は、認識部302より供給された認識結果である画像IDに基づいて、対応する検索画像ファイルを検索用DB305より検索する。
On the other hand, if it is determined in step S6 that the image can be recognized by the above-described method, the
ここで、検索用DB305について説明する。検索用DB305は、例えば、図15で示されるように構成されている。すなわち、図15においては、左から画像ID欄、検索画像ファイル欄、および、固有データ欄が設けられている。 Here, the search DB 305 will be described. The search DB 305 is configured, for example, as shown in FIG. That is, in FIG. 15, an image ID column, a search image file column, and a unique data column are provided from the left.
更に、画像ID欄には、認識用DB303に記録されている画像データに対応するIDが示されており、今の場合、画像IDとして、上から1,2,3が示されている。さらに、検索画像ファイル欄には、上から「ID1-1.jpg;ID1-2.jpg」、「ID2-1.jpg;ID2-2.tiff;ID2-3.mpeg」、および、「picture01.jpg;picture02.jpg;picture03.jpg;picture04.jpg;picture05.jpg」が示されている。さらに、固有データ欄には、上から「田中一郎;ichiro_tanaka@ABC.com」、「山田けいこ;○△商事経理部」、および、「山田太郎;taro_yamada@zony.com;1000円貸した」と示されている。
Furthermore, in the image ID column, IDs corresponding to the image data recorded in the
すなわち、図12において、検索用DB305には、画像ID=1に対応する検索画像ファイルは、「ID1-1.jpg;ID1-2.jpg」であり、画像ID=1に対応する固有データは、「田中一郎;ichiro_tanaka@ABC.com」であることが示されている。同様にして、画像ID=2に対応する検索画像ファイルは、「ID2-1.jpg;ID2-2.tiff;ID2-3.mpeg」であり、画像ID=2に対応する固有データは、「山田けいこ;○△商事経理部」であることが示されている。さらに、画像ID=3に対応する検索画像ファイルは、「picture01.jpg;picture02.jpg;picture03.jpg;picture04.jpg」であり、画像ID=2に対応する固有データは、「山田太郎;taro_yamada@zony.com;1,000円貸した」であることが示されている。 That is, in FIG. 12, in the search DB 305, the search image file corresponding to the image ID = 1 is “ID1-1.jpg; ID1-2.jpg”, and the unique data corresponding to the image ID = 1 is , “Ichiro Tanaka; ichiro_tanaka@ABC.com”. Similarly, the search image file corresponding to the image ID = 2 is “ID2-1.jpg; ID2-2.tiff; ID2-3.mpeg”, and the unique data corresponding to the image ID = 2 is “ It is shown that it is Keiko Yamada; Further, the search image file corresponding to the image ID = 3 is “picture01.jpg; picture02.jpg; picture03.jpg; picture04.jpg”, and the unique data corresponding to the image ID = 2 is “Taro Yamada; taro_yamada @ zony.com; rented 1,000 yen ”.
ここで、「.jpg」の拡張子が付されているファイルは、JPEG(Joint Photographic Experts Group)方式で圧縮された静止画の画像データを示し、同様に「.tiff」の拡張子が付されているファイルは、TIFF(Tagged Image File Format)方式で圧縮された静止画の画像データを示し、さらに、「.mpeg」の拡張子が付されているファイルは、mpeg(Moving Picture Experts Group)方式で圧縮された動画の画像データを示している。尚、画像の形式は、この方式に限るものではなく、その他の形式であってもよいことは言うまでもない。固有データにおける「田中一郎」、「山田けいこ」、および、「山田太郎」は、固有データの氏名を示すテキストデータであり、「ichiro_tanaka@ABC.com」および「taro_yamada@zony.com」は、それぞれメールアドレスを示すテキストデータであり、さらに、「1,000円貸した」、および、「○△商事経理部」は、メモ情報を示すテキストデータである。 Here, a file with an extension of “.jpg” indicates image data of a still image compressed by the JPEG (Joint Photographic Experts Group) method. Similarly, an extension of “.tiff” is added. Indicates the still image data compressed with TIFF (Tagged Image File Format), and files with the extension “.mpeg” are mpeg (Moving Picture Experts Group) The image data of the moving image compressed in FIG. Needless to say, the format of the image is not limited to this method, and may be any other format. “Ichiro Tanaka”, “Keiko Yamada”, and “Taro Yamada” in the specific data are text data indicating the name of the specific data, and “ichiro_tanaka@ABC.com” and “taro_yamada@zony.com” are respectively The text data indicates an e-mail address. Further, “1,000 yen lent” and “◯ △ Commercial Accounting Department” are text data indicating memo information.
より詳細には、これらの検索用DB304の情報は、画像ID毎に例えば、XML(Extesible Markup Language)により図16で示されるように記述される。尚、この記述例は、図15の画像ID=3に対応するものである。
More specifically, the information in the
図16の場合、第01行目の「<record>」は、記録開始を示し、第13行目の「</record>」で示される終了位置までが、画像ID=3に関する記述であることを示している。 In the case of FIG. 16, “<record>” on the 01st line indicates the start of recording, and the description up to the end position indicated by “</ record>” on the 13th line is a description relating to the image ID = 3. Is shown.
第02行目の「<name>山田太郎</name>」は、画像ID=3に対応する画像に撮像されている人物の名前が「山田太郎」であることが示されている。第03行目の「<mail>taro_yamada@jp.zony.com</mail>」は、メールアドレスが「taro_yamada@jp.zony.com」であることが示されている。 “<Name> Taro Yamada </ name>” in the second line indicates that the name of the person captured in the image corresponding to the image ID = 3 is “Taro Yamada”. “<Mail> taro_yamada@jp.zony.com </ mail>” on the third line indicates that the mail address is “taro_yamada@jp.zony.com”.
第04行目の「<picture>」は、この行から「</picture>」が示されるまでが検索画像ファイルが記述された範囲であることを示している。今の場合、「</picture>」は、第09行目に記述されているので、第05行目乃至第08行目の範囲に検索画像ファイルが記述さされていることが示されている。 “<Picture>” in the 04th line indicates that the range from the line until “</ picture>” is described is the range in which the search image file is described. In this case, “</ picture>” is described in the 09th line, which indicates that the search image file is described in the range from the 05th line to the 08th line. .
今の場合、第05行目乃至第08行目には、それぞれ「<path>c:\my pictures\picture01.jpg</path>」、「<path>c:\my pictures\picture02.jpg</path>」、「<path>c:\my pictures\picture03.jpg</path>」、および、「<path>c:\my pictures\picture04.jpg</path>」と記述されており、検索画像ファイル「picture01.jpg」乃至「picture04.jpg」のパス(ファイルの所在を示す情報)が記録されている。 In this case, in the 05th to 08th lines, "<path> c: \ my pictures \ picture01.jpg </ path>" and "<path> c: \ my pictures \ picture02.jpg < / path> "," <path> c: \ my pictures \ picture03.jpg </ path> ", and" <path> c: \ my pictures \ picture04.jpg </ path> " The path (information indicating the location of the file) of the search image files “picture01.jpg” to “picture04.jpg” is recorded.
さらに、第10行目には、「<memo>」が記述されており、第12行目の「</memo>」までの範囲にメモ情報が記録されていることが示されており、今の場合、第11行目に「<content>1,000円貸した</content>」と記述されており、「1,000円貸した」ことがメモとして記述されている。 In addition, “<memo>” is described in the 10th line, and it is shown that memo information is recorded in the range up to “</ memo>” in the 12th line. In this case, “<content> rented 1,000 yen </ content>” is described in the 11th line, and “1,000 yen loaned” is described as a memo.
検索部304は、認識結果として供給された画像IDに対応する検索画像ファイル、および、固有データを上述した検索用DB305から検索し、検索結果として表示制御部306に供給する。
The
ここで、図11のフローチャートの説明に戻る。 Now, the description returns to the flowchart of FIG.
ステップS9において、表示制御部306は、検索部304より供給された検索結果に基づいて、表示画面を生成し、ステップS10において、ディスプレイ101に表示し、その処理は、ステップS1に戻り、それ以降の処理が繰り返される。
In step S9, the
すなわち、以上の処理により、例えば、図17で示されるようなブラウザの表示画面が、ディスプレイ101に表示されていた場合、写真が表示されている領域451上にポインタ452が表示されているものとする。
That is, by the above processing, for example, when the display screen of the browser as shown in FIG. 17 is displayed on the
ステップS1において、ポインタ452の先端部の位置がポインタの位置として検出され、さらに、そのポインタ452の近傍の画像として、例えば、抽出画像453が抽出される。
In step S1, the position of the tip of the
ステップS3,S4の処理により、この抽出画像453に基づいて認識用DB303のどのDBを用いるかが特定され、ステップS5において、この抽出画像453に含まれる人物の画像IDを決定することにより、画像を認識する。
Through the processing in steps S3 and S4, which DB of the
ステップS8の処理により、検索用DB305より、認識結果となる画像IDに対応する検索画像ファイルと固有データが抽出され、さらに、ステップS9の処理により、検索された検索画像ファイルと固有データが、加工されて、ステップS10によりディスプレイ101に表示される。
The search image file and unique data corresponding to the image ID that is the recognition result are extracted from the search DB 305 by the process of step S8, and the searched search image file and unique data are further processed by the process of step S9. And it is displayed on the
より具体的には、例えば、画像IDに対応する検索画像ファイルと固有データは、今の場合、図15の画像IDに対応する検索画像データと固有データであるので、図18で示されるように、これらの情報を用いて、固有データ表示欄461と検索画像ファイル表示欄462を生成する。
More specifically, for example, the search image file and the unique data corresponding to the image ID are the search image data and the unique data corresponding to the image ID of FIG. 15 in this case, so that as shown in FIG. The unique
固有データ表示欄461はウィンドウであり、今の場合、図15の画像ID=3に対応する固有データが示されており、「山田太郎」、「taro_yamada@zony.com」、および、「1000円貸した」が表示されている。また、検索画像ファイル表示欄462には、選択画像表示欄471が設けられており、picture01.jpg乃至picture04.jpgに対応する検索画像474乃至477のうち選択された画像が表示されている。また、検索画像474乃至477は、ボタン472,473により切り替えることができ、今の場合、検索画像475が選択されて、選択画像表示欄471に表示されているので、検索画像474を表示させたいときには、ボタン472を押下することにより切り替えることができる。一方、図18の状態から検索画像476を表示させたいときには、ボタン473を押下することで切り替えることができ、検索画像477を表示させたいときには、さらに、ボタン473を押下することで切り替えることが可能となる。
The unique
以上のような処理により、ポインタを図17で示すような画像上の所定の位置に移動させることで、ポインタ近傍の画像に含まれる人物の情報を図18で示すように表示させることができ、例えば、固有データ表示欄461で示されるように固有データを検索することで、名前やメールアドレスなどを検索することができると共に、「1,000円貸した」といった忘れがちな情報を思い出すようなことも可能となる。また、検索画像ファイル表示欄462に表示される画像を見ることにより、映し出された人物とどの様なことをしたことがあったかなどを確認することが可能となる。すなわち、画像を認識して、認識結果に基づいて情報を検索して提示することにより、人間が画像を見ることで思い出すといった処理を合理的に補助することが可能となる。
By moving the pointer to a predetermined position on the image as shown in FIG. 17 by the processing as described above, the information of the person included in the image near the pointer can be displayed as shown in FIG. For example, by searching for unique data as shown in the unique
また、以上においては、画像に基づいて、人の顔を認識し、認識した人物に対応する固有データと検索画像ファイルを表示する場合(認識部302が顔認識エンジンとしての機能を備えている場合)について説明してきたが、例えば、画像認識エンジンを用いて画像中のロゴマークなどの形状を認識して、そのロゴマークに対応する情報を提示し、ロゴマークに対応する、例えば、URL(Universal Resource Locator)などにアクセスするようにしてもよい。
Further, in the above, when a human face is recognized based on an image and unique data and a search image file corresponding to the recognized person are displayed (when the
図19は、画像中に含まれるロゴマークなどの記号を認識し、対応する処理を実行できるようにした情報処理装置3により実現されるその他の機能を示している。尚、図10の情報処理装置3と同一の構成については、同一の番号を付しており、その説明は適宜省略するものとする。
FIG. 19 shows other functions realized by the
図19において、図10の情報処理装置3と異なる点は、表示制御部306に代えて、表示制御部311を備えた点である。表示制御部311の機能は、表示制御部306と同様であるが、さらに、検索用DB305に記憶されている固有データにURLが含まれていた場合、親機2およびアクセスポイント4を介してネットワーク1上のURLにアクセスし、対応するブラウザを表示させるようにする機能が設けられている。
19 is different from the
次に、図20のフローチャートを参照して、図19の情報処理装置3によるデータ表示処理について説明する。尚、図20のフローチャートにおけるステップS21乃至S29の処理は、図11のフローチャートにおけるステップS1乃至S9と同一の処理であるので、その説明は省略する。
Next, data display processing by the
例えば、図21の場合、ポインタ491がロゴマーク493の近傍に存在するので、ステップS30において、表示制御部311は、表示画像494上にロゴマーク493に対応する画像IDに対応する、検索用DB305に記憶されている固有データに基づいて、「MIKE Japanのホームページにアクセス」と示された情報表示欄492を表示させる。すなわち、このロゴマーク493に対応するURLが固有データとして登録されており、この画像を選択することでURLにアクセスすることが可能であることが示される。
For example, in the case of FIG. 21, since the
ステップS31において、表示制御部311は、操作部156としてのディスプレイ101よりロゴマーク493が選択されたか否かを判定し、選択されたと判定された場合、親機2およびアクセスポイント4を介して、そのロゴマークの画像IDに対応する固有データに含まれるURLにアクセスし、対応する画面をディスプレイ101に表示させ、その処理は、ステップS21に戻る。
In step S31, the
ステップS31において、ロゴマーク493が選択されていないと判定された場合、ステップS32の処理はスキップされて、その処理は、ステップS21に戻り、それ以降の処理が繰り返される。
If it is determined in step S31 that the
以上の処理により、認識部302は、画像認識エンジンとして機能することになり、結果として、ポインタ近傍の画像のロゴマークなどの情報に基づいて、対応する情報をユーザが意識することなく提示することができ、検索などの手間を省き、迅速にユーザの欲しい情報を提供することが可能となる。
As a result of the above processing, the
以上においては、認識部302が、顔認識エンジン、または、画像認識エンジンとしての機能を備えており、結果として、認識結果に応じた情報を提示する場合について説明してきたが、認識対象に応じた複数の認識エンジンとしての機能を認識部302に備えるようにして、認識対象に応じて切り替えるようにすることで、様々な情報を認識し、認識内容に対応して情報を提示するようにしてもよい。
In the above description, the
さらに、入力される画像を撮像部121により撮像される画像とすることにより、撮像された人物の情報のみならず、例えば、店舗などの情報をリアルタイムで提示することができるので、例えば、ユーザが不案内な場所を歩くような場合にでも、付近の店舗の情報を取得することが可能となる。 Furthermore, by setting the input image as an image picked up by the image pickup unit 121, it is possible to present not only information of the picked-up person but also information such as a store in real time. Even when walking in an unguided place, information on nearby stores can be acquired.
また、以上においては、検索結果である検索画像ファイルを図18で示される固有データ表示欄461や検索画像ファイル表示欄462のように表示する例について説明してきたが、図18の場合、検索された固有データや検索画像ファイルが膨大なものとなると見つけ出したい情報を目で確認しながら検索するだけでも手間がかかるうえ、検索された情報量がわからないため、目で検索する際にどの程度手間がかかるかすら予測できない恐れがある。
In the above description, an example in which a search image file as a search result is displayed as in the unique
そこで、検索された固有データや検索画像ファイルの情報量を直感的に把握できるように表示させることで、検索にかかる手間の程度を予測し易くするようにしてもよい。 In view of this, it is possible to make it easier to predict the time and effort required for the search by displaying the unique data and the information amount of the search image file so that they can be intuitively grasped.
図22は、検索された固有データや検索画像ファイルの情報量を直感的に把握できるようにした情報処理装置3により実現される更にその他の機能を示している。尚、図10の情報処理装置3と同一の構成については、同一の番号を付しており、その説明は適宜省略するものとする。
FIG. 22 shows still other functions realized by the
図22において、図10の情報処理装置3と異なる点は、表示制御部306に代えて、表示制御部501を備えた点である。表示制御部501の機能は、表示制御部306と同様であるが、情報量計算部501aが更に設けられており、検索部304により検索された固有データ、および、検索画像ファイルの情報量が計算される。表示制御部501は、この情報量計算部501aにより計算された情報量に基づいて、各固有データや検索画像ファイルを示すアイコンの大きさを変化させて、表示画面を生成し表示する。
22 is different from the
次に、図23のフローチャートを参照して、図22の情報処理装置(子機)3によるデータ表示処理について説明する。尚、図23のフローチャートにおける、ステップS41乃至S48の処理については、図11のフローチャートを参照して説明したステップS1乃至S8の処理と同様であるので、その説明は、省略する。 Next, a data display process performed by the information processing apparatus (child device) 3 shown in FIG. 22 will be described with reference to the flowchart shown in FIG. In addition, since the process of step S41 thru | or S48 in the flowchart of FIG. 23 is the same as the process of step S1 thru | or S8 demonstrated with reference to the flowchart of FIG. 11, the description is abbreviate | omitted.
ステップS49において、表示制御部501の情報量計算部501aは、検索された固有データおよび検索画像ファイルの情報の情報量を項目毎に計算する。すなわち、上述したように、検索用DB305には、図15で示されるように、静止画、および、動画からなる検索用画像ファイルのほかに固有データとして、名前、E-mailアドレス、および、メモの情報が記録されているので、情報量計算部501aは、静止画、動画、および、名前、E-mailアドレスなどからなる個人データ、並びにメモの情報毎に情報量を計算する。より具体的には、情報量計算部501aは、例えば、静止画の場合は、画像枚数、動画の場合は、記録時間、個人データ、および、メモの情報は、その文字数などを情報量として計算する。もちろん、情報量としては、データのサイズ(例えば、何Byteであるかなど)をそのまま利用するようにしてもよいことは言うまでもない。
In step S49, the information
ステップS50において、表示制御部501は、検索部24より供給された検索画像ファイルと固有データ、並びに、情報量計算部501aにより計算された情報量の計算結果に基づいて、例えば、図18で示される固有データ表示欄461や検索画像ファイル表示欄462に代えて、図24で示されるようなウィンドウ551からなる表示画像を生成する。
In step S50, the
すなわち、図24のウィンドウ551においては、入力画像に含まれる画像の被写体である人物556(検索エンジンで検索される対象)に対応する検索画像ファイルのうち、静止画を示すバルーン状のアイコン552が表示され、その右側に検索画像ファイルのうち静止画を示すバルーン状のアイコン553が表示され、さらに、その右側に、固有データのうち個人データを示すバルーン状のアイコン555が示され、その下には、固有データのうちメモの情報を示すバルーン状のアイコン554が示されている。さらに、ウィンドウ551の右上には、この表示画像を終了させる終了ボタン557が表示されている。
That is, in the
アイコン552乃至555は、それぞれ上述した情報量計算部501aにより計算された情報量に基づいて、そのバルーンの径が変化するように生成されている。従って、ユーザは、ウィンドウ551に表示されたアイコン552乃至555の大きさを見るだけで、検索画像ファイルの量や、固有データの量を直感的に把握することが可能となる。結果として、検索画像ファイルの量、および、固有データの量に応じて自らで情報を検索するか否かを迅速に判断することが可能となる。
The
ステップS52において、表示制御部501は、ウィンドウ551上のアイコン552乃至555のうち、個人データの情報を示すアイコン555上にポインタが存在するか否かを判定する。例えば、図25で示されるようにアイコン561がメモ情報を示すアイコン555上に存在すると判定された場合、ステップS53において、図25で示されるように、固有データのうち個人データを表示するウィンドウ562を生成し、個人データを表示し、その処理は、ステップS56に進む。
In step S52, the
図25においては、図15の検索用DB305の画像ID=2の個人データである、「山田けいこ ○△商事 経理部」がウィンドウ502に表示されている。また、「OK」と表示されたボタン563は、ウィンドウ562を閉じるとき、押下されるものである。ユーザは、このように個人データを示すバルーン状のアイコンにポインタ561を移動させるだけで、個人データを参照することができるので、例えば、入力画像に表示された人物をうっかりと忘れているような状態でも、名前などの個人データの提示を受けることにより、思い出すことが可能となる。
In FIG. 25, “Keiko Yamada ○ △ Commercial Accounting Department”, which is personal data of image ID = 2 in the search DB 305 of FIG. A
一方、ステップS52において、個人データのバルーン状のアイコン555上にポインタ561が存在しない場合、ステップS54において、表示制御部501は、アイコン555以外のアイコン552乃至554がポインタ561により選択されたか否かを判定する。
On the other hand, if the
ステップS54において、例えば、図26で示されるように、ポインタ561が、アイコン552上に存在する状態で、クリックされるなどして選択された場合、アイコン552乃至554のいずれかが選択されたと判定され、その処理は、ステップS55に進む。
In step S54, for example, as shown in FIG. 26, when the
ステップS55において、表示制御部501は、選択されたアイコン552乃至554のうち、選択されたアイコンに対応する情報を、表示する。
In step S55, the
より詳細には、例えば、図26で示されるように、検索画像ファイルのうち静止画についてのアイコン552が選択されている場合、表示制御部501は、選択されたバルーン状のアイコン552を、はじけて破裂したように表示した後、静止画を表示するためのウィンドウ571を表示する。
More specifically, for example, as shown in FIG. 26, when the
ウィンドウ571には、検索画像ファイルのうちの1の静止画を表示する静止画表示欄572が表示される。また、静止画表示欄572の下には、ボタン573乃至575が設けられている。ボタン573は、検索画像ファイルのうち、静止画表示欄572に表示された静止画よりも1前に配置された静止画に戻って表示するときに操作される。また、ボタン574は、ウィンドウ571を閉じるとき操作される。さらに、ボタン575は、検索画像ファイルのうち、静止画表示欄572に表示された静止画よりも1後に配置された静止画に進めて表示するときに操作される。
In the
尚、以上においては、検索画像ファイルのうち静止画のアイコン552が選択された場合について説明したが、動画が選択された場合も同様にウィンドウが生成されて表示されるが、動画の場合、再生ボタン、停止ボタン、早送りボタン、および、早戻しボタンがさらに表示される。また、固有データのうちメモに対応するアイコン553が選択された場合、固有データのうちメモに対応する情報が表示され、例えば、図15の検索用DB305の画像ID=3のような場合、「1,000円貸した」といった情報が表示される。
Although the case where the
ステップS56において、表示制御部501は、ウィンドウ551,572、または562の表示を終了する処理が指示されたか否かを判定し、終了が指示されていないと判定された場合、その処理は、ステップS52に戻り、終了が指示されたと判定された場合、その処理は、ステップS41に戻り、それ以降の処理が繰り返される。また、ステップS55において、いずれのバルーンも選択されなかった場合、すなわち、アイコン552乃至554のいずれの位置にもポインタ561が移動されて、選択されなかった場合、ステップS55の処理がスキップされて、その処理は、ステップS56に進む。
In step S56, the
以上のような処理により、自分が取り溜めた画像などを見ながら、そこに映し出された画像上の、例えば、特定の人物の位置にポインタを移動させるだけで、個人データの提示させることができ、その人物に関連する画像を表示させることが可能となる。また、情報の種類毎に表示されるバルーン状のアイコンが情報量に応じて大きさを変化させて表示されることになるので、情報の種類毎に情報量を迅速に把握することが可能となる。結果として、検索された情報を自らの目で検索すべきか、さらに、別の方法で絞り込みをかけるべきであるのかといった判断を容易なものとすることが可能となる。 Through the above processing, personal data can be presented simply by moving the pointer to the position of a specific person, for example, on the image displayed while viewing the image collected by the user. It becomes possible to display an image related to the person. In addition, since the balloon-like icon displayed for each type of information is displayed with the size changed according to the amount of information, it is possible to quickly grasp the amount of information for each type of information. Become. As a result, it is possible to easily determine whether the searched information should be searched with one's own eyes or whether the information should be narrowed down by another method.
さらに、入力画像を撮像部121により撮像された画像にすることで、例えば、街中で情報処理装置3を持ち歩きながら、付近の風景を撮像することにより、知り合いであるのだが、誰であったかをうっかり忘れてしまったような場合にでも、認識用DB302および検索用DB304に登録された人物であれば、名前などの個人データが提示されるので、思い出すことが可能となる。
Furthermore, by making the input image an image captured by the image capturing unit 121, for example, by taking an image of a nearby landscape while carrying the
また、認識できる情報は人物の顔のみならず、上述したように店などのロゴマークなどを認識できるようにすることで、店舗の看板などに記載された店舗名や、ロゴマークなどを認識させることができ、対応して固有データを表示させることや、その店舗のURLなどにアクセスさせるようにし、さらに、関連情報を提示させるようにしてもよい。この際、上述のバルーン状のアイコンに店舗のクーポン情報を表示させるなどして、選択することによりバルーンがはじけて破裂すると、クーポンが表示されるようにしてもよい。 In addition to recognizable information, not only the face of a person but also the logo mark of the store etc. as described above can be recognized, so that the store name and logo mark etc. written on the signboard of the store etc. can be recognized. It is possible to display unique data correspondingly, to access the URL of the store, and to present related information. At this time, the coupon information of the store may be displayed on the above-described balloon-shaped icon, and the coupon may be displayed when the balloon is popped and bursts by selection.
さらに、以上の例においては、情報量を情報の種類毎のバルーン状のアイコンの大きさにより提示していたが、これは、バルーン状のアイコンに限らず、大きさを情報量に応じて変化させて表示できるアイコンであればよく、その他の形状のアイコンであってもよい。 Furthermore, in the above example, the amount of information is presented by the size of a balloon-shaped icon for each type of information, but this is not limited to a balloon-shaped icon, and the size changes according to the amount of information. Any icon can be used as long as it can be displayed, and icons of other shapes may be used.
以上においては、情報処理装置3が上述の処理を実行する場合について説明してきたが、親機である情報処理装置2が同様の処理を実行できるようにしてもよい。尚、情報処理装置2により上述の処理が実行される場合、図10,図19、および図22に示された機能が、情報処理装置2により実現されることになる。各処理については同様であるので、その説明は省略する。
In the above, the case where the
また、以上においては、画像を認識する例について説明してきたが、例えば、マイクロフォン102、または、215により検出された音声により音声認識処理を行うようにして、音声認識結果に基づいて情報を提示するさせるようにしてもよい。すなわち、予め音声に関する認識用DB303に音声認識に必要な情報を記憶させておき、認識部302が、認識用DB303を用いて、入力された音声により、例えば、人物の声の種類などから人物を特定したり、動物の鳴き声や、機械の動作音などにより人物、動物、または機械を特定することで認識する。さらに、検索用DB304に、認識結果に対応する検索情報を蓄積することにより、認識結果に対応して検索部304が、情報を検索するようにしてもよい。
In the above, an example of recognizing an image has been described. For example, information is presented based on a voice recognition result by performing voice recognition processing using voice detected by the microphone 102 or 215. You may make it make it. That is, information necessary for speech recognition is stored in advance in the
また、上述した例においては、情報処理装置2または3に認識用DB302、および、検索用DB305を備えた場合について説明してきたが、認識用DB302、および、検索用DB305は、自らで備えたものに限らず、例えば、画像データ管理サーバ5乃至7のいずれかから、認識部302、および、検索部304がそれぞれ、ネットワーク1を介して利用するようにしてもよい。
In the above example, the case where the
以上によれば、入力情報を取得し、取得した入力情報に基づいて、ユーザの所望とする提示情報を検索し、表示することが可能となり、さらに、提示情報の情報量に応じて提示情報を表示する表示画面を生成するようにしたので、情報の種類毎に情報量を迅速に把握することが可能となる。 According to the above, it is possible to acquire input information, search and display the presentation information desired by the user based on the acquired input information, and display the presentation information according to the information amount of the presentation information. Since the display screen to be displayed is generated, it is possible to quickly grasp the amount of information for each type of information.
上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。 The series of processes described above can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, a general-purpose personal computer is installed from a network or a recording medium.
この記録媒体は、図7,図9に示す装置では、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク171,241(フレキシブルディスクを含む)、光ディスク172,242(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク173,243(MD(Mini-Disc)を含む)、もしくは半導体メモリ174,244などよりなるパッケージメディアにより構成されるだけでなく、装置に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM152や、記憶部154,HDD223に含まれるハードディスクなどで構成される。
7 and 9, this recording medium is distributed to provide a program to the user separately from the computer.
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。 Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.
301 画像抽出部, 301a ポインタ位置検出部, 302 認識部, 303 認識用DB, 304 検索部, 305 検索用DB, 306,311,501 表示制御部, 501a 情報量計算部 301 Image Extraction Unit, 301a Pointer Position Detection Unit, 302 Recognition Unit, 303 Recognition DB, 304 Search Unit, 305 Search DB, 306, 311, 501 Display Control Unit, 501a Information Amount Calculation Unit
Claims (8)
前記取得手段により取得された入力情報を認識する認識手段と、
前記認識手段の認識結果に基づいて提示情報を検索する検索手段と、
前記検索手段により検索された提示情報の情報量を計算する計算手段と、
前記計算手段により計算された情報量に基づいて前記提示情報を表示する画面を生成する画面生成手段と
を備えることを特徴とする情報処理装置。 An acquisition means for acquiring input information;
Recognition means for recognizing input information acquired by the acquisition means;
Search means for searching for presentation information based on a recognition result of the recognition means;
A calculation means for calculating an information amount of the presentation information searched by the search means;
An information processing apparatus comprising: screen generation means for generating a screen for displaying the presentation information based on the amount of information calculated by the calculation means.
前記認識手段は、前記取得手段により取得された前記画像を認識する
ことを特徴とする請求項1に記載の情報処理装置。 The acquisition means acquires an image as the input information,
The information processing apparatus according to claim 1, wherein the recognition unit recognizes the image acquired by the acquisition unit.
前記取得手段は、前記位置検出手段により検出された位置近傍の画像を入力情報として取得する
ことを特徴とする請求項2に記載の情報処理装置。 Further comprising position detecting means for detecting the position of the pointer on the image;
The information processing apparatus according to claim 2, wherein the acquisition unit acquires an image in the vicinity of the position detected by the position detection unit as input information.
前記認識手段は、前記取得手段により取得された前記音声を認識する
ことを特徴とする請求項1に記載の情報処理装置。 The acquisition means acquires voice as the input information,
The information processing apparatus according to claim 1, wherein the recognition unit recognizes the voice acquired by the acquisition unit.
ことを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the screen generation unit generates a screen that displays the presentation information with an icon having a size based on the amount of information calculated by the calculation unit.
前記取得ステップの処理で取得された入力情報を認識する認識ステップと、
前記認識ステップの処理での認識結果に基づいて提示情報を検索する検索ステップと、
前記検索ステップの処理で検索された提示情報の情報量を計算する計算ステップと、
前記計算ステップの処理で計算された情報量に基づいて前記提示情報を表示する画面を生成する画面生成ステップと
を含むことを特徴とする情報処理方法。 An acquisition step for acquiring input information;
A recognition step for recognizing input information acquired in the processing of the acquisition step;
A search step of searching for presentation information based on a recognition result in the processing of the recognition step;
A calculation step of calculating an information amount of the presentation information searched in the processing of the search step;
A screen generation step of generating a screen for displaying the presentation information based on the amount of information calculated in the processing of the calculation step.
前記取得制御ステップの処理で取得が制御された入力情報を認識する認識ステップと、
前記認識ステップの処理での認識結果に基づいて提示情報を検索する検索ステップと、
前記検索ステップの処理で検索された提示情報の情報量を計算する計算ステップと、
前記計算ステップの処理で計算された情報量に基づいて前記提示情報を表示する画面を生成する画面生成ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。 An acquisition control step for controlling the acquisition of input information;
A recognition step for recognizing input information whose acquisition is controlled in the processing of the acquisition control step;
A search step of searching for presentation information based on a recognition result in the processing of the recognition step;
A calculation step for calculating an information amount of the presentation information searched in the processing of the search step;
A screen generation step for generating a screen for displaying the presentation information based on the amount of information calculated in the processing of the calculation step. A recording medium on which a computer-readable program is recorded.
前記取得制御ステップの処理で取得が制御された入力情報を認識する認識ステップと、
前記認識ステップの処理での認識結果に基づいて提示情報を検索する検索ステップと、
前記検索ステップの処理で検索された提示情報の情報量を計算する計算ステップと、
前記計算ステップの処理で計算された情報量に基づいて前記提示情報を表示する画面を生成する画面生成ステップと
をコンピュータに実行させることを特徴とするプログラム。 An acquisition control step for controlling the acquisition of input information;
A recognition step for recognizing input information whose acquisition is controlled in the processing of the acquisition control step;
A search step of searching for presentation information based on a recognition result in the processing of the recognition step;
A calculation step of calculating an information amount of the presentation information searched in the processing of the search step;
A program causing a computer to execute a screen generation step of generating a screen for displaying the presentation information based on the amount of information calculated in the processing of the calculation step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003423001A JP2005182495A (en) | 2003-12-19 | 2003-12-19 | Information processor, information processing method, recording medium and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003423001A JP2005182495A (en) | 2003-12-19 | 2003-12-19 | Information processor, information processing method, recording medium and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005182495A true JP2005182495A (en) | 2005-07-07 |
Family
ID=34783681
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003423001A Pending JP2005182495A (en) | 2003-12-19 | 2003-12-19 | Information processor, information processing method, recording medium and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005182495A (en) |
-
2003
- 2003-12-19 JP JP2003423001A patent/JP2005182495A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111652678B (en) | Method, device, terminal, server and readable storage medium for displaying article information | |
KR101993241B1 (en) | Method and system for tagging and searching additional information about image, apparatus and computer readable recording medium thereof | |
KR102173123B1 (en) | Method and apparatus for recognizing object of image in electronic device | |
CN109189879B (en) | Electronic book display method and device | |
US20140253592A1 (en) | Method for providing augmented reality, machine-readable storage medium, and portable terminal | |
US8364680B2 (en) | Computer systems and methods for collecting, associating, and/or retrieving data | |
CN110059686B (en) | Character recognition method, device, equipment and readable storage medium | |
JP2013105345A (en) | Information registration device, information registration method, information registration system, information presentation device, information presentation method, information presentation system, and program | |
US11651019B2 (en) | Contextual media filter search | |
US11550754B2 (en) | Electronic apparatus and control method thereof | |
TWI521963B (en) | Electronic device and video tagging method | |
JP2013105346A (en) | Information presentation device, information presentation method, information presentation system, information registration device, information registration method, information registration system, and program | |
US11531702B2 (en) | Electronic device for generating video comprising character and method thereof | |
CN112236767A (en) | Electronic device and method for providing information related to an image to an application through an input unit | |
US20230186498A1 (en) | Depth estimation using biometric data | |
US8704939B1 (en) | Mobile device and method for controlling the same | |
KR20200127928A (en) | Method and apparatus for recognizing object of image in electronic device | |
US10069984B2 (en) | Mobile device and method for controlling the same | |
JP2005182496A (en) | Information processor, information processing method, recording medium and program | |
JP2005182495A (en) | Information processor, information processing method, recording medium and program | |
CN113377271A (en) | Text acquisition method and device, computer equipment and medium | |
KR102560607B1 (en) | Augmented reality-based memo processing device, system and method | |
JP5655916B2 (en) | Image search system | |
CN114691614A (en) | Application program searching method, device and medium | |
JP5532748B2 (en) | Imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090605 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090609 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090807 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20091105 |