JP2010267174A - Terminal device and program - Google Patents

Terminal device and program Download PDF

Info

Publication number
JP2010267174A
JP2010267174A JP2009119449A JP2009119449A JP2010267174A JP 2010267174 A JP2010267174 A JP 2010267174A JP 2009119449 A JP2009119449 A JP 2009119449A JP 2009119449 A JP2009119449 A JP 2009119449A JP 2010267174 A JP2010267174 A JP 2010267174A
Authority
JP
Japan
Prior art keywords
image
display
displayed
screen
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009119449A
Other languages
Japanese (ja)
Other versions
JP5263966B2 (en
Inventor
Tatsuo Aramaki
龍男 荒巻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Priority to JP2009119449A priority Critical patent/JP5263966B2/en
Publication of JP2010267174A publication Critical patent/JP2010267174A/en
Application granted granted Critical
Publication of JP5263966B2 publication Critical patent/JP5263966B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a terminal device, which facilitates identifying a certain object from objects included in an image. <P>SOLUTION: A control unit 100 performs image recognition to identify characters included in an image; stores the location and display position of each of the identified characters in the image; combines each of the stored characters to search a dictionary database for a significant character string (word); extracts and temporarily stores corresponding character strings (words) as candidates; determines, when a desired character string is included in the candidates (words), whether the corresponding character string is displayed on a display screen of a display unit 105; and performs identification display, when it is displayed, and also notifies detection of the corresponding character string by sound, light or vibration. According to this, a certain object can be easily identified from objects included in the image. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像に含まれるオブジェクトの中から、あるオブジェクトを容易に識別させる端末装置およびプログラムに関する。   The present invention relates to a terminal device and a program for easily identifying a certain object from among objects included in an image.

画像に含まれる文字(文字列)や人物の顔などのオブジェクトを認識し、その中からユーザが指定したオブジェクトを検索して該当オブジェクトを識別表示する技術が知られている。この種の技術として、例えば特許文献1には、スキャナで取り込んだ画像から各文字のコードとその位置情報とを認識してメモリに記憶しておき、入力された検索語に一致する文字列の位置情報をメモリから検索して該当する文字列を画像中で反転表示する技術が開示されている。   There is known a technique for recognizing an object such as a character (character string) or a human face included in an image, searching for an object designated by the user, and identifying and displaying the object. As this type of technology, for example, in Patent Document 1, each character code and its position information are recognized from an image captured by a scanner, stored in a memory, and a character string that matches an input search word is stored. A technique is disclosed in which position information is retrieved from a memory and a corresponding character string is highlighted in an image.

特開平8−180068号公報JP-A-8-180068

ところで、上記特許文献1に開示の技術では、検索したいオブジェクト(識別表示させたいオブジェクト)をユーザが事前に入力しなければならず煩雑である。例えばオブジュクトが文字情報の場合には、検索すべき文字情報をユーザ自ら入力する必要がある。また、検索したいオブジュクトをユーザが入力できない場合には、該当するオブジェクトを検索することが出来ない。すなわち、オブジェクトが文字情報の場合、ユーザが検索したい文字情報が新聞の紙面にありそうな文字情報だと分かっていても、失念してしまったり曖昧に記憶していたりする文字情報であると、ユーザは検索したい文字情報を入力することが出来ず、結果的に識別表示させることが出来ない。これは新聞の紙面に限らず、特定の文書内に含まれる文字情報などで頻繁に起こり得る状況である。   By the way, in the technique disclosed in Patent Document 1, the user must input an object to be searched (object to be identified and displayed) in advance, which is complicated. For example, when the object is character information, the user needs to input the character information to be searched. In addition, when the user cannot input an object to be searched, the corresponding object cannot be searched. That is, if the object is text information, even if the text information that the user wants to search is text information that is likely to be on the newspaper, it is forgotten or ambiguously stored. The user cannot input character information to be searched, and as a result cannot be identified and displayed. This is a situation that can occur frequently not only in newspaper pages but also in character information contained in a specific document.

さらに、上記特許文献1に開示の技術では、画像の撮影(入力)、画像の記録、記録した画像の表示および検索しようとするオブジェクトの入力といった多くの操作が必要になり、それら操作が煩雑さを招致する。例えば新聞や雑誌の紙面の中に、ある特定の文字情報が存在しているか否かや、存在しているとすればどの辺りに存在するのかをユーザが知りたい場合、対象となる紙面を全て含む画像を撮影(入力)して記録し、この記録した画像を画面表示させ、検索したい文字情報を入力するという多くの操作が要求される。つまり、以上の内容を換言すれば、従来では、画像に含まれるオブジェクトの中から、あるオブジェクトを容易に識別させることが出来ない、という問題がある。   Furthermore, the technique disclosed in Patent Document 1 requires many operations such as image capture (input), image recording, display of recorded images, and input of an object to be searched, and these operations are complicated. Invite For example, if a user wants to know whether or not a certain character information exists in a newspaper or magazine page, and if it exists, if the user wants to know, Many operations are required to capture (input) a recorded image, record it, display the recorded image on a screen, and input character information to be searched. In other words, in other words, there is a problem in that a certain object cannot be easily identified from among objects included in an image.

本発明は、このような事情に鑑みてなされたもので、画像に含まれるオブジェクトの中から、あるオブジェクトを容易に識別させることができる端末装置およびプログラムを提供することを目的としている。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide a terminal device and a program that can easily identify a certain object from among objects included in an image.

上記目的を達成するため、請求項1に記載の発明では、画像を取得する画像取得手段と、前記画像取得手段により取得された画像の少なくとも一部を画面に表示する画像表示手段と、前記画像取得手段により取得された画像に含まれるオブジェクトを特定する特定手段と、前記特定手段により特定されたオブジェクトを候補情報として抽出する抽出手段と、前記抽出手段により抽出された候補情報のいずれかを指定する指定手段と、前記画像表示手段により画像の少なくとも一部が画面に表示されている時に、前記指定手段により指定された候補情報に該当するオブジェクトの表示位置を当該画面上で識別表示する識別表示手段とを具備することを特徴とする。 In order to achieve the above object, according to the first aspect of the present invention, an image acquisition means for acquiring an image, an image display means for displaying at least a part of the image acquired by the image acquisition means on a screen, and the image Specify one of specifying means for specifying an object included in the image acquired by the acquiring means, extracting means for extracting the object specified by the specifying means as candidate information, and candidate information extracted by the extracting means An identification display for identifying and displaying on the screen the display position of the object corresponding to the candidate information designated by the designation means when at least part of the image is displayed on the screen by the designation means Means.

上記請求項1に従属する請求項2に記載の発明では、画像を撮像する撮像手段を更に備え、前記画像取得手段は、前記撮像手段により撮像された画像を取得することを特徴とする。   The invention according to claim 2 subordinate to claim 1 further includes an image pickup means for picking up an image, and the image acquisition means acquires an image picked up by the image pickup means.

上記請求項1に従属する請求項3に記載の発明では、前記画像取得手段により取得された画像の少なくとも一部と、前記指定手段により指定された候補情報とを同時に画面表示する同時表示手段を更に備えることを特徴とする。   In the invention according to claim 3 subordinate to claim 1, there is provided simultaneous display means for simultaneously displaying on a screen at least part of the image acquired by the image acquisition means and candidate information specified by the specification means. It is further provided with the feature.

上記請求項1に従属する請求項4に記載の発明では、前記画像表示手段により画像の少なくとも一部が画面に表示されている時に、前記指定手段により指定された候補情報に該当するオブジェクトが表示されているか否かを判別する判別手段と、前記判別手段により該当するオブジェクトが表示されていないと判別された場合、その該当するオブジェクトの位置を示す位置情報を表示する位置情報表示手段とを更に備えることを特徴とする。   In the invention according to claim 4 subordinate to claim 1, the object corresponding to the candidate information designated by the designation means is displayed when at least a part of the image is displayed on the screen by the image display means. Determination means for determining whether or not the object is displayed, and position information display means for displaying position information indicating the position of the corresponding object when the determination means determines that the corresponding object is not displayed. It is characterized by providing.

上記請求項1に従属する請求項5に記載の発明では、前記画像表示手段により画像の少なくとも一部が画面に表示されている時に、前記指定手段により指定された候補情報に該当するオブジェクトが表示されているか否かを判別する判別手段と、前記判別手段により該当するオブジェクトが表示されていないと判別された場合、その該当するオブジェクトが画面に表示されるように画像の表示位置を変更する表示位置変更手段とを更に備えることを特徴とする。   In the invention according to claim 5 that is dependent on claim 1, the object corresponding to the candidate information designated by the designation means is displayed when at least a part of the image is displayed on the screen by the image display means. And a display for changing the display position of the image so that the corresponding object is displayed on the screen when it is determined by the determining means that the corresponding object is not displayed. And a position changing means.

上記請求項1に従属する請求項6に記載の発明では、前記画像表示手段により画像の少なくとも一部が画面に表示されている時に、前記指定手段により指定された候補情報に該当するオブジェクトが表示されているか否かを判別する判別手段と、前記判別手段により該当するオブジェクトが表示されていると判別された場合、その旨を報知する報知手段とを更に備えることを特徴とする。   In the invention according to claim 6 that is dependent on claim 1, the object corresponding to the candidate information designated by the designation means is displayed when at least a part of the image is displayed on the screen by the image display means. It is further characterized by further comprising: a discriminating unit for discriminating whether or not the target object is displayed; and a notifying unit for informing the fact that the discriminating unit determines that the corresponding object is displayed.

上記請求項1に従属する請求項7に記載の発明では、前記特定手段は、前記画像取得手段により取得された画像に含まれるオブジェクトとして人物を特定することを特徴とする。   The invention according to claim 7 that depends on claim 1 is characterized in that the specifying means specifies a person as an object included in the image acquired by the image acquiring means.

上記請求項1に従属する請求項8に記載の発明では、前記指定手段により指定された候補情報に該当するオブジェクトを、記憶手段に記憶されている情報と対応付けて記憶する記憶制御手段を更に備えることを特徴とする。   In the invention according to claim 8, which is dependent on claim 1, storage control means for storing an object corresponding to the candidate information designated by the designation means in association with information stored in the storage means is further provided. It is characterized by providing.

上記請求項1に従属する請求項9に記載の発明では、前記特定手段は、前記画像取得手段により取得された画像に含まれるオブジェクトとして文字情報を特定することを特徴とする。   The invention according to claim 9 that is dependent on claim 1 is characterized in that the specifying means specifies character information as an object included in the image acquired by the image acquiring means.

上記請求項1に従属する請求項10に記載の発明では、前記指定手段により指定された候補情報に該当するオブジェクトを、文字入力手段によって入力される文字情報として設定する設定手段を更に備えることを特徴とする。   The invention according to claim 10, which is dependent on claim 1, further comprises setting means for setting an object corresponding to the candidate information specified by the specifying means as character information input by the character input means. Features.

請求項11に記載の発明では、撮像手段により撮像された画像の少なくとも一部を画面に表示する画像表示手段と、前記画像表示手段による画像の表示を所定のタイミングで更新する画像更新手段と、撮像手段により撮像された画像に含まれる第1の文字情報を特定する特定手段と、第2の文字情報を指定する指定手段と、前記特定手段により特定された第1の文字情報の中に、前記指定手段により指定された第2の文字情報に一致する該当文字情報が存在するか否かを判別する判別手段と、前記判別手段により該当文字情報が存在すると判別された場合に、その該当文字情報の表示位置を表示画面上で識別表示する識別表示手段と、前記画像更新手段が画像の表示を更新した時に、前記識別表示手段による識別表示を更新する識別表示更新手段とを具備することを特徴とする。 In the invention described in claim 11, an image display unit that displays at least a part of an image captured by the imaging unit on a screen, an image update unit that updates display of an image by the image display unit at a predetermined timing, Among the specifying means for specifying the first character information included in the image captured by the imaging means, the specifying means for specifying the second character information, and the first character information specified by the specifying means, A determining unit that determines whether or not the corresponding character information that matches the second character information specified by the specifying unit exists; and if the determining unit determines that the corresponding character information exists, the corresponding character Identification display means for identifying and displaying the display position of information on the display screen, and identification display update for updating the identification display by the identification display means when the image updating means updates the image display Characterized by comprising a stage.

上記請求項11に従属する請求項12に記載の発明では、撮像手段により撮像された画像の少なくとも一部と、前記指定手段により指定された第2の文字情報とを同時に画面表示する同時表示手段を更に備えることを特徴とする。   In the invention according to claim 12, which is dependent on the above-mentioned claim 11, simultaneous display means for simultaneously displaying on the screen at least a part of the image picked up by the image pickup means and the second character information designated by the designation means. Is further provided.

上記請求項11に従属する請求項13に記載の発明では、前記画像表示手段が、撮像手段により撮像された画像の少なくとも一部を画面に表示している状態で、前記指定手段により指定された第2の文字情報を変更する文字情報変更手段を更に備えることを特徴とする。   In the invention according to claim 13, which is dependent on claim 11, the image display means is designated by the designation means in a state where at least a part of the image taken by the image pickup means is displayed on the screen. Characteristic information changing means for changing the second character information is further provided.

上記請求項11に従属する請求項14に記載の発明では、前記画像表示手段が撮像手段により撮像された画像の少なくとも一部を画面に表示している状態で、前記指定手段により指定された第2の文字情報に一致する該当文字情報が画面に表示されているか否かを判別する表示判別手段と、前記表示判別手段により該当文字情報が画面に表示されていないと判別された場合に、その該当文字情報の位置を示す位置情報を表示する位置情報表示手段とを更に備えることを特徴とする。   In the invention according to claim 14, which is dependent on the above-described claim 11, the image display means displays at least a part of the image picked up by the image pickup means on the screen. Display determining means for determining whether or not the corresponding character information matching the character information of 2 is displayed on the screen, and when the display determining means determines that the corresponding character information is not displayed on the screen, It further comprises position information display means for displaying position information indicating the position of the corresponding character information.

上記請求項14に従属する請求項15に記載の発明では、前記画像更新手段が画像の表示を更新した時に、前記位置情報表示手段により表示される位置情報の表示を更新する位置情報更新手段を更に備えることを特徴とする。   In the invention according to claim 15, which is dependent on the above-mentioned claim 14, when the image update means updates the display of the image, the position information update means for updating the display of the position information displayed by the position information display means is provided. It is further provided with the feature.

上記請求項11に従属する請求項16に記載の発明では、前記画像表示手段が撮像手段により撮像された画像の少なくとも一部を画面に表示している状態で、前記指定手段により指定された第2の文字情報に一致する該当文字情報が画面に表示されているか否かを判別する表示判別手段と、前記表示判別手段により該当文字情報が画面に表示されていないと判別された場合に、その該当文字情報が画面に表示されるように画像の表示位置を変更する表示位置変更手段とを更に備えることを特徴とする。   In the invention according to claim 16 that is dependent on the above-mentioned claim 11, the image display means displays at least a part of the image picked up by the image pickup means on the screen. Display determining means for determining whether or not the corresponding character information matching the character information of 2 is displayed on the screen, and when the display determining means determines that the corresponding character information is not displayed on the screen, It further comprises display position changing means for changing the display position of the image so that the corresponding character information is displayed on the screen.

上記請求項11に従属する請求項17に記載の発明では、前記画像表示手段が撮像手段により撮像された画像の少なくとも一部を画面に表示している状態で、前記指定手段により指定された第2の文字情報に一致する該当文字情報が画面に表示されているか否かを判別する表示判別手段と、前記表示判別手段により該当文字情報が画面に表示されていると判別された場合、その旨を報知する報知手段とを更に備えることを特徴とする。   In the invention according to claim 17 that is dependent on the above-mentioned claim 11, the image display means displays at least a part of the image picked up by the image pickup means on the screen. Display determination means for determining whether or not the corresponding character information matching the character information of 2 is displayed on the screen, and if the display determination means determines that the corresponding character information is displayed on the screen It is further provided with an informing means for informing.

請求項18に記載の発明では、コンピュータに、画像を取得する画像取得ステップと、前記画像取得ステップで取得された画像の少なくとも一部を画面に表示する画像表示ステップと、前記画像取得ステップで取得された画像に含まれるオブジェクトを特定する特定ステップと、前記特定ステップで特定されたオブジェクトを候補情報として抽出する抽出ステップと、前記抽出ステップにて抽出された候補情報のいずれかを指定する指定ステップと、前記画像表示ステップで画像の少なくとも一部が画面に表示されている時に、前記指定ステップにより指定された候補情報に該当するオブジェクトの表示位置を当該画面上で識別表示する識別表示ステップとを実行させることを特徴とする。 In the invention according to claim 18, an image acquisition step of acquiring an image on a computer, an image display step of displaying at least a part of the image acquired in the image acquisition step on a screen, and an acquisition in the image acquisition step A specifying step for specifying an object included in the extracted image, an extracting step for extracting the object specified in the specifying step as candidate information, and a specifying step for specifying any of the candidate information extracted in the extracting step And an identification display step for identifying and displaying on the screen the display position of the object corresponding to the candidate information specified in the specification step when at least a part of the image is displayed on the screen in the image display step. It is made to perform.

請求項19に記載の発明では、撮像された画像の少なくとも一部を画面に表示する画像表示ステップと、前記画像表示ステップによる画像の表示を所定のタイミングで更新する画像更新ステップと、撮像された画像に含まれる第1の文字情報を特定する特定ステップと、第2の文字情報を指定する指定ステップと、前記特定ステップで特定された第1の文字情報の中に、前記指定ステップにより指定された第2の文字情報に一致する該当文字情報が存在するか否かを判別する判別ステップと、前記判別ステップにて該当文字情報が存在すると判別された場合に、その該当文字情報の表示位置を表示画面上で識別表示する識別表示ステップと、前記画像更新ステップが画像の表示を更新した時に、前記識別表示ステップによる識別表示を更新する識別表示更新ステップとを実行させることを特徴とする。   In the invention according to claim 19, an image display step for displaying at least a part of the captured image on a screen, an image update step for updating display of the image by the image display step at a predetermined timing, and the captured image It is specified by the specifying step in the specifying step for specifying the first character information included in the image, the specifying step for specifying the second character information, and the first character information specified in the specifying step. A determination step for determining whether or not there is corresponding character information matching the second character information, and if it is determined in the determination step that the corresponding character information exists, the display position of the corresponding character information is An identification display step for identifying and displaying on the display screen, and when the image update step updates the display of the image, the identification display by the identification display step is updated. Characterized in that to execute the identification display update step.

本発明では、画像に含まれるオブジェクトの中から、あるオブジェクトを容易に識別させることができる。   In the present invention, an object can be easily identified from among objects included in an image.

実施の一形態による携帯電話10が有する機能の概要を説明する為のシステム構成図である。1 is a system configuration diagram for explaining an overview of functions of a mobile phone 10 according to an embodiment. FIG. 携帯電話10の電気的構成を示すブロック図である。2 is a block diagram showing an electrical configuration of the mobile phone 10. FIG. 記憶部101の制御情報記憶部101cに記憶される制御情報の一例を示す図である。It is a figure which shows an example of the control information memorize | stored in the control information memory | storage part 101c of the memory | storage part 101. FIG. 撮像部104の撮影範囲と表示部105に画面表示される表示範囲との対応関係を説明するための図である。6 is a diagram for explaining a correspondence relationship between a shooting range of the imaging unit 104 and a display range displayed on the screen of the display unit 105. FIG. 表示部105に設けられる画面フィールドIMFおよび入力フィールドINFの一例を示す図である。6 is a diagram showing an example of a screen field IMF and an input field INF provided in the display unit 105. FIG. メインルーチンの動作を示すフローチャートである。It is a flowchart which shows operation | movement of a main routine. 機能起動処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a function starting process. 撮影機能処理の動作を示すフローチャートである。It is a flowchart which shows operation | movement of imaging | photography function processing. リアルタイム文字検索処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a real-time character search process. リアルタイム文字検索処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a real-time character search process. 記録画像文字検索処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a recorded image character search process. 記録画像文字検索処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a recorded image character search process. リアルタイム人物検索処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a real-time person search process. 記録画像人物検索処理の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a recorded image person search process. 文字特定処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a character specific process. 人物特定処理の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a person specific process. 文字識別表示更新処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a character identification display update process. 人物識別表示更新処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a person identification display update process. 文字識別表示処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a character identification display process. 人物識別表示処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a person identification display process. 動作の一例を示す図である。It is a figure which shows an example of operation | movement. 動作の一例を示す図である。It is a figure which shows an example of operation | movement. 動作の一例を示す図である。It is a figure which shows an example of operation | movement. 動作の一例を示す図である。It is a figure which shows an example of operation | movement.

以下、図面を参照して本発明の実施の形態について説明する。
A.構成
(1)システム構成
図1は、実施の一形態による携帯電話10が備える機能の概要を説明する為のシステム構成図である。携帯電話10は、移動無線通信機能およびメール送受信機能を備える。移動無線通信機能を用いて通話する場合、携帯電話10は、位置登録している基地局BSを介して発信側の交換機SWに発呼する。発信側の交換機SWは、発呼に応じて、無線通信網RN中に設けられる加入者登録サーバ(不図示)から問い合せた着番号(加入者番号)および位置登録情報に基づき着信側の交換機SWを呼出す。着信側の交換機SWは、着信側の基地局BSを介して着信側の携帯電話10(不図示)を呼出し、これに応じて着信側が着呼応答すると、発信側の交換機SWと着信側の交換機SWとのリンクが確立して通話可能になる。
Embodiments of the present invention will be described below with reference to the drawings.
A. Constitution
(1) System Configuration FIG. 1 is a system configuration diagram for explaining an overview of functions provided in the mobile phone 10 according to an embodiment. The mobile phone 10 has a mobile radio communication function and a mail transmission / reception function. When a call is made using the mobile radio communication function, the mobile phone 10 makes a call to the originating exchange SW via the registered base station BS. In response to the outgoing call, the originating side exchange SW switches the terminating side exchange SW based on the called party number (subscriber number) and location registration information inquired from a subscriber registration server (not shown) provided in the wireless communication network RN. Call. The called-side exchange SW calls the called-side mobile phone 10 (not shown) via the called-side base station BS, and when the called-side side responds to the incoming call, the calling-side exchange SW and the called-side exchange are exchanged. A link with the SW is established and communication becomes possible.

メール送受信機能を用いて携帯電話10から送信されるメールは、基地局BS、交換機SWおよび無線通信網RN中に設けられるゲートウェイサーバ(不図示)を経てインターネットITN上のメールサーバ(不図示)に伝送される。メールサーバは、上述とは逆の経路を辿って宛先のメールアドレスを有する携帯電話10にメールを送るようになっている。また、携帯電話10は、移動無線通信機能を用い、基地局BS、交換機SWおよび無線通信網RNを経由してインターネットITN上の情報配信装置20にアクセスして画像データ(静止画像/動画像)をダウンロードして取得する。   Mail transmitted from the mobile phone 10 using the mail transmission / reception function is sent to a mail server (not shown) on the Internet ITN via a base station BS, an exchange SW, and a gateway server (not shown) provided in the wireless communication network RN. Is transmitted. The mail server is configured to send mail to the mobile phone 10 having the destination mail address by following the reverse route. In addition, the mobile phone 10 uses the mobile radio communication function to access the information distribution apparatus 20 on the Internet ITN via the base station BS, the exchange SW, and the radio communication network RN to obtain image data (still image / moving image). Download and get.

(2)携帯電話10の電気的構成
図2は、携帯電話10の電気的構成を示すブロック図である。この図において、制御部100は、CPUおよび入出力回路などから構成され、後述する操作部106から供給される各種の操作イベントに応じて、携帯電話10の各部の動作を制御する。本発明の要旨に係わる制御部100の特徴的な処理動作については追って詳述する。
(2) Electrical configuration of mobile phone 10 FIG. 2 is a block diagram showing an electrical configuration of the mobile phone 10. In this figure, a control unit 100 includes a CPU, an input / output circuit, and the like, and controls the operation of each unit of the mobile phone 10 in accordance with various operation events supplied from an operation unit 106 described later. A characteristic processing operation of the control unit 100 according to the gist of the present invention will be described in detail later.

記憶部101は、ROMおよびRAMから構成され、後述の各記憶部101a〜101eを有する。プログラム記憶部101aには、制御部100により実行される各種プログラムデータや、所定のプログラムにより参照される制御データの他、例えば待受画面などの各種表示画面を形成する画面データが記憶される。なお、プログラム記憶部101aに記憶される各種プログラムとは、追って詳述するメインルーチン、機能起動処理、撮影機能処理、リアルタイム文字検索処理、記録画像文字検索処理、リアルタイム人物検索処理、記録画像人物検索処理、文字特定処理、人物特定処理、文字識別表示更新処理、人物識別表示更新処理、文字識別表示処理および人物識別表示処理を含む。   The memory | storage part 101 is comprised from ROM and RAM, and has each memory | storage part 101a-101e mentioned later. The program storage unit 101a stores various program data executed by the control unit 100, control data referred to by a predetermined program, and screen data forming various display screens such as a standby screen. The various programs stored in the program storage unit 101a are a main routine, a function activation process, a shooting function process, a real-time character search process, a recorded image character search process, a real-time person search process, a recorded image person search, which will be described in detail later. Processing, character identification processing, person identification processing, character identification display update processing, person identification display update processing, character identification display processing, and person identification display processing.

各種情報一時記憶部101bは、ワークエリアおよび画像データエリアを備える。各種情報一時記憶部101bのワークエリアには、携帯電話10の動作に必要な各種レジスタ・フラグデータや表示部105の表示画面を形成するための画面情報などが記憶される。一方、画像データエリアには、撮像部104により撮影され、記録指示された画像(静止画データ/動画データ)や、インターネットITN上の画像配信装置20からダウンロードした画像(静止画データ/動画データ)が保存される。   The various information temporary storage unit 101b includes a work area and an image data area. In the work area of the various information temporary storage unit 101b, various register / flag data necessary for the operation of the mobile phone 10, screen information for forming the display screen of the display unit 105, and the like are stored. On the other hand, in the image data area, an image (still image data / moving image data) photographed and recorded by the imaging unit 104, or an image downloaded from the image distribution device 20 on the Internet ITN (still image data / moving image data). Is saved.

制御情報記憶部101cには、図3に図示するように、2つの項目(「表示位置を変更する」又は「位置表示する」)の内、ユーザ操作に応じて設定される設定フラグで指定される項目の制御情報が記憶される。この項目とは、該当するオブジェクトが画像中に存在するが画面表示されていない場合に、どのような制御を行うかを指定する。例えば、「表示位置を変更する」の設定フラグが「1」にセットされた場合、制御情報は、画像中に存在する該当オブジェクトの表示位置を変更させることを意味する。また、「位置表示する」設定フラグが「1」にセットされた場合、制御情報は、画像中に存在する該当オブジェクトの位置を表示させることを意味する。 As shown in FIG. 3, the control information storage unit 101c is designated by a setting flag that is set in accordance with a user operation out of two items (“change display position” or “display position”). Control information of items to be stored is stored. This item designates what control is to be performed when the corresponding object exists in the image but is not displayed on the screen. For example, when the setting flag “change display position” is set to “1”, the control information means that the display position of the corresponding object existing in the image is changed. Further, when the “display position” setting flag is set to “1”, the control information means that the position of the corresponding object existing in the image is displayed.

辞書データベース記憶部101dには、仮名漢字変換用の辞書データ、すなわち文字入力される「読み」に対応付けられた「変換候補(単語)」を表す辞書データが記憶管理される。アドレス帳記憶部101eには、登録番号毎に対応付けられた個人の属性を表す情報であって、例えば「名前」、「電話番号」、「メールアドレス」および「画像」等から構成されるアドレス帳データが記憶される。   In the dictionary database storage unit 101d, dictionary data for kana-kanji conversion, that is, dictionary data representing “conversion candidates (words)” associated with “reading” inputted as characters is stored and managed. In the address book storage unit 101e, information representing personal attributes associated with each registration number, for example, an address composed of "name", "telephone number", "mail address", "image", etc. Book data is stored.

無線通信送受信部102は、データ通信時には制御部100の制御の下に、アンテナANT1を介して基地局BSとデータ授受を行い、音声通話時にはアンテナANT1を介して受信復調した音声データを制御部100に出力する一方、制御部100から供給される音声データを変調して得た送信信号を高周波増幅してアンテナANT1から送出する。音声信号処理部103は、スピーカSPおよびマイクMICを備え、制御部100から供給される音声データを音声信号にD/A変換してスピーカSPから発音させたり、マイクMICから出力される音声信号を音声データにA/D変換して制御部100に供給する。 The wireless communication transmitting / receiving unit 102 exchanges data with the base station BS through the antenna ANT1 under the control of the control unit 100 during data communication, and the control unit 100 receives and demodulates the voice data received and demodulated through the antenna ANT1 during voice communication. On the other hand, the transmission signal obtained by modulating the audio data supplied from the control unit 100 is amplified by high frequency and transmitted from the antenna ANT1. The audio signal processing unit 103 includes a speaker SP and a microphone MIC. The audio data supplied from the control unit 100 is D / A converted into an audio signal to generate sound from the speaker SP, or an audio signal output from the microphone MIC is output. The audio data is A / D converted and supplied to the control unit 100.

撮像部104は、被写体の明るさに応じて制御部100が指定する撮影パラメータ(ISO感度およびシャッター速度)に従って撮影した画像を出力する。撮像部104の撮影範囲は、図4に図示する一例のように、新聞紙面を文字判読可能な距離から撮影した場合、撮影範囲(一度に撮影できる範囲)の中に表示範囲が収まる。表示範囲はズーム操作により可変となり、撮影範囲を全て表示範囲に設定することも可能になっている。 The imaging unit 104 outputs an image captured according to the imaging parameters (ISO sensitivity and shutter speed) specified by the control unit 100 according to the brightness of the subject. As shown in the example shown in FIG. 4, the shooting range of the imaging unit 104 is such that the display range is within the shooting range (the range that can be shot at once) when the newspaper is shot from a distance that allows text interpretation. The display range can be changed by a zoom operation, and the entire shooting range can be set as the display range.

表示部105は、カラー液晶パネルおよび表示ドライバから構成され、制御部100の制御の下に、待受画面など各種の操作画面の他、撮像部104により撮影された画像や無線通信部102を介してインターネットITN上の画像配信装置20から取得した画像を画面表示する。また、表示部105の表示画面は、図5に図示するように、画像を表示する領域となる画像フィールドIMFと、主に文字入力領域として使われる入力フィールドINFとを備える。 The display unit 105 includes a color liquid crystal panel and a display driver. Under the control of the control unit 100, various operation screens such as a standby screen, images captured by the imaging unit 104, and the wireless communication unit 102 are used. The image acquired from the image distribution apparatus 20 on the Internet ITN is displayed on the screen. Further, as shown in FIG. 5, the display screen of the display unit 105 includes an image field IMF that is an area for displaying an image, and an input field INF that is mainly used as a character input area.

操作部106には、パワーオンオフする電源スイッチ、通話開始/終了時に操作されるオフフック/オンフックスイッチ、ダイヤルスイッチと兼用の文字入力スイッチ、シャッタボタン等の各種操作キーやボタンを有し、それらキーやボタンの操作に応じたイベントを発生して制御部100に出力する。RTC107は、時刻計時やタイマ割り込みに用いるリアルタイムクロックを発生して制御部100に供給する。報知部108は、制御部100から供給される報知信号に応じて報知動作(サウンドスピーカ108aの鳴音、LED108bの発光および振動モータ108cの駆動)を行う。電池部109は、携帯電話10の各部を駆動する駆動電圧を発生する。 The operation unit 106 has various operation keys and buttons such as a power switch for power on / off, an off-hook / on-hook switch operated at the start / end of a call, a character input switch that also serves as a dial switch, and a shutter button. An event corresponding to the button operation is generated and output to the control unit 100. The RTC 107 generates a real-time clock used for timekeeping and timer interruption and supplies it to the control unit 100. The notification unit 108 performs a notification operation (sounding of the sound speaker 108a, light emission of the LED 108b, and driving of the vibration motor 108c) according to the notification signal supplied from the control unit 100. The battery unit 109 generates a driving voltage that drives each unit of the mobile phone 10.

B.動作
次に、図6〜図24を参照して上記構成による携帯電話10の動作を説明する。以下では、制御部100が実行するメインルーチン、機能起動処理、撮影機能処理、リアルタイム文字検索処理、記録画像文字検索処理、リアルタイム人物検索処理、記録画像人物検索処理、文字特定処理、人物特定処理、文字識別表示更新処理、人物識別表示更新処理、文字識別表示処理および人物識別表示処理の各動作について述べる。
B. Action
Next, the operation of the mobile phone 10 having the above configuration will be described with reference to FIGS. In the following, a main routine executed by the control unit 100, a function activation process, a photographing function process, a real-time character search process, a recorded image character search process, a real-time person search process, a recorded image person search process, a character specification process, a person specification process, Each operation of the character identification display update process, the person identification display update process, the character identification display process, and the person identification display process will be described.

(1)メインルーチンの動作
図6は、制御部100が実行するメインルーチンの動作を示すフローチャートである。制御部100は、ステップSA1において電源オン操作が為されるまで待機し、ユーザが電源オン操作を行うと、判断結果は「YES」になり、ステップSA2に進む。ステップSA2では、電源オンに応じて携帯電話10の各部をイニシャライズした後、無線通信網RNに位置登録を行って待ち受け状態に入る待受処理を実行する。なお、待ち受け状態になると、表示部105には待受画面(図示略)が画面表示される。
(1) Operation of Main Routine FIG. 6 is a flowchart showing the operation of the main routine executed by the control unit 100. The control unit 100 stands by until a power-on operation is performed in step SA1, and when the user performs a power-on operation, the determination result is “YES”, and the process proceeds to step SA2. In step SA2, each part of the mobile phone 10 is initialized in response to power-on, and then a standby process for entering a standby state by performing location registration in the wireless communication network RN is executed. In the standby state, a standby screen (not shown) is displayed on the screen of the display unit 105.

続いて、ステップSA3〜SA7では、それぞれ「設定操作」、「機能起動操作」、「着信検知」、「電源オフ操作」および「その他の操作」の各イベントの有無を判断する。これらイベントが発生しなければ、ステップSA3〜SA7の各判断結果はいずれも「NO」になり、上記ステップSA2の待ち受け状態で待機する。そして、この待ち受け状態において上記イベントのいずれかが発生すると、その発生したイベントに対応した処理を実行する。以下、イベント別に分けて動作説明を進める。   Subsequently, in steps SA3 to SA7, the presence / absence of each event of “setting operation”, “function activation operation”, “incoming call detection”, “power-off operation”, and “other operation” is determined. If these events do not occur, the determination results of steps SA3 to SA7 are all “NO”, and the apparatus waits in the standby state of step SA2. When any of the above events occurs in this standby state, processing corresponding to the generated event is executed. Hereinafter, the operation will be described separately for each event.

<設定操作された場合>
設定操作イベントが発生すると、上記ステップSA3の判断結果が「YES」となり、ステップSA8に進み、ユーザにより行われた設定操作に応じた設定処理を実行する。具体的には、上述した制御情報記憶部101cにおける設定フラグ操作により制御情報(項目)を指定したり、ダウンロードした画像を記録するなどの処理を実行した後、上記ステップSA2の待ち受け状態に復帰する。
<When a setting operation is performed>
When a setting operation event occurs, the determination result in step SA3 is “YES”, the process proceeds to step SA8, and a setting process corresponding to the setting operation performed by the user is executed. Specifically, after performing processing such as designating control information (item) by setting flag operation in the control information storage unit 101c described above or recording a downloaded image, the process returns to the standby state in step SA2. .

<機能起動操作された場合>
機能起動操作イベントが発生すると、上記ステップSA4の判断結果が「YES」となり、ステップSA9に進み、機能起動処理(後述する)を実行した後、上記ステップSA2の待ち受け状態に復帰する。
<When the function is activated>
When a function activation operation event occurs, the determination result in step SA4 is “YES”, and the process proceeds to step SA9. After function activation processing (described later) is executed, the process returns to the standby state in step SA2.

<着信検知した場合>
着信検知イベントが発生すると、上記ステップSA5の判断結果が「YES」になり、ステップSA10に進む。ステップSA10では、着信報知を行うと共に、この着信報知中にオフフック操作されると発呼側と回線接続して通話を開始させ、通話中にオンフック操作されると回線切断する通話処理を実行した後、上記ステップSA2の待ち受け状態に復帰する。
<When an incoming call is detected>
When an incoming call detection event occurs, the determination result in step SA5 is “YES”, and the flow proceeds to step SA10. In step SA10, the incoming call notification is performed, and if the off-hook operation is performed during the incoming call notification, the line is connected to the calling side to start the call, and the call is disconnected when the on-hook operation is performed during the call. The process returns to the standby state in step SA2.

<電源オフ操作された場合>
電源オフ操作イベントが発生すると、上記ステップSA6の判断結果が「YES」になり、ステップSA11に進み、電源オフ処理を実行した後、本処理を完了させる。
<When the power is turned off>
When a power-off operation event occurs, the determination result in step SA6 is “YES”, and the process proceeds to step SA11 to execute the power-off process, and then this process is completed.

<その他の操作の場合>
その他の操作(例えば発信操作やメール受信操作など)が行われると、上記ステップSA7の判断結果が「YES」となり、ステップSA12に進み、操作に対応した処理を実行した後、上記ステップSA2の待ち受け状態に復帰する。
<For other operations>
When other operations (for example, a transmission operation or a mail reception operation) are performed, the determination result in step SA7 is “YES”, and the process proceeds to step SA12. After executing processing corresponding to the operation, the process waits for step SA2. Return to the state.

(2)機能起動処理の動作
次に、図7を参照して機能起動処理の動作について説明する。上述したメインルーチンのステップSA9(図6参照)を介して本処理が実行されると、制御部100は図7に図示するステップSB1〜SB4において、機能起動操作により起動指示された機能が「撮影機能」、「リアルタイム文字検索機能」、「記録画像文字検索機能」、「リアルタイム人物検索機能」および「記録画像人物検索機能」のいずれであるかを判断する。以下、これら各機能が起動された場合に分けて動作説明を進める。
(2) Operation of Function Activation Process Next, the operation of the function activation process will be described with reference to FIG. When this process is executed via step SA9 (see FIG. 6) of the main routine described above, the control unit 100 determines that the function instructed by the function activation operation is “imaging” in steps SB1 to SB4 illustrated in FIG. It is determined whether the function is “real-time character search function”, “recorded image character search function”, “real-time person search function”, or “recorded image person search function”. Hereinafter, the description of the operation will be made separately when each of these functions is activated.

<撮影機能が起動された場合>
この場合、ステップSB1の判断結果が「YES」となり、ステップSB5を介して撮影処理を実行してから待ち受け状態に復帰する。撮影処理(図8参照)では、後述するように、所定時間経過毎(一定周期毎)に撮像部104から撮像出力される画像を表示部105に画面表示して表示更新し、その過程で「記録操作(シャッタボタン操作)」された場合には撮像部104から撮像出力される画像を各種情報一時記憶部101bの画像データエリア(不図示)に記録し、「終了操作」された場合には本処理を終了し、「その他の操作」がなされた場合には、その他の処理を実行する。
<When the shooting function is activated>
In this case, the determination result in step SB1 is “YES”, and after returning to the standby state after performing the photographing process via step SB5. In the imaging process (see FIG. 8), as will be described later, an image captured and output from the imaging unit 104 is displayed on the display unit 105 and updated for display every predetermined time (every fixed period). When “recording operation (shutter button operation)” is performed, an image output from the imaging unit 104 is recorded in an image data area (not shown) of the various information temporary storage unit 101b, and when “end operation” is performed. When this process ends and “other operation” is performed, the other process is executed.

<リアルタイム文字検索機能が起動された場合>
この場合、ステップSB2の判断結果が「YES」となり、ステップSB6を介してリアルタイム文字検索処理を実行した後、待ち受け状態に復帰する。リアルタイム文字検索処理(図9〜図10参照)では、後述するように、所定時間経過毎に撮影される画像に対して画像認識を施して当該画像に含まれる文字を特定し、特定した各文字の画像中の位置および表示位置を記憶すると共に、その記憶された各文字を組み合わせて有意な文字列(単語)を辞書データベースから検索し、該当する文字列(単語)を候補として抽出して一時記憶しておく。
<When the real-time character search function is activated>
In this case, the determination result in step SB2 is “YES”, and after executing the real-time character search process via step SB6, the process returns to the standby state. In the real-time character search process (see FIGS. 9 to 10), as will be described later, image recognition is performed on an image taken every predetermined time to identify characters included in the image, and each identified character The position and display position in the image are stored, a significant character string (word) is searched from the dictionary database by combining the stored characters, and the corresponding character string (word) is extracted as a candidate and temporarily stored. Remember.

そして、この一時記憶された候補(単語)の中から「識別表示」された検索文字列、「位置表示」された検索文字列または「入力」された検索文字列を検索して候補(単語)に一致する検索文字列が存在すると、その該当する検索文字列が表示部105の表示画面(画像フィールドIMF)に表示されているか否かを判断し、表示されている場合には、識別表示(既に識別表示されている時は表示更新)すると共に、該当する検索文字列の検出を音・光・振動で報知する。 Then, the search character string “identified”, the search character string “positioned”, or the “input” search character string is searched from the temporarily stored candidates (words) to obtain candidates (words). If there is a search character string that matches, it is determined whether or not the corresponding search character string is displayed on the display screen (image field IMF) of the display unit 105. When the identification is already displayed, the display is updated), and the detection of the corresponding search character string is notified by sound, light, and vibration.

<記録画像文字検索機能が起動された場合>
この場合、ステップSB3の判断結果が「YES」となり、ステップSB7を介して記録画像文字検索処理を実行した後、待ち受け状態に復帰する。記録画像文字検索処理(図11〜図12参照)では、後述するように、各種情報記憶部101bの画像データエリア(不図示)に記録された画像の中から文字検索すべく選択した画像に対して画像認識を施して当該画像に含まれる文字を特定し、特定した各文字の画像中の位置および表示位置を記憶すると共に、その記憶された各文字を組み合わせて有意な文字列(単語)を辞書データベースから検索し、該当する文字列(単語)を候補として抽出して一時記憶しておく。
<When the recorded image text search function is activated>
In this case, the determination result in step SB3 is “YES”, and after executing the recorded image character search process via step SB7, the process returns to the standby state. In the recorded image character search process (see FIGS. 11 to 12), as will be described later, an image selected for character search from images recorded in an image data area (not shown) of the various information storage unit 101b is selected. The image recognition is performed to identify the character included in the image, the position of each identified character in the image and the display position are stored, and a significant character string (word) is combined by combining the stored characters. A search is made from the dictionary database, and the corresponding character string (word) is extracted as a candidate and temporarily stored.

そして、この一時記憶された候補(単語)の中から「識別表示」された検索文字列、「位置表示」された検索文字列または「入力」された検索文字列を検索して候補(単語)に一致する検索文字列が存在すると、その該当する検索文字列が表示部105の表示画面(画像フィールドIMF)に表示されているか否かを判断し、表示されている場合には、識別表示(既に識別表示されている時は表示更新)すると共に、該当する検索文字列の検出を音・光・振動で報知する。 Then, the search character string “identified”, the search character string “positioned”, or the “input” search character string is searched from the temporarily stored candidates (words) to obtain candidates (words). If there is a search character string that matches, it is determined whether or not the corresponding search character string is displayed on the display screen (image field IMF) of the display unit 105. When the identification is already displayed, the display is updated), and the detection of the corresponding search character string is notified by sound, light, and vibration.

<リアルタイム人物検索機能が起動された場合>
この場合、ステップSB4の判断結果が「YES」となり、ステップSB8を介してリアルタイム人物検索処理を実行した後、待ち受け状態に復帰する。リアルタイム人物検索処理(図13参照)では、後述するように、所定時間経過毎に撮影される画像に対して顔認識を施して当該画像に写る人物(顔が写っている人物像)を特定し、特定された人物の画像中での位置および表示部105の表示画面上の表示位置を各種情報一時記憶部101bに一時記憶すると共に、特定された人物(顔が写っている人物像)を候補として抽出して一時記憶しておく。
<When the real-time person search function is activated>
In this case, the determination result in step SB4 is “YES”, the real-time person search process is executed via step SB8, and then the standby state is restored. In the real-time person search process (see FIG. 13), as will be described later, face recognition is performed on an image taken every predetermined time, and a person appearing in the image (a person image showing a face) is specified. The position in the image of the specified person and the display position on the display screen of the display unit 105 are temporarily stored in the various information temporary storage unit 101b, and the specified person (person image with a face) is selected as a candidate. Extracted as a temporary storage.

そして、この一時記憶された候補(人物像)の中から「識別表示」された人物、「位置表示」された人物または「選択された候補(人物像)」を検索し、該当する人物が画像中に存在すると、その該当人物が表示部105の表示画面(画像フィールドIMF)に表示されているか否かを判断し、表示されている場合には、識別表示(既に識別表示されている時は表示更新)すると共に、該当人物の検出を音・光・振動で報知する。 Then, from the temporarily stored candidates (person images), a “identified display” person, a “position display” person, or a “selected candidate (person image)” is searched, and the corresponding person is an image. If it is present, it is determined whether or not the corresponding person is displayed on the display screen (image field IMF) of the display unit 105. Display update), and the detection of the person is notified by sound, light, and vibration.

<記録画像人物検索機能が起動された場合>
この場合、ステップSB4の判断結果が「NO」となり、ステップSB9を介して記録画像人物検索処理を実行した後、待ち受け状態に復帰する。記録画像人物検索処理(図14参照)では、後述するように、各種情報記憶部101bの画像データエリア(不図示)に記録された画像の中から人物検索すべく選択した画像に対して顔認識を施して当該画像に写る人物(顔が写っている人物像)を特定し、特定された人物の画像中での位置および表示部105の表示画面上の表示位置を各種情報一時記憶部101bに一時記憶すると共に、特定された人物(顔が写っている人物像)を候補として抽出して各種情報一時記憶部101bに一時記憶する。
<When the recorded image person search function is activated>
In this case, the determination result in step SB4 is “NO”, and after executing the recorded image person search process via step SB9, the process returns to the standby state. In the recorded image person search processing (see FIG. 14), as will be described later, face recognition is performed on an image selected for person search from images recorded in an image data area (not shown) of the various information storage unit 101b. To identify a person (person image with a face) in the image, and store the position of the specified person in the image and the display position on the display screen of the display unit 105 in the various information temporary storage unit 101b. In addition to temporary storage, the specified person (person image with a face) is extracted as a candidate and temporarily stored in the various information temporary storage unit 101b.

そして、この一時記憶された人物像をサムネイル表示し、その中から検索したい候補(人物像)を指定すると、指定された候補(人物像)に一致する人物が画像中に存在ずれば、その該当する人物が表示部105の表示画面(画像フィールドIMF)に表示されているか否かを判断し、表示されている場合には、識別表示すると共に、該当人物の検出を音・光・振動で報知する。 When the temporarily stored person image is displayed as a thumbnail and a candidate (person image) to be searched for is designated from among the thumbnails, if a person matching the designated candidate (person image) does not exist in the image, the corresponding It is determined whether or not the person to be displayed is displayed on the display screen (image field IMF) of the display unit 105. If it is displayed, the person is identified and displayed, and the detection of the person is notified by sound, light, and vibration. To do.

(3)撮影機能処理の動作
次に、図8を参照して撮影機能処理の動作について説明する。上述した機能起動処理のステップSB1(図7参照)を介して本処理が実行されると、制御部100は図8に図示するステップSC1に進む。ステップSC1では、被写体に応じた撮影パラメータ(ISO感度およびホワイトバランス等)に基づき撮像部104が撮像出力する画像を各種情報一時記憶部101bのワークエリアに取り込み、続くステップSC2では、その取り込んだ画像を表示部105に画面表示する。また、ステップSC2では、既に画像が画面表示されている場合には、新たに取り込まれた画像を画面表示して表示更新する。
(3) Operation of Shooting Function Process Next, the operation of the shooting function process will be described with reference to FIG. When this process is executed via step SB1 (see FIG. 7) of the function activation process described above, control unit 100 proceeds to step SC1 shown in FIG. In step SC1, an image output by the imaging unit 104 is captured in the work area of the various information temporary storage unit 101b based on the shooting parameters (ISO sensitivity, white balance, etc.) corresponding to the subject, and in the subsequent step SC2, the captured image is captured. Is displayed on the screen of the display unit 105. In step SC2, if an image has already been displayed on the screen, the newly captured image is displayed on the screen and updated.

次いで、ステップSC3では、撮影開始から所定時間(例えば0.5秒)が経過したかどうかを判断する。所定時間経過した場合には、判断結果が「YES」となり、上記ステップSC1に処理を戻して新たに撮像して取り込んだ画像の表示を更新する。これに対し、所定時間経過していない場合には、上記ステップSC3の判断結果は「NO」となり、ステップSC4に進む。   Next, in step SC3, it is determined whether or not a predetermined time (for example, 0.5 seconds) has elapsed since the start of imaging. If the predetermined time has elapsed, the determination result is “YES”, and the process returns to step SC1 to update the display of the newly captured and captured image. On the other hand, if the predetermined time has not elapsed, the determination result in step SC3 is “NO”, and the flow proceeds to step SC4.

ステップSC4〜SC6では、撮影中に「記録操作」、「終了操作」および「その他の操作」の有無を判断する。そして、「記録操作(シャッタボタン操作)」がなされた場合には、ステップSC4の判断結果が「YES」になり、ステップSC7に進み、各種情報一時記憶部101bのワークエリアに取り込まれている画像を、各種情報記憶部101bの画像データエリアに記録保存した後、上記ステップSC3に処理を戻す。   In steps SC4 to SC6, it is determined whether or not “recording operation”, “end operation” and “other operation” are performed during shooting. If the “recording operation (shutter button operation)” is performed, the determination result in step SC4 is “YES”, the process proceeds to step SC7, and the image captured in the work area of the various information temporary storage unit 101b. Is recorded and saved in the image data area of the various information storage unit 101b, and the process returns to step SC3.

「終了操作」がなされた場合には、ステップSC5の判断結果が「YES」となり、本処理を終える。「その他の操作」がなされた場合、例えば撮影パラメータの変更などを指示する操作が行われると、ステップSC6の判断結果が「YES」となり、ステップSC8に進み、その操作に従って撮影パラメータの設定変更を行う等の「その他の処理」を実行した後、上記ステップSC3に処理を戻す。 When the “end operation” is performed, the determination result in step SC5 is “YES”, and this process is finished. When “other operation” is performed, for example, when an operation for instructing the change of the shooting parameter is performed, the determination result in step SC6 becomes “YES”, and the process proceeds to step SC8, and the setting of the shooting parameter is changed according to the operation. After performing “other processing” such as performing, the processing returns to step SC3.

このように、撮影機能処理では、一定周期毎(所定時間経過毎)に撮像部104から撮像出力される画像を表示部105に画面表示して表示更新し、この過程で「記録操作」された場合には、撮像した画像を各種情報記憶部101bの画像データエリアに記録し、「終了操作」された場合には本処理を終了し、「その他の操作」がなされた場合には、その他の処理を実行するようになっている。   As described above, in the shooting function processing, the image output from the imaging unit 104 is displayed on the display unit 105 and displayed and updated at regular intervals (every predetermined time), and “recording operation” is performed in this process. In this case, the captured image is recorded in the image data area of the various information storage unit 101b, and when “end operation” is performed, this processing is ended. When “other operation” is performed, other information is stored. Processing is to be executed.

(4)リアルタイム文字検索処理の動作
次に、図9を参照してリアルタイム文字検索処理の動作について説明する。前述した機能起動処理のステップSB6(図7参照)を介して本処理が実行されると、制御部100は図9に図示するステップSD1に進み、被写体に応じた撮影パラメータ(ISO感度およびホワイトバランス等)に基づき撮像部104が撮像出力する画像を各種情報一時記憶部101bのワークエリアに取り込み、続くステップSD2では、その取り込んだ画像を表示部105に画面表示する。また、ステップSD2では、既に画像が画面表示されている場合には、新たに取り込まれた画像を画面表示して表示更新する。
(4) Operation of Real-Time Character Search Process Next, the operation of the real-time character search process will be described with reference to FIG. When this process is executed through step SB6 (see FIG. 7) of the function activation process described above, the control unit 100 proceeds to step SD1 shown in FIG. 9, and takes shooting parameters (ISO sensitivity and white balance) corresponding to the subject. Etc.), the image output by the imaging unit 104 is captured in the work area of the various information temporary storage unit 101b. In the subsequent step SD2, the captured image is displayed on the display unit 105 on the screen. In step SD2, if an image has already been displayed on the screen, the newly captured image is displayed on the screen and updated.

次いで、ステップSD3では、文字特定処理を実行する。文字特定処理(図15参照)では、後述するように、上記ステップSD1にて撮影された画像に画像認識を施して当該画像に含まれる文字を特定し、特定した各文字の画像中の位置および表示位置を記憶すると共に、その記憶された各文字を組み合わせて有意な文字列(単語)を辞書データベースから検索し、該当する文字列(単語)を候補として抽出して一時記憶する。   Next, in step SD3, a character specifying process is executed. In the character specifying process (see FIG. 15), as will be described later, image recognition is performed on the image captured in step SD1 to specify characters included in the image, and the position of each specified character in the image and The display position is stored, and a significant character string (word) is searched from the dictionary database by combining the stored characters, and the corresponding character string (word) is extracted as a candidate and temporarily stored.

そして、ステップSD4を介して文字識別表示更新処理を実行する。文字識別表示更新処理(図17参照)では、後述するように、上記ステップSD3の文字特定処理において画像から抽出して一時記憶された候補(単語)の中から「識別表示」された検索文字列、「位置表示」された検索文字列または「入力」された検索文字列を検索し、候補(単語)に一致する検索文字列が存在すると、その該当する検索文字列が表示部105の表示画面(画像フィールドIMF)に表示されているか否かを判断し、表示されている場合には、識別表示(既に識別表示されている時は表示更新)すると共に、該当する検索文字列の検出を音・光・振動で報知する。   And a character identification display update process is performed via step SD4. In the character identification display update process (see FIG. 17), as will be described later, a search character string “identified and displayed” from the candidates (words) extracted from the image and temporarily stored in the character identification process in step SD3. When the search character string “position display” or the search character string “input” is searched and a search character string that matches a candidate (word) exists, the corresponding search character string is displayed on the display screen of the display unit 105. It is determined whether or not it is displayed in the (image field IMF). If it is displayed, it is displayed for identification (display update when it is already displayed for identification), and the detection of the corresponding search character string is sounded.・ Notify by light and vibration.

一方、該当する検索文字列が表示部105の表示画面(画像フィールドIMF)に表示されていない場合、制御情報記憶部101cに記憶される制御情報の「表示位置を変更する」の設定フラグが「1」であると、該当する検索文字列が表示部105の表示画面(画像フィールドIMF)に表示されるように表示位置を変更すると共に、該当する検索文字列を識別表示/更新した後、該当する検索文字列の検出を音・光・振動で報知する。 On the other hand, when the corresponding search character string is not displayed on the display screen (image field IMF) of the display unit 105, the setting flag “change display position” of the control information stored in the control information storage unit 101c is “ 1 ”, the display position is changed so that the corresponding search character string is displayed on the display screen (image field IMF) of the display unit 105, and the corresponding search character string is identified and displayed / updated. The search character string to be detected is notified by sound, light, and vibration.

次いで、ステップSD5では、撮影開始から所定時間(例えば0.5秒)が経過したかどうかを判断する。所定時間経過すると、判断結果は「YES」となり、上記ステップSD1に処理を戻し、新たに撮像された画像を取り込む。これに対し、所定時間経過していなければ、上記ステップSD5の判断結果は「NO」となり、ステップSD6に進む。   Next, in step SD5, it is determined whether a predetermined time (for example, 0.5 seconds) has elapsed since the start of imaging. When the predetermined time has elapsed, the determination result is “YES”, the process returns to step SD1, and a newly captured image is captured. On the other hand, if the predetermined time has not elapsed, the determination result in step SD5 is “NO”, and the process proceeds to step SD6.

そして、ステップSD6〜SD7、図10に図示するステップSD8〜SD10では、「文字入力/変更操作」、「候補表示操作」、「入力候補設定操作」、「終了操作」および「その他の操作」のいずれかの操作が行われたかどうかを判断する。これら操作がいずれも行われなければ、各判断結果はそれぞれ「NO」となり、ステップSD5に処理を戻す。 In steps SD6 to SD7 and steps SD8 to SD10 shown in FIG. 10, “character input / change operation”, “candidate display operation”, “input candidate setting operation”, “end operation”, and “other operations” are performed. Determine whether any operation has been performed. If neither of these operations is performed, each determination result is “NO”, and the process returns to step SD5.

これに対し、「文字入力/変更操作」がなされた場合には、ステップSD6の判断結果が「YES」となり、ステップSD11に進み、文字入力/変更操作に応じて入力フィールドINFに検索文字列を入力したり、入力フィールドINFに入力済みの検索文字列を変更する。そして、ステップSD12を介して文字識別表示処理(図19参照)を実行した後、前述のステップSD5に処理を戻す。 On the other hand, if “character input / change operation” is performed, the determination result in step SD6 is “YES”, and the process proceeds to step SD11, where the search character string is entered in the input field INF in accordance with the character input / change operation. Enter or change the search string already entered in the input field INF. And after performing a character identification display process (refer FIG. 19) via step SD12, a process is returned to above-mentioned step SD5.

文字識別表示処理では、後述するように、上記ステップSD11において、入力フィールドINFに入力/変更された検索文字列を、文字特定処理(図15参照)により画像から抽出して一時記憶された候補(単語)の中から検索し、該当する検索文字列が存在すると、その検索文字列が表示部105の表示画面(画像フィールドIMF)に表示されているか否かを判断し、表示されていれば、識別表示すると共に、該当する検索文字列の検出を音・光・振動で報知する。 In the character identification display process, as will be described later, in step SD11, the search character string input / changed in the input field INF is extracted from the image by the character identification process (see FIG. 15) and temporarily stored ( Word) and if there is a corresponding search character string, it is determined whether or not the search character string is displayed on the display screen (image field IMF) of the display unit 105. In addition to identifying and displaying, the detection of the corresponding search character string is notified by sound, light, and vibration.

一方、該当する検索文字列が表示部105の表示画面(画像フィールドIMF)に表示されていない場合、制御情報記憶部101cに記憶される制御情報の「表示位置を変更する」の設定フラグが「1」であると、該当する検索文字列が表示部105の表示画面(画像フィールドIMF)に表示されるように表示位置を変更すると共に、該当する検索文字列を識別表示/更新した後、該当する検索文字列の検出を音・光・振動で報知する。 On the other hand, when the corresponding search character string is not displayed on the display screen (image field IMF) of the display unit 105, the setting flag “change display position” of the control information stored in the control information storage unit 101c is “ 1 ”, the display position is changed so that the corresponding search character string is displayed on the display screen (image field IMF) of the display unit 105, and the corresponding search character string is identified and displayed / updated. The search character string to be detected is notified by sound, light, and vibration.

「候補表示操作」がなされた場合には、ステップSD7の判断結果が「YES」となり、ステップSD13に進み、上記ステップSD3の文字特定処理において画像から抽出して一時記憶された候補(単語)の一覧を、図23に図示する一例のようにリスト表示する。そして、ステップSD14に進み、リスト表示された候補一覧の中から所望の候補を選択する候補指定操作がなされると、ステップSD15に進み、候補指定操作により選択された候補を検索文字列として入力フィールドINFに入力したり、既に入力済みの検索文字列を選択された候補の検索文字列に変更したりする。そして、この後、ステップSD12に進み、更新された候補(検索文字列)に基づいて文字識別表示処理(図19参照)を実行した後、前述のステップSD5に処理を戻す。 When the “candidate display operation” is performed, the determination result in step SD7 is “YES”, the process proceeds to step SD13, and the candidate (word) extracted from the image and temporarily stored in the character specifying process in step SD3 is stored. A list is displayed as an example shown in FIG. Then, the process proceeds to step SD14, and when a candidate designating operation for selecting a desired candidate from the list of candidates displayed is performed, the process proceeds to step SD15, and the candidate selected by the candidate designating operation is input as a search character string. Input to INF or change a search character string already input to a selected candidate search character string. Thereafter, the process proceeds to step SD12, and after executing a character identification display process (see FIG. 19) based on the updated candidate (searched character string), the process returns to step SD5 described above.

「入力候補設定操作」がなされた場合には、図10に図示するステップSD8の判断結果が「YES」となり、ステップSD16に進み、上述のステップSD4の文字識別表示更新処理(図17参照)において識別表示された検索文字列を、次回以降の文字入力に利用する為、ユーザ入力される「読み」と対応付けた候補(単語)として辞書データベースに登録した後、前述のステップSD5に処理を戻す。 When the “input candidate setting operation” is performed, the determination result in step SD8 shown in FIG. 10 is “YES”, the process proceeds to step SD16, and in the character identification display update process (see FIG. 17) in step SD4 described above. The search character string identified and displayed is registered in the dictionary database as a candidate (word) associated with “reading” input by the user so as to be used for character input from the next time onward, and the process returns to step SD5 described above. .

「終了操作」がなされた場合には、ステップSD9の判断結果が「YES」となり、本処理を終える。「その他の操作」がなされた場合には、ステップSD10の判断結果が「YES」となり、ステップSD17に進み、その他の処理を実行して前述のステップSD5に処理を戻す。その他の処理とは、例えば表示されている画像のズームアップ/ズームダウン操作など画像の表示位置が変更される操作が行われた場合であれば、上述のステップSD3を介して実行される文字特定処理(図15参照)において一時記憶した文字の表示位置を更新したり、上述のステップSD4を介して実行される文字識別表示更新処理(図17参照)においてなされる識別表示や位置表示の更新を行う。 When the “end operation” is performed, the determination result in step SD9 is “YES”, and this process is finished. If "other operation" is performed, the determination result in step SD10 is "YES", the process proceeds to step SD17, other processes are executed, and the process returns to step SD5 described above. The other process is, for example, a character specification executed through the above-described step SD3 if an operation for changing the display position of the image such as a zoom-up / zoom-down operation of the displayed image is performed. The display position of the character temporarily stored in the process (see FIG. 15) is updated, or the identification display and the position display are updated in the character identification display update process (see FIG. 17) executed through the above-described step SD4. Do.

以上のように、リアルタイム文字検索処理では、所定時間経過毎に撮影される画像に対して画像認識を施して当該画像に含まれる文字を特定し、特定した各文字の画像中の位置および表示位置を記憶すると共に、その記憶された各文字を組み合わせて有意な文字列(単語)を辞書データベースから検索し、該当する文字列(単語)を候補として抽出して一時記憶しておき、この一時記憶された候補(単語)の中から「識別表示」された検索文字列、「位置表示」された検索文字列または「入力」された検索文字列を検索して候補(単語)に一致する検索文字列が存在すると、その該当する検索文字列が表示部105の表示画面(画像フィールドIMF)に表示されているか否かを判断し、表示されている場合には、識別表示(既に識別表示されている時は表示更新)すると共に、該当する検索文字列の検出を音・光・振動で報知する。   As described above, in the real-time character search process, image recognition is performed on an image captured every predetermined time to identify characters included in the image, and the position and display position of each identified character in the image Is stored, and the stored characters are combined to retrieve a significant character string (word) from the dictionary database, and the corresponding character string (word) is extracted as a candidate and temporarily stored. Search characters that match "candidate (word)" by searching for "identified display" search character string, "position display" search character string, or "input" search character string If a column exists, it is determined whether or not the corresponding search character string is displayed on the display screen (image field IMF) of the display unit 105. If it is displayed, an identification display (already identified and displayed) is displayed. And together with the display update) the time is, to inform the detection of the appropriate search string in the sound, light and vibration.

(5)記録画像文字検索処理の動作
次に、図11を参照して記録画像文字検索処理の動作について説明する。前述した機能起動処理のステップSB7(図7参照)を介して本処理が実行されると、制御部100は図11に図示するステップSE1に進む。ステップSE1において、各種情報記憶部101bの画像データエリアに記録された画像の中から文字検索の対象となる画像を選択する画像選択操作がなされると、ステップSE2に進み、その選択された画像を読み出して表示部105に画面表示する。
(5) Operation of Recorded Image Character Search Process Next, the operation of the recorded image character search process will be described with reference to FIG. When this process is executed via step SB7 (see FIG. 7) of the function activation process described above, control unit 100 proceeds to step SE1 shown in FIG. In step SE1, when an image selection operation is performed to select an image that is a character search target from images recorded in the image data area of the various information storage unit 101b, the process proceeds to step SE2, and the selected image is displayed. The data is read and displayed on the display unit 105.

続いて、ステップSE3では、上記ステップSE1で選択された画像に対して画像認識を施して当該画像に含まれる文字を特定し、特定した各文字の画像中の位置および表示位置を記憶すると共に、その記憶された各文字を組み合わせて有意な文字列(単語)を辞書データベースから検索し、該当する文字列(単語)を候補として抽出して一時記憶する文字特定処理(図15参照)を実行する。   Subsequently, in step SE3, image recognition is performed on the image selected in step SE1 to specify characters included in the image, and the position and display position of each specified character in the image are stored. A character specifying process (see FIG. 15) is performed in which a significant character string (word) is searched from the dictionary database by combining the stored characters, and the corresponding character string (word) is extracted as a candidate and temporarily stored. .

そして、ステップSE4〜SE5、図12に図示するステップSE6〜SE8では、「文字入力/変更操作」、「候補表示操作」、「入力候補設定操作」、「終了操作」および「その他の操作」のいずれかの操作が行われたかどうかを判断する。これら操作が行われなければ、各判断結果は「NO」になり、ステップSE4に処理を戻す。 Then, in steps SE4 to SE5 and steps SE6 to SE8 shown in FIG. 12, “character input / change operation”, “candidate display operation”, “input candidate setting operation”, “end operation” and “other operations” are selected. Determine whether any operation has been performed. If these operations are not performed, each determination result is “NO”, and the process returns to step SE4.

これに対し、「文字入力/変更操作」がなされた場合には、ステップSE4の判断結果が「YES」となり、ステップSE9に進み、文字入力/変更操作に応じて入力フィールドINFに検索文字列を入力したり、入力フィールドINFに入力済みの検索文字列を変更する。そして、ステップSD12を介して文字識別表示処理(図19参照)を実行した後、前述のステップSD5に処理を戻す。 On the other hand, if “character input / change operation” is performed, the determination result in step SE4 is “YES”, and the process proceeds to step SE9, where the search character string is stored in the input field INF in accordance with the character input / change operation. Enter or change the search string already entered in the input field INF. And after performing a character identification display process (refer FIG. 19) via step SD12, a process is returned to above-mentioned step SD5.

文字識別表示処理では、上記ステップSE9において、入力フィールドINFに入力/変更された検索文字列を、文字特定処理(図15参照)により画像から抽出して一時記憶された候補(単語)の中から検索し、該当する検索文字列が存在すると、その検索文字列が表示部105の表示画面(画像フィールドIMF)に表示されているか否かを判断し、表示されていれば、識別表示すると共に、該当する検索文字列の検出を音・光・振動で報知する。 In the character identification display process, the search character string input / changed in the input field INF in step SE9 is extracted from the images (see FIG. 15) extracted from the image and temporarily stored (words). If the search character string is searched and the corresponding search character string is present, it is determined whether or not the search character string is displayed on the display screen (image field IMF) of the display unit 105. The detection of the corresponding search character string is notified by sound, light and vibration.

一方、該当する検索文字列が表示部105の表示画面(画像フィールドIMF)に表示されていない場合、制御情報記憶部101cに記憶される制御情報の「表示位置を変更する」の設定フラグが「1」であると、該当する検索文字列が表示部105の表示画面(画像フィールドIMF)に表示されるように表示位置を変更すると共に、該当する検索文字列を識別表示/更新した後、該当する検索文字列の検出を音・光・振動で報知する。 On the other hand, when the corresponding search character string is not displayed on the display screen (image field IMF) of the display unit 105, the setting flag “change display position” of the control information stored in the control information storage unit 101c is “ 1 ”, the display position is changed so that the corresponding search character string is displayed on the display screen (image field IMF) of the display unit 105, and the corresponding search character string is identified and displayed / updated. The search character string to be detected is notified by sound, light, and vibration.

「候補表示操作」がなされた場合には、ステップSE5の判断結果が「YES」となり、ステップSE11に進み、上記ステップSE3の文字特定処理において画像から抽出して一時記憶された候補(単語)の一覧を、図23に図示する一例のようにリスト表示する。そして、ステップSE12に進み、リスト表示された候補一覧の中から所望の候補を選択する候補指定操作がなされると、ステップSE13に進み、候補指定操作により選択された候補を検索文字列として入力フィールドINFに入力したり、既に入力済みの検索文字列を選択された候補の検索文字列に変更したりする。この後、上述したステップSE10に進み、更新された候補(検索文字列)に基づいて文字識別表示処理(図19参照)を実行した後、ステップSE4に処理を戻す。 When the “candidate display operation” is performed, the determination result in step SE5 is “YES”, the process proceeds to step SE11, and the candidate (word) extracted from the image and temporarily stored in the character identification process in step SE3 is stored. A list is displayed as an example shown in FIG. Then, the process proceeds to step SE12, and when a candidate designating operation for selecting a desired candidate from the list of candidates displayed is performed, the process proceeds to step SE13, and the candidate selected by the candidate designating operation is input as a search character string. Input to INF or change a search character string already input to a selected candidate search character string. Thereafter, the process proceeds to step SE10 described above, and after executing a character identification display process (see FIG. 19) based on the updated candidate (searched character string), the process returns to step SE4.

「入力候補設定操作」がなされた場合には、図12に図示するステップSE6の判断結果が「YES」となり、ステップSE14に進み、上述のステップSE10(文字識別表示処理)で識別表示された検索文字列を、次回以降の文字入力に利用する為、ユーザ入力される「読み」と対応付けた候補(単語)として辞書データベースに登録した後、前述のステップSE4に処理を戻す。 When the “input candidate setting operation” is performed, the determination result in step SE6 shown in FIG. 12 is “YES”, the process proceeds to step SE14, and the search identified and displayed in step SE10 (character identification display processing) described above. In order to use the character string for subsequent character input, the character string is registered in the dictionary database as a candidate (word) associated with “reading” input by the user, and then the process returns to step SE4.

「終了操作」がなされた場合には、ステップSE7の判断結果が「YES」となり、本処理を終える。「その他の操作」がなされた場合には、ステップSE8の判断結果が「YES」となり、ステップSE15に進み、その他の処理を実行して前述のステップSE4に処理を戻す。その他の処理とは、例えば表示されている画像のズームアップ/ズームダウン操作など画像の表示位置が変更される操作が行われた場合であれば、ステップSE3(文字特定処理)において一時記憶した文字の表示位置を更新したり、ステップSE10(文字識別表示処理)においてなされる識別表示や位置表示の更新を行う。 When the “end operation” is performed, the determination result in step SE7 is “YES”, and this process is finished. If “other operation” is performed, the determination result in step SE8 is “YES”, the process proceeds to step SE15, other processes are executed, and the process returns to step SE4. The other process is, for example, a character temporarily stored in step SE3 (character specifying process) if an operation for changing the display position of the image such as a zoom-up / zoom-down operation of the displayed image is performed. The display position is updated, and the identification display and position display made in step SE10 (character identification display processing) are updated.

以上のように、記録画像文字検索処理では、各種情報記憶部101bの画像データエリアに記録された画像の中から文字検索すべく選択した画像に対して画像認識を施して当該画像に含まれる文字を特定し、特定した各文字の画像中の位置および表示位置を記憶すると共に、その記憶された各文字を組み合わせて有意な文字列(単語)を辞書データベースから検索し、該当する文字列(単語)を候補として抽出して一時記憶する。   As described above, in the recorded image character search process, the image selected for character search from the images recorded in the image data area of the various information storage unit 101b is subjected to image recognition, and the characters included in the image are included. Is stored, the position in the image and the display position of each specified character are stored, and a significant character string (word) is searched from the dictionary database by combining the stored characters, and the corresponding character string (word ) As a candidate and temporarily stored.

そして、この一時記憶された候補(単語)の中から「識別表示」された検索文字列、「位置表示」された検索文字列または「入力」された検索文字列を検索して候補(単語)に一致する検索文字列が存在すると、その該当する検索文字列が表示部105の表示画面(画像フィールドIMF)に表示されているか否かを判断し、表示されている場合には、識別表示(既に識別表示されている時は表示更新)すると共に、該当する検索文字列の検出を音・光・振動で報知する。 Then, the search character string “identified”, the search character string “positioned”, or the “input” search character string is searched from the temporarily stored candidates (words) to obtain candidates (words). If there is a search character string that matches, it is determined whether or not the corresponding search character string is displayed on the display screen (image field IMF) of the display unit 105. When the identification is already displayed, the display is updated), and the detection of the corresponding search character string is notified by sound, light, and vibration.

(6)リアルタイム人物検索処理の動作
次に、図13を参照してリアルタイム人物検索処理の動作について説明する。前述した機能起動処理のステップSB8(図7参照)を介して本処理が実行されると、制御部100は図13に図示するステップSF1に進み、被写体に応じた撮影パラメータ(ISO感度およびホワイトバランス等)に基づき撮像部104が撮像出力する画像を各種情報一時記憶部101bのワークエリアに取り込み、続くステップSF2では、その取り込んだ画像を表示部105に画面表示する。また、ステップSF2では、既に画像が画面表示されている場合には、新たに取り込まれた画像を画面表示して表示更新する。
(6) Operation of Real-Time Person Search Process Next, the operation of the real-time person search process will be described with reference to FIG. When this process is executed via step SB8 (see FIG. 7) of the function activation process described above, the control unit 100 proceeds to step SF1 shown in FIG. 13 and takes shooting parameters (ISO sensitivity and white balance) corresponding to the subject. And the like, the image output by the imaging unit 104 is captured in the work area of the various information temporary storage unit 101b. In the subsequent step SF2, the captured image is displayed on the display unit 105 on the screen. In step SF2, if an image has already been displayed on the screen, the newly captured image is displayed on the screen and updated.

次いで、ステップSF3では、人物特定処理を実行する。人物特定処理(図16参照)では、後述するように、撮影された画像に顔認識を施して当該画像に写る人物(顔が写っている人物像)を特定し、特定された人物の画像中での位置および表示部105の表示画面上の表示位置を各種情報一時記憶部101bに一時記憶すると共に、特定された全ての人物(顔が写っている人物像)を候補として抽出して各種情報一時記憶部101bに一時記憶する。 Next, in step SF3, a person specifying process is executed. In the person identification process (see FIG. 16), as will be described later, face recognition is performed on the captured image to identify a person (person image with a face) in the image, The temporary position and the display position on the display screen of the display unit 105 are temporarily stored in the various information temporary storage unit 101b, and all the specified persons (person images in which the face is reflected) are extracted as candidates for various information. Temporary storage in the temporary storage unit 101b.

そして、ステップSF4を介して人物識別表示更新処理を実行する。人物識別表示更新処理(図18参照)では、後述するように、上記ステップSF3の人物特定処理により画像から抽出して一時記憶された候補(人物像)の中から「識別表示」された人物、「位置表示」された人物または「選択された候補(人物像)」を検索し、候補(人物像)に一致する人物が画像中に存在すると、その該当する人物が表示部105の表示画面(画像フィールドIMF)に表示されているか否かを判断し、表示されている場合には、識別表示(既に識別表示されている時は表示更新)すると共に、該当人物の検出を音・光・振動で報知する。   And a person identification display update process is performed via step SF4. In the person identification display update process (see FIG. 18), as will be described later, the person “identified and displayed” from the candidates (person images) extracted from the image and temporarily stored in the person specifying process in step SF3, When a person who has been “position-displayed” or “selected candidate (person image)” is searched and a person that matches the candidate (person image) exists in the image, that person is displayed on the display screen 105 ( It is determined whether or not it is displayed in the image field (IMF). If it is displayed, it is displayed for identification (or updated when it is already displayed for identification), and the detection of the person is detected by sound, light and vibration. To inform.

一方、該当する人物が表示部105の表示画面(画像フィールドIMF)に表示されていない場合、制御情報記憶部101cに記憶される制御情報の「表示位置を変更する」の設定フラグが「1」であると、該当する人物が表示部105の表示画面(画像フィールドIMF)に表示されるように表示位置を変更すると共に、該当する人物を識別表示/更新した後、該当人物の検出を音・光・振動で報知する。 On the other hand, when the corresponding person is not displayed on the display screen (image field IMF) of the display unit 105, the setting flag of “change display position” of the control information stored in the control information storage unit 101c is “1”. If the display position is changed so that the corresponding person is displayed on the display screen (image field IMF) of the display unit 105, and the corresponding person is identified and displayed / updated, the detection of the corresponding person is sounded. Notification by light and vibration.

次いで、ステップSF5では、撮影開始から所定時間(例えば0.5秒)が経過したかどうかを判断する。所定時間経過すると、判断結果は「YES」となり、上記ステップSF1に処理を戻し、新たに撮像された画像を取り込む。これに対し、所定時間経過していなければ、上記ステップSF5の判断結果は「NO」となり、ステップSF6に進む。そして、ステップSF6〜SF9では、「候補指定操作」、「アドレス帳登録操作」、「終了操作」および「その他の操作」のいずれかの操作が行われたかどうかを判断する。これら操作が行われなければ、各判断結果はいずれも「NO」になり、ステップSF5に処理を戻す。   Next, in step SF5, it is determined whether a predetermined time (for example, 0.5 seconds) has elapsed since the start of imaging. When the predetermined time has elapsed, the determination result is “YES”, and the process returns to step SF1 to capture a newly captured image. On the other hand, if the predetermined time has not elapsed, the determination result in step SF5 is “NO”, and the process proceeds to step SF6. Then, in steps SF6 to SF9, it is determined whether any one of “candidate designation operation”, “address book registration operation”, “end operation”, and “other operation” has been performed. If these operations are not performed, the determination results are all “NO”, and the process returns to step SF5.

これに対し、「候補指定操作」がなされた場合には、ステップSF6の判断結果が「YES」となり、ステップSF10に進み、人物特定処理(図16参照)により画像から抽出して一時記憶された候補(人物像)を、図24に図示する一例のように、入力フィールドINFにサムネイル表示する。なお、サムネイル表示される候補(人物像)は、図示されていない左右キー操作に応じて候補(人物像)の表示位置を左右方向へ移動させて候補を一覧させるようになっている。そして、サムネイル表示される候補(人物像)の中から検索したい候補(人物像)を指定すると、ステップSF11に進み、人物識別表示処理を実行した後、前述のステップSF5に処理を戻す。 On the other hand, when the “candidate designation operation” is performed, the determination result in step SF6 is “YES”, the process proceeds to step SF10, and the person is extracted from the image by the person identification process (see FIG. 16) and temporarily stored. Candidates (person images) are displayed as thumbnails in the input field INF as in the example shown in FIG. The candidates (person images) displayed as thumbnails are displayed by moving the display positions of the candidates (person images) in the left-right direction in accordance with left / right key operations (not shown). When a candidate (person image) to be searched for is specified from the thumbnail display candidates (person images), the process proceeds to step SF11, and after executing the person identification display process, the process returns to step SF5 described above.

人物識別表示処理(図20参照)では、後述するように、指定された候補(人物像)に一致する人物が画像中に存在すると、その該当する人物が表示部105の表示画面(画像フィールドIMF)に表示されているか否かを判断し、表示されている場合には、識別表示すると共に、該当する人物の検出を音・光・振動で報知する。 In the person identification display process (see FIG. 20), as will be described later, when a person that matches a designated candidate (person image) exists in the image, the person is displayed on the display screen (image field IMF) of the display unit 105. ) Is displayed, and if it is displayed, identification is displayed and the detection of the corresponding person is notified by sound / light / vibration.

一方、該当する人物が表示部105の表示画面(画像フィールドIMF)に表示されていない場合、制御情報記憶部101cに記憶される制御情報の「表示位置を変更する」の設定フラグが「1」であると、該当する人物が表示部105の表示画面(画像フィールドIMF)に表示されるように表示位置を変更すると共に、該当する人物を識別表示した後、該当人物の検出を音・光・振動で報知する。 On the other hand, when the corresponding person is not displayed on the display screen (image field IMF) of the display unit 105, the setting flag of “change display position” of the control information stored in the control information storage unit 101c is “1”. , The display position is changed so that the corresponding person is displayed on the display screen (image field IMF) of the display unit 105, the corresponding person is identified and displayed, and then the detection of the corresponding person is performed by sound, light, Notify by vibration.

「アドレス帳登録操作」がなされた場合には、ステップSF7の判断結果が「YES」となり、ステップSF12に進み、該当する人物の画像を所定の範囲で切り出し、ユーザによって選択されたアドレス帳データ(「名前」、「電話番号」、「メールアドレス」等)に「画像」として対応付けてアドレス帳記憶部101eに登録した後、前述のステップSF5に処理を戻す。 When the “address book registration operation” is performed, the determination result in step SF7 is “YES”, and the process proceeds to step SF12, where the image of the corresponding person is cut out within a predetermined range, and the address book data ( “Name”, “phone number”, “mail address”, etc.) are associated with “image” and registered in the address book storage unit 101e, and the process returns to step SF5 described above.

「終了操作」がなされた場合には、ステップSF8の判断結果が「YES」となり、本処理を終える。「その他の操作」がなされた場合には、ステップSF9の判断結果が「YES」となり、ステップSF13に進み、その他の処理を実行して前述のステップSF5に処理を戻す。その他の処理とは、例えば表示されている画像のズームアップ/ズームダウン操作など画像の表示位置が変更される操作が行われた場合であれば、上述のステップSF3を介して実行される人物特定処理において一時記憶した人物(人物像)の表示位置を更新したり、上述のステップSF4を介して実行される人物識別表示更新処理においてなされる識別表示や位置表示の更新を行う。 When the “end operation” is performed, the determination result in step SF8 is “YES”, and the present process ends. When “other operation” is performed, the determination result in step SF9 is “YES”, the process proceeds to step SF13, and other processes are executed, and the process returns to the above-described step SF5. The other process is, for example, when the operation for changing the display position of the image is performed, such as a zoom-up / zoom-down operation of the displayed image, and person identification executed through the above-described step SF3 The display position of the person (person image) temporarily stored in the process is updated, or the identification display and the position display updated in the person identification display update process executed through the above-described step SF4 are performed.

以上のように、リアルタイム人物検索処理では、所定時間経過毎に撮影される画像に対して顔認識を施して当該画像に写る人物(顔が写っている人物像)を特定し、特定された人物の画像中での位置および表示部105の表示画面上の表示位置を各種情報一時記憶部101bに一時記憶すると共に、特定された全ての人物(顔が写っている人物像)を候補として抽出して一時記憶する。   As described above, in the real-time person search process, face recognition is performed on an image captured every predetermined time to identify a person (person image with a face) in the image, and the identified person Are temporarily stored in the various information temporary storage unit 101b, and all specified persons (person images with faces) are extracted as candidates. And store it temporarily.

そして、この一時記憶された候補(人物像)の中から「識別表示」された人物、「位置表示」された人物または「選択された候補(人物像)」を検索し、該当する人物が画像中に存在すると、その該当人物が表示部105の表示画面(画像フィールドIMF)に表示されているか否かを判断し、表示されている場合には、識別表示(既に識別表示されている時は表示更新)すると共に、該当人物の検出を音・光・振動で報知する。 Then, from the temporarily stored candidates (person images), a “identified display” person, a “position display” person, or a “selected candidate (person image)” is searched, and the corresponding person is an image. If it is present, it is determined whether or not the corresponding person is displayed on the display screen (image field IMF) of the display unit 105. Display update), and the detection of the person is notified by sound, light, and vibration.

(7)記録画像人物検索処理の動作
次に、図14を参照して記録画像人物検索処理の動作について説明する。前述した機能起動処理のステップSB9(図7参照)を介して本処理が実行されると、制御部100は図14に図示するステップSG1に進む。ステップSG1において、各種情報記憶部101bの画像データエリアに記録された画像の中から人物検索する画像を選択する画像選択操作がなされると、ステップSG2に進み、その選択された画像を読み出して表示部105に画面表示する。
(7) Operation of Recorded Image Person Search Process Next, the operation of the recorded image person search process will be described with reference to FIG. When this process is executed via step SB9 (see FIG. 7) of the function activation process described above, control unit 100 proceeds to step SG1 shown in FIG. In step SG1, when an image selection operation is performed to select an image for searching for a person from images recorded in the image data area of the various information storage unit 101b, the process proceeds to step SG2, and the selected image is read and displayed. The screen is displayed on the unit 105.

続いて、ステップSG3では、上記ステップSG1で選択された画像に対して顔認識を施して当該画像に写る人物(顔が写っている人物像)を特定し、特定された人物の画像中での位置および表示部105の表示画面上の表示位置を各種情報一時記憶部101bに一時記憶すると共に、特定された全ての人物(顔が写っている人物像)を候補として抽出して各種情報一時記憶部101bに一時記憶する人物特定処理(図16参照)を実行する。   Subsequently, in step SG3, face recognition is performed on the image selected in step SG1 to identify a person (a person image in which the face is reflected) in the image. The position and the display position of the display unit 105 on the display screen are temporarily stored in the various information temporary storage unit 101b, and all the specified persons (person images in which the face is reflected) are extracted as candidates and various types of information are temporarily stored. The person specifying process (see FIG. 16) temporarily stored in the unit 101b is executed.

そして、ステップSG4〜SG7では、「候補指定操作」、「アドレス帳登録操作」、「終了操作」および「その他の操作」のいずれかの操作が行われたかどうかを判断する。これら操作が行われなければ、各判断結果はいずれも「NO」になり、ステップSG4に処理を戻す。 In steps SG4 to SG7, it is determined whether any of the “candidate designation operation”, “address book registration operation”, “end operation”, and “other operation” has been performed. If these operations are not performed, the determination results are all “NO”, and the process returns to step SG4.

これに対し、「候補指定操作」がなされた場合には、ステップSG4の判断結果が「YES」となり、ステップSG8に進み、上記ステップSG3の人物特定処理において画像から抽出して一時記憶された候補(人物像)を入力フィールドINFにサムネイル表示する。なお、サムネイル表示される候補(人物像)は、図示されていない左右キー操作に応じて候補(人物像)の表示位置を左右方向へ移動させて候補を一覧させるようになっている。そして、サムネイル表示される候補(人物像)の中から検索したい候補(人物像)を指定すると、ステップSG9を介して人物識別表示処理を実行した後、前述のステップSF5に処理を戻す。 On the other hand, when the “candidate designation operation” is performed, the determination result in step SG4 is “YES”, the process proceeds to step SG8, and the candidate extracted from the image and temporarily stored in the person identification process in step SG3. (Portrait) is displayed as a thumbnail in the input field INF. The candidates (person images) displayed as thumbnails are displayed by moving the display positions of the candidates (person images) in the left-right direction in accordance with left / right key operations (not shown). When a candidate (person image) to be searched for is specified from the candidates (person images) displayed as thumbnails, the person identification display process is executed via step SG9, and then the process returns to step SF5 described above.

人物識別表示処理(図20参照)では、後述するように、指定された候補(人物像)に一致する人物が画像中に存在すると、その該当する人物が表示部105の表示画面(画像フィールドIMF)に表示されているか否かを判断し、表示されている場合には、識別表示すると共に、該当する人物の検出を音・光・振動で報知する。 In the person identification display process (see FIG. 20), as will be described later, when a person that matches a designated candidate (person image) exists in the image, the person is displayed on the display screen (image field IMF) of the display unit 105. ) Is displayed, and if it is displayed, identification is displayed and the detection of the corresponding person is notified by sound / light / vibration.

一方、該当する人物が表示部105の表示画面(画像フィールドIMF)に表示されていない場合、制御情報記憶部101cに記憶される制御情報の「表示位置を変更する」の設定フラグが「1」であると、該当する人物が表示部105の表示画面(画像フィールドIMF)に表示されるように表示位置を変更すると共に、該当する人物を識別表示した後、該当人物の検出を音・光・振動で報知する。 On the other hand, when the corresponding person is not displayed on the display screen (image field IMF) of the display unit 105, the setting flag of “change display position” of the control information stored in the control information storage unit 101c is “1”. , The display position is changed so that the corresponding person is displayed on the display screen (image field IMF) of the display unit 105, the corresponding person is identified and displayed, and then the detection of the corresponding person is performed by sound, light, Notify by vibration.

「アドレス帳登録操作」がなされた場合には、ステップSG5の判断結果が「YES」となり、ステップSG10に進み、該当する人物の画像を所定の範囲で切り出し、ユーザによって選択されたアドレス帳データに「画像」として対応付けてアドレス帳記憶部101eに登録した後、前述のステップSG4に処理を戻す。 When the “address book registration operation” is performed, the determination result in step SG5 is “YES”, and the process proceeds to step SG10, where the image of the corresponding person is cut out within a predetermined range, and is added to the address book data selected by the user. After associating it with “image” and registering it in the address book storage unit 101e, the process returns to step SG4.

「終了操作」がなされた場合には、ステップSG6の判断結果が「YES」となり、本処理を終える。「その他の操作」がなされた場合には、ステップSG7の判断結果が「YES」となり、ステップSG11に進み、その他の処理を実行して前述のステップSG4に処理を戻す。その他の処理とは、例えば表示されている画像のズームアップ/ズームダウン操作など画像の表示位置が変更される操作が行われた場合であれば、上述のステップSF3を介して実行される人物特定処理において一時記憶した人物(人物像)の表示位置を更新したり、上述のステップSG9の人物識別表示処理においてなされる識別表示や位置表示の更新を行う。 When the “end operation” is performed, the determination result in step SG6 is “YES”, and this process is finished. If “other operation” is performed, the determination result in step SG7 is “YES”, the process proceeds to step SG11, other processes are executed, and the process returns to step SG4. The other process is, for example, when the operation for changing the display position of the image is performed, such as a zoom-up / zoom-down operation of the displayed image, and person identification executed through the above-described step SF3 The display position of the person (person image) temporarily stored in the process is updated, or the identification display and the position display updated in the person identification display process in step SG9 are performed.

以上のように、記録画像人物検索処理では、各種情報記憶部101bの画像データエリアに記録された画像の中から人物検索すべく選択した画像に対して顔認識を施して当該画像に写る人物(顔が写っている人物像)を特定し、特定された人物の画像中での位置および表示部105の表示画面上の表示位置を各種情報一時記憶部101bに一時記憶すると共に、特定された人物(顔が写っている人物像)を候補として抽出して各種情報一時記憶部101bに一時記憶する。 As described above, in the recorded image person search process, a person (a person appearing in the image by performing face recognition on the image selected for person search from the images recorded in the image data area of the various information storage unit 101b). A person image with a face) is specified, and the position of the specified person in the image and the display position of the display unit 105 on the display screen are temporarily stored in the various information temporary storage unit 101b and the specified person (A person image showing a face) is extracted as a candidate and temporarily stored in the various information temporary storage unit 101b.

そして、この一時記憶された人物像をサムネイル表示し、その中から検索したい候補(人物像)を指定すると、指定された候補(人物像)に一致する人物が画像中に存在ずれば、その該当する人物が表示部105の表示画面(画像フィールドIMF)に表示されているか否かを判断し、表示されている場合には、識別表示すると共に、該当人物の検出を音・光・振動で報知する。 When the temporarily stored person image is displayed as a thumbnail and a candidate (person image) to be searched for is designated from among the thumbnails, if a person matching the designated candidate (person image) does not exist in the image, the corresponding It is determined whether or not the person to be displayed is displayed on the display screen (image field IMF) of the display unit 105. If it is displayed, the person is identified and displayed, and the detection of the person is notified by sound, light, and vibration. To do.

(8)文字特定処理の動作
次に、図15を参照して文字特定処理の動作について説明する。前述したリアルタイム文字検索処理のステップSD3(図9参照)もしくは前述した記録画像文字検索処理のステップSE3(図11参照)のいずれかを介して本処理が実行されると、制御部100は図15に図示するステップSH1に進み、撮影した画像に周知の画像認識を施し、当該画像に含まれる文字を特定する。続いて、ステップSH2では、上記ステップSH1にて特定された文字、その文字の画像中での位置および表示部105の表示画面上の表示位置を各種情報一時記憶部101bに一時記憶する。なお、画像中で特定した文字が表示範囲を外れている場合には、表示位置を空欄(ヌルデータ)として扱う。
(8) Operation of Character Specifying Process Next, the operation of the character specifying process will be described with reference to FIG. When this process is executed through either the above-described step SD3 of the real-time character search process (see FIG. 9) or the above-mentioned step SE3 of the recorded image character search process (see FIG. 11), the control unit 100 executes FIG. Then, the process proceeds to step SH1 shown in FIG. 2 to perform well-known image recognition on the photographed image and specify characters included in the image. Subsequently, in step SH2, the character specified in step SH1, the position of the character in the image, and the display position on the display screen of the display unit 105 are temporarily stored in the various information temporary storage unit 101b. If the character specified in the image is out of the display range, the display position is treated as a blank (null data).

次いで、ステップSH3〜SH4では、辞書データベース記憶部101dに記憶される辞書データベースを参照して上記ステップSH2において一時記憶された各文字を組み合わせて有意な文字列(単語)を検索し、該当する文字列(単語)を候補として抽出する。そして、ステップSH5では、抽出された各候補を各種情報一時記憶部101bに一時記憶する。   Next, in steps SH3 to SH4, a significant character string (word) is searched by combining the characters temporarily stored in step SH2 with reference to the dictionary database stored in the dictionary database storage unit 101d. A column (word) is extracted as a candidate. In step SH5, the extracted candidates are temporarily stored in the various information temporary storage unit 101b.

このように、文字列特定処理では、撮影された画像に対して画像認識を施して当該画像に含まれる文字を特定し、特定した各文字の画像中の位置および表示位置を記憶すると共に、その記憶された各文字を組み合わせて有意な文字列(単語)を辞書データベースから検索し、該当する文字列(単語)を候補として抽出して一時記憶する。   As described above, in the character string specifying process, the captured image is subjected to image recognition to specify the character included in the image, and the position and display position of the specified character in the image are stored. A significant character string (word) is searched from the dictionary database by combining the stored characters, and the corresponding character string (word) is extracted as a candidate and temporarily stored.

(9)人物特定処理の動作
次に、図16を参照して人物特定処理の動作について説明する。前述したリアルタイム人物検索処理のステップSF3(図13参照)もしくは前述した記録画像人物検索処理のステップSG3(図14参照)のいずれかを介して本処理が実行されると、制御部100は図16に図示するステップSJ1に進み、撮影した画像に周知の顔認識を施し、その認識結果に基づいて当該画像に写っている人物(顔が写っている人物像)を特定する。
(9) Operation of Person Identification Process Next, the operation of the person identification process will be described with reference to FIG. When this process is executed through either the above-described step SF3 of the real-time person search process (see FIG. 13) or the above-described step SG3 of the recorded image person search process (see FIG. 14), the control unit 100 executes FIG. The process proceeds to step SJ1 shown in FIG. 1 to perform known face recognition on the photographed image, and based on the recognition result, a person (person image with a face) shown in the image is specified.

続いて、ステップSJ2では、上記ステップSJ1にて特定された人物、その特定された人物の画像中での位置および表示部105の表示画面上の表示位置を各種情報一時記憶部101bに一時記憶する。なお、画像中で特定した人物が表示範囲を外れている場合には、表示位置を空欄(ヌルデータ)として扱う。そして、ステップSJ3〜SJ4では、上記ステップSJ1にて画像から特定された全ての人物(顔が写っている人物像)を候補として抽出し、それらを各種情報一時記憶部101bに一時記憶する。 Subsequently, in step SJ2, the person specified in step SJ1, the position of the specified person in the image, and the display position on the display screen of the display unit 105 are temporarily stored in the various information temporary storage unit 101b. . If the person specified in the image is out of the display range, the display position is treated as a blank (null data). In steps SJ3 to SJ4, all the persons specified in the image in step SJ1 (the person image showing the face) are extracted as candidates and temporarily stored in the various information temporary storage unit 101b.

このように、人物特定処理では、撮影された画像に顔認識を施して当該画像に写る人物(顔が写っている人物像)を特定し、特定された人物の画像中での位置および表示部105の表示画面上の表示位置を各種情報一時記憶部101bに一時記憶すると共に、特定された全ての人物(顔が写っている人物像)を候補として抽出して各種情報一時記憶部101bに一時記憶する。 As described above, in the person specifying process, face recognition is performed on the captured image to specify a person (person image showing a face) in the image, and the position of the specified person in the image and the display unit The display position on the display screen 105 is temporarily stored in the various information temporary storage unit 101b, and all the specified persons (person images with faces) are extracted as candidates and temporarily stored in the various information temporary storage unit 101b. Remember.

(10)文字識別表示更新処理の動作
次に、図17を参照して文字識別表示更新処理の動作について説明する。前述したリアルタイム文字検索処理のステップSD4(図9参照)を介して本処理が実行されると、制御部100は図17に図示するステップSK1に進む。ステップSK1〜SK3では、「識別表示」された状態、「位置表示」された状態、「文字入力」された状態のいずれであるかを判別する。
(10) Operation of Character Identification Display Update Process Next, the operation of the character identification display update process will be described with reference to FIG. When this process is executed through step SD4 (see FIG. 9) of the real-time character search process described above, control unit 100 proceeds to step SK1 shown in FIG. In steps SK1 to SK3, it is determined whether the state is “identified display”, “position display”, or “character input”.

なお、識別表示された状態とは、図22に図示する一例のように、入力フィールドINFに検索文字列として「外国為替」と入力した時に、その入力した検索文字例が撮影された画像に存在し、かつ画像フィールドIMFの表示範囲内に存在する場合に、検索文字列「外国為替」を枠線で囲って表示する態様を指す。この表示態様は、これに限定されず該当する検索文字列を太字で表示する等、フォントを異ならせる他、反転表示や表示色変更などによって他の文字と区別できる態様であれば構わない。   Note that the identification display state is present in the photographed image of the input search character when “Forex” is input as the search character string in the input field INF as in the example shown in FIG. And the search character string “foreign exchange” is surrounded by a frame and displayed when it is within the display range of the image field IMF. This display mode is not limited to this, and may be a mode in which the corresponding search character string is displayed in bold type, etc., or may be distinguished from other characters by reverse display or display color change.

また、位置表示された状態とは、図21に図示する一例のように、入力フィールドINFに検索文字列として「外国為替」と入力した時に、その入力した検索文字例が撮影された画像に存在するが、画像フィールドIMFの表示範囲外である場合に、検索文字列「外国為替」の表示位置(方向・距離)を矢印マークで指し示す表示態様を指す。矢印マークで指し示す態様の場合、矢印の太さや長さで表示範囲内からの離間距離を表現したり、数値でその離間距離を示す形態でもよい。また、検索文字列に該当する文字列が撮影された画像に複数存在し、かつそれらが表示範囲外に存在する場合には、該当する各文字列の表示位置(方向)を指し示す矢印をそれぞれ表示するようにしても構わない。   Also, the position displayed state is present in the photographed image when the input search character string “Forex” is input as the search character string in the input field INF, as in the example shown in FIG. However, when it is outside the display range of the image field IMF, it indicates a display mode in which the display position (direction / distance) of the search character string “foreign exchange” is indicated by an arrow mark. In the case of the mode indicated by the arrow mark, the distance from the display range may be expressed by the thickness or length of the arrow, or the distance may be expressed by a numerical value. In addition, when there are multiple character strings corresponding to the search character string in the captured image and they are outside the display range, an arrow indicating the display position (direction) of each corresponding character string is displayed. You may make it.

さて、入力フィールドINFに検索文字列が入力されていない状態では、上記ステップSK3の判断結果は「NO」になり、本処理を終えるが、検索文字列が入力済みの場合には、上記ステップSK3の判断結果は「YES」となり、ステップSK4に進む。また、後述する文字識別表示処理(図19参照)によって検索文字列が「識別表示」された状態もしくは「位置表示」された状態であると、上記ステップSK1もしくは上記ステップSK2の判断結果が「YES」になり、ステップSK4に進む。   Now, in the state where the search character string is not input in the input field INF, the determination result in step SK3 is “NO”, and this processing ends. However, when the search character string has already been input, the above step SK3 is completed. The determination result is “YES”, and the process proceeds to Step SK4. Further, if the search character string is “identified and displayed” or “position displayed” by a character identification display process (see FIG. 19) described later, the determination result of step SK1 or step SK2 is “YES”. The process proceeds to step SK4.

ステップSK4では、文字特定処理(図15参照)により画像から抽出して一時記憶された候補(単語)に一致する検索文字列を探し出す文字検索を実行する。この文字検索では、完全一致、部分一致、曖昧検索などの任意の検索手法を用いる。次いで、ステップSK5では、候補(単語)に一致する検索文字列が存在するかどうかを判断する。該当する検索文字列が存在しなければ、判断結果は「NO」となり、本処理を終える。   In step SK4, a character search for searching for a search character string that matches a candidate (word) extracted from the image by the character specifying process (see FIG. 15) and temporarily stored is executed. In this character search, an arbitrary search method such as complete match, partial match or fuzzy search is used. Next, in step SK5, it is determined whether there is a search character string that matches the candidate (word). If the corresponding search character string does not exist, the determination result is “NO”, and the present process ends.

一方、候補(単語)に一致する検索文字列が存在すれば、上記ステップSK5の判断結果は「YES」となり、ステップSK6に進む。ステップSK6では、該当する検索文字列が表示部105の表示画面(画像フィールドIMF)に表示されているか否かを判断する。この判断には、文字特定処理(図15参照)において記憶した文字の表示位置を参照する。表示されていれば、判断結果は「YES」となり、ステップSK7に進む。   On the other hand, if there is a search character string that matches the candidate (word), the determination result in step SK5 is “YES”, and the flow proceeds to step SK6. In step SK6, it is determined whether or not the corresponding search character string is displayed on the display screen (image field IMF) of display unit 105. For this determination, the display position of the character stored in the character specifying process (see FIG. 15) is referred to. If displayed, the determination result is “YES”, and the flow proceeds to Step SK7.

ステップSK7では、該当する検索文字列を、図22に図示した一例のように識別表示する。なお、既に識別表示されている場合には、識別表示を更新する。この後、ステップSK8に進み、報知部108のサウンドスピーカ108a、LED108bおよび振動モータ108cを駆動して、該当する検索文字列が検出されたことを音・光・振動で報知して本処理を終える。 In step SK7, the corresponding search character string is identified and displayed as in the example shown in FIG. If the identification display is already performed, the identification display is updated. Thereafter, the process proceeds to step SK8, the sound speaker 108a, the LED 108b, and the vibration motor 108c of the notification unit 108 are driven to notify that the corresponding search character string has been detected by sound / light / vibration, and the process ends. .

これに対し、該当する検索文字列が表示部105の表示画面(画像フィールドIMF)に表示されていなければ、上記ステップSK6の判断結果が「NO」になり、ステップSK9に進む。ステップSK9では、制御情報記憶部101cに記憶される制御情報が「表示位置を変更する」であるかどうか、すなわち「表示位置を変更する」の設定フラグが「1」であるか否かを判断する。   On the other hand, if the corresponding search character string is not displayed on the display screen (image field IMF) of the display unit 105, the determination result in Step SK6 is “NO”, and the flow proceeds to Step SK9. In step SK9, it is determined whether or not the control information stored in the control information storage unit 101c is “change display position”, that is, whether or not the setting flag of “change display position” is “1”. To do.

「表示位置を変更する」の設定フラグが「0」の場合、つまり「位置表示する」の設定フラグが「1」であると、上記ステップSK9の判断結果は「NO」になり、ステップSK10に進み、図21に図示した一例のように、該当する検索文字列の表示位置(方向・距離)を矢印マークで表示して本処理を終える。既に位置表示されている場合には、その位置表示を更新して本処理を終える。 When the setting flag for “change display position” is “0”, that is, when the setting flag for “display position” is “1”, the determination result in step SK9 is “NO”, and the process returns to step SK10. Then, as in the example illustrated in FIG. 21, the display position (direction / distance) of the corresponding search character string is displayed with an arrow mark, and the present process ends. If the position is already displayed, the position display is updated and the process is terminated.

一方、「表示位置を変更する」の設定フラグが「1」ならば、上記ステップSK9の判断結果は「YES」となり、ステップSK11に進み、該当する検索文字列が表示部105の表示画面(画像フィールドIMF)に表示されるように表示位置を変更した後、上述したステップSK7に進み、図22に図示した一例のように、該当する検索文字列を識別表示/更新し、続くステップSK8では該当する検索文字列が検出されたことを音・光・振動で報知して本処理を終える。 On the other hand, if the setting flag of “change display position” is “1”, the determination result in step SK9 is “YES”, and the process proceeds to step SK11, where the corresponding search character string is displayed on the display screen (image After the display position is changed so as to be displayed in the field IMF), the process proceeds to step SK7 described above, and the corresponding search character string is identified and displayed / updated as shown in the example shown in FIG. The search character string to be detected is notified by sound / light / vibration, and the process is terminated.

このように、文字識別表示更新処理では、文字特定処理(図15参照)により画像から抽出して一時記憶された候補(単語)の中から「識別表示」された検索文字列、「位置表示」された検索文字列または「入力」された検索文字列を検索し、候補(単語)に一致する検索文字列が存在すると、その該当する検索文字列が表示部105の表示画面(画像フィールドIMF)に表示されているか否かを判断し、表示されている場合には、識別表示(既に識別表示されている時は表示更新)すると共に、該当する検索文字列の検出を音・光・振動で報知する。   In this way, in the character identification display update process, the search character string “position display” “identified and displayed” from the candidates (words) extracted from the image and temporarily stored by the character identification process (see FIG. 15). If a search character string that matches a candidate (word) exists, the corresponding search character string is displayed on the display screen (image field IMF) of the display unit 105. If it is displayed, it will be displayed with identification (if it is already displayed, the display will be updated) and the search string will be detected by sound, light, and vibration. Inform.

一方、該当する検索文字列が表示部105の表示画面(画像フィールドIMF)に表示されていない場合、制御情報記憶部101cに記憶される制御情報の「表示位置を変更する」の設定フラグが「1」であると、該当する検索文字列が表示部105の表示画面(画像フィールドIMF)に表示されるように表示位置を変更すると共に、該当する検索文字列を識別表示/更新した後、該当する検索文字列の検出を音・光・振動で報知する。 On the other hand, when the corresponding search character string is not displayed on the display screen (image field IMF) of the display unit 105, the setting flag “change display position” of the control information stored in the control information storage unit 101c is “ 1 ”, the display position is changed so that the corresponding search character string is displayed on the display screen (image field IMF) of the display unit 105, and the corresponding search character string is identified and displayed / updated. The search character string to be detected is notified by sound, light, and vibration.

(11)人物識別表示更新処理の動作
次に、図18を参照して人物識別表示更新処理の動作について説明する。前述したリアルタイム人物検索処理のステップSF4(図13参照)を介して本処理が実行されると、制御部100は図18に図示するステップSL1に進む。ステップSL1〜SL3では、「識別表示」された状態、「位置表示」された状態、「候補が選択」された状態のいずれであるかを判別する。
(11) Operation of Person Identification Display Update Process Next, the operation of the person identification display update process will be described with reference to FIG. When this process is executed via step SF4 (see FIG. 13) of the real-time person search process described above, the control unit 100 proceeds to step SL1 shown in FIG. In steps SL1 to SL3, it is determined whether the state is “identified display”, “position display”, or “candidate is selected”.

なお、識別表示された状態とは、図24に図示する一例のように、入力フィールドINFにおいて選択した候補(人物像)が、撮影された画像に存在し、かつ画像フィールドIMFの表示範囲内に存在する場合に、該当する人物の画像領域を枠線で囲って表示する態様を指す。この表示態様は、これに限定されず、例えば該当する人物の画像領域の輝度や明度などを周期的に変化させる等、他の人物と区別できる態様であれば構わない。   Note that the identified and displayed state means that the candidate (person image) selected in the input field INF exists in the captured image and falls within the display range of the image field IMF, as in the example illustrated in FIG. When it exists, it refers to a mode in which the image area of the corresponding person is displayed surrounded by a frame line. This display mode is not limited to this, and any mode can be used as long as it can be distinguished from other people, for example, by periodically changing the brightness or brightness of the image area of the corresponding person.

さて、入力フィールドINFにおいて、「候補が選択」されていない状態では、上記ステップSL3の判断結果は「NO」になり、本処理を終えるが、例えば図24に図示する一例のように、入力フィールドINFに表示される複数の候補(人物像)の内、背景がグレー表示され、現在選択状態となっている候補(人物像)が存在すると、上記ステップSL3の判断結果は「YES」となり、ステップSL4に進む。また、後述する人物識別表示処理(図20参照)によって候補(人物像)が「識別表示」された状態もしくは「位置表示」された状態であると、上記ステップSL1もしくは上記ステップSL2の判断結果が「YES」になり、ステップSL4に進む。   Now, in the state where “candidate is not selected” in the input field INF, the determination result in the above-mentioned step SL3 is “NO”, and this processing is finished. For example, as shown in FIG. If the candidate is displayed in gray and the currently selected candidate (person image) is present among the plurality of candidates (person images) displayed on the INF, the determination result in step SL3 is “YES”. Proceed to SL4. If the candidate (person image) is “identified and displayed” or “positioned” by a person identification display process (see FIG. 20) described later, the determination result of step SL1 or step SL2 is as follows. It becomes "YES" and progresses to step SL4.

ステップSL4では、人物特定処理(図16参照)により画像から抽出して一時記憶された候補(人物像)に一致する人物を探し出す人物検索を実行する。この人物検索では、完全一致、部分一致、曖昧検索などの任意の検索手法を用いる。次いで、ステップSL5では、候補(人物像)に一致する人物が存在するかどうかを判断する。該当する人物が存在しなければ、判断結果は「NO」となり、本処理を終える。   In step SL4, a person search for searching for a person matching the candidate (person image) extracted from the image by the person specifying process (see FIG. 16) and temporarily stored is executed. In this person search, an arbitrary search method such as complete match, partial match or fuzzy search is used. Next, in step SL5, it is determined whether there is a person that matches the candidate (person image). If the corresponding person does not exist, the determination result is “NO”, and the present process ends.

一方、候補(人物像)に一致する人物が存在すれば、上記ステップSL5の判断結果は「YES」となり、ステップSL6に進む。ステップSL6では、該当する人物が表示部105の表示画面(画像フィールドIMF)に表示されているか否かを判断する。この判断には、人物特定処理(図16参照)において記憶した表示位置を参照する。表示されていれば、判断結果は「YES」となり、ステップSL7に進む。   On the other hand, if there is a person who matches the candidate (person image), the determination result in step SL5 is “YES”, and the process proceeds to step SL6. In step SL6, it is determined whether or not the corresponding person is displayed on the display screen (image field IMF) of display unit 105. For this determination, the display position stored in the person specifying process (see FIG. 16) is referred to. If displayed, the determination result is “YES”, and the flow proceeds to step SL7.

ステップSL7では、該当する人物を、図24に図示した一例のように識別表示する。なお、既に識別表示されている場合には、識別表示を更新する。この後、ステップSL8に進み、報知部108のサウンドスピーカ108a、LED108bおよび振動モータ108cを駆動して、該当する人物が検出されたことを音・光・振動で報知して本処理を終える。 In step SL7, the corresponding person is identified and displayed as in the example shown in FIG. If the identification display is already performed, the identification display is updated. Thereafter, the process proceeds to step SL8, where the sound speaker 108a, the LED 108b, and the vibration motor 108c of the notification unit 108 are driven to notify that the corresponding person has been detected by sound / light / vibration, and the process ends.

これに対し、該当する人物が表示部105の表示画面(画像フィールドIMF)に表示されていなければ、上記ステップSL6の判断結果は「NO」になり、ステップSL9に進む。ステップSL9では、制御情報記憶部101cに記憶される制御情報が「表示位置を変更する」であるかどうか、すなわち「表示位置を変更する」の設定フラグが「1」であるか否かを判断する。   On the other hand, if the corresponding person is not displayed on the display screen (image field IMF) of the display unit 105, the determination result in step SL6 is “NO”, and the flow advances to step SL9. In step SL9, it is determined whether or not the control information stored in the control information storage unit 101c is “change display position”, that is, whether or not the setting flag of “change display position” is “1”. To do.

「表示位置を変更する」の設定フラグが「0」の場合、つまり「位置表示する」の設定フラグが「1」であると、上記ステップSL9の判断結果は「NO」になり、ステップSL10に進み、該当する人物の表示位置(方向・距離)を矢印マークで表示して本処理を終える。既に位置表示されている場合には、その位置表示を更新して本処理を終える。 If the setting flag for “change display position” is “0”, that is, if the setting flag for “display position” is “1”, the determination result in step SL9 is “NO”, and step SL10 is entered. Then, the display position (direction / distance) of the corresponding person is displayed with an arrow mark, and the process is completed. If the position is already displayed, the position display is updated and the process is terminated.

一方、「表示位置を変更する」の設定フラグが「1」ならば、上記ステップSL9の判断結果は「YES」となり、ステップSL11に進み、該当する人物が表示部105の表示画面(画像フィールドIMF)に表示されるように表示位置を変更した後、上述したステップSL7に進み、該当する人物を識別表示/更新し、続くステップSL8では該当する人物が検出されたことを音・光・振動で報知して本処理を終える。 On the other hand, if the setting flag of “change display position” is “1”, the determination result in step SL9 is “YES”, the process proceeds to step SL11, and the corresponding person moves to the display screen (image field IMF) of the display unit 105. ), The display position is changed so that the process proceeds to the above-described step SL7, where the corresponding person is identified and displayed / updated. In the subsequent step SL8, the fact that the corresponding person has been detected is detected by sound / light / vibration. Informs and finishes this processing.

このように、人物識別表示更新処理では、人物特定処理(図16参照)により画像から抽出して一時記憶された候補(人物像)の中から「識別表示」された人物、「位置表示」された人物または「選択された候補(人物像)」を検索し、候補(人物像)に一致する人物が画像中に存在すると、その該当する人物が表示部105の表示画面(画像フィールドIMF)に表示されているか否かを判断し、表示されている場合には、識別表示(既に識別表示されている時は表示更新)すると共に、該当人物の検出を音・光・振動で報知する。   As described above, in the person identification display update process, the person who is “identified and displayed” from the candidates (person images) extracted from the image and temporarily stored by the person specifying process (see FIG. 16) is “position displayed”. If a person matching the candidate (person image) exists in the image, the corresponding person is displayed on the display screen (image field IMF) of the display unit 105. It is determined whether or not it is displayed. If it is displayed, it is identified and displayed (when it is already identified and displayed), and the detection of the person is notified by sound, light, and vibration.

一方、該当する人物が表示部105の表示画面(画像フィールドIMF)に表示されていない場合、制御情報記憶部101cに記憶される制御情報の「表示位置を変更する」の設定フラグが「1」であると、該当する人物が表示部105の表示画面(画像フィールドIMF)に表示されるように表示位置を変更すると共に、該当する人物を識別表示/更新した後、該当人物の検出を音・光・振動で報知する。 On the other hand, when the corresponding person is not displayed on the display screen (image field IMF) of the display unit 105, the setting flag of “change display position” of the control information stored in the control information storage unit 101c is “1”. If the display position is changed so that the corresponding person is displayed on the display screen (image field IMF) of the display unit 105, and the corresponding person is identified and displayed / updated, the detection of the corresponding person is sounded. Notification by light and vibration.

(12)文字識別表示処理の動作
次に、図19を参照して文字識別表示処理の動作について説明する。前述したリアルタイム文字検索処理のステップSD12(図9参照)もしくは前述した記録画像文字検索処理のステップSE10(図11参照)のいずれかを介して本処理が実行されると、制御部100は図19に図示するステップSM1に進む。ステップSM1では、前述したリアルタイム文字検索処理のステップSD11(又は前述した記録画像文字検索処理のステップSE9)において入力フィールドINFに入力/変更された検索文字列を、文字特定処理(図15参照)により画像から抽出して一時記憶された候補(単語)の中から検索する。
(12) Operation of Character Identification Display Process Next, the operation of the character identification display process will be described with reference to FIG. When this process is executed through either the above-described step SD12 of the real-time character search process (see FIG. 9) or the above-described step SE10 of the recorded image character search process (see FIG. 11), the control unit 100 executes FIG. The process proceeds to step SM1 shown in FIG. In step SM1, the search character string input / changed in the input field INF in step SD11 of the real-time character search process described above (or step SE9 of the recorded image character search process described above) is performed by the character specifying process (see FIG. 15). Search from candidates (words) extracted from the image and temporarily stored.

続いて、ステップSM2では、候補(単語)に一致する検索文字列が存在するかどうかを判断する。該当する検索文字列が存在しなければ、判断結果は「NO」となり、本処理を終えるが、候補(単語)に一致する検索文字列が存在すると、判断結果が「YES」となり、ステップSM3に進む。ステップSM3では、該当する検索文字列が表示部105の表示画面(画像フィールドIMF)に表示されているか否かを判断する。この判断には、文字特定処理(図15参照)において記憶した文字の表示位置を参照する。表示されていれば、判断結果は「YES」となり、ステップSM4に進み、該当する検索文字列を、図22に図示した一例のように識別表示する。そして、ステップSM5では、報知部108のサウンドスピーカ108a、LED108bおよび振動モータ108cを駆動して、該当する検索文字列が検出されたことを音・光・振動で報知して本処理を終える。   Subsequently, in step SM2, it is determined whether there is a search character string that matches the candidate (word). If the corresponding search character string does not exist, the determination result is “NO”, and the present process ends. However, if the search character string that matches the candidate (word) exists, the determination result is “YES”, and the process returns to step SM3. move on. In Step SM3, it is determined whether or not the corresponding search character string is displayed on the display screen (image field IMF) of the display unit 105. For this determination, the display position of the character stored in the character specifying process (see FIG. 15) is referred to. If it is displayed, the determination result is “YES”, the process proceeds to step SM4, and the corresponding search character string is identified and displayed as in the example shown in FIG. In step SM5, the sound speaker 108a, the LED 108b, and the vibration motor 108c of the notification unit 108 are driven to notify that the corresponding search character string has been detected by sound / light / vibration, and the process ends.

一方、該当する検索文字列が表示部105の表示画面(画像フィールドIMF)に表示されていない場合、つまり表示範囲外に存在する場合には、上記ステップSM3の判断結果が「NO」になり、ステップSM6に進む。ステップSM6では、制御情報記憶部101cに記憶される制御情報が「表示位置を変更する」であるかどうか、すなわち「表示位置を変更する」の設定フラグが「1」であるか否かを判断する。 On the other hand, when the corresponding search character string is not displayed on the display screen (image field IMF) of the display unit 105, that is, when it exists outside the display range, the determination result of step SM3 becomes “NO”, Proceed to step SM6. In step SM6, it is determined whether or not the control information stored in the control information storage unit 101c is “change display position”, that is, whether or not the setting flag of “change display position” is “1”. To do.

「表示位置を変更する」の設定フラグが「0」の場合、つまり「位置表示する」の設定フラグが「1」ならば、上記ステップSM6の判断結果は「NO」になり、ステップSM7に進み、図21に図示した一例のように、該当する検索文字列の表示位置(方向・距離)を矢印マークで表示して本処理を終える。 If the “change display position” setting flag is “0”, that is, if the “display position” setting flag is “1”, the determination result in step SM6 is “NO”, and the process proceeds to step SM7. As in the example shown in FIG. 21, the display position (direction / distance) of the corresponding search character string is displayed with an arrow mark, and this processing is completed.

これに対し、「表示位置を変更する」の設定フラグが「1」であると、上記ステップSM6の判断結果は「YES」となり、ステップSM8に進み、該当する検索文字列が表示部105の表示画面(画像フィールドIMF)に表示されるように表示位置を変更した後、上述したステップSM4に進み、図22に図示した一例のように、該当する検索文字列を識別表示し、続くステップSM5において該当する検索文字列が検出されたことを音・光・振動で報知して本処理を終える。 On the other hand, if the setting flag of “change display position” is “1”, the determination result in step SM6 is “YES”, and the process proceeds to step SM8, where the corresponding search character string is displayed on the display unit 105. After the display position is changed to be displayed on the screen (image field IMF), the process proceeds to step SM4 described above, and the corresponding search character string is identified and displayed as in the example shown in FIG. The fact that the corresponding search character string has been detected is notified by sound, light, and vibration, and this processing is completed.

このように、文字識別表示処理では、入力フィールドINFに入力/変更された検索文字列を、文字特定処理(図15参照)により画像から抽出して一時記憶された候補(単語)の中から検索し、該当する検索文字列が存在すると、その検索文字列が表示部105の表示画面(画像フィールドIMF)に表示されているか否かを判断し、表示されていれば、識別表示すると共に、該当する検索文字列の検出を音・光・振動で報知する。   As described above, in the character identification display process, the search character string input / changed in the input field INF is searched from the candidates (words) extracted from the image by the character specifying process (see FIG. 15) and temporarily stored. If the corresponding search character string exists, it is determined whether or not the search character string is displayed on the display screen (image field IMF) of the display unit 105. The search character string to be detected is notified by sound, light, and vibration.

一方、該当する検索文字列が表示部105の表示画面(画像フィールドIMF)に表示されていない場合、制御情報記憶部101cに記憶される制御情報の「表示位置を変更する」の設定フラグが「1」であると、該当する検索文字列が表示部105の表示画面(画像フィールドIMF)に表示されるように表示位置を変更すると共に、該当する検索文字列を識別表示/更新した後、該当する検索文字列の検出を音・光・振動で報知する。 On the other hand, when the corresponding search character string is not displayed on the display screen (image field IMF) of the display unit 105, the setting flag “change display position” of the control information stored in the control information storage unit 101c is “ 1 ”, the display position is changed so that the corresponding search character string is displayed on the display screen (image field IMF) of the display unit 105, and the corresponding search character string is identified and displayed / updated. The search character string to be detected is notified by sound, light, and vibration.

(13)人物識別表示処理の動作
次に、図20を参照して人物識別表示処理の動作について説明する。前述したリアルタイム人物検索処理のステップSF11(図13参照)もしくは前述した記録画像人物検索処理のステップSG9(図14参照)のいずれかを介して本処理が実行されると、制御部100は図20に図示するステップSN1に進む。
(13) Operation of Person Identification Display Process Next, the operation of the person identification display process will be described with reference to FIG. When this process is executed through either the above-described step SF11 of the real-time person search process (see FIG. 13) or the above-described step SG9 of the recorded image person search process (see FIG. 14), the control unit 100 executes FIG. The process proceeds to step SN1 shown in FIG.

ステップSN1では、前述したリアルタイム人物検索処理のステップSF10(又は前述した記録画像人物検索処理のステップSG8)において指定した候補(人物像)を、人物特定処理(図16参照)により画像から抽出して一時記憶された人物(人物像)の中から探し出す人物検索を実行する。この人物検索では、完全一致、部分一致、曖昧検索などの任意の検索手法を用いる。次いで、ステップSN2では、候補(人物像)に一致する人物が存在するかどうかを判断する。該当する人物が存在しなければ、判断結果は「NO」となり、本処理を終える。 In step SN1, the candidate (person image) specified in step SF10 of the real-time person search process described above (or step SG8 of the recorded image person search process described above) is extracted from the image by the person specifying process (see FIG. 16). A person search for searching for a person (person image) temporarily stored is executed. In this person search, an arbitrary search method such as complete match, partial match or fuzzy search is used. Next, in step SN2, it is determined whether there is a person that matches the candidate (person image). If the corresponding person does not exist, the determination result is “NO”, and the present process ends.

一方、候補(人物像)に一致する人物が存在すれば、上記ステップSN2の判断結果は「YES」となり、ステップSN3に進む。ステップSN3では、該当する人物が表示部105の表示画面(画像フィールドIMF)に表示されているか否かを判断する。この判断には、人物特定処理(図16参照)において記憶した表示位置を参照する。表示されていれば、判断結果は「YES」となり、ステップSN4に進む。ステップSN4では、該当する人物を、図24に図示した一例のように識別表示する。この後、ステップSN5に進み、報知部108のサウンドスピーカ108a、LED108bおよび振動モータ108cを駆動して、該当する人物が検出されたことを音・光・振動で報知して本処理を終える。   On the other hand, if there is a person who matches the candidate (person image), the determination result in step SN2 is “YES”, and the process proceeds to step SN3. In Step SN3, it is determined whether or not the corresponding person is displayed on the display screen (image field IMF) of the display unit 105. For this determination, the display position stored in the person specifying process (see FIG. 16) is referred to. If displayed, the determination result is “YES”, and the flow proceeds to step SN4. In step SN4, the corresponding person is identified and displayed as in the example shown in FIG. Thereafter, the process proceeds to step SN5, the sound speaker 108a, the LED 108b, and the vibration motor 108c of the notification unit 108 are driven to notify that the corresponding person has been detected by sound / light / vibration, and the process ends.

これに対し、該当する人物が表示部105の表示画面(画像フィールドIMF)に表示されていなければ、上記ステップSN3の判断結果は「NO」になり、ステップSN6に進む。ステップSN6では、制御情報記憶部101cに記憶される制御情報が「表示位置を変更する」であるかどうか、すなわち「表示位置を変更する」の設定フラグが「1」であるか否かを判断する。   On the other hand, if the corresponding person is not displayed on the display screen (image field IMF) of the display unit 105, the determination result in step SN3 is “NO”, and the process proceeds to step SN6. In step SN6, it is determined whether or not the control information stored in the control information storage unit 101c is “change display position”, that is, whether or not the setting flag of “change display position” is “1”. To do.

「表示位置を変更する」の設定フラグが「0」の場合、つまり「位置表示する」の設定フラグが「1」であると、上記ステップSN6の判断結果は「NO」になり、ステップSN7に進み、該当する人物の表示位置(方向・距離)を矢印マークで表示して本処理を終える。既に位置表示されている場合には、その位置表示を更新して本処理を終える。 If the setting flag for “change display position” is “0”, that is, if the setting flag for “display position” is “1”, the determination result in step SN6 is “NO”, and step SN7 is entered. Then, the display position (direction / distance) of the corresponding person is displayed with an arrow mark, and the process is completed. If the position is already displayed, the position display is updated and the process is terminated.

一方、「表示位置を変更する」の設定フラグが「1」ならば、上記ステップSN6の判断結果は「YES」となり、ステップSN8に進み、該当する人物が表示部105の表示画面(画像フィールドIMF)に表示されるように表示位置を変更した後、上述したステップSN4に進み、該当する人物を識別表示し、続くステップSN5では該当する人物が検出されたことを音・光・振動で報知して本処理を終える。 On the other hand, if the setting flag of “change display position” is “1”, the determination result in step SN6 is “YES”, and the process proceeds to step SN8, where the corresponding person displays the display screen (image field IMF) of the display unit 105. ), The display position is changed so that the process proceeds to step SN4 described above, the corresponding person is identified and displayed, and in the subsequent step SN5, the sound, light, and vibration are notified that the corresponding person has been detected. To finish this process.

このように、人物識別表示処理では、指定された候補(人物像)に一致する人物が画像中に存在すると、その該当する人物が表示部105の表示画面(画像フィールドIMF)に表示されているか否かを判断し、表示されている場合には、識別表示すると共に、該当する人物の検出を音・光・振動で報知する。   As described above, in the person identification display process, if a person matching the designated candidate (person image) exists in the image, is the corresponding person displayed on the display screen (image field IMF) of the display unit 105? In the case of being displayed, identification is displayed, and the detection of the corresponding person is notified by sound, light and vibration.

一方、該当する人物が表示部105の表示画面(画像フィールドIMF)に表示されていない場合、制御情報記憶部101cに記憶される制御情報の「表示位置を変更する」の設定フラグが「1」であると、該当する人物が表示部105の表示画面(画像フィールドIMF)に表示されるように表示位置を変更すると共に、該当する人物を識別表示した後、該当する人物の検出を音・光・振動で報知する。 On the other hand, when the corresponding person is not displayed on the display screen (image field IMF) of the display unit 105, the setting flag of “change display position” of the control information stored in the control information storage unit 101c is “1”. If the display position is changed so that the corresponding person is displayed on the display screen (image field IMF) of the display unit 105, the corresponding person is identified and displayed, and then the detection of the corresponding person is detected by sound / light.・ Notify by vibration.

以上説明したように、本実施形態では、撮影(又は記録)された画像に対して画像認識を施して当該画像に含まれる文字を特定し、特定した各文字の画像中の位置および表示位置を記憶すると共に、その記憶された各文字を組み合わせて有意な文字列(単語)を辞書データベースから検索し、該当する文字列(単語)を候補として抽出して一時記憶しておき、この一時記憶された候補(単語)の中から「識別表示」された検索文字列、「位置表示」された検索文字列または「入力」された検索文字列を検索して候補(単語)に一致する検索文字列が存在すると、その該当する検索文字列が表示部105の表示画面(画像フィールドIMF)に表示されているか否かを判断し、表示されている場合には、識別表示(既に識別表示されている時は表示更新)すると共に、該当する検索文字列の検出を音・光・振動で報知するので、画像に含まれる文字の中から、所望の文字列を容易に識別し得る。したがって、画像に含まれるオブジェクトの中から、あるオブジェクトを容易に識別させることができる。 As described above, in the present embodiment, image recognition is performed on a captured (or recorded) image to specify characters included in the image, and the position and display position of each specified character in the image are determined. In addition to storing, the stored characters are combined to retrieve a significant character string (word) from the dictionary database, the corresponding character string (word) is extracted as a candidate, temporarily stored, and temporarily stored. Search character string that matches the candidate (word) by searching the search character string “identified”, the search character string “positioned”, or the “input” search character string Is present, it is determined whether or not the corresponding search character string is displayed on the display screen (image field IMF) of the display unit 105. Time is With shows updated) for so informing the detection of the corresponding search string sound, light and vibration, among characters included in the image can easily identify the desired character string. Therefore, an object can be easily identified from among the objects included in the image.

また、撮影(又は記録)された画像に対して顔認識を施して当該画像に写る人物(顔が写っている人物像)を特定し、特定された人物の画像中での位置および表示部105の表示画面上の表示位置を各種情報一時記憶部101bに一時記憶すると共に、特定された人物(顔が写っている人物像)を候補として抽出して一時記憶しておき、この一時記憶された候補(人物像)の中から「識別表示」された人物、「位置表示」された人物または「選択された候補(人物像)」を検索し、該当する人物が画像中に存在すると、その該当人物が表示部105の表示画面(画像フィールドIMF)に表示されているか否かを判断し、表示されている場合には、識別表示(既に識別表示されている時は表示更新)すると共に、該当人物の検出を音・光・振動で報知するので、画像に含まれる人物(顔が写っている人物像)の中から、ある人物を容易に識別し得る。したがって、画像に含まれるオブジェクトの中から、あるオブジェクトを容易に識別させることができる。 Further, face recognition is performed on the captured (or recorded) image to identify a person (person image with a face) in the image, and the position of the identified person in the image and the display unit 105. Is temporarily stored in the various information temporary storage unit 101b, and a specified person (a person image showing a face) is extracted and temporarily stored as a candidate. Search for “identified display” person, “position display” person or “selected candidate (person image)” from candidates (person image), and if the corresponding person exists in the image, It is determined whether or not a person is displayed on the display screen (image field IMF) of the display unit 105. If the person is displayed, identification display (display update when already displayed) is performed, and Detection of people by sound, light, vibration In so informing, from the person (person image that is reflected face) included in the image can easily identify a person. Therefore, an object can be easily identified from among the objects included in the image.

また、上述した実施形態において得られる、より具体的な他の効果は、下記(a)〜(p)項に記載の通りである。
(a)識別したいオブジェクトをユーザが新たに入力することなく、画像に含まれるオブジェクトの中から、あるオブジェクトを容易にユーザに識別させることができる。たとえば、オブジェクトが文字情報の場合、ユーザが識別したい文字情報が、新聞の紙面にありそうな文字情報だと分かっていても、失念してしまったり曖昧に記憶したりしている文字情報の場合であっても、ユーザが文字情報を入力する必要がないので、その文字情報を識別表示させることができる。
(b)識別したいオブジェクトをユーザが新たに入力することなく、撮像される画像に含まれるオブジェクトの中から、あるオブジェクトを容易にユーザに識別させることができる。
(c)ユーザは識別したいオブジェクトを確認しながら、画像を確認することができる。
(d)識別したいオブジェクトが画像に含まれているが、表示されていない場合に、現在の表示からどの位置(方向や距離)に存在するかを容易にユーザは確認することができる。
(e)識別したいオブジェクトが画像に含まれているが、表示されていない場合でも、画像の表示位置を変更することによって、そのオブジェクトを容易にユーザに識別させることができる。
(f)識別したいオブジェクトが表示されていることを、容易にユーザは確認することができる。
(g)識別したい人物をユーザが新たに入力することなく、画像に含まれる人物の中から、ある人物を容易にユーザに識別させることができる。たとえば、集合写真のように多数の人物が含まれている画像の場合に、ユーザは、ある特定の人物がこの集合写真の中に存在するか、存在しているとすればどのあたりに存在するかを、逐一自らの目で探していくのは煩雑であり、とりわけ人数が多い場合には煩雑さが増すが、上述の実施形態では画像に含まれる人物を候補情報として抽出する為、ユーザはその抽出された候補情報の中から識別したい人物を指定するだけで簡単に識別することができる。
(h)識別した人物を、アドレス帳、スケジュール、メールなど、記憶されている任意の情報と対応付けて記憶させることができる。
(i)識別したい文字情報をユーザが新たに入力することなく、画像に含まれる文字情報の中から、ある文字情報を容易にユーザに識別させることができる。
(j)識別した文字情報を、文字入力で利用することができる。
(k)画像を記録する操作や記録した画像を表示させる操作をすることなく、指定された文字情報を容易にユーザに識別させることができる。たとえば、新聞の紙面の中に、ある特定の文字情報が存在しているか否か、存在しているとすればどのあたりに存在するかをユーザが知りたい場合、対象となる紙面を全て含むような画像として撮影したあと、その画像を記録する操作、記録した画像を表示させる操作をすることなく、その特定の文字情報を識別表示させることができる。また撮影される画像の範囲を動かしても、正しく識別表示される。
(l)ユーザは識別したい文字情報を確認しながら、画像を確認することができる。
(m)ユーザは識別したい文字情報を容易に変更することができる。
(n)識別したい文字情報が画像に含まれているが、表示されていない場合に、現在の表示からどの位置(方向や距離)に存在するかを容易にユーザは確認することができる。
(o)また撮影される画像の範囲を動かしても、現在の表示からの位置を正しく確認することができる。
(p)識別したい文字情報が画像に含まれているが、表示されていない場合でも、画像の表示位置を変更することによって、その文字情報を容易にユーザに識別させることができる。
(q)識別したいオブジェクトが表示されていることを、容易にユーザは確認することができる。たとえば、新聞の紙面の中に、ある特定の文字情報が存在しているか否か、存在しているとすればどのあたりに存在するかをユーザが知ろうとして、撮像される範囲を動かしている場合、その動きに合せて表示部を常時確認しているのは難しい。しかし、上述した実施形態では、音、振動、光などによって識別したい文字情報が表示されていることをユーザは確認することができるので、表示部を常時確認する必要は無い。
Further, other more specific effects obtained in the above-described embodiment are as described in the following items (a) to (p).
(A) A user can easily identify a certain object from among objects included in an image without the user newly inputting an object to be identified. For example, when the object is text information, the text information that the user wants to identify is text information that is forgotten or vaguely memorized even though it is known that the text information is likely to be on the newspaper. Even so, it is not necessary for the user to input the character information, and the character information can be identified and displayed.
(B) A user can easily identify a certain object from among objects included in a captured image without the user newly inputting an object to be identified.
(C) The user can confirm the image while confirming the object to be identified.
(D) When an object to be identified is included in an image but is not displayed, the user can easily confirm at which position (direction and distance) the current display is located.
(E) Even if an object to be identified is included in the image but not displayed, the user can easily identify the object by changing the display position of the image.
(F) The user can easily confirm that the object to be identified is displayed.
(G) A user can be easily identified from among persons included in the image without the user newly inputting a person to be identified. For example, in the case of an image that contains a large number of people, such as a group photo, the user exists in the group photo or where it exists if there is a specific person It is cumbersome to search for it with one's own eyes, especially when there are many people, but in the above embodiment, the person included in the image is extracted as candidate information. Identification can be easily performed by simply designating a person to be identified from the extracted candidate information.
(H) The identified person can be stored in association with any stored information such as an address book, schedule, or mail.
(I) The user can easily identify certain character information from the character information included in the image without the user newly inputting character information to be identified.
(J) The identified character information can be used for character input.
(K) The user can easily identify the designated character information without performing an operation of recording an image or an operation of displaying the recorded image. For example, if a user wants to know whether or not certain character information exists in a newspaper page, and if it exists, it should include all the target pages. After shooting as a simple image, the specific character information can be identified and displayed without the operation of recording the image and the operation of displaying the recorded image. Even if the range of the image to be taken is moved, it is displayed correctly.
(L) The user can confirm the image while confirming the character information to be identified.
(M) The user can easily change the character information to be identified.
(N) When the character information to be identified is included in the image but is not displayed, the user can easily confirm the position (direction or distance) from the current display.
(O) The position from the current display can be correctly confirmed by moving the range of the captured image.
(P) Character information to be identified is included in the image, but even if it is not displayed, the user can easily identify the character information by changing the display position of the image.
(Q) The user can easily confirm that the object to be identified is displayed. For example, the user is moving the range to be imaged in an attempt to know whether or not certain character information exists in the newspaper, and if so, where it exists. In this case, it is difficult to always check the display unit according to the movement. However, in the above-described embodiment, the user can confirm that character information desired to be identified by sound, vibration, light, or the like is displayed, so there is no need to constantly check the display unit.

なお、上述した実施形態において、リアルタイム文字検索処理(又はリアルタイム人物検索処理)では、新たな画像が撮影される毎(所定時間経過毎)に文字特定処理(又は人物特定処理)を実行して文字特定(又は人物特定)するようにしたが、これに替えて、所定時間経過毎に毎回、文字特定(又は人物特定)するのではなく、前回撮影した画像と現在撮影された画像との差分変化が少ない場合には、特定した文字(又は人物)の表示位置の更新のみ行うようにして処理の簡略化を図るようにしても構わない。   In the above-described embodiment, in the real-time character search process (or real-time person search process), a character specifying process (or person specifying process) is executed each time a new image is taken (every predetermined time elapses). Instead of specifying (or specifying a person), instead of specifying a character (or specifying a person) every time a predetermined time elapses, a change in the difference between the previously taken image and the currently taken image If the number of characters is small, the processing may be simplified by updating only the display position of the specified character (or person).

なお、上述の実施形態は、携帯電話10を想定しているが、本発明の要旨は、これに限らず、パーソナルコンピュータ、PDA、デジタルカメラ、音楽プレイヤーなど、画像を撮像して表示する機能を有する装置全般に適用可能であることは言うまでもない。 The above embodiment assumes the mobile phone 10, but the gist of the present invention is not limited to this, and a function of capturing and displaying an image such as a personal computer, a PDA, a digital camera, or a music player. Needless to say, the present invention can be applied to all devices.

本実施形態では、折り畳み開閉タイプの携帯電話10を一例としたが、これに限らず、ストレートタイプ、スライドタイプ、スピントップタイプなど任意の筐体構造であっても構わない。また、記憶部101は、携帯電話10の内部に設けられるメモリに限定されず、メモリカードや外付けハードディスクなど、任意の外部記憶装置でも良い。さらに、表示部105は、携帯電話10に備えられたものに限らず、外部モニタなど任意の外部表示装置を用いる形態であっても構わない。 In the present embodiment, the folding open / close type mobile phone 10 is taken as an example. However, the present invention is not limited to this, and an arbitrary housing structure such as a straight type, a slide type, or a spin top type may be used. The storage unit 101 is not limited to a memory provided in the mobile phone 10 and may be an arbitrary external storage device such as a memory card or an external hard disk. Furthermore, the display unit 105 is not limited to the one provided in the mobile phone 10 and may be in a form using an arbitrary external display device such as an external monitor.

記憶する画像は、静止画や動画など任意の種別の画像で良く、撮像部で撮像した画像、放送受信部で受信した画像、ダウンロードした画像、データ通信で受信した画像に限らず、任意の方法で取得した画像に適用可能となる。また、本実施形態では、画像から特定するオブジェクトの一例として文字や人物を挙げたが、これに限定されず、置物、動物、生物など任意のオブジェクトで良いことは言うまでもない。 The image to be stored may be any type of image such as a still image or a moving image, and is not limited to an image captured by the image capturing unit, an image received by the broadcast receiving unit, a downloaded image, or an image received by data communication, and any method. It becomes possible to apply to the image acquired by. In this embodiment, a character or a person is used as an example of an object specified from an image.

さらに、本実施形態では、顔認識により人物を特定する例を挙げたが、これに替えて、例えば上半身や全身など任意の範囲に含まれる形状から人物特定するようにしても良い。加えて、本実施形態では、特定したオブジェクトをアドレス帳データに対応付けて記憶するようにしたが、これに限らず、スケジュールデータやメールデータに対応付ける態様としても構わない。 Furthermore, in the present embodiment, an example is given in which a person is specified by face recognition. However, instead of this, a person may be specified from a shape included in an arbitrary range such as the upper body or the whole body. In addition, in the present embodiment, the specified object is stored in association with the address book data. However, the present invention is not limited to this, and may be associated with schedule data or mail data.

10 携帯電話
100 制御部
101 記憶部
101a プログラム記憶部
101b 各種情報一時記憶部
101c 制御情報記憶部
101d 辞書データベース記憶部
101e アドレス帳記憶部
102 無線通信部
103 音声信号処理部
104 撮像部
105 表示部
106 操作部
107 RTC
108 報知部
108a サウンドスピーカ
108b LED
108c 振動モータ
109 電池部
DESCRIPTION OF SYMBOLS 10 Mobile phone 100 Control part 101 Storage part 101a Program storage part 101b Various information temporary storage part 101c Control information storage part 101d Dictionary database storage part 101e Address book storage part 102 Wireless communication part 103 Voice signal processing part 104 Imaging part 105 Display part 106 Operation unit 107 RTC
108 Notification unit 108a Sound speaker 108b LED
108c Vibration motor 109 Battery part

Claims (19)

画像を取得する画像取得手段と、
前記画像取得手段により取得された画像の少なくとも一部を画面に表示する画像表示手段と、
前記画像取得手段により取得された画像に含まれるオブジェクトを特定する特定手段と、
前記特定手段により特定されたオブジェクトを候補情報として抽出する抽出手段と、
前記抽出手段により抽出された候補情報のいずれかを指定する指定手段と、
前記画像表示手段により画像の少なくとも一部が画面に表示されている時に、前記指定手段により指定された候補情報に該当するオブジェクトの表示位置を当該画面上で識別表示する識別表示手段と
を具備することを特徴とする端末装置。
Image acquisition means for acquiring images;
Image display means for displaying on the screen at least a part of the image acquired by the image acquisition means;
Specifying means for specifying an object included in the image acquired by the image acquiring means;
Extracting means for extracting the object specified by the specifying means as candidate information;
Designation means for designating any of the candidate information extracted by the extraction means;
And an identification display means for identifying and displaying on the screen the display position of the object corresponding to the candidate information designated by the designation means when at least a part of the image is displayed on the screen by the image display means. A terminal device characterized by that.
画像を撮像する撮像手段を更に備え、
前記画像取得手段は、前記撮像手段により撮像された画像を取得することを特徴とする請求項1記載の端末装置。
It further comprises imaging means for taking an image,
The terminal device according to claim 1, wherein the image acquisition unit acquires an image captured by the imaging unit.
前記画像取得手段により取得された画像の少なくとも一部と、前記指定手段により指定された候補情報とを同時に画面表示する同時表示手段を更に備えることを特徴とする請求項1記載の端末装置。   The terminal device according to claim 1, further comprising a simultaneous display unit that simultaneously displays on a screen at least a part of the image acquired by the image acquisition unit and the candidate information specified by the specifying unit. 前記画像表示手段により画像の少なくとも一部が画面に表示されている時に、前記指定手段により指定された候補情報に該当するオブジェクトが表示されているか否かを判別する判別手段と、
前記判別手段により該当するオブジェクトが表示されていないと判別された場合、その該当するオブジェクトの位置を示す位置情報を表示する位置情報表示手段と
を更に備えることを特徴とする請求項1記載の端末装置。
Determining means for determining whether or not an object corresponding to the candidate information specified by the specifying means is displayed when at least a part of the image is displayed on the screen by the image display means;
2. The terminal according to claim 1, further comprising position information display means for displaying position information indicating a position of the corresponding object when the determining means determines that the corresponding object is not displayed. apparatus.
前記画像表示手段により画像の少なくとも一部が画面に表示されている時に、前記指定手段により指定された候補情報に該当するオブジェクトが表示されているか否かを判別する判別手段と、
前記判別手段により該当するオブジェクトが表示されていないと判別された場合、その該当するオブジェクトが画面に表示されるように画像の表示位置を変更する表示位置変更手段と
を更に備えることを特徴とする請求項1記載の端末装置。
Determining means for determining whether or not an object corresponding to the candidate information specified by the specifying means is displayed when at least a part of the image is displayed on the screen by the image display means;
And a display position changing unit for changing the display position of the image so that the corresponding object is displayed on the screen when the determining unit determines that the corresponding object is not displayed. The terminal device according to claim 1.
前記画像表示手段により画像の少なくとも一部が画面に表示されている時に、前記指定手段により指定された候補情報に該当するオブジェクトが表示されているか否かを判別する判別手段と、
前記判別手段により該当するオブジェクトが表示されていると判別された場合、その旨を報知する報知手段と
を更に備えることを特徴とする請求項1記載の端末装置。
Determining means for determining whether or not an object corresponding to the candidate information specified by the specifying means is displayed when at least a part of the image is displayed on the screen by the image display means;
The terminal device according to claim 1, further comprising notification means for notifying the fact that the determination means determines that the corresponding object is displayed.
前記特定手段は、前記画像取得手段により取得された画像に含まれるオブジェクトとして人物を特定することを特徴とする請求項1記載の端末装置。   The terminal device according to claim 1, wherein the specifying unit specifies a person as an object included in the image acquired by the image acquiring unit. 前記指定手段により指定された候補情報に該当するオブジェクトを、記憶手段に記憶されている情報と対応付けて記憶する記憶制御手段を更に備えることを特徴とする請求項1記載の端末装置。 The terminal device according to claim 1, further comprising a storage control unit that stores an object corresponding to the candidate information specified by the specifying unit in association with information stored in the storage unit. 前記特定手段は、前記画像取得手段により取得された画像に含まれるオブジェクトとして文字情報を特定することを特徴とする請求項1記載の端末装置。 The terminal device according to claim 1, wherein the specifying unit specifies character information as an object included in the image acquired by the image acquisition unit. 前記指定手段により指定された候補情報に該当するオブジェクトを、文字入力手段によって入力される文字情報として設定する設定手段を更に備えることを特徴とする請求項1記載の端末装置。 The terminal device according to claim 1, further comprising a setting unit that sets an object corresponding to the candidate information specified by the specifying unit as character information input by the character input unit. 撮像手段により撮像された画像の少なくとも一部を画面に表示する画像表示手段と、
前記画像表示手段による画像の表示を所定のタイミングで更新する画像更新手段と、
撮像手段により撮像された画像に含まれる第1の文字情報を特定する特定手段と、
第2の文字情報を指定する指定手段と、
前記特定手段により特定された第1の文字情報の中に、前記指定手段により指定された第2の文字情報に一致する該当文字情報が存在するか否かを判別する判別手段と、
前記判別手段により該当文字情報が存在すると判別された場合に、その該当文字情報の表示位置を表示画面上で識別表示する識別表示手段と、
前記画像更新手段が画像の表示を更新した時に、前記識別表示手段による識別表示を更新する識別表示更新手段と
を具備することを特徴とする端末装置。
Image display means for displaying on the screen at least a part of the image picked up by the image pickup means;
Image updating means for updating display of the image by the image display means at a predetermined timing;
Specifying means for specifying first character information included in an image picked up by the image pickup means;
A designation means for designating the second character information;
A discriminating means for discriminating whether or not there is character information matching the second character information designated by the designation means in the first character information identified by the identifying means;
An identification display means for identifying and displaying the display position of the corresponding character information on the display screen when it is determined by the determination means that the corresponding character information exists;
An identification display update means for updating an identification display by the identification display means when the image update means updates an image display.
撮像手段により撮像された画像の少なくとも一部と、前記指定手段により指定された第2の文字情報とを同時に画面表示する同時表示手段を更に備えることを特徴とする請求項11記載の端末装置。 12. The terminal device according to claim 11, further comprising a simultaneous display unit that simultaneously displays on a screen at least a part of an image captured by the imaging unit and the second character information designated by the designation unit. 前記画像表示手段が、撮像手段により撮像された画像の少なくとも一部を画面に表示している状態で、前記指定手段により指定された第2の文字情報を変更する文字情報変更手段を更に備えることを特徴とする請求項11記載の端末装置。 The image display means further includes character information changing means for changing the second character information specified by the specifying means in a state where at least a part of the image picked up by the image pickup means is displayed on the screen. The terminal device according to claim 11. 前記画像表示手段が撮像手段により撮像された画像の少なくとも一部を画面に表示している状態で、前記指定手段により指定された第2の文字情報に一致する該当文字情報が画面に表示されているか否かを判別する表示判別手段と、
前記表示判別手段により該当文字情報が画面に表示されていないと判別された場合に、その該当文字情報の位置を示す位置情報を表示する位置情報表示手段と
を更に備えることを特徴とする請求項11記載の端末装置。
In the state where the image display means displays at least a part of the image picked up by the image pickup means on the screen, the corresponding character information matching the second character information specified by the specifying means is displayed on the screen. Display determination means for determining whether or not,
A position information display unit that displays position information indicating a position of the corresponding character information when the display determining unit determines that the corresponding character information is not displayed on the screen. 11. The terminal device according to 11.
前記画像更新手段が画像の表示を更新した時に、前記位置情報表示手段により表示される位置情報の表示を更新する位置情報更新手段を更に備えることを特徴とする請求項14記載の端末装置。 15. The terminal device according to claim 14, further comprising position information update means for updating display of position information displayed by the position information display means when the image update means updates display of an image. 前記画像表示手段が撮像手段により撮像された画像の少なくとも一部を画面に表示している状態で、前記指定手段により指定された第2の文字情報に一致する該当文字情報が画面に表示されているか否かを判別する表示判別手段と、
前記表示判別手段により該当文字情報が画面に表示されていないと判別された場合に、その該当文字情報が画面に表示されるように画像の表示位置を変更する表示位置変更手段と
を更に備えることを特徴とする請求項11記載の端末装置。
In the state where the image display means displays at least a part of the image picked up by the image pickup means on the screen, the corresponding character information matching the second character information specified by the specifying means is displayed on the screen. Display determination means for determining whether or not,
Display position changing means for changing the display position of the image so that the corresponding character information is displayed on the screen when the display determining means determines that the corresponding character information is not displayed on the screen. The terminal device according to claim 11.
前記画像表示手段が撮像手段により撮像された画像の少なくとも一部を画面に表示している状態で、前記指定手段により指定された第2の文字情報に一致する該当文字情報が画面に表示されているか否かを判別する表示判別手段と、
前記表示判別手段により該当文字情報が画面に表示されていると判別された場合、その旨を報知する報知手段と
を更に備えることを特徴とする請求項11記載の端末装置。
In the state where the image display means displays at least a part of the image picked up by the image pickup means on the screen, the corresponding character information matching the second character information specified by the specifying means is displayed on the screen. Display determination means for determining whether or not,
The terminal device according to claim 11, further comprising notification means for notifying that the character information is displayed on the screen by the display determination means.
コンピュータに、
画像を取得する画像取得ステップと、
前記画像取得ステップで取得された画像の少なくとも一部を画面に表示する画像表示ステップと、
前記画像取得ステップで取得された画像に含まれるオブジェクトを特定する特定ステップと、
前記特定ステップで特定されたオブジェクトを候補情報として抽出する抽出ステップと、
前記抽出ステップにて抽出された候補情報のいずれかを指定する指定ステップと、
前記画像表示ステップで画像の少なくとも一部が画面に表示されている時に、前記指定ステップにより指定された候補情報に該当するオブジェクトの表示位置を当該画面上で識別表示する識別表示ステップと
を実行させることを特徴とするプログラム。
On the computer,
An image acquisition step of acquiring an image;
An image display step of displaying on the screen at least a part of the image acquired in the image acquisition step;
A specifying step of specifying an object included in the image acquired in the image acquiring step;
An extraction step of extracting the object specified in the specifying step as candidate information;
A designation step for designating any of the candidate information extracted in the extraction step;
When at least a part of the image is displayed on the screen in the image display step, an identification display step for identifying and displaying on the screen the display position of the object corresponding to the candidate information specified in the specification step is executed. A program characterized by that.
撮像された画像の少なくとも一部を画面に表示する画像表示ステップと、
前記画像表示ステップによる画像の表示を所定のタイミングで更新する画像更新ステップと、
撮像された画像に含まれる第1の文字情報を特定する特定ステップと、
第2の文字情報を指定する指定ステップと、
前記特定ステップで特定された第1の文字情報の中に、前記指定ステップにより指定された第2の文字情報に一致する該当文字情報が存在するか否かを判別する判別ステップと、
前記判別ステップにて該当文字情報が存在すると判別された場合に、その該当文字情報の表示位置を表示画面上で識別表示する識別表示ステップと、
前記画像更新ステップが画像の表示を更新した時に、前記識別表示ステップによる識別表示を更新する識別表示更新ステップと
を実行させることを特徴とするプログラム。
An image display step for displaying on the screen at least a part of the captured image;
An image update step for updating display of the image in the image display step at a predetermined timing;
A specifying step of specifying first character information included in the captured image;
A designation step for designating second character information;
A determining step of determining whether or not there is character information that matches the second character information specified in the specifying step among the first character information specified in the specifying step;
An identification display step for identifying and displaying the display position of the corresponding character information on the display screen when it is determined that the corresponding character information exists in the determination step;
An identification display update step for updating the identification display in the identification display step when the image update step updates the display of the image.
JP2009119449A 2009-05-18 2009-05-18 Terminal device and program Expired - Fee Related JP5263966B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009119449A JP5263966B2 (en) 2009-05-18 2009-05-18 Terminal device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009119449A JP5263966B2 (en) 2009-05-18 2009-05-18 Terminal device and program

Publications (2)

Publication Number Publication Date
JP2010267174A true JP2010267174A (en) 2010-11-25
JP5263966B2 JP5263966B2 (en) 2013-08-14

Family

ID=43364072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009119449A Expired - Fee Related JP5263966B2 (en) 2009-05-18 2009-05-18 Terminal device and program

Country Status (1)

Country Link
JP (1) JP5263966B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013057907A1 (en) * 2011-10-17 2013-04-25 Necカシオモバイルコミュニケーションズ株式会社 Input device, display processing method, and storage medium in which display processing program is stored
JP2018139143A (en) * 2018-05-15 2018-09-06 カシオ計算機株式会社 Information apparatus, method for notifying object in information apparatus, and program for information apparatus

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09204439A (en) * 1996-01-29 1997-08-05 Matsushita Electric Ind Co Ltd Information display device
JP2000322417A (en) * 1999-05-06 2000-11-24 Canon Inc Device and method for filing image and storage medium
JP2007281858A (en) * 2006-04-06 2007-10-25 Omron Corp Animation editing device
JP2008021324A (en) * 2007-08-30 2008-01-31 Olympus Corp Image processor and program
JP2008233957A (en) * 2007-03-16 2008-10-02 Fujifilm Corp Image selection device, image selection method, imaging device and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09204439A (en) * 1996-01-29 1997-08-05 Matsushita Electric Ind Co Ltd Information display device
JP2000322417A (en) * 1999-05-06 2000-11-24 Canon Inc Device and method for filing image and storage medium
JP2007281858A (en) * 2006-04-06 2007-10-25 Omron Corp Animation editing device
JP2008233957A (en) * 2007-03-16 2008-10-02 Fujifilm Corp Image selection device, image selection method, imaging device and program
JP2008021324A (en) * 2007-08-30 2008-01-31 Olympus Corp Image processor and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013057907A1 (en) * 2011-10-17 2013-04-25 Necカシオモバイルコミュニケーションズ株式会社 Input device, display processing method, and storage medium in which display processing program is stored
JP2018139143A (en) * 2018-05-15 2018-09-06 カシオ計算機株式会社 Information apparatus, method for notifying object in information apparatus, and program for information apparatus

Also Published As

Publication number Publication date
JP5263966B2 (en) 2013-08-14

Similar Documents

Publication Publication Date Title
JP4241484B2 (en) Portable terminal device, incoming response message transmission method, and server device
KR101232994B1 (en) Image based dialing
KR100568928B1 (en) Photographing apparatus capable of multilingual display
US10133932B2 (en) Image processing apparatus, communication system, communication method and imaging device
JPWO2018155116A1 (en) Information processing apparatus, information processing method, and computer program
KR100678201B1 (en) Method for setting the main language in wireless terminal
JP5152045B2 (en) Telephone device, image display method, and image display processing program
JP2003037826A (en) Substitute image display and tv phone apparatus
JP5263966B2 (en) Terminal device and program
JP2006053524A (en) Electronic musical instrument system and devices to be used in this system and program
JP2010026731A (en) Character input device, character input method, character input system, character input server and terminal
JP5344587B2 (en) Terminal device and program
JP2005295015A (en) Video meeting system
KR100566230B1 (en) Method for performing specific function concerning phone number
JP5751607B2 (en) Terminal device and program
JP2008046840A (en) Portable terminal equipment
JP2009259096A (en) Image information providing system, image information server, imaging apparatus, and image information providing method
JP2005135210A (en) Portable device with character recognition function
KR20050079125A (en) Methods and a apparatus of setting normal display image and ringing signal for mobile phone
WO2020245991A1 (en) Road guidance system and mobile information terminal used in same
JP6387205B2 (en) Communication system, communication method and program
JP5977697B2 (en) Electronic device and method for controlling electronic device
KR20100137267A (en) Portable apparatus for learning words by imaging object associated with word and method for learning words
KR20090074378A (en) Mobile terminal method for executing navigation function thereof
JP2006005537A (en) Portable terminal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130426

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5263966

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees