JP2010217962A - Program for camera-equipped mobile terminal device, and camera-equipped mobile terminal device - Google Patents

Program for camera-equipped mobile terminal device, and camera-equipped mobile terminal device Download PDF

Info

Publication number
JP2010217962A
JP2010217962A JP2009060716A JP2009060716A JP2010217962A JP 2010217962 A JP2010217962 A JP 2010217962A JP 2009060716 A JP2009060716 A JP 2009060716A JP 2009060716 A JP2009060716 A JP 2009060716A JP 2010217962 A JP2010217962 A JP 2010217962A
Authority
JP
Japan
Prior art keywords
application
camera
feature
unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009060716A
Other languages
Japanese (ja)
Inventor
Keiichi Tamai
敬一 玉井
Hirobumi Fukumoto
博文 福本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2009060716A priority Critical patent/JP2010217962A/en
Publication of JP2010217962A publication Critical patent/JP2010217962A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To easily call a function using an image generated by a camera. <P>SOLUTION: In an application management system 100 set in a control part of a camera-equipped mobile terminal device, when a preview image processing part 101 supplies a preview image acquired from the camera to a recognition processing part 102, processing of detecting a characteristic set as a processing target by applications 111-114 is executed by respective detection parts 105-108 inside the recognition processing part 102. A GUI control part 103 allocates a key for selection operation to the application processing the characteristic whose detection succeeds, and displays information of the key together with an application name. Furthermore, when operation of the allocated key is performed, the GUI control part 103 decides that the application is selected, communicates an application start part 104, and the application start part 104 starts the selected application. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、カメラと操作部および表示部とが設けられた筐体内にコンピュータによる制御部が配備され、この制御部に組み込まれたアプリケーションによって、カメラにより生成された画像に対する認識処理を伴う所定の情報処理を実行するカメラ付き携帯端末装置、およびこの装置に組み込まれるプログラムに関する。   According to the present invention, a control unit by a computer is provided in a housing provided with a camera, an operation unit, and a display unit, and a predetermined process involving recognition processing for an image generated by the camera by an application incorporated in the control unit. The present invention relates to a camera-equipped mobile terminal device that executes information processing and a program incorporated in the device.

近年、携帯電話をはじめとする多くの携帯端末装置には、ディジタルカメラ(以下、単に「カメラ」という。)が搭載されるとともに、このカメラにより生成された画像を用いて、2次元コードの読み取りや文字認識処理などの認識処理を実行する機能が設定されている。   In recent years, a digital camera (hereinafter simply referred to as “camera”) is mounted on many portable terminal devices such as mobile phones, and two-dimensional code reading is performed using an image generated by the camera. And a function for executing recognition processing such as character recognition processing.

たとえば、携帯電話の多くには、2次元コードの画像からWebページのアドレス情報(URL)を読み取り、当該アドレス情報のWebページにアクセスする機能が搭載されている(特許文献1を参照)。また、文字列の画像から文字を認識して、メールエディタなどの文書作成システムに出力する機能を具備するものもある(特許文献2を参照)。また顔画像の認識技術(特許文献3を参照)を利用して、画像から検出された顔画像を似顔絵画像に変換するアプリケーションも開発されている。   For example, many mobile phones are equipped with a function of reading address information (URL) of a web page from a two-dimensional code image and accessing the web page of the address information (see Patent Document 1). Some have a function of recognizing characters from a character string image and outputting them to a document creation system such as a mail editor (see Patent Document 2). An application for converting a face image detected from an image into a portrait image using a face image recognition technique (see Patent Document 3) has also been developed.

特開2009−33411号公報JP 2009-33411 A 特開2008−250818号公報JP 2008-250818 A 特許第4218348号Patent No. 4218348

上記のとおり、カメラ付き携帯端末装置の機能は多様化されているが、これらの機能を呼び出すためのユーザインターフェースは不十分であり、一般に、複数段階の操作を経なければ目的とする機能を呼び出すことができない。このため、ユーザの中には、使いたい機能があるのに、その機能を呼び出す手順がわからないため使えない、と訴える人がいる。また、自分が所有する装置にどのような機能があるかを十分に認識していないユーザも多数認められる。   As described above, the functions of the camera-equipped mobile terminal device are diversified, but the user interface for calling these functions is insufficient, and generally the desired function is called unless a plurality of operations are performed. I can't. For this reason, some users complain that they have a function they want to use but they cannot use it because they do not know the procedure for calling that function. There are also many users who are not fully aware of what functions the device they own.

本発明は上記の問題点に着目し、カメラにより生成された画像を利用した機能を簡単に呼び出せるようにして、カメラ付き携帯端末装置の利便性を高めることを、課題とする。   The present invention pays attention to the above-mentioned problems, and an object thereof is to improve the convenience of a camera-equipped mobile terminal device by making it possible to easily call a function using an image generated by a camera.

本発明が適用されるカメラ付き携帯端末装置は、カメラと、操作部および表示部と、コンピュータによる制御部とを具備し、制御部に、特定の条件を満たす特徴を画像から検出して、検出された特徴を用いて所定の情報処理を実行するアプリケーション用のプログラムが複数組み込まれている。操作部は、後記するように、タッチパネルとして表示部に一体に設けられる場合と、表示部とは別体に設けられる場合とがある。   A mobile terminal device with a camera to which the present invention is applied includes a camera, an operation unit and a display unit, and a computer control unit. The control unit detects a feature satisfying a specific condition from an image and detects the feature. A plurality of programs for applications that execute predetermined information processing using the features described above are incorporated. As will be described later, the operation unit may be provided integrally with the display unit as a touch panel, or may be provided separately from the display unit.

上記のアプリケーションにより検出される特徴としては、たとえば、2次元コードやバーコードなどの光学情報コードや文字列がある。また、人の顔やあらかじめ登録されたパターン画像などを検出対象の特徴とする場合もある。各アプリケーションは、これらの特徴を検出して、その検出結果を出力したり、検出された特徴を用いた編集処理などを実行する。   The features detected by the above application include, for example, optical information codes such as two-dimensional codes and bar codes, and character strings. In some cases, a human face, a pre-registered pattern image, or the like is used as a feature to be detected. Each application detects these features, outputs the detection results, and executes an editing process using the detected features.

本発明によるプログラムは、上記の制御部を、以下の特徴検出手段、GUI(グラフィカル・ユーザ・インターフェース)制御手段、アプリケーション起動手段として機能させる。
特徴検出手段は、カメラがプレビュー画像を生成している間に、各アプリケーションの処理対象の特徴をプレビュー画像から検出する処理を、特徴の種毎に実行する。GUI制御手段は、特徴検出手段により検出された特徴に対応する全てのアプリケーションについて、それぞれ操作部による選択操作を受け付ける状態を設定すると共に、これらのアプリケーション毎に、その機能および選択操作の方法を示す情報を表示部に表示する。アプリケーション起動手段は、GUI制御手段による表示対象のアプリケーションのうちの1つを選択する操作が行われたことに応じて、選択されたアプリケーションを起動する。
The program according to the present invention causes the above-described control unit to function as the following feature detection means, GUI (graphical user interface) control means, and application activation means.
The feature detection unit executes, for each feature type, a process of detecting a feature to be processed by each application from the preview image while the camera generates a preview image. The GUI control unit sets a state for accepting a selection operation by the operation unit for all applications corresponding to the feature detected by the feature detection unit, and indicates a function and a selection operation method for each of these applications. Display information on the display. The application activation unit activates the selected application in response to an operation for selecting one of the applications to be displayed by the GUI control unit.

上記のプログラムによれば、ユーザが、画像処理による認識技術を利用した何らかの処理を行う目的で、処理対象の特徴にカメラを向けたときに、カメラにより生成されたプレビュー画像から上記の特徴が検出される。さらに表示部には、検出された特徴を処理するアプリケーションの機能およびその選択操作の方法を示す情報が表示される。ここでユーザがこの表示に従ってアプリケーションを選択すると、アプリケーション起動手段によって、選択されたアプリケーションが立ち上げられる。よって、ユーザは、目的とする機能を呼び出す方法がわからなくとも、表示された情報に基づいて目的とする機能を容易に呼び出すことができる。   According to the above program, when the user points the camera at a feature to be processed for the purpose of performing some processing using a recognition technique based on image processing, the above feature is detected from a preview image generated by the camera. Is done. Further, the display unit displays information indicating the function of the application that processes the detected feature and the selection operation method. Here, when the user selects an application according to this display, the selected application is launched by the application activation means. Therefore, even if the user does not know how to call the target function, the user can easily call the target function based on the displayed information.

また、ユーザが利用しようとしている機能のほかに、他の機能により処理される特徴がカメラの視野内に含まれている場合にも、各特徴に対応するアプリケーションの機能が個別に表示されるので、目的とするアプリケーションを誤りなく選択することができる。   Also, in addition to the function that the user is trying to use, even when the features processed by other functions are included in the field of view of the camera, the application functions corresponding to each feature are displayed individually. The target application can be selected without error.

またユーザが特に意識せずにカメラ付き携帯端末装置を手にしている場合でも、いずれかのアプリケーションによる処理対象の特徴がカメラの視野内に含まれている場合には、上記の特徴検出手段およびGUI制御手段による処理が行われ、利用することができる機能や選択操作の方法が表示される。よって、ユーザは表示された情報により、装置にどのような機能が組み込まれているのかを認識することができ、また気軽にその機能を試してみることができる。   Further, even when the user holds the mobile terminal device with a camera without being particularly conscious, if the feature to be processed by any application is included in the field of view of the camera, the feature detection means and Processing by the GUI control means is performed, and available functions and selection operation methods are displayed. Therefore, the user can recognize what function is incorporated in the apparatus from the displayed information, and can easily try the function.

なお、プレビュー画像は一定時間毎にカメラを駆動することにより生成されるもので、カメラの撮像素子のうちの一部を用いた解像度の低い画像として生成されるのが望ましい。また、装置に電源が供給されている間は、スタンバイ状態のときを除き、常時、プレビュー画像を生成しても良いが、カメラの使用を指示する操作が行われたことに応じて、プレビュー画像の生成を開始してもよい。   Note that the preview image is generated by driving the camera at regular intervals, and is preferably generated as a low-resolution image using a part of the image sensor of the camera. While the power is being supplied to the apparatus, the preview image may be generated at all times except in the standby state. However, the preview image is generated in response to an operation instructing the use of the camera. May be started.

以下、上記のプログラムの好ましい実施態様を、5つあげて説明する。
まず第1の態様では、GUI制御手段は、特徴検出手段により検出された特徴に対応する全てのアプリケーションをそれぞれ操作部の特定の1キーに割り当てると共に、これらのアプリケーションのアプリケーション名および割り当てられたキーを示す情報を表示部に表示する。
Hereinafter, five preferred embodiments of the above program will be described.
First, in the first aspect, the GUI control unit assigns all applications corresponding to the features detected by the feature detection unit to specific one keys of the operation unit, and the application names of these applications and the assigned keys. Is displayed on the display unit.

上記第1の態様によれば、ユーザは表示されたアプリケーション名により利用できる機能を容易に把握することができる。また、いずれの機能を選択する場合にも、キーを1回操作するだけで良くなり、操作が煩雑であった従来の問題を解消することができる。   According to the first aspect, the user can easily grasp the functions that can be used by the displayed application name. In addition, when any function is selected, it is only necessary to operate the key once, and the conventional problem that the operation is complicated can be solved.

第2の態様は、操作部がタッチパネルとして表示部に一体に設けられていることを前提とする。この態様のGUI制御手段は、特徴検出手段により検出された特徴に対応する全てのアプリケーションのアプリケーション名を表示部に表示すると共に、タッチパネルの各アプリケーション名の表示位置に対応する箇所で、それぞれ対応するアプリケーションを選択する操作を受け付ける状態を設定する。   A 2nd aspect presupposes that the operation part is integrally provided in the display part as a touch panel. The GUI control unit of this aspect displays the application names of all the applications corresponding to the features detected by the feature detection unit on the display unit, and corresponds to the respective positions corresponding to the display positions of the application names on the touch panel. Set the status to accept the operation to select the application.

第2の態様によれば、アプリケーション名を表示することにより、そのアプリケーションの機能が表示されると同時に、当該アプリケーションを選択するための操作場所が示されることになる。これにより、ユーザは利用できる機能を容易に認識することができ、目的とするアプリケーション名に触れることにより、アプリケーションを容易に立ち上げることができる。   According to the second aspect, by displaying the application name, the function of the application is displayed, and at the same time, the operation location for selecting the application is shown. Accordingly, the user can easily recognize the functions that can be used, and can easily start up the application by touching the target application name.

第3の態様も、操作部がタッチパネルとして表示部に一体に設けられていることを前提とするもので、GUI制御手段は、プレビュー画像の表示画面において、特徴検出手段により検出された特徴に対応する箇所を識別表示すると共に、各識別表示の近傍位置に識別表示された特徴に対応するアプリケーション名を表示する。また、タッチパネルの各識別表示に対応する箇所で、それぞれ識別表示された特徴に対応するアプリケーションを選択する操作を受け付ける状態を設定する。   The third mode is also based on the premise that the operation unit is integrally provided on the display unit as a touch panel. The GUI control unit corresponds to the feature detected by the feature detection unit on the display screen of the preview image. A location to be identified is displayed, and an application name corresponding to the feature identified and displayed in the vicinity of each identification display is displayed. In addition, a state of accepting an operation for selecting an application corresponding to each feature that is identified and displayed is set at a location corresponding to each identification display on the touch panel.

上記の態様によれば、プレビュー画像中の特徴を利用できる機能を示すとともに、この特徴が表示されている場所をアプリケーションを選択するための操作場所として報知することができる。   According to the above aspect, the function that can use the feature in the preview image can be shown, and the place where the feature is displayed can be notified as the operation place for selecting the application.

つぎに第4の態様では、GUI制御手段は、アプリケーションを選択する操作が行われたことに応じて、選択されたアプリケーションに処理させる特徴を配置するための枠領域を重ね合わせたプレビュー画像を表示部に表示する処理を、さらに実行する。   Next, in the fourth aspect, the GUI control means displays a preview image in which frame areas for arranging features to be processed by the selected application are superimposed in response to an operation for selecting the application. The processing to be displayed on the section is further executed.

プレビュー画像から処理対象の特徴を検出して、対応するアプリケーションを起動することができても、その特徴の位置や大きさによっては、アプリケーションによる認識処理を正しく行うことができない場合がある。第4の態様では、この点に着目して、枠領域を重ね合わせたプレビュー画像を表示するので、ユーザは、この枠領域内に処理対象の特徴が入るように撮像範囲を調整することにより、起動したアプリケーションによる処理を精度良く行うことができる。   Even if a feature to be processed can be detected from a preview image and a corresponding application can be activated, recognition processing by the application may not be performed correctly depending on the position and size of the feature. In the fourth aspect, paying attention to this point, a preview image in which the frame area is superimposed is displayed, so that the user can adjust the imaging range so that the feature to be processed falls within this frame area. Processing by the activated application can be performed with high accuracy.

第5の態様では、GUI制御手段は、表示対象の情報をカメラにより生成されたプレビュー画像に重ねて表示する。また、アプリケーションの選択操作と共に操作部からの撮影指示操作を受け付けることが可能に構成される。さらに、この態様のプログラムには、GUI制御手段が撮影指示を受け付けたことに応じてカメラを駆動して、生成された画像を取り込む撮影制御手段として制御部を機能させる。   In the fifth aspect, the GUI control unit displays the information to be displayed on the preview image generated by the camera. In addition, it is possible to accept a shooting instruction operation from the operation unit together with an application selection operation. Further, the program of this aspect causes the control unit to function as a shooting control unit that drives the camera in response to the reception of the shooting instruction by the GUI control unit and takes in the generated image.

上記の態様によれば、アプリケーションの選択を受け付けて、選択されたアプリケーションのプログラムを起動する処理と通常の写真撮影とを並列させて実行することが可能になる。よって写真撮影の際に、アプリケーションの処理対象の特徴(たとえば文字)がカメラの視野に含まれた場合にも、支障が生じることがなく、ユーザの意思に応じた処理を行うことができる。   According to the above aspect, it is possible to receive a selection of an application and execute a process of starting a program of the selected application in parallel with normal photography. Therefore, even when a feature (for example, a character) to be processed by the application is included in the field of view of the camera at the time of taking a picture, the processing according to the user's intention can be performed without any trouble.

本発明によるカメラ付き携帯端末装置は、カメラと、操作部および表示部と、特定の条件を満たす特徴を画像から検出して、検出された特徴を用いて所定の情報処理を実行するアプリケーション用のプログラムが複数組み込まれたコンピュータによる制御部とを具備する。さらに制御部には、上記したプログラムによって、特徴検出手段、GUI制御手段、プログラム起動手段の各機能が設けられる。   A portable terminal device with a camera according to the present invention is for an application that detects a feature that satisfies a specific condition from a camera, an operation unit and a display unit, and performs predetermined information processing using the detected feature. And a computer control unit in which a plurality of programs are incorporated. Further, the control unit is provided with functions of a feature detection unit, a GUI control unit, and a program start unit by the above-described program.

上記のプログラムおよびカメラ付き携帯端末装置によれば、ユーザがカメラを利用した情報処理を行う場合に、アプリケーション名やその呼び出し方法がわからなくとも、表示部に表示された情報に従って必要な機能を呼び出すことができる。よって、ユーザの負担を軽減し、装置の使い勝手を向上することができる。また、ユーザは、表示された情報により、自身が使用する装置に搭載されている機能を認識することができるので、搭載されている機能が利用される頻度が高められ、各種機能の搭載が無駄になるのを防止することができる。   According to the above program and the camera-equipped mobile terminal device, when the user performs information processing using the camera, even if the application name and the calling method are not known, the necessary function is called according to the information displayed on the display unit. be able to. Therefore, the burden on the user can be reduced and the usability of the apparatus can be improved. In addition, since the user can recognize the functions installed in the device used by the user based on the displayed information, the frequency of using the installed functions is increased, and the installation of various functions is useless. Can be prevented.

本発明が適用される携帯電話の構成を示すブロック図である。It is a block diagram which shows the structure of the mobile telephone to which this invention is applied. 上記の携帯電話に組み込まれるアプリケーション管理システムおよびアプリケーション群の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the application management system and application group incorporated in said mobile phone. 似顔絵作成アプリケーションが呼び出される場合の表示画面の変化の例を示す図である。It is a figure which shows the example of a change of a display screen when a portrait creation application is called. 名刺リーダが呼び出される場合の表示画面の変化の例を示す図である。It is a figure which shows the example of a change of a display screen when a business card reader is called. 2次元コードを含む印刷物と、この印刷物を対象にした撮影により2次元コードリーダが呼び出される場合の表示画面の変化の例を示す図である。It is a figure which shows the example of a change of a display screen when a two-dimensional code reader is called by the printed material containing a two-dimensional code, and imaging | photography aimed at this printed material. アプリケーション管理システムによる処理手順を示すフローチャートである。It is a flowchart which shows the process sequence by an application management system.

図1は、本発明が適用された携帯電話の構成を示す。
この携帯電話は、コンピュータを主体とする制御部1、カメラ2、画像プロセッサ3、表示部4、操作部5、通信回路6などを具備する。カメラ2、表示部4、操作部5は、図示しない筐体に組み付けられ、制御部1、画像プロセッサ3、通信回路6は、筐体内の制御基板に搭載される。また、図示していないが、表示部4、操作部5、通信回路6と制御部1との間には、インターフェース等の回路が設けられる。
FIG. 1 shows a configuration of a mobile phone to which the present invention is applied.
This mobile phone includes a control unit 1, a camera 2, an image processor 3, a display unit 4, an operation unit 5, a communication circuit 6, and the like, each having a computer as a main component. The camera 2, the display unit 4, and the operation unit 5 are assembled in a casing (not shown), and the control unit 1, the image processor 3, and the communication circuit 6 are mounted on a control board in the casing. Although not shown, a circuit such as an interface is provided between the display unit 4, the operation unit 5, the communication circuit 6, and the control unit 1.

制御部1には、CPU11、主メモリ12、画像メモリ13などが含まれる。主メモリ12には、プログラムや設定用のデータなどが保存される。一方、画像メモリ13には、制御部が認識処理を行う際に処理対象に設定された画像データやユーザのシャッタ操作に伴う写真撮影により生成された画像データが保存される。   The control unit 1 includes a CPU 11, a main memory 12, an image memory 13, and the like. The main memory 12 stores programs, setting data, and the like. On the other hand, the image memory 13 stores image data set as a processing target when the control unit performs a recognition process and image data generated by taking a picture accompanying a user's shutter operation.

操作部5には、テンキーを含む複数のキーが配置され、表示部4は、液晶パネルやその駆動回路により構成される。通信回路6は、通話やインターネットへの接続に用いられる。   The operation unit 5 includes a plurality of keys including a numeric keypad, and the display unit 4 includes a liquid crystal panel and a drive circuit thereof. The communication circuit 6 is used for a call or connection to the Internet.

カメラ2は、CCDまたはCMOSを有するディジタルカメラ2であり、画像プロセッサ3を介して制御部1に接続される。画像プロセッサ3は、通常は、一定時間毎にカメラ2を駆動し、カメラ2から出力された画素単位の画像データを所定の規則に基づき間引きして、解像度の低いプレビュー画像を生成する。一方、CPU11から撮像指示を受けたときには、すべての画素の画像データを用いて高解像度の画像を生成する。   The camera 2 is a digital camera 2 having a CCD or a CMOS, and is connected to the control unit 1 via the image processor 3. The image processor 3 normally drives the camera 2 at regular intervals, thins out the pixel unit image data output from the camera 2 based on a predetermined rule, and generates a preview image with low resolution. On the other hand, when an imaging instruction is received from the CPU 11, a high-resolution image is generated using the image data of all pixels.

画像プロセッサ3から出力されたプレビュー画像は表示部4に出力されて、リアルタイムで表示され、またCPU11にも出力される。高解像度の画像も同様にCPU11に出力された後に、CPU11により画像メモリ13に保存される。またCPU11は、ユーザの次の操作を受け付けるまで当該画像を表示部4に固定表示する。   The preview image output from the image processor 3 is output to the display unit 4, displayed in real time, and also output to the CPU 11. Similarly, the high-resolution image is output to the CPU 11 and then stored in the image memory 13 by the CPU 11. Further, the CPU 11 fixedly displays the image on the display unit 4 until the next operation of the user is accepted.

つぎに、この実施例の携帯電話の主メモリ12には、カメラ2により生成された画像から特定の条件を満たす特徴を検出し、その検出結果に基づき所定の情報処理を行う機能(アプリケーション)をCPU11に付与するためのプログラムが複数格納される。   Next, the main memory 12 of the mobile phone of this embodiment has a function (application) for detecting a feature satisfying a specific condition from an image generated by the camera 2 and performing predetermined information processing based on the detection result. A plurality of programs to be given to the CPU 11 are stored.

さらに主メモリ12には、ユーザが起動するアプリケーションを選択する場合の操作を支援して、この操作により選択されたアプリケーションを起動する制御を行うためのプログラムが格納されている。以下、このプログラムによりCPU11に設定される機能を「アプリケーション管理システム」という。   Further, the main memory 12 stores a program for supporting an operation when the user selects an application to be activated and performing control for starting the application selected by this operation. Hereinafter, a function set in the CPU 11 by this program is referred to as an “application management system”.

図2は、上記のアプリケーション管理システム(この図では符号100により示す。)およびこのシステム100が管理するアプリケーションを対象にした機能ブロック図を示す。この図に示すように、この実施例の携帯電話には、画像に対する認識処理を利用するアプリケーションとして、2次元コードリーダ111、似顔絵作成用アプリケーション112、名刺リーダ113、およびOCRソフト114が組み込まれている。   FIG. 2 shows a functional block diagram for the above application management system (indicated by reference numeral 100 in this figure) and applications managed by the system 100. As shown in this figure, the mobile phone of this embodiment incorporates a two-dimensional code reader 111, a portrait creation application 112, a business card reader 113, and OCR software 114 as applications that use image recognition processing. Yes.

2次元コードリーダ111は、2次元コードとしてQRコード(登録商標)を検出対象とするもので、画像から2次元コードを検出し、このコードにエンコードされている情報を復号する処理を行う。似顔絵作成アプリケーション112(次の図3に示すように、ユーザには「似顔絵アプリ」という名称で提示される。)は、画像から人の顔画像を検出し、その輪郭線などに基づき似顔絵画像を生成する。   The two-dimensional code reader 111 detects a QR code (registered trademark) as a two-dimensional code. The two-dimensional code reader 111 detects a two-dimensional code from an image and decodes information encoded in the code. The caricature creation application 112 (shown to the user with the name “caricature app” as shown in FIG. 3) detects a human face image from the image, and based on the contour line, the caricature image is displayed. Generate.

OCRソフト114は、画像から文字列を検出し、検出された文字列の構成文字を読み取ってテキストデータに変換する。このOCRソフト114は、単独で動作して、読み取り結果を図示しない他のアプリケーション(メールエディタ、翻訳用のソフトウェアなど)に出力するほか、名刺リーダ113の起動時にも、名刺リーダ113からの要求に応じた読取処理を実行する。   The OCR software 114 detects a character string from the image, reads the constituent characters of the detected character string, and converts them into text data. The OCR software 114 operates independently and outputs the reading result to other applications (not shown) (e.g., mail editor, translation software). In addition, when the business card reader 113 is activated, the OCR software 114 responds to a request from the business card reader 113. The corresponding reading process is executed.

名刺リーダ113は、画像から名刺の輪郭形状を検出すると共に、OCRソフト114に、この輪郭線により囲まれた領域内の文字認識処理を要求する。この要求に応じてOCRソフト114が領域内の文字を認識して、文字列毎にテキストデータに変換すると、名刺リーダ113は各テキストデータを解析して、氏名、会社などの属性を設定し、図示しない名刺データベースに格納する処理を実行する。   The business card reader 113 detects the outline shape of the business card from the image and requests the OCR software 114 to perform character recognition processing in the area surrounded by the outline. In response to this request, the OCR software 114 recognizes characters in the area and converts them into text data for each character string. The business card reader 113 analyzes each text data and sets attributes such as name and company. A process of storing in a business card database (not shown) is executed.

上記のアプリケーション群に対し、この実施例のアプリケーション管理システム100には、プレビュー画像入力部101、認識処理部102、GUI制御部103、アプリケーション起動部104などが設けられる。   For the above application group, the application management system 100 of this embodiment includes a preview image input unit 101, a recognition processing unit 102, a GUI control unit 103, an application activation unit 104, and the like.

プレビュー画像処理部101は、画像プロセッサ3で生成されたプレビュー画像を入力する。また画像を入力する毎に、一段階前の入力画像に対する新規の入力画像の変化量を検出し、変化量が所定の許容値以下になったときの画像を認識処理部102に提供する。   The preview image processing unit 101 inputs the preview image generated by the image processor 3. Each time an image is input, the amount of change of the new input image relative to the previous input image is detected, and the image when the amount of change is equal to or less than a predetermined allowable value is provided to the recognition processing unit 102.

認識処理部102は、プレビュー画像処理部101から提供されたプレビュー画像に、各アプリケーションにより処理される特徴が含まれているかどうかを認識するためのものである。具体的には、2次元コード検出部105、顔検出部106、名刺検出部107、文字列検出部108など、特徴の種毎に専用の検出部が設けられる。   The recognition processing unit 102 is for recognizing whether the preview image provided from the preview image processing unit 101 includes a feature to be processed by each application. Specifically, a dedicated detection unit is provided for each feature type, such as a two-dimensional code detection unit 105, a face detection unit 106, a business card detection unit 107, and a character string detection unit 108.

2次元コード検出部105は、QRコード(登録商標)に特有の3つのファインダパターンを検出する。さらにこの検出に成功すると、各ファインダパターンを基準に、2次元コードが包含される領域を特定する。   The two-dimensional code detection unit 105 detects three finder patterns unique to the QR code (registered trademark). Further, when this detection is successful, an area in which the two-dimensional code is included is specified based on each finder pattern.

顔検出部106は、画像から肌の色に近い色彩の画素が所定数以上分布している領域(以下、「肌色領域」という。)を検出し、さらにこの肌色領域内の特徴点を検出する。そして検出された各特徴点の分布を、目、鼻、口などの顔器官の配置に関するルールと照合し、各特徴点がこのルールに適合したとき、肌色領域を顔領域として特定する。   The face detection unit 106 detects an area in which a predetermined number or more of pixels having a color close to the skin color are distributed from the image (hereinafter referred to as “skin color area”), and further detects a feature point in the skin color area. . Then, the distribution of each detected feature point is collated with a rule relating to the arrangement of facial organs such as eyes, nose, and mouth, and when each feature point conforms to this rule, the skin color area is specified as the face area.

文字列検出部108は、認識処理部102内に設定されたエッジ抽出部(図示せず。)がプレビュー画像に対して実行したエッジ抽出処理の結果を取り込んで、画像中の線状の成分を特定する。さらに線状成分の連結体を1つの文字として検出し、各文字を、文字間の距離に基づきグループ分けする。なお、この段階の検出は、文字の有無を判別することを目的とするので、OCRソフト114のような文字認識処理を行う必要はない。   The character string detection unit 108 captures the result of the edge extraction processing performed on the preview image by the edge extraction unit (not shown) set in the recognition processing unit 102, and extracts the linear component in the image. Identify. Furthermore, a connected body of linear components is detected as one character, and each character is grouped based on the distance between characters. Note that the detection at this stage is intended to determine the presence / absence of characters, so that it is not necessary to perform character recognition processing like the OCR software 114.

名刺検出部107も、上記のエッジ抽出部による処理結果を取り込み、ハフ変換などにより直線成分を示すエッジを検出する。さらに4本の直線成分により長方形領域が形成されている箇所を検出し、この検出に成功した場合には、長方形領域の縦横の比率を算出する。   The business card detection unit 107 also captures the processing result by the edge extraction unit and detects an edge indicating a straight line component by Hough transform or the like. Further, a portion where a rectangular area is formed by four linear components is detected, and if this detection is successful, the ratio of the vertical and horizontal directions of the rectangular area is calculated.

上記の比率があらかじめ登録した名刺の規格に対応している場合には、長方形領域に対する文字列検出部108の検出結果を参照し、長方形領域内で所定数以上の文字が検出されている場合には、当該領域を名刺として検出する。一方、長方形領域の縦横の比率が名刺の規格に対応していない場合や、文字の検出数が所定数を下回る場合には、プレビュー画像には名刺の特徴は含まれていないと判定する。
なお、名刺検出部107が名刺を検出した場合には、文字列検出部108にその旨を連絡する。文字列検出部108では、この連絡に応じて、名刺として検出された領域に対応する検出結果を破棄する。
When the above ratio corresponds to the business card standard registered in advance, the detection result of the character string detection unit 108 for the rectangular area is referred to and a predetermined number or more of characters are detected in the rectangular area. Detects the area as a business card. On the other hand, if the aspect ratio of the rectangular area does not correspond to the business card standard, or if the number of detected characters is less than a predetermined number, it is determined that the business card feature is not included in the preview image.
When the business card detection unit 107 detects a business card, it notifies the character string detection unit 108 to that effect. In response to this communication, the character string detection unit 108 discards the detection result corresponding to the area detected as the business card.

このように認識処理部102では、特徴の種毎に設定された検出部105〜108により、プレビュー画像から各種特徴を検出し、この検出結果をGUI制御部103に供給する。GUI制御部103では、供給された情報に基づき、検出された特徴を処理できるアプリケーションを特定し、特定されたアプリケーション毎に選択用のキーを割り当てる。さらに、後記する具体例に示すように、特定されたアプリケーションのアプリケーション名や割り当てられたキーを示す情報を表示部4に表示し、ユーザのキー操作を受け付ける。   As described above, the recognition processing unit 102 detects various features from the preview image by the detection units 105 to 108 set for each feature type, and supplies the detection result to the GUI control unit 103. The GUI control unit 103 identifies an application that can process the detected feature based on the supplied information, and assigns a selection key to each identified application. Further, as shown in a specific example to be described later, information indicating the application name of the identified application and the assigned key is displayed on the display unit 4, and the user's key operation is accepted.

ここで割り当てられたキーの1つが操作されると、GUI制御部103は、このキーに対応するアプリケーションが選択されたものと判定して、その判定結果をアプリケーション起動部104に渡す。これに応じてアプリケーション起動部104は、選択されたアプリケーションを起動する。   When one of the keys assigned here is operated, the GUI control unit 103 determines that the application corresponding to this key has been selected, and passes the determination result to the application activation unit 104. In response to this, the application activation unit 104 activates the selected application.

以後は、起動したアプリケーションにより先に説明したような処理が実行されることになるが、この実施例では、この段階でもGUI制御部103により、処理対象の特徴がアプリケーションの認識に適した位置に配置するためのガイダンス表示(詳細は図3〜5の具体例により説明する。)を行うようにしている。   Thereafter, the process described above is executed by the activated application. In this embodiment, the GUI control unit 103 also sets the feature to be processed to a position suitable for application recognition at this stage. Guidance display for arrangement (details will be described with reference to specific examples in FIGS. 3 to 5) is performed.

なお、この実施例の画像プロセッサ3では、電源が供給されている間は、スタンバイモードを除き、常にカメラ2を駆動するとともに、CPU11からの撮影指示に待機している。アプリケーション管理システム100は、この画像プロセッサ3による処理に並行して上記の処理を実行する。またGUI制御部103は、アプリケーションの選択操作を受け付けるほか、シャッタ操作も受け付けると共に、シャッタ操作を受け付けた場合には、写真撮影を制御するシステム(図示せず。)に連絡するようにしている。このような制御により、ユーザが写真撮影を行う場合にも、支障なく対応することができる。   Note that the image processor 3 of this embodiment always drives the camera 2 and waits for a photographing instruction from the CPU 11 except for the standby mode while the power is supplied. The application management system 100 executes the above processing in parallel with the processing by the image processor 3. In addition to accepting an application selection operation, the GUI control unit 103 accepts a shutter operation. When the shutter operation is accepted, the GUI control unit 103 communicates with a system (not shown) that controls photography. By such control, even when the user takes a picture, it is possible to cope without trouble.

図3〜5は、上記のアプリケーション管理システム100の処理により、プレビュー画像から所定の特徴が検出されて、その検出結果やユーザの操作に応じて表示部4の表示が変化する例を示す。いずれの例でも、画面の大部分にプレビュー画像の表示領域20が設定され、その下方に、操作部5の機能キー(図示していないが、この実施例には5つの機能キーが設けられる。)に割り付けられている機能を示した表示欄21が設けられている。この表示欄21の表示のうち、中央の「撮影」は、シャッタ操作のための機能キーの配置位置を示すものである。   3 to 5 show an example in which a predetermined feature is detected from the preview image by the processing of the application management system 100, and the display on the display unit 4 changes according to the detection result and the user's operation. In any of the examples, a preview image display area 20 is set in a large part of the screen, and below that, function keys of the operation unit 5 (not shown, but five function keys are provided in this embodiment). ) Is provided with a display field 21 indicating the functions assigned to it. In the display of the display field 21, “shooting” in the center indicates the position of the function key for the shutter operation.

以下、各例について具体的に説明する。
まず、図3の例では、人物を対象にした撮影が行われている。図3中の画面G31は、被写体へのカメラ2の位置合わせが安定し、一段階前のプレビュー画像に対する変化量が基準値を下回る状態になったときのプレビュー画像を示す。このとき、認識処理部102の各検出部105〜108による処理が実行され、その処理結果に基づき、表示は画面G32のように変化する。
Each example will be specifically described below.
First, in the example of FIG. 3, shooting for a person is performed. A screen G31 in FIG. 3 shows a preview image when the alignment of the camera 2 with the subject is stable and the amount of change with respect to the preview image of the previous stage is below the reference value. At this time, processing by each of the detection units 105 to 108 of the recognition processing unit 102 is executed, and the display changes like a screen G32 based on the processing result.

図3の例の場合には、顔検出部106により顔領域が検出されるので、これに伴い、画面G32には、プレビュー画像に合わせて、検出された顔領域を示す矩形枠201が表示される。さらにこの画面G32には、検出された特徴(顔画像)を処理するアプリケーションの名称(似顔絵アプリ)と、このアプリケーションに割り当てられたキーを報知するメッセージ202が表示されている。   In the case of the example of FIG. 3, the face area is detected by the face detection unit 106. Accordingly, a rectangular frame 201 indicating the detected face area is displayed on the screen G32 in accordance with the preview image. The Further, on this screen G32, a name 202 of an application for processing the detected feature (face image) (caricature application) and a message 202 for informing a key assigned to this application are displayed.

この実施例では、検出された特徴により特定したアプリケーションに、テンキーの各数字キーを1つずつ割り当てるようにしている。図3の例で特定された似顔絵作成アプリケーションには、「1」のキーが割り当てられている。
ここでユーザが割り当てられたキーを操作すると、対応するアプリケーション(似顔絵作成用アプリケーション)が起動し、表示は画面G33のように変化する。この画面G33では、プレビュー画像に所定大きさの矩形枠203を重ね合わせて表示する。なお、「重ね合わせて表示」とは、プレビュー画像が更新されても矩形枠203を常に同じ場所に表示する処理をいう。
In this embodiment, each numeric key of the numeric keypad is assigned to the application specified by the detected feature one by one. The caricature creation application identified in the example of FIG. 3 is assigned a key “1”.
Here, when the user operates the assigned key, the corresponding application (caricature creation application) is activated, and the display changes as in a screen G33. In this screen G33, a rectangular frame 203 having a predetermined size is displayed in a superimposed manner on the preview image. Note that “superimpose display” refers to a process of always displaying the rectangular frame 203 at the same place even when the preview image is updated.

さらに、画面G33には、処理対象の顔を矩形枠203内に入れることを指示するメッセージ204が表示される。ユーザがこの指示に従って被写体の顔が矩形枠203内に入る状態を設定してシャッタ操作を行うと、その操作に応じて高解像度の画像が生成されて画像メモリ13に保存される。これに応じて表示部4の表示も、保存された画像を示す画面G34に変化する。さらに、図示していないが、この後に似顔絵の作成処理が終了すると、作成された似顔絵を示す画面が表示されることになる。   Further, on the screen G33, a message 204 instructing to put the face to be processed into the rectangular frame 203 is displayed. When the user sets a state in which the face of the subject enters the rectangular frame 203 according to this instruction and performs a shutter operation, a high-resolution image is generated and stored in the image memory 13 in accordance with the operation. In response to this, the display on the display unit 4 also changes to a screen G34 showing the stored image. Further, although not shown, when the portrait creation process is finished, a screen showing the created portrait is displayed.

一方、ユーザが被写体の人物を写真撮影することを目的としている場合には、画面G32が表示されているときにシャッタ操作が行われる。この操作に応じて、高解像度の画像が生成されて、その高解像度の画像を示す画面G35が表示される。   On the other hand, when the user intends to take a picture of the subject person, the shutter operation is performed when the screen G32 is displayed. In response to this operation, a high-resolution image is generated, and a screen G35 showing the high-resolution image is displayed.

この画面G35では、機能キーの表示欄21の表示も、生成された画像に対する処理を示すものに変更されている。表示欄21中の「保存」は画像メモリ13内の画像を主メモリ12内の画像データベースに保存する処理に相当する。「撮り直し」は、画像メモリ13内の画像を画像データベースに保存せずに消去する処理に相当する。   In this screen G35, the display of the function key display field 21 is also changed to indicate processing for the generated image. “Save” in the display column 21 corresponds to a process of saving the image in the image memory 13 in the image database in the main memory 12. “Reshoot” corresponds to a process of deleting an image in the image memory 13 without saving it in the image database.

上記のとおり、プレビュー画像を処理することができるアプリケーションが提示された状態下でも、ユーザがこの表示を無視してシャッタ操作を行った場合には、アプリケーションは起動せず、通常の写真撮影が実行される。以下の図4,図5の例では、シャッタ操作に伴う処理を示していないが、これらの例でも、シャッタ操作が行われた場合には、図3の例と同様の処理が実行される。   As described above, even when an application that can process a preview image is presented, if the user ignores this display and performs a shutter operation, the application does not start and normal photography is executed. Is done. The following examples of FIGS. 4 and 5 do not show the process associated with the shutter operation. However, in these examples as well, the same process as in the example of FIG. 3 is executed when the shutter operation is performed.

つぎに図4の例では、名刺を対象にした撮影が行われている。図中の画面G41は、一段階前のプレビュー画像に対する変化量が基準値を下回る状態になったときの表示である。この例では、認識処理部102の各検出部105〜108による処理が行われ、名刺検出部107が名刺の検出に成功したものとしており、これにより、表示部4の表示は、画面G42に変化する。この画面G42では、名刺として認識された領域に矩形枠204が表示されると共に、下方に、この枠内の特徴を処理するアプリケーションの名称(名刺リーダ)や、このアプリケーションに割り当てられたキー(この実施例でも「1」のキーである。)を報知するメッセージ205が表示される。   Next, in the example of FIG. 4, photographing for a business card is performed. A screen G41 in the figure is a display when the amount of change with respect to the preview image of the previous stage is below the reference value. In this example, the processing by each of the detection units 105 to 108 of the recognition processing unit 102 is performed, and it is assumed that the business card detection unit 107 has successfully detected the business card, whereby the display of the display unit 4 changes to the screen G42. To do. On this screen G42, a rectangular frame 204 is displayed in the area recognized as a business card, and below the name of the application (business card reader) that processes the features in this frame and the key assigned to this application (this In this embodiment, the key 205 is “1”.) A message 205 is displayed.

ここでユーザが報知されたキーを操作すると、名刺リーダ113が立ち上がり、これに応じて、表示は画面G43に変化する。この画面G43でも、図3の画面G33と同様に、プレビュー画像に所定大きさの矩形枠206が重ね合わせて表示される。また処理対象の特徴(名刺)を枠206内に入れることを指示するメッセージ207が表示される。   Here, when the user operates the notified key, the business card reader 113 starts up, and the display changes to the screen G43 accordingly. In this screen G43 as well as the screen G33 in FIG. 3, a rectangular frame 206 having a predetermined size is displayed superimposed on the preview image. In addition, a message 207 instructing to put the feature (business card) to be processed into the frame 206 is displayed.

最後の画面G44は、ユーザがメッセージ207に従ってカメラ2の位置を調整したときのものである。この段階では、名刺リーダ113がOCRソフト114と連絡して名刺内の文字列を処理して認識している。この認識処理が終了すると、表示は、認識結果を示す画面(図示せず。)に変更される。   The last screen G44 is when the user adjusts the position of the camera 2 in accordance with the message 207. At this stage, the business card reader 113 contacts the OCR software 114 to process and recognize the character string in the business card. When this recognition process ends, the display is changed to a screen (not shown) showing the recognition result.

つぎに図5の例では、上段の(1)に2次元コードを含む印刷物300(たとえばチラシ)の一部を示し(図5(1))、下段の(2)に、この印刷物300を撮影したときの表示部4の画面の変化の例を示す。   Next, in the example of FIG. 5, a part of a printed material 300 (for example, a leaflet) including a two-dimensional code is shown in the upper (1) (FIG. 5 (1)), and the printed material 300 is photographed in the lower (2). An example of a change in the screen of the display unit 4 when it is performed will be shown.

この実施例では、印刷物300の2次元コード301を読み取ることを目的としてカメラ2を位置合わせしている。図中の画面G51は、この位置合わせが終わったときのプレビュー画像であるが、この画像には、目的とする2次元コード301のほか、その近傍に印刷された文字列も含まれている。よって、この場合には、2次元コード検出部105により2次元コードが検出されると共に、文字列検出部108により文字列が検出される状態になる。   In this embodiment, the camera 2 is aligned for the purpose of reading the two-dimensional code 301 of the printed material 300. A screen G51 in the figure is a preview image when the alignment is completed, and this image includes a target two-dimensional code 301 and a character string printed in the vicinity thereof. Therefore, in this case, the two-dimensional code detection unit 105 detects the two-dimensional code and the character string detection unit 108 detects the character string.

これらの検出に伴い、表示部4の表示は画面G52に変化する。この画面G52では、検出された2種類の特徴のうち、2次元コードを処理するアプリケーション(2次元コードリーダ111)と、文字列を処理するアプリケーション(OCRソフト114)の各名称、およびこれらのアプリケーションに割り当てられたキー(「1」「2」)を報知するメッセージ211が表示されている。   With these detections, the display on the display unit 4 changes to the screen G52. In this screen G52, the names of the application (two-dimensional code reader 111) that processes a two-dimensional code and the application (OCR software 114) that processes a character string among the two types of detected features, and these applications A message 211 for informing the keys (“1” and “2”) assigned to is displayed.

なお、この画面G52でも、先の実施例と同様に、各特徴が検出された範囲毎に矩形枠が208,209,210が表示されているが、メッセージ211が重ね合わせられた場所は非表示状態に設定されている。   Also in this screen G52, as in the previous embodiment, rectangular frames 208, 209, and 210 are displayed for each range in which each feature is detected, but the place where the message 211 is superimposed is not displayed. Set to state.

上記の表示状態下で、ユーザが2次元コードリーダ111に割り当てられた「1」のキーを操作すると、表示は画面G53に変化する。この画面G53でも、図3の画面G33や図4の画面G43と同様に、所定大きさの矩形枠212が表示されると共に、処理対象の2次元コードを矩形枠212内に入れることを指示するメッセージ213が表示される。   When the user operates the “1” key assigned to the two-dimensional code reader 111 under the above display state, the display changes to the screen G53. In this screen G53 as well as the screen G33 in FIG. 3 and the screen G43 in FIG. 4, a rectangular frame 212 of a predetermined size is displayed and an instruction to put the processing target two-dimensional code into the rectangular frame 212 is given. A message 213 is displayed.

2次元コードリーダ111は、矩形枠212内で3つのファインダパターンが検出できるまでファインダパターンの検出を続け、検出に成功すると、画像プロセッサ3に撮像指示を出力して高解像度の画像を生成させ、この画像を用いて2次元コードの読取処理を実行する。最後の画面G54は、この読取処理が実施されている状態下での表示に相当する。この処理が終了すると、読み取られた情報を示す画面(図示せず。)が表示されることになる。   The two-dimensional code reader 111 continues to detect the finder pattern until three finder patterns can be detected within the rectangular frame 212. If the detection is successful, the image processor 3 outputs an imaging instruction to generate a high-resolution image. A two-dimensional code reading process is executed using this image. The last screen G54 corresponds to a display in a state where the reading process is being performed. When this process ends, a screen (not shown) indicating the read information is displayed.

上記各例に示したように、この実施例のアプリケーション管理システム100によれば、ユーザが目的とする特徴にカメラ2を向けることにより、その特徴を処理可能なアプリケーションを特定し、アプリケーション名およびこのアプリケーションに割り付けられたキーを表示するので、ユーザは、表示されたキーを操作することにより、アプリケーションを選択することができる。また、いずれの例でも、アプリケーション毎に操作部5のテンキーの1つを割り当てるので、ユーザは該当するキーを1回操作することによって、アプリケーションを起動させることができる。よって、アプリケーションを呼び出す操作が煩雑になるおそれがない。   As shown in each of the above examples, according to the application management system 100 of this embodiment, by pointing the camera 2 to the target feature of the user, an application that can process the feature is specified, and the application name and the Since the keys assigned to the application are displayed, the user can select the application by operating the displayed keys. In any example, since one of the numeric keys of the operation unit 5 is assigned to each application, the user can activate the application by operating the corresponding key once. Therefore, there is no possibility that the operation for calling the application becomes complicated.

さらに、アプリケーションが起動したときは、プレビュー画像に、処理対象の特徴を位置合わせするための矩形枠203,206,212を重ねて表示するので、起動したアプリケーションは、認識に適した画像を得て、精度の良い処理を実行することができる。よって、ユーザによるカメラ2の位置合わせが適切でないまま、アプリケーション側の処理が行われるのを防止して、処理の精度を確保することができる。   Further, when the application is started, the rectangular frames 203, 206, and 212 for aligning the processing target features are displayed on the preview image so that the started application obtains an image suitable for recognition. Therefore, it is possible to execute highly accurate processing. Therefore, it is possible to prevent the processing on the application side from being performed while the user does not properly align the camera 2, and to ensure the accuracy of the processing.

図6は、アプリケーション管理システム100により実行される処理の概略手順を示す。以下、このフローチャートに沿って、これまでに説明した処理を整理して説明する。   FIG. 6 shows a schematic procedure of processing executed by the application management system 100. Hereinafter, along with this flowchart, the processes described so far will be organized and described.

このフローチャートによる処理は、電源立ち上げ時のほか、いずれかのアプリケーションによる処理または写真撮影が終了したことに応じて開始される。またこの処理では、認識処理部102の各検出部105〜108により検出される特徴の種毎に検出フラグを設定することにより、各特徴の検出結果を管理するようにしている。   The processing according to this flowchart is started not only when the power is turned on but also when processing by any application or photography is completed. In this process, the detection result of each feature is managed by setting a detection flag for each type of feature detected by each of the detection units 105 to 108 of the recognition processing unit 102.

まず最初のステップ(ST1)で、1回目のプレビュー画像の入力を行った後に、全ての検出フラグをリセットしてオフに設定する(ST2)。   First, after inputting the first preview image in the first step (ST1), all detection flags are reset and set to OFF (ST2).

以後は、画像プロセッサ3から出力されるプレビュー画像を毎回入力して、前回の画像に対する変化量を算出する(ST4)。この実施例では、「勾配法」に基づき、画像間に生じた変化の大きさおよび変化の方向を示すベクトルを求め、このベクトルの長さを算出するようにしている。   Thereafter, the preview image output from the image processor 3 is input every time, and the amount of change with respect to the previous image is calculated (ST4). In this embodiment, on the basis of the “gradient method”, a vector indicating the magnitude and direction of a change occurring between images is obtained, and the length of this vector is calculated.

つぎに、上記の処理により算出された変化量を基準値と照合し、変化量が基準値を上回る場合(ST5が「NO」)には、ST3に戻って次のプレビュー画像を入力する。   Next, the amount of change calculated by the above processing is checked against a reference value. If the amount of change exceeds the reference value (ST5 is “NO”), the process returns to ST3 and the next preview image is input.

以下、同様の処理が続き、所定の時点で変化量が基準値以下になると(ST5が「YES」)、各検出部105〜108により各種特徴を検出する。また検出に成功した場合には、対応する特徴の検出フラグをオンに設定する(ST6)。   Thereafter, similar processing continues, and when the amount of change becomes equal to or less than the reference value at a predetermined time (ST5 is “YES”), various features are detected by the detection units 105 to 108. If the detection is successful, the corresponding feature detection flag is set to ON (ST6).

全ての検出処理が終了すると、各検出フラグをチェックする(ST7)。ここで、オンに設定された検出フラグがない場合には、ST7が「NO」となってST3に戻る。   When all the detection processes are completed, each detection flag is checked (ST7). Here, when there is no detection flag set to ON, ST7 becomes "NO" and returns to ST3.

一方、少なくとも1つの検出フラグがオンであれば、ST7が「YES」となってST8に進み、オン状態の検出フラグに対応する特徴を処理対象とするアプリケーションを特定する。さらに特定したアプリケーションに対し、「1」「2」「3」・・・というように操作部5の数字キーを順に割り当てる(ST9)。   On the other hand, if at least one detection flag is on, ST7 becomes “YES” and the process proceeds to ST8, and an application whose processing target is a feature corresponding to the detection flag in the on state is specified. Further, the numeric keys of the operation unit 5 are sequentially assigned to the identified applications such as “1”, “2”, “3”,... (ST9).

この後は、プレビュー画像中の検出された特徴に対応する範囲に矩形枠を表示し(ST10)、さらにST11で、プレビュー画像の所定位置に、特定されたアプリケーションの名称および割り当てられたキーの種類を表示する(画面G32,G42,G52の表示に相当する。)。この状態下で割り当てられたキーのいずれかが操作されると(ST12が「YES」)、そのキーに対応するアプリケーションを起動する(ST13)。さらに、ST14において、処理対象の特徴を含める矩形枠を表示する(画面G34,G44,G54の表示に相当する。)。   Thereafter, a rectangular frame is displayed in a range corresponding to the detected feature in the preview image (ST10), and in ST11, the name of the identified application and the assigned key type are placed at a predetermined position of the preview image. Is displayed (corresponding to the display of screens G32, G42, and G52). When one of the keys assigned in this state is operated (ST12 is “YES”), the application corresponding to the key is activated (ST13). Further, in ST14, a rectangular frame including the feature to be processed is displayed (corresponding to display of screens G34, G44, G54).

一方、ST11の処理が終了した後にシャッタ操作が行われた場合(ST12が「NO」、ST15が「YES」)には、写真撮影を管理するシステムにシャッタ操作が行われた旨を連絡して処理を終了する(ST16)。   On the other hand, when the shutter operation is performed after the processing of ST11 is completed (“NO” in ST12 and “YES” in ST15), the system that manages the photography is notified that the shutter operation has been performed. The process ends (ST16).

なお、上記の実施例では、検出された特徴を処理するアプリケーションや割り当てられたキーを報知する表示をメッセージ情報として表示しているが、これに限らず、メニュー形式の表示を行ってもよい。また、操作部5がタッチパネルとして表示部4に一体に設けられる場合にも、検出された特徴に対応するアプリケーション名によるメニューを表示し、いずれかのアプリケーション名の表示箇所を触れる操作に応じて、対応するアプリケーションを起動するようにしてもよい。   In the above-described embodiment, an application for processing the detected feature and a display for notifying the assigned key are displayed as message information. However, the display is not limited to this, and a menu-type display may be performed. In addition, when the operation unit 5 is provided integrally with the display unit 4 as a touch panel, a menu with an application name corresponding to the detected feature is displayed, and according to an operation of touching the display location of any application name, A corresponding application may be activated.

さらに、タッチパネル式の操作部5を設ける場合には、検出された特徴を囲む枠領域に対応する箇所にアプリケーションを選択するキーとしての機能を設定することができる。たとえば、図4の例であれば、名刺を検出したことに応じて矩形枠204を表示すると共に、その近傍位置に「名刺リーダ」と表示し、矩形枠204内への押圧操作が行われた場合に、名刺リーダ113を起動することができる。また図5の例であれば、2次元コードに対応する矩形枠209の近傍に「コードリーダ」と表示し、文字の検出箇所に対応する矩形枠208,210の近傍に「OCR」と表示し、いずれかの枠内への押圧操作が行われたことに応じて対応するアプリケーションを起動することができる。また、この場合には、最初は矩形枠のみを表示し、矩形枠内が1回操作されたことに応じてその矩形枠内の特徴に対応するアプリケーション名を表示し、2回目の操作が行われたときにアプリケーションを起動するようにしてもよい。   Further, when the touch panel type operation unit 5 is provided, a function as a key for selecting an application can be set at a position corresponding to a frame region surrounding the detected feature. For example, in the example of FIG. 4, the rectangular frame 204 is displayed in response to the detection of the business card, and “business card reader” is displayed in the vicinity of the rectangular frame 204, and a pressing operation into the rectangular frame 204 is performed. In this case, the business card reader 113 can be activated. In the example of FIG. 5, “code reader” is displayed in the vicinity of the rectangular frame 209 corresponding to the two-dimensional code, and “OCR” is displayed in the vicinity of the rectangular frames 208 and 210 corresponding to the detected positions of the characters. The corresponding application can be activated in response to the pressing operation into any of the frames. In this case, only the rectangular frame is displayed at first, and the application name corresponding to the feature in the rectangular frame is displayed in response to the operation in the rectangular frame being performed once, and the second operation is performed. The application may be activated when it is released.

また上記の実施例では、プレビュー画像から特徴を検出する処理を直接実行するアプリケーションのみを選択操作の対象としたが、これらのアプリケーションによる処理結果を供給されて処理を実行するアプリケーション(たとえば、OCRソフト114からテキストデータの供給を受ける翻訳ソフト、電子メールエディタなど)も含めて選択できるようにしてもよい。   In the above-described embodiment, only applications that directly execute processing for detecting features from the preview image are selected. However, applications (for example, OCR software) that receive processing results from these applications and execute processing are selected. 114 may be selected including translation software, e-mail editor, etc. that receive text data from 114.

1 制御部
2 カメラ
3 画像プロセッサ
4 表示部
5 操作部
11 CPU
12 主メモリ
100 アプリケーション管理システム
102 認識処理部
103 GUI制御部
104 アプリケーション起動部
111,112,113,114 アプリケーション
DESCRIPTION OF SYMBOLS 1 Control part 2 Camera 3 Image processor 4 Display part 5 Operation part 11 CPU
DESCRIPTION OF SYMBOLS 12 Main memory 100 Application management system 102 Recognition processing part 103 GUI control part 104 Application starting part 111,112,113,114 Application

Claims (7)

カメラと、操作部および表示部と、特定の条件を満たす特徴を画像から検出し、検出された特徴を用いて所定の情報処理を実行するアプリケーション用のプログラムが複数組み込まれたコンピュータによる制御部とを具備するカメラ付き携帯端末装置、の前記制御部に組み込まれるプログラムであって、
前記カメラがプレビュー画像を生成している間に、各アプリケーションの処理対象の特徴をプレビュー画像から検出する処理を、特徴の種毎に実行する特徴検出手段、
前記特徴検出手段により検出された特徴を処理対象とする全てのアプリケーションについて、それぞれ前記操作部による選択操作を受け付ける状態を設定すると共に、これらのアプリケーション毎にその機能および選択操作の方法を示す情報を前記表示部に表示するGUI制御手段、
前記GUI制御手段による表示対象のアプリケーションのうちの1つを選択する操作が行われたことに応じて、選択されたアプリケーションを起動するアプリケーション起動手段、
として前記制御部を機能させるように構成された、カメラ付き携帯端末装置用のプログラム。
A camera, an operation unit and a display unit, and a computer-based control unit in which a plurality of programs for an application for detecting a feature satisfying a specific condition from an image and executing predetermined information processing using the detected feature are incorporated A program incorporated in the control unit of the camera-equipped mobile terminal device comprising:
Feature detection means for executing, for each type of feature, processing for detecting a feature to be processed of each application from the preview image while the camera is generating a preview image;
For all applications for which the feature detected by the feature detection means is to be processed, a state for accepting a selection operation by the operation unit is set, and information indicating the function and the method of the selection operation is set for each application. GUI control means for displaying on the display unit,
An application activation unit that activates the selected application in response to an operation of selecting one of the applications to be displayed by the GUI control unit;
A program for a camera-equipped mobile terminal device configured to cause the control unit to function as:
前記GUI制御手段は、前記特徴検出手段により検出された特徴に対応する全てのアプリケーションをそれぞれ前記操作部の特定の1キーに割り当てると共に、これらのアプリケーションのアプリケーション名および割り当てられたキーを示す情報を前記表示部に表示する、
請求項1に記載されたカメラ付き携帯端末装置用のプログラム。
The GUI control means assigns all applications corresponding to the features detected by the feature detection means to a specific one key of the operation unit, and information indicating the application names and assigned keys of these applications. Display on the display unit,
A program for a mobile terminal device with a camera according to claim 1.
請求項1に記載されたプログラムにおいて、
前記操作部がタッチパネルとして表示部に一体に設けられているカメラ付き携帯端末装置に組み込まれることを前提とし、
前記GUI制御手段は、前記特徴検出手段により検出された特徴に対応する全てのアプリケーションのアプリケーション名を前記表示部に表示すると共に、前記タッチパネルの各アプリケーション名の表示位置に対応する箇所で、それぞれ対応するアプリケーションを選択する操作を受け付ける状態を設定する、カメラ付き携帯端末装置用のプログラム。
The program according to claim 1,
Assuming that the operation unit is incorporated in a mobile terminal device with a camera that is integrally provided in the display unit as a touch panel,
The GUI control means displays application names of all applications corresponding to the features detected by the feature detection means on the display unit, and corresponds to the display positions of the application names on the touch panel, respectively. A program for a camera-equipped mobile terminal device that sets a state of accepting an operation of selecting an application to be performed.
請求項1に記載されたプログラムにおいて、
前記操作部がタッチパネルとして表示部に一体に設けられているカメラ付き携帯端末装置に組み込まれることを前提とし、
前記GUI制御手段は、前記プレビュー画像の表示画面において、前記特徴検出手段により検出された特徴に対応する箇所を識別表示するとともに、各識別表示の近傍位置に識別表示された特徴に対応するアプリケーション名を表示し、さらに前記タッチパネルの各識別表示に対応する箇所で、それぞれ識別表示された特徴に対応するアプリケーションを選択する操作を受け付ける状態を設定する、
カメラ付き携帯端末装置用のプログラム。
The program according to claim 1,
Assuming that the operation unit is incorporated in a mobile terminal device with a camera that is integrally provided in the display unit as a touch panel,
The GUI control means identifies and displays a location corresponding to the feature detected by the feature detection means on the display screen of the preview image, and an application name corresponding to the feature identified and displayed at a position near each identification display And, further, in a location corresponding to each identification display of the touch panel, a state for accepting an operation for selecting an application corresponding to each identified and displayed feature is set.
A program for a mobile terminal device with a camera.
請求項1〜4のいずれかに記載されたプログラムにおいて、
前記GUI制御手段は、前記アプリケーションを選択する操作が行われたことに応じて、選択されたアプリケーションに処理させる特徴を配置するための枠領域を重ね合わせたプレビュー画像を前記表示部に表示する処理を、さらに実行する、
カメラ付き携帯端末装置用のプログラム。
In the program according to any one of claims 1 to 4,
The GUI control unit is configured to display, on the display unit, a preview image in which frame regions for arranging features to be processed by the selected application are overlaid in response to an operation for selecting the application. Perform further,
A program for a mobile terminal device with a camera.
請求項1〜5のいずれかに記載されたプログラムにおいて、
前記GUI制御手段は、表示対象の情報を前記カメラにより生成されたプレビュー画像に重ねて表示すると共に、前記操作部からの撮影指示操作を受け付けることが可能に構成されており、
前記GUI制御手段が撮影指示操作を受け付けたことに応じて前記カメラを駆動して、生成された画像を取り込む撮影制御手段として、前記制御部をさらに機能させる、カメラ付き携帯端末装置用のプログラム。
In the program according to any one of claims 1 to 5,
The GUI control unit is configured to display information to be displayed so as to be superimposed on a preview image generated by the camera and to accept a shooting instruction operation from the operation unit.
A program for a camera-equipped mobile terminal device that causes the control unit to further function as a photographing control unit that drives the camera in response to the photographing instruction operation received by the GUI control unit and captures a generated image.
カメラと、操作部および表示部と、特定の条件を満たす特徴を画像から検出して、検出された特徴を用いて所定の情報処理を実行するアプリケーション用のプログラムが複数組み込まれたコンピュータによる制御部とを具備するカメラ付き携帯端末装置において、
前記カメラがプレビュー画像を生成している間に、各アプリケーションの処理対象の特徴をプレビュー画像から検出する処理を、特徴の種毎に実行する特徴検出手段、
前記特徴検出手段により検出された特徴に対応する全てのアプリケーションについて、それぞれ前記操作部による選択操作を受け付ける状態を設定すると共に、これらのアプリケーション毎に、その機能および選択操作の方法を示す情報を前記表示部に表示するGUI制御手段、
および前記GUI制御手段による表示対象のアプリケーションのうちの1つを選択する操作が行われたことに応じて、選択されたアプリケーションを起動するプログラム起動手段が、前記制御部に設けられていることを特徴とする、カメラ付き携帯端末装置。
A camera, an operation unit, a display unit, and a control unit by a computer in which a plurality of programs for an application for detecting a feature satisfying a specific condition from an image and executing predetermined information processing using the detected feature In a mobile terminal device with a camera comprising:
Feature detection means for executing, for each type of feature, processing for detecting a feature to be processed by each application from the preview image while the camera generates a preview image;
For all applications corresponding to the features detected by the feature detection means, a state for accepting a selection operation by the operation unit is set, and information indicating the function and the method of the selection operation is set for each application. GUI control means for displaying on the display unit,
And a program activation means for activating the selected application in response to an operation of selecting one of the applications to be displayed by the GUI control means being provided in the control unit. A mobile terminal device with a camera.
JP2009060716A 2009-03-13 2009-03-13 Program for camera-equipped mobile terminal device, and camera-equipped mobile terminal device Pending JP2010217962A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009060716A JP2010217962A (en) 2009-03-13 2009-03-13 Program for camera-equipped mobile terminal device, and camera-equipped mobile terminal device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009060716A JP2010217962A (en) 2009-03-13 2009-03-13 Program for camera-equipped mobile terminal device, and camera-equipped mobile terminal device

Publications (1)

Publication Number Publication Date
JP2010217962A true JP2010217962A (en) 2010-09-30

Family

ID=42976794

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009060716A Pending JP2010217962A (en) 2009-03-13 2009-03-13 Program for camera-equipped mobile terminal device, and camera-equipped mobile terminal device

Country Status (1)

Country Link
JP (1) JP2010217962A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150139659A1 (en) * 2013-11-21 2015-05-21 Panasonic Corporation Information communication device
US9436479B2 (en) 2011-01-17 2016-09-06 Qualcomm Incorporated Booting a mobile electronic device with a low battery based on a dynamic boot threshold
US9460119B2 (en) 2012-10-25 2016-10-04 Nec Corporation Information processing device, information processing method, and recording medium

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9436479B2 (en) 2011-01-17 2016-09-06 Qualcomm Incorporated Booting a mobile electronic device with a low battery based on a dynamic boot threshold
US9460119B2 (en) 2012-10-25 2016-10-04 Nec Corporation Information processing device, information processing method, and recording medium
US20150139659A1 (en) * 2013-11-21 2015-05-21 Panasonic Corporation Information communication device
WO2015075847A1 (en) * 2013-11-21 2015-05-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Information communication method
US9294188B2 (en) * 2013-11-21 2016-03-22 Panasonic Intellectual Property Corporation Of America Information communication device
CN105723632A (en) * 2013-11-21 2016-06-29 松下电器(美国)知识产权公司 Information communication method
JPWO2015075847A1 (en) * 2013-11-21 2017-03-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information communication method
US9680572B2 (en) 2013-11-21 2017-06-13 Panasonic Intellectual Property Corporation Of America Information communication device
US10177847B2 (en) 2013-11-21 2019-01-08 Panasonic Intellectual Property Corporation Of America Information communication device
CN105723632B (en) * 2013-11-21 2019-03-22 松下电器(美国)知识产权公司 Information communicating method, device and computer readable storage medium

Similar Documents

Publication Publication Date Title
EP2339536A2 (en) Image processing system, image processing apparatus, image processing method, and program
JP2008046816A (en) Image display device, method and program
JP2007034625A (en) Information display device
JP2015177372A (en) Image forming system, image forming apparatus, portable terminal and program
JP2018121233A (en) Portable information processing device having camera function for performing guide display for photographing character-recognizable image, display control method thereof, and program
JP2010217962A (en) Program for camera-equipped mobile terminal device, and camera-equipped mobile terminal device
CN111741225A (en) Human-computer interaction device, method and computer-readable storage medium
US10990799B2 (en) Digitizing handwritten signatures
JP2007318775A (en) Portable telephone
US20230154148A1 (en) Image capturing apparatus capable of suppressing detection of subject not intended by user, control method for image capturing apparatus, and storage medium
JP2012065247A (en) Information processor, method, and program
US11138402B2 (en) Electronic apparatus and control method of the same
CN105893996B (en) Information processing method and electronic equipment
JP2019061427A (en) Information code reading system
JP2007334629A (en) Id card issuing system and method
JP2014203382A (en) Display device, display method, and display program
JP2012205089A (en) Information processing device, information processing method, and information processing program
JP5901680B2 (en) Portable terminal device and display device
JP2007166383A (en) Digital camera, image composing method, and program
JP7247725B2 (en) Form processing device and mobile terminal device
JP2004126942A (en) Mobile terminal, system for providing information, medium stored with program for providing information, and medium for printing
JP4054843B2 (en) Mobile phone
JP3717919B2 (en) Mobile phone
JP2005346577A (en) Maintenance management system
JP2012181567A (en) Information reading device, information reading method, and program