JP5415830B2 - Mobile terminal, electronic camera and continuous shooting program - Google Patents

Mobile terminal, electronic camera and continuous shooting program Download PDF

Info

Publication number
JP5415830B2
JP5415830B2 JP2009127449A JP2009127449A JP5415830B2 JP 5415830 B2 JP5415830 B2 JP 5415830B2 JP 2009127449 A JP2009127449 A JP 2009127449A JP 2009127449 A JP2009127449 A JP 2009127449A JP 5415830 B2 JP5415830 B2 JP 5415830B2
Authority
JP
Japan
Prior art keywords
image
identification information
images
photographing
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009127449A
Other languages
Japanese (ja)
Other versions
JP2010278612A (en
Inventor
昌義 中尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2009127449A priority Critical patent/JP5415830B2/en
Publication of JP2010278612A publication Critical patent/JP2010278612A/en
Application granted granted Critical
Publication of JP5415830B2 publication Critical patent/JP5415830B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Telephone Function (AREA)

Description

この発明は、携帯端末に関し、特にたとえば画像の撮影が可能な、携帯端末に関する。   The present invention relates to a mobile terminal, and more particularly to a mobile terminal capable of taking an image, for example.

従来、特にたとえば画像の撮影が可能な、携帯端末が知られており、この種の装置の一例が、非特許文献1に開示されている。この背景技術のカメラ付き携帯電話は、連写モードで撮影することが可能であり、9枚または4枚の写真を連続撮影することができる。   2. Description of the Related Art Conventionally, for example, a portable terminal capable of taking an image is known, and an example of this type of device is disclosed in Non-Patent Document 1. The camera-equipped mobile phone according to the background art can shoot in the continuous shooting mode, and can continuously take nine or four photographs.

また、特許文献1には、画像音声記録装置が開示されている。この画像音声記録装置は、連写機能を備えたデジタルカメラなどであり、一定レベルを超える音声が入力されたときに撮影された静止画像データに対して、入力された音声データを対応付けて記憶する。   Patent Document 1 discloses an image / audio recording apparatus. This image / audio recording apparatus is a digital camera or the like having a continuous shooting function, and stores the input audio data in association with still image data taken when audio exceeding a certain level is input. To do.

W63SA by SANYO 取扱説明書 133頁W63SA by SANYO Owner's Manual, page 133

特開2007−235432号公報[H04N 5/225, H04N 101/00]JP 2007-235432 A [H04N 5/225, H04N 101/00]

従来のカメラ付き携帯電話でカメラ機能を使って撮影する場合に、ハードスイッチを押下することで撮影を行うと、ボタン押下の操作によって携帯電話が揺れてしまい、撮影した画像がぶれてしまうことがあった。そのため、「上手に撮影できた写真」(以下、ベストショットと言う)を撮影するのが難しかった。そこで、非特許文献1に開示される連写モードや、特許文献1に開示されている連写機能を利用して、ハードスイッチを押下せずに撮影することが考えられたが、ベストショットを撮影しようとすると、以下のような問題点が新たに発生してしまう。   When shooting using the camera function with a conventional camera-equipped mobile phone, if you take a picture by pressing a hard switch, the mobile phone may be shaken by the operation of the button, and the captured image may be blurred. there were. For this reason, it was difficult to shoot “photos that I could take well” (hereinafter referred to as “best shots”). Therefore, it was considered that the continuous shooting mode disclosed in Non-Patent Document 1 and the continuous shooting function disclosed in Patent Document 1 were used to shoot without pressing the hard switch. When trying to shoot, the following new problems occur.

たとえば、非特許文献1に開示されている連写モードでは、撮影する枚数に限度があり、ベストショットが撮影されるまで、連写を続けることができなかった。また、特許文献1に開示されている連写機能では、撮影する枚数に限度はないが、ベストショットが撮影されるまで連写し続けると、不要な写真が大量に撮影されてしまう。そのため、撮影者は、撮影した複数の写真からベストショットを選択する手間がかかり、使い勝手が悪くなってしまう。   For example, in the continuous shooting mode disclosed in Non-Patent Document 1, there is a limit to the number of images to be shot, and continuous shooting cannot be continued until the best shot is shot. Further, with the continuous shooting function disclosed in Patent Document 1, there is no limit to the number of images to be taken, but if continuous shooting is continued until the best shot is taken, a large number of unnecessary photos are taken. For this reason, the photographer takes time and effort to select the best shot from a plurality of photographed photographs, and the usability is deteriorated.

それゆえに、この発明の主たる目的は、新規な、携帯端末、電子カメラおよび連続撮影プログラムを提供することである。   Therefore, a main object of the present invention is to provide a novel portable terminal, electronic camera, and continuous shooting program.

この発明の他の目的は、ベストショットを容易に撮影することができる、携帯端末、電子カメラおよび連続撮影プログラムを提供することである。   Another object of the present invention is to provide a portable terminal, an electronic camera, and a continuous shooting program capable of easily shooting the best shot.

この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate the corresponding relationship with the embodiments described in order to help understanding of the present invention, and do not limit the present invention.

第1の発明は、音声を入力するための音声入力手段を有する、携帯端末であって、画像を撮影する撮影手段、撮影手段を、第1所定時間毎に画像を連続して撮影させるよう制御する撮影制御手段、音声入力手段に入力された音声を認識する音声認識手段、連続して画像が撮影されている状態で、撮影手段によって撮影された後の第2所定時間に音声が入力されたとき、音声認識された結果に基づいて、画像の優先順位を示す第1識別情報を決定する第1決定手段、連続して撮影されている画像のうち、撮影手段によって画像が撮影された後に決められた第1識別情報を、当該画像に対応付ける対応付手段、および第1識別情報が対応付けられた画像を保存する保存手段を備える、携帯端末である。 1st invention is a portable terminal which has an audio | voice input means for inputting an audio | voice, Comprising: The imaging | photography means and imaging | photography means which image | photograph an image are controlled so that an image may be continuously image | photographed for every 1 predetermined time. The voice control means for recognizing the voice input to the voice input means , the voice is input at a second predetermined time after being shot by the shooting means in a state where images are continuously shot . A first determining means for determining first identification information indicating the priority order of the images based on the result of the speech recognition, and the determination is made after the images are taken by the photographing means among the continuously taken images. the first identification information that is provided with storage means correlating means associates to the image, and the first identification information to store the images associated with a mobile terminal.

第1の発明では、携帯端末(10)は、たとえばマイク(16b)などの音声入力手段(16a,16b)を有する。また、携帯端末10は、カメラ制御回路(38a)およびイメージセンサ(38b)から構成される撮影手段(20a,38a,38b)を備え、被写界の画像を撮影することができる。撮影制御手段(20a,S35,S41,S43,S49)は、たとえば3秒毎に画像を連続して撮影するように撮影手段を制御する。携帯端末は音声認識用の音声辞書が記憶されるROM(32)を有しており、音声認識手段(20a,20b,32)は、たとえばマイクに入力された音声を認識する。第1決定手段(20a,S47)は、連続して画像が撮影されている状態で、撮影手段によって撮影された後の第2所定時間に音声が入力されると、音声が認識(変換)された文字列から、画像の優先順位を示す第1識別情報を決定する。対応付手段(20a,S57)は、連続して撮影されている画像のうち、撮影手段によって画像が撮影された後に決められた第1識別情報を、その画像に対応付ける。そして、第1識別情報が対応付けられた画像は、保存手段(20a,S59)によって、たとえばフラッシュメモリ(28)またはメモリカード(44)に保存される。 In the first invention, the mobile terminal (10) has voice input means (16a, 16b) such as a microphone (16b). Moreover, the portable terminal 10 includes photographing means (20a, 38a, 38b) including a camera control circuit (38a) and an image sensor (38b), and can photograph an image of the object scene. The imaging control means (20a, S35, S41, S43, S49) controls the imaging means so as to continuously take images every 3 seconds, for example. The portable terminal has a ROM (32) in which a speech dictionary for speech recognition is stored, and the speech recognition means (20a, 20b, 32) recognizes speech input to a microphone, for example. The first determining means (20a, S47) recognizes (converts) the sound when the sound is input at the second predetermined time after being photographed by the photographing means in a state where images are continuously photographed. First identification information indicating the priority order of images is determined from the character string. Correlating means (20a, S57), among the image captured in succession, the first identification information determined after the image has been captured by the imaging means, associated with the image. Then, the image associated with the first identification information is stored in, for example, the flash memory (28) or the memory card (44) by the storage means (20a, S59).

第1の発明によれば、使用者は、連続して撮影される写真のうち、上手に撮影されたときに発話することで、ベストショットを容易に撮影することができる。さらに、ベストショットには優先順位を示す第1識別情報が対応付けられるため、使用者は、複数の写真の中から、ベストショットを選別する作業をしなくても済むようになる。
また、認識された音声に基づいて識別情報が決まるため、使用者は、複数のベストショットを簡単に分類しながら、撮影することができる。
According to the first invention, the user can easily take the best shot by speaking when the photograph is taken well among the continuously photographed photographs. Furthermore, since the first identification information indicating the priority order is associated with the best shot, the user does not have to work to select the best shot from a plurality of photographs.
Also, since the identification information is determined based on the recognized voice, the user can take a picture while easily classifying a plurality of best shots.

第2の発明は、第1の発明に従属し、連続して撮影されている画像のうち、第1識別情報が対応付けられていない画像を一時保存する一時保存手段をさらに備える。 The second invention is dependent on the first invention, and further comprises temporary storage means for temporarily storing an image that is not associated with the first identification information among images continuously photographed .

第3の発明は、第1の発明または第2の発明に従属し、連続して撮影されている状態で、撮影手段によって撮影される前の第所定時間に入力された音声に基づいて撮影シーンを示す第2識別情報を決定する第2決定手段をさらに備え対応付手段は、連続して撮影されている画像のうち、撮影手段によって画像が撮影された時の後と前とに決められた第1識別情報および第2識別情報のそれぞれを、当該画像に対応付ける。 The third invention is dependent on the first invention or the second invention , and is photographed based on the sound input at the third predetermined time before being photographed by the photographing means while continuously photographing. further comprising a second determining means for determining a second identification information indicating a scene, associating means, of the image being taken continuously, decided before and after the time the image was taken by the photographing means It was each of the first identification information and second identification information, associated with the image.

第3の発明では、第2決定手段(20a,S39)は、連続して撮影されている状態で、たとえば撮影される前の2秒間に入力された音声の認識結果に応じて第2識別情報を決定する。たとえば、第2識別情報は撮影された画像の撮影シーンを示す。そして、撮影のときに音声が認識された画像は、第1識別情報および第2識別情報の少なくとも一方が対応付けられる。 In the third invention , the second determination means (20a, S39) is the second identification information according to the recognition result of the voice input for 2 seconds before the image is captured , for example , in the state where the image is continuously captured. To decide. For example, the second identification information indicates a shooting scene of the shot image. Then, at least one of the first identification information and the second identification information is associated with the image whose sound is recognized at the time of shooting.

第3の発明によれば、使用者は、撮影される時刻を基準として、2種類の識別情報を決めることができる。そのため、使用者は、ベストショット以外の基準で、撮影された写真をさらに細かく分類できるようになる。   According to the third aspect of the invention, the user can determine two types of identification information based on the shooting time. Therefore, the user can further classify the photographed photos based on criteria other than the best shot.

第4の発明は、第1の発明ないし第3の発明のいずれかに従属し、対応付手段によって対応付けられた第1識別情報に基づいて保存された画像を表示する画像表示手段をさらに備える。 A fourth invention is dependent on any one of the first to third inventions, and further comprises image display means for displaying an image stored based on the first identification information associated by the association means. .

第4の発明では、携帯端末は、たとえばLCDモニタ(26)を有しており、画像表示手段(20a,26,S75,S79,S83)は、たとえば画像に対応付けられた第1識別情報毎に画像を表示する。 In the fourth invention, the mobile terminal has, for example, an LCD monitor (26), and the image display means (20a, 26, S75, S79, S83), for example, for each first identification information associated with an image. Display an image.

第4の発明によれば、第1識別情報別に画像が表示されるため、使用者は、ベストショットを含む、複数の写真の取捨選択を容易に行うことができる。 According to the fourth aspect, since an image is displayed for each first identification information, the user can easily select a plurality of photographs including the best shot.

第5の発明は、音声を入力するための音声入力手段(16a,16b)を有する、電子カメラであって、画像を撮影する撮影手段(20a,38a,38b)、撮影手段を、第1所定時間毎(3秒)に画像を連続して撮影させるよう制御する撮影制御手段(20a,S35,S41,S43,S49)、音声入力手段に入力された音声を認識する音声認識手段(20a,20b,32)、連続して画像が撮影されている状態で、撮影手段によって撮影された後の第2所定時間に音声が入力されたとき、音声認識された結果に基づいて、画像の優先順位を示す識別情報を決定する決定手段(20a,S47)、連続して撮影されている画像のうち、撮影手段によって画像が撮影された後に決められた識別情報を、当該画像に対応付ける対応付手段(20a,S57)、および識別情報が対応付けられた画像を保存する保存手段(20a,S59)を備える、電子カメラである。 According to a fifth aspect of the present invention, there is provided an electronic camera having voice input means (16a, 16b) for inputting voice, wherein the photographing means (20a, 38a, 38b) and photographing means for photographing an image are first predetermined. Shooting control means (20a, S35, S41, S43, S49) for controlling to continuously take images every time (3 seconds), and voice recognition means (20a, 20b) for recognizing the voice input to the voice input means. 32) When the sound is input at the second predetermined time after being photographed by the photographing means in the state where the images are continuously photographed , the priority order of the images is determined based on the result of the speech recognition. determining means for determining identification information indicating (20a, S47), among the images that are photographed in succession, the identification information determined after the image has been captured by the imaging means, associating the hand to be associated with the image (20a, S57), and stores the image identification information is associated comprises storage means (20a, S59), an electronic camera.

第5の発明でも、第1の発明と同様、使用者は、連続して撮影される写真のうち、上手に撮影されたときに発話することで、ベストショットを容易に撮影することができる。さらに、ベストショットには優先順位を示す第1識別情報が対応付けられるため、使用者は、複数の写真の中から、ベストショットを選別する作業をしなくても済むようになる。 Also in the fifth invention, the first invention the same way, the user of the photographs are taken continuously, by speech when it is well taken, it is possible to easily shoot the best shot . Furthermore, since the first identification information indicating the priority order is associated with the best shot, the user does not have to work to select the best shot from a plurality of photographs.

第6の発明は、音声を入力するための音声入力手段(16a,16b)、画像を撮影する撮影手段(20a,38a,38b)および音声入力手段に入力された音声を認識する音声認識手段(20a,20b,32)を有する、電子機器のプロセサ(20a)を撮影手段を、第1所定時間(3秒)毎に画像を連続して撮影させるよう制御する撮影制御手段(S35,S41,S43,S49)、連続して画像が撮影されている状態で、撮影手段によって撮影された後の第2所定時間に音声が入力されたとき、音声認識された結果に基づいて、画像の優先順位を示す識別情報を決定する決定手段(S47)、連続して撮影されている画像のうち、撮影手段によって画像が撮影された後に決められた識別情報を、当該画像に対応付ける対応付手段(S57)、および識別情報が対応付けられた画像を保存する保存手段(S59)として機能させる、連続撮影プログラムである。 The sixth invention is a voice input means (16a, 16b) for inputting voice, a photographing means (20a, 38a, 38b) for taking an image, and a voice recognition means for recognizing the voice input to the voice input means ( 20a, 20b, 32) having, a electronic device processor (20a), the imaging means, the first predetermined time (3 seconds) imaging control means for controlling so as to take continuous pictures every (S35, S41, S43, S49), in a state where images are continuously photographed , when voice is input for the second predetermined time after being photographed by the photographing means , the priority order of the images is based on the result of speech recognition. determining means for determining identification information indicating (S47), among the images that are photographed in succession, the identification information determined after the image has been captured by the imaging means, associating the hand to be associated with the image (S57), and identification information to function as a storage means (S59) for storing the images associated with a continuous shooting program.

第6の発明でも、第1の発明と同様、使用者は、連続して撮影される写真のうち、上手に撮影されたときに発話することで、ベストショットを容易に撮影することができる。さらに、ベストショットには優先順位を示す第1識別情報が対応付けられるため、使用者は、複数の写真の中から、ベストショットを選別する作業をしなくても済むようになる。
第7の発明は、音声を入力するための音声入力手段、画像を撮影する撮影手段および音声入力手段に入力された音声を認識する音声認識手段を有する、電子機器における連続撮影方法であって、電子機器のプロセサが、撮影手段を、第1所定時間毎に画像を連続して撮影させるよう制御する撮影制御ステップ、連続して画像が撮影されている状態で、撮影手段によって撮影された後の第2所定時間に音声が入力されたとき、音声認識された結果に基づいて、画像の優先順位を示す識別情報を決定する決定ステップ連続して撮影されている画像のうち、撮影手段によって画像が撮影された後に決められた識別情報を、当該画像に対応付ける対応付ステップおよび識別情報が対応付けられた画像を保存する保存ステップを実行する、連続撮影方法である。
In the sixth invention as well, as in the first invention, the user can easily take the best shot by speaking when the photograph is taken well among the continuously photographed photographs. Furthermore, since the first identification information indicating the priority order is associated with the best shot, the user does not have to work to select the best shot from a plurality of photographs.
A seventh aspect of the present invention is a continuous shooting method in an electronic device having a voice input unit for inputting voice, a shooting unit for shooting an image, and a voice recognition unit for recognizing a voice input to the voice input unit. A shooting control step in which the processor of the electronic device controls the shooting means to continuously take images every first predetermined time , after the images are taken by the shooting means in a state where the images are continuously shot. when speech is input to a second predetermined time, based on the result of the speech recognition, determining step of determining identification information indicating the priority of the image, among the images being consecutively captured image by capturing means There executes storing step identification information determined after being photographed, for storing the image correspondence step that associates to the image, and the identification information is associated, continuous shooting It is the law.

この発明によれば、使用者は、所定時間毎に連続して撮影される写真のうち、上手に撮影されたときに発話することで、ベストショットを容易に撮影および保存することができる。   According to the present invention, the user can easily shoot and save the best shot by speaking when the photograph is taken well among photographs taken continuously every predetermined time.

この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1は本発明の一実施例の携帯端末の電気的な構成を示すブロック図である。FIG. 1 is a block diagram showing an electrical configuration of a portable terminal according to an embodiment of the present invention. 図2は本発明の携帯端末によって撮影される複数の画像の一例を示す図解図である。FIG. 2 is an illustrative view showing an example of a plurality of images taken by the portable terminal of the present invention. 図3は図2に示す複数の画像が保存される領域の一例を示す図解図である。FIG. 3 is an illustrative view showing one example of a region where a plurality of images shown in FIG. 2 are stored. 図4は或る時刻に撮影される画像に対応付けられる識別情報を示す図解図である。FIG. 4 is an illustrative view showing identification information associated with an image taken at a certain time. 図5は図1に示すRAMに記憶される識別情報データの一例を示す図解図である。FIG. 5 is an illustrative view showing one example of identification information data stored in the RAM shown in FIG. 図6は図1に示すLCDモニタに表示される画像データの一例を示す図解図である。FIG. 6 is an illustrative view showing one example of image data displayed on the LCD monitor shown in FIG. 図7は図1に示すLCDモニタに表示される画像データの他の一例を示す図解図である。FIG. 7 is an illustrative view showing another example of image data displayed on the LCD monitor shown in FIG. 図8は図1に示すLCDモニタに表示される画像データのその他の一例を示す図解図である。FIG. 8 is an illustrative view showing another example of image data displayed on the LCD monitor shown in FIG. 図9は図1に示すLCDモニタに表示される画像データのさらにその他の一例を示す図解図である。FIG. 9 is an illustrative view showing still another example of image data displayed on the LCD monitor shown in FIG. 図10は図1に示すRAMのメモリマップの一例を示す図解図である。FIG. 10 is an illustrative view showing one example of a memory map of the RAM shown in FIG. 図11は図1に示すCPUの識別情報設定処理を示すフロー図である。FIG. 11 is a flowchart showing identification information setting processing of the CPU shown in FIG. 図12は図1に示すCPUのベストショット撮影処理を示すフロー図である。FIG. 12 is a flowchart showing the best shot photographing process of the CPU shown in FIG. 図13は図1に示すCPUのベストショット撮影処理の他の一部であって、図12に後続するフロー図である。FIG. 13 is another part of the best shot photographing process of the CPU shown in FIG. 1, and is a flowchart subsequent to FIG. 図14は図1に示すCPUの画像表示処理を示すフロー図である。FIG. 14 is a flowchart showing image display processing of the CPU shown in FIG.

図1を参照して、携帯端末10は、制御部20、入力装置であるキー入力装置22およびタッチパネル制御回路34によって制御されるタッチパネル36aとタッチキー36bとを含む。また、制御部20は、CPU(プロセサまたはコンピュータと呼ばれることもある。)20aとDSP(Digital Signal Processor)20bと含む。CPU20aは、CDMA方式に対応する無線通信回路14を制御して発呼信号を出力する。出力された発呼信号は、アンテナ12から送出され、基地局を含む移動通信網に送信される。通話相手が応答操作を行うと、通話可能状態が確立される。   Referring to FIG. 1, mobile terminal 10 includes a control unit 20, a key input device 22 that is an input device, and a touch panel 36 a and touch keys 36 b that are controlled by a touch panel control circuit 34. The control unit 20 includes a CPU (also called a processor or a computer) 20a and a DSP (Digital Signal Processor) 20b. The CPU 20a controls the radio communication circuit 14 corresponding to the CDMA system and outputs a call signal. The output call signal is transmitted from the antenna 12 and transmitted to the mobile communication network including the base station. When the other party performs a response operation, a call ready state is established.

通話可能状態に移行した後にキー入力装置22、タッチパネル36aおよびタッチキー36bによって通話終了操作が行われると、CPU20aは、無線通信回路14を制御して、通話相手に通話終了信号を送信する。そして、通話終了信号の送信後、CPU20aは、通話処理を終了する。また、先に通話相手から通話終了信号を受信した場合も、CPU20aは、通話処理を終了する。さらに、通話相手によらず、移動通信網から通話終了信号を受信した場合も、CPU20aは通話処理を終了する。   When a call end operation is performed by the key input device 22, the touch panel 36a, and the touch key 36b after the transition to the call enabled state, the CPU 20a controls the wireless communication circuit 14 to transmit a call end signal to the call partner. Then, after transmitting the call end signal, the CPU 20a ends the call process. Also, when the call end signal is received from the call partner first, the CPU 20a ends the call process. Furthermore, the CPU 20a also ends the call process when a call end signal is received from the mobile communication network regardless of the call partner.

携帯端末10が起動している状態で通話相手からの発呼信号がアンテナ12によって捉えられると、無線通信回路14は、着信をCPU20aに通知する。また、CPU20aは、LCDドライバ24によって、表示装置であるLCDモニタ26を制御し、着信通知に記述された発信元情報をLCDモニタ26に表示させる。そして、CPU20aは、第2スピーカ18bから着信音を出力させる。さらに、CPU20aは、バイブレータとして機能するモータ40を駆動(回転)させることで携帯端末10を振動させ、着信を使用者に通知する。   When a call signal from a call partner is captured by the antenna 12 while the mobile terminal 10 is activated, the wireless communication circuit 14 notifies the CPU 20a of an incoming call. Further, the CPU 20a controls the LCD monitor 26 which is a display device by the LCD driver 24, and causes the LCD monitor 26 to display the caller information described in the incoming call notification. Then, the CPU 20a outputs a ring tone from the second speaker 18b. Further, the CPU 20a vibrates the mobile terminal 10 by driving (rotating) the motor 40 that functions as a vibrator, and notifies the user of an incoming call.

通話可能状態では、次のような処理が実行される。通話相手から送られてきた変調音声信号(高周波信号)は、アンテナ12によって受信される。受信された変調音声信号は、無線通信回路14によって復調処理および復号処理が施される。そして、得られた受話音声信号は、第1スピーカ18aから出力される。一方、第1マイク16aによって取り込まれた送話音声信号は、無線通信回路14によって符号化処理および変調処理を施される。そして、生成された変調音声信号は、上述と同様、アンテナ12を利用して通話相手に送信される。   In the call ready state, the following processing is executed. The modulated audio signal (high frequency signal) sent from the other party is received by the antenna 12. The received modulated audio signal is subjected to demodulation processing and decoding processing by the wireless communication circuit 14. The obtained received voice signal is output from the first speaker 18a. On the other hand, the transmitted voice signal captured by the first microphone 16 a is subjected to encoding processing and modulation processing by the wireless communication circuit 14. Then, the generated modulated audio signal is transmitted to the other party using the antenna 12 as described above.

タッチパネル36aは、LCDモニタ26の画面内で、任意の位置を指示するためのポインティングデバイスである。タッチパネル36aは、その上面を指で、押したり、スライドしたり(撫でたり)、触られたりすることにより操作されると、その操作を検出する。そして、タッチパネル36aに指が触れると、タッチパネル制御回路34は、その指の位置を特定し、操作された位置の座標データをCPU20aに出力する。つまり、使用者は、タッチパネル36aの上面を指で、押したり、スライドしたり(擦ったり)、触れたりすることによって、操作の方向や図形などを携帯端末10に入力することができる。   The touch panel 36a is a pointing device for instructing an arbitrary position on the screen of the LCD monitor 26. When the touch panel 36a is operated by pressing, sliding (striking), or touching the upper surface with a finger, the touch panel 36a detects the operation. When a finger touches the touch panel 36a, the touch panel control circuit 34 specifies the position of the finger and outputs coordinate data of the operated position to the CPU 20a. That is, the user can input an operation direction, a figure, or the like to the mobile terminal 10 by pressing, sliding (rubbing), or touching the upper surface of the touch panel 36a with a finger.

また、タッチパネル36aは、指がタッチパネル36aの表面に接近して生じた電極間の静電容量の変化を検出する静電容量方式と呼ばれる方式で、1本または複数本の指がタッチパネル36aに触れたことを検出する。具体的には、このタッチパネル36aは、電極パターンが形成された透明フィルムに、指が接近することで生じる電極間の静電容量の変化を検出する、投影型の静電容量方式が採用されている。なお、検出方式には、表面型の静電容量方式が採用されてもよいし、抵抗膜方式、超音波方式、赤外線方式および電磁誘導方式などであってもよい。   The touch panel 36a is a method called a capacitance method that detects a change in capacitance between electrodes generated when a finger approaches the surface of the touch panel 36a, and one or more fingers touch the touch panel 36a. Detect that. Specifically, the touch panel 36a employs a projection-type capacitance method that detects a change in capacitance between electrodes that occurs when a finger approaches a transparent film on which an electrode pattern is formed. Yes. As the detection method, a surface type capacitance method may be employed, or a resistance film method, an ultrasonic method, an infrared method, an electromagnetic induction method, or the like may be used.

ここで、使用者がタッチパネル36aの上面を指で触れる操作を「タッチ」と言うことにする。一方、タッチパネル36aから指を離す操作を「リリース」と言うことにする。また、タッチパネル36aの表面を擦る操作を「スライド」と言うことにする。そして、タッチによって示された座標を「タッチ点」、リリースによって示された座標を「リリース点」と言うことにする。さらに、使用者がタッチパネル36aの上面をタッチして、続けてリリースする操作を「タッチアンドリリース」と言うことにする。そして、タッチ、リリース、スライドおよびタッチアンドリリースなどのタッチパネル36aに対して行う操作を、総じて「タッチ操作」と言うことにする。   Here, an operation in which the user touches the upper surface of the touch panel 36a with a finger is referred to as “touch”. On the other hand, the operation of releasing the finger from the touch panel 36a is referred to as “release”. The operation of rubbing the surface of the touch panel 36a is referred to as “slide”. The coordinates indicated by the touch are referred to as “touch points”, and the coordinates indicated by the release are referred to as “release points”. Further, an operation in which the user touches the upper surface of the touch panel 36a and subsequently releases it is referred to as “touch and release”. An operation performed on the touch panel 36a such as touch, release, slide, and touch and release is generally referred to as “touch operation”.

なお、タッチ点は、タッチパネル36aに触れている指の面積の重心座標となる。また、タッチ操作を行うために、専用のタッチペンなどを備えるようにしてもよい。さらに、LCDモニタ26の表示座標およびタッチパネル36aのタッチ位置座標の原点は左上端とする。つまり、横座標は左上端から右上端に進むにつれて大きくなり、縦座標は左上端から左下端に進むにつれて大きくなる。   The touch point is a barycentric coordinate of the area of the finger touching the touch panel 36a. Further, a dedicated touch pen or the like may be provided to perform a touch operation. Furthermore, the origin of the display coordinates of the LCD monitor 26 and the touch position coordinates of the touch panel 36a is the upper left corner. That is, the abscissa increases as it proceeds from the upper left corner to the upper right corner, and the ordinate increases as it proceeds from the upper left corner to the lower left corner.

一方、タッチキー36bは、タッチセンサーとも呼ばれ、タッチパネル36aと同様に静電容量方式で、タッチ操作を検出する。そして、タッチキー36bは、タッチパネル36aと同様に、タッチパネル制御回路34によって制御される。たとえば、タッチキー36bには、実行する機能を表わすアイコン(画像)が表示されている。なお、タッチキー36bは、CPU20aの制御によりアイコンの表示が切り換えられると、タッチ操作に応じて実行する機能も切り換えられてもよい。   On the other hand, the touch key 36b is also referred to as a touch sensor, and detects a touch operation by a capacitance method similarly to the touch panel 36a. The touch key 36b is controlled by the touch panel control circuit 34 in the same manner as the touch panel 36a. For example, an icon (image) representing a function to be executed is displayed on the touch key 36b. Note that when the display of the icon of the touch key 36b is switched under the control of the CPU 20a, the function to be executed according to the touch operation may be switched.

また、携帯端末10は、二次電池であるリチウムイオン電池48の電圧に基づく電源をシステム全体に供給する電源回路46を含む。また、電源回路46がリチウムイオン電池48の電圧に基づく電源をシステム全体に供給している場合には、電源オン状態と言うことにする。同様に、電源回路46がリチウムイオン電池48の電圧に基づく電源をシステム全体に供給していない場合には、電源オフ状態と言うことにする。電源回路46は、電源オフ状態で、キー入力装置22によって電源オン操作がされると起動され、電源オフ状態で、キー入力装置22による電源オフ操作がされると停止される。さらに、電源オフ状態であっても、電源回路46は、リチウムイオン電池48の充電に応答して起動され、リチウムイオン電池48の充電が完了するのに応答して停止される。また、充電とは、リチウムイオン電池48が外部電源と接続され外部電源から電力の供給を受けることで、リチウムイオン電池48が電気エネルギーを蓄えることを言う。   The mobile terminal 10 also includes a power supply circuit 46 that supplies power to the entire system based on the voltage of the lithium ion battery 48 that is a secondary battery. When the power supply circuit 46 supplies power based on the voltage of the lithium ion battery 48 to the entire system, it is referred to as a power-on state. Similarly, when the power supply circuit 46 does not supply power based on the voltage of the lithium ion battery 48 to the entire system, it is referred to as a power-off state. The power supply circuit 46 is activated when a power-on operation is performed by the key input device 22 in the power-off state, and is stopped when a power-off operation is performed by the key input device 22 in the power-off state. Further, even in the power-off state, the power supply circuit 46 is activated in response to the charging of the lithium ion battery 48 and stopped in response to the completion of the charging of the lithium ion battery 48. Charging means that the lithium ion battery 48 is connected to an external power supply and receives power supply from the external power supply, whereby the lithium ion battery 48 stores electric energy.

携帯端末10は、音声認識機能を備えており、たとえば、使用者によって発話された音声が音声入力手段である第2マイク16bに入力されると、LCDモニタ26には音声が認識(変換)された文章が表示される。具体的には、第2マイク16bによって取り込まれた音声信号はDPS20bによって音声データに変換され、CPU20aおよびDSP20bは音声データから特徴パターン(特徴量)を抽出する。また、CPU20aおよびDSP20bは、音声認識用の音声辞書を構成する参照音声データをROM32から読み出す。そして、CPU20aおよびDSP20bは、統計的決定理論に基づく音声認識の手法によって、特徴パターンと各参照パターンとを照合することで、音声データと一致する参照音声データを特定する。この音声辞書は参照音声データとその参照音声データが表わす文字列とが対応付けられているため、CPU20aおよびDSP20bは特定した参照音声データに対応する文字列を読み出すことで、当該音声データを文字列に変換する。   The portable terminal 10 has a voice recognition function. For example, when a voice uttered by a user is input to the second microphone 16b which is a voice input means, the LCD monitor 26 recognizes (converts) the voice. Displayed text. Specifically, the audio signal captured by the second microphone 16b is converted into audio data by the DPS 20b, and the CPU 20a and the DSP 20b extract a feature pattern (feature amount) from the audio data. Further, the CPU 20a and the DSP 20b read the reference voice data constituting the voice dictionary for voice recognition from the ROM 32. And CPU20a and DSP20b identify the reference audio | voice data which correspond with audio | voice data by collating a feature pattern and each reference pattern by the audio | voice recognition method based on a statistical decision theory. Since this voice dictionary associates reference voice data with a character string represented by the reference voice data, the CPU 20a and the DSP 20b read the character string corresponding to the identified reference voice data, thereby converting the voice data into a character string. Convert to

また、この統計的決定理論に基づく音声認識の手法では、音声認識の手法として広く利用されているHMM(Hidden Markov Model:隠れマルコフモデル)を利用して、各参照音声データと特徴パターンとの尤度を算出する。そして、CPU20aおよびDSP20bは最も尤度が高い参照パターンを特定する。   In addition, the speech recognition method based on this statistical decision theory uses the HMM (Hidden Markov Model), which is widely used as a speech recognition method, to estimate the likelihood of each reference speech data and feature pattern. Calculate the degree. Then, the CPU 20a and the DSP 20b specify the reference pattern with the highest likelihood.

なお、CPU20a、DSP20bおよびROM32は、音声認識手段として機能する。また、他の実施例では、特徴パターンの照合による音声認識の手法が採用されてもよい。   The CPU 20a, DSP 20b, and ROM 32 function as voice recognition means. In another embodiment, a speech recognition method based on feature pattern matching may be employed.

また、携帯端末10はカメラ機能を備えており、キー入力装置22、タッチパネル36aおよびタッチキー36bによってカメラ機能を実行する操作が行われると、カメラ制御回路38aおよびイメージセンサ38bを撮影手段として機能させ、カメラ機能を実行する。   The mobile terminal 10 has a camera function. When an operation for executing the camera function is performed by the key input device 22, the touch panel 36a, and the touch key 36b, the camera control circuit 38a and the image sensor 38b are caused to function as photographing means. Execute the camera function.

たとえば、被写界の光学像はイメージセンサ38bに照射され、イメージセンサ38bの撮像エリアには、たとえばUXGA(1600×1200画素)に対応する受光素子が配置されており、撮像エリアでは、光電変換によって、被写界の光学像に対応する電荷つまりUXGAの生画像信号が生成される。   For example, the optical image of the object scene is irradiated to the image sensor 38b, and a light receiving element corresponding to, for example, UXGA (1600 × 1200 pixels) is arranged in the imaging area of the image sensor 38b. In the imaging area, photoelectric conversion is performed. Thus, a charge corresponding to the optical image of the object scene, that is, a UXGA raw image signal is generated.

そして、カメラ機能が実行されると、被写体のリアルタイム動画像つまりスルー画像を表示装置であるLCDモニタ26に表示するべく、CPU20aは、カメラ制御回路38aに内蔵されるイメージセンサドライバを起動させ、露光動作および指定された読み出し領域に対応する電荷読み出し動作をイメージセンサドライバに命令する。   When the camera function is executed, the CPU 20a activates an image sensor driver built in the camera control circuit 38a to display a real-time moving image of the subject, that is, a through image, on the LCD monitor 26, which is a display device. The image sensor driver is instructed to perform the charge reading operation corresponding to the operation and the designated readout region.

イメージセンサドライバは、イメージセンサ38bの撮像面の露光と、当該露光によって生成された電荷の読み出しとを実行する。この結果、生画像信号が、イメージセンサ38bから出力される。また、イメージセンサ38bから出力された生画像信号は、カメラ制御回路38aに入力される。カメラ制御回路38aは、入力された生画像信号に対して、色分離、白バランス調整、YUV変換などの処理を施し、YUV形式の画像データを生成する。そして、CPU20aには、YUV形式の画像データが入力される。このとき、カメラ制御回路38aは、フォーカスレンズ38cを制御することで、被写界にピントを合わせる。   The image sensor driver performs exposure of the imaging surface of the image sensor 38b and reading of the charges generated by the exposure. As a result, a raw image signal is output from the image sensor 38b. The raw image signal output from the image sensor 38b is input to the camera control circuit 38a. The camera control circuit 38a performs processes such as color separation, white balance adjustment, and YUV conversion on the input raw image signal to generate image data in the YUV format. Then, YUV format image data is input to the CPU 20a. At this time, the camera control circuit 38a controls the focus lens 38c to focus on the object scene.

また、CPU20aに入力されたYUV形式の画像データは、CPU20aによってRAM30に一旦格納される。さらに、格納されたYUV形式の画像データは、CPU20aを介して、RAM30からLCDドライバ24に与えられる。また同時に、CPU20aは、間引き読み出し命令をLCDドライバ24に発行する。そして、LCDドライバ24は、CPU20aから発行された間引き読み出し命令に従って、YUV形式の画像データを30fpsでLCDモニタ26に出力する。これによって、被写界を表す低解像度(320×240画素)のスルー画像がLCDモニタ26に表示される。   The YUV image data input to the CPU 20a is temporarily stored in the RAM 30 by the CPU 20a. Further, the stored YUV format image data is given from the RAM 30 to the LCD driver 24 via the CPU 20a. At the same time, the CPU 20a issues a thinning readout command to the LCD driver 24. Then, the LCD driver 24 outputs YUV format image data to the LCD monitor 26 at 30 fps in accordance with the thinning readout command issued from the CPU 20a. As a result, a low-resolution (320 × 240 pixel) through image representing the object scene is displayed on the LCD monitor 26.

なお、YUV形式の画像データにおいて、Yは輝度を意味し、Uは青色から輝度を引いた色差を意味し、Vは赤色から輝度を引いた色差を意味する。つまり、YUV形式の画像データは、輝度信号(Y)データと青色の色差信号(U)データと赤色の色差信号(V)データとから構成される。   In YUV format image data, Y means luminance, U means a color difference obtained by subtracting luminance from blue, and V means a color difference obtained by subtracting luminance from red. That is, the YUV format image data is composed of luminance signal (Y) data, blue color difference signal (U) data, and red color difference signal (V) data.

さらに、キー入力装置22、タッチパネル36aおよびタッチキー36bによって撮影操作が行われると、CPU20aは、本撮影処理を実行する。つまり、CPU20aは、イメージセンサ38bから出力されるUXGAの生画像信号に所定の信号処理を施して、RAM30に一旦格納し、メモリカード44に対する記録処理をI/F42に命令する。I/F42は、CPU20aを通してRAM30から画像データを読み出し、読み出された画像データを含む画像ファイルとしてメモリカード44に記録する。さらに、CPU20aは、第2スピーカ18bから、本撮影処理が実行されていること通知する音を出力させる。なお、メモリカード44は着脱自在であり、スロット(図示せず)に装着されたときにI/F42によってアクセス可能となる。   Furthermore, when a photographing operation is performed by the key input device 22, the touch panel 36a, and the touch key 36b, the CPU 20a executes a main photographing process. That is, the CPU 20a performs predetermined signal processing on the UXGA raw image signal output from the image sensor 38b, temporarily stores it in the RAM 30, and instructs the I / F 42 to perform recording processing on the memory card 44. The I / F 42 reads out image data from the RAM 30 through the CPU 20a, and records it in the memory card 44 as an image file including the read image data. Further, the CPU 20a causes the second speaker 18b to output a sound notifying that the main photographing process is being executed. The memory card 44 is detachable, and can be accessed by the I / F 42 when it is inserted into a slot (not shown).

また、使用者は、撮影される画像データのサイズを、UXGAの他に、WQVGA(240×400画素)およびVGA(640×480画素)を選択することができる。そして、選択された画像データのサイズがWQVGAの場合は、画像データはメモリカード44に保存されず、フラッシュメモリ28に記録される。   The user can select WQVGA (240 × 400 pixels) and VGA (640 × 480 pixels) in addition to UXGA as the size of image data to be captured. If the size of the selected image data is WQVGA, the image data is not stored in the memory card 44 but is recorded in the flash memory 28.

そして、携帯端末10は、連続撮影によってベストショットを撮影するためのベストショット撮影機能も備えている。たとえば、図2(A)−図2(I)を参照して、ベストショット撮影機能によって撮影された9つの画像データは、或る時刻から3秒(第1所定時間)毎に撮影された画像データである。図2(A)は或る時刻に人間Aの顔を撮影した画像であり、図2(B)は人間Aの全体像を撮影した画像である。また、図2(C)は人間Bの全体像を撮影した画像であり、図2(D)は人間Aと人間Bとが集合したときに撮影した画像である。また、図2(E)は人間Aが玩具を持っているときに全体像を撮影した画像であり、図2(F)は人間Aと人間Bとが玩具で遊んでいるときに撮影した画像である。また、図2(G)は人間Aと人間Cとが一緒に移動しているときに撮影した画像であり、図2(H)は人間Aと人間Bと人間Cとが集合しているときに撮影した画像である。そして、図2(I)は使用者が撮影している場所から見える山の風景を撮影した画像である。   And the portable terminal 10 is also provided with the best shot imaging | photography function for imaging | photography the best shot by continuous imaging | photography. For example, referring to FIGS. 2A to 2I, nine image data shot by the best shot shooting function are images shot every 3 seconds (first predetermined time) from a certain time. It is data. 2A is an image obtained by photographing the face of the human A at a certain time, and FIG. 2B is an image obtained by photographing the entire image of the human A. 2C is an image obtained by photographing the whole image of the person B, and FIG. 2D is an image obtained when the person A and the person B gather. 2E is an image obtained by photographing the whole image when the person A has a toy, and FIG. 2F is an image obtained when the person A and the person B are playing with the toy. It is. 2G is an image taken when the human A and the human C are moving together, and FIG. 2H is an image when the human A, the human B, and the human C are gathered. It is an image taken in FIG. 2I shows an image of a mountain landscape seen from a place where the user is photographing.

ここで、本実施例では、ベストショット撮影機能によって画像が撮影されているときに、音声が入力されると、その音声に基づく識別情報が画像データに対応付けられて記録される。   Here, in this embodiment, when a sound is input while an image is captured by the best shot capturing function, identification information based on the sound is recorded in association with the image data.

図3(A)を参照して、図2(A)−図2(I)の9つの画像データは、まずRAM30のテンポラリ領域に一時保存される。たとえば、図2(A)の画像データは「画像001」に対応し、図2(B)の画像データは「画像002」に対応し、図2(C)の画像データは「画像003」に対応し、図2(D)の画像データは「画像004」に対応し、図2(E)の画像データは「画像005」に対応し、図2(F)の画像データは「画像006」に対応し、図2(G)の画像データは「画像007」に対応し、図2(H)の画像データは「画像008」に対応し、図2(I)の画像データは「画像009」に対応する。   Referring to FIG. 3A, the nine image data in FIGS. 2A to 2I are first temporarily stored in a temporary area of the RAM 30. For example, the image data in FIG. 2A corresponds to “image 001”, the image data in FIG. 2B corresponds to “image 002”, and the image data in FIG. 2C corresponds to “image 003”. 2D corresponds to “image 004”, the image data in FIG. 2E corresponds to “image 005”, and the image data in FIG. 2F corresponds to “image 006”. 2G corresponds to “image 007”, the image data in FIG. 2H corresponds to “image 008”, and the image data in FIG. 2I corresponds to “image 009”. ".

また、「画像001」、「画像002」、「画像003」、「画像004」、「画像006」、「画像008」および「画像009」が撮影されるときに、音声が認識されたため、識別情報が対応付けられる。たとえば、「画像001」には、撮影するシーン(以下、単に「シーン」と言うことがある。)を識別する「人物写真」の識別情報が対応付けられており、さらにベストショットのプライオリティ(優先順位)を識別する「エクセレント」の識別情報も対応付けられている。これは、「画像001」の撮影に合わせて、シーンの識別情報を表わす音声と、ベストショットの識別情報を表わす音声とが、第2マイク16b入力されたためである。   Also, since “image 001”, “image 002”, “image 003”, “image 004”, “image 006”, “image 008”, and “image 009” are captured, the voice is recognized, so Information is associated. For example, “image 001” is associated with identification information of “personal photograph” that identifies a scene to be photographed (hereinafter sometimes simply referred to as “scene”), and further, the priority (priority) of the best shot. “Excellent” identifying information for identifying (ranking) is also associated. This is because the voice representing the scene identification information and the voice representing the best shot identification information are input to the second microphone 16b in accordance with the shooting of the “image 001”.

「画像002」には、シーンを識別する「人物写真」の識別情報が対応付けられているが、ベストショットの識別情報(第2識別情報)は対応付けられていない。これは、「画像002」の撮影に合わせてシーンの識別情報を表わす音声のみが入力されたためである。また、「画像003」には、シーンの識別情報(第1識別情報)は対応付けられていないが、ベストショットのプライオリティを表わす「グッド」の識別情報が対応付けられている。これは、「画像003」の撮影に合わせてベストショットの識別情報を表わす音声のみが入力されたためである。   “Image 002” is associated with identification information of “person photograph” identifying a scene, but is not associated with identification information (second identification information) of the best shot. This is because only the sound representing the scene identification information is input in accordance with the shooting of “image 002”. Further, “image 003” is not associated with scene identification information (first identification information), but is associated with “good” identification information indicating the priority of the best shot. This is because only the voice representing the identification information of the best shot is input in accordance with the shooting of “image 003”.

さらに、「画像004」には、シーンを識別する「集合写真」の識別情報と、「グッド」の識別情報とが対応付けられる。「画像006」には、「エクセレント」の識別情報のみが対応付けられる。「画像008」には、「集合写真」の識別情報が対応付けられる。「画像009」には、シーンを識別する「風景写真」の識別情報と、ベストショットのプライオリティを表わす「セレクト」とが対応付けられる。   Further, the “image 004” is associated with identification information of “group photo” for identifying a scene and identification information of “good”. Only “excellent” identification information is associated with “image 006”. “Image 008” is associated with identification information of “group photo”. “Image 009” is associated with identification information of “landscape photograph” for identifying a scene and “select” representing the priority of the best shot.

図3(B)を参照して、ベストショットの識別情報が対応付けられた画像データは、フラッシュメモリ28またはメモリカード44のベストショット保存領域に保存される。つまり、「エクセレント」、「グッド」または「セレクト」の識別情報が対応付けられた、「画像001」、「画像003」、「画像004」、「画像006」および「画像009」がベストショット保存領域に保存される。   Referring to FIG. 3B, the image data associated with the best shot identification information is stored in the best shot storage area of flash memory 28 or memory card 44. That is, “Image 001”, “Image 003”, “Image 004”, “Image 006”, and “Image 009” associated with the identification information of “Excellent”, “Good”, or “Select” are best shot saved. Saved in the area.

さらに、図3(C)を参照して、シーンの識別情報のみが対応付けられた画像データは、フラッシュメモリ28またはメモリカード44のシーン保存領域に保存される。つまり、「人物写真」、「集合写真」または「風景写真」の識別情報が対応付けられた、「画像002」および「画像008」がシーン保存領域に保存される。   Further, referring to FIG. 3C, image data in which only scene identification information is associated is stored in the scene storage area of flash memory 28 or memory card 44. That is, “image 002” and “image 008” associated with the identification information of “person photograph”, “group photograph”, or “landscape photograph” are stored in the scene storage area.

そして、図3(D)を参照して、識別情報が対応付けられていない画像データは、RAM30の暫定領域に一時保存される。つまり、「画像005」および「画像007」がRAM30に一時保存される。   3D, the image data not associated with the identification information is temporarily stored in the temporary area of the RAM 30. That is, “image 005” and “image 007” are temporarily stored in the RAM 30.

このように、認識された音声に基づいて識別情報が決まるため、使用者は、ベストショットを分類して、撮影することができる。   In this way, since the identification information is determined based on the recognized voice, the user can classify and photograph the best shot.

なお、テンポラリ内には、格納(保存)されたデータのうち、古いデータから順に読み出されるFIFO(First In First Out)のアルゴリズムが適用されている。たとえば、テンポラリ領域に、「画像001」から順番に「画像009」まで保存されれば、最初に保存された「画像001」から読み出される。   In the temporary, a FIFO (First In First Out) algorithm is applied, in which stored data is read out in order from the oldest data. For example, if “image 009” is stored in order from “image 001” in the temporary area, the image is read from the first stored “image 001”.

ここで、シーンの識別情報とベストショットの識別情報とを対応付けるための音声認識処理について説明する。図4を参照して、撮影される前の時間A(第2所定時間)の間に認識される音声に基づいてシーンの識別情報が決定される。たとえば、時刻aまでの2秒間に認識された音声が「集合写真」であれば、時刻aに撮影される「画像004」は、集合の撮影シーンとして撮影される。   Here, a voice recognition process for associating scene identification information with best shot identification information will be described. Referring to FIG. 4, scene identification information is determined based on sound recognized during time A (second predetermined time) before shooting. For example, if the sound recognized for 2 seconds until time a is “group photo”, “image 004” shot at time a is shot as a group shooting scene.

また、撮影された後の時間B(第3所定時間)に認識される音声に基づいてベストショットの識別情報が決定される。たとえば、時刻aから1秒以内に認識された音声が「グッド」であれば、時刻aに撮影された「画像004」には、「グッド」の識別情報が対応付けられる。   Also, the best shot identification information is determined based on the sound recognized at time B (third predetermined time) after the image is taken. For example, if the sound recognized within one second from time a is “good”, “good” identification information is associated with “image 004” taken at time a.

このように、撮影される時刻を基準として、使用者は、撮影される前に発声した内容に基づいてシーンの識別情報を決めることができ、撮影された後に発声した内容に基づいてベストショットのプライオリティを決定することができる。つまり、使用者は、撮影される時刻を基準として、2種類の識別情報を決めることができる。   In this way, based on the shooting time, the user can determine the scene identification information based on the content uttered before shooting, and the best shot based on the content uttered after shooting. Priority can be determined. That is, the user can determine two types of identification information on the basis of the shooting time.

なお、他の実施例では、音声認識が可能な時間を、LEDによる発光で使用者に伝えてもよい。つまり、携帯端末10は、音声認識によって識別情報が決定できる状態では、LEDを発光させる。さらに、携帯端末10は、第2所定時間と第3所定時間とを区別できるように、第2所定時間と第3所定時間とで、LEDが発光する色を変えるようにしてもよい。   In another embodiment, the time during which voice recognition is possible may be communicated to the user by light emission by an LED. That is, the portable terminal 10 causes the LED to emit light in a state where the identification information can be determined by voice recognition. Further, the mobile terminal 10 may change the color emitted by the LED between the second predetermined time and the third predetermined time so that the second predetermined time and the third predetermined time can be distinguished.

図5(A)および図5(B)は、初期設定された識別情報が記録されるテーブルを示す図解図である。図5(A)を参照して、シーン設定テーブルは、「シーン」の列と、シーンに対応する「識別情報」が記録される列とから構成される。たとえば、「シーン」の列には、「人物の撮影シーン」、「集合の撮影シーン」および「風景の撮影シーン」などが記録される。また、「識別情報」の列には、「人物の撮影シーン」に対応して「人物写真」が記録され、「集合の撮影シーン」に対応して「集合写真」が記録され、「風景の撮影シーン」に対応して「風景写真」が記録される。   FIG. 5A and FIG. 5B are illustrative views showing a table in which initially set identification information is recorded. Referring to FIG. 5A, the scene setting table includes a “scene” column and a column in which “identification information” corresponding to the scene is recorded. For example, in the “scene” column, “personal scenes”, “collective scenes”, “landscape scenes”, and the like are recorded. In the column of “identification information”, “person photograph” is recorded corresponding to “person photographing scene”, “group photograph” is recorded corresponding to “group photographing scene”, and “landscape photography” A “landscape photograph” is recorded corresponding to the “shooting scene”.

たとえば、シーンの初期設定のときに、設定されるシーンが「人物の撮影シーン」であり、「人物写真」の音声が入力されると、シーン設定テーブルには、「人物の撮影シーン」のシーンと「人物写真」の識別情報とが記録される。なお、設定されるシーンの名称は、キー入力装置22に対する文字入力のキー操作によって決まる。   For example, at the initial setting of a scene, if the scene to be set is “portrait shooting scene” and the voice of “portrait photo” is input, the scene setting table will show the scene of “portrait shooting scene” And identification information of “person photograph” are recorded. The name of the scene to be set is determined by a character input key operation on the key input device 22.

また、図5(B)を参照して、ベストショット設定テーブルは、「プライオリティ」の列と、プライオリティに対応する「識別情報」の列とから構成されている。たとえば、「プライオリティ」の列には、上からプライオリティが高い順番に番号が記録される。つまり、1からm(m:自然数)までの番号が記録される。また、「識別情報」の列は、「1」に対応して「エクセレント」が記録され、「2」に対応して「グッド」が記録され、「3」に対応して「セレクト」が記録される。   Referring to FIG. 5B, the best shot setting table includes a “priority” column and an “identification information” column corresponding to the priority. For example, in the “priority” column, numbers are recorded in descending order of priority. That is, numbers from 1 to m (m: natural number) are recorded. In the “identification information” column, “Excellent” is recorded corresponding to “1”, “Good” is recorded corresponding to “2”, and “Select” is recorded corresponding to “3”. Is done.

たとえば、ベストショットの初期設定では、使用者によって入力された音声の順番にプライオリティが設定される。つまり、最初に認識された音声が「エクセレント」であれば、プライオリティが最も高い「1」が「エクセレント」に設定され、次に認識された音声が「グッド」であれば、プライオリティが2番目に高い「2」が「グッド」に設定され、3番目に認識された音声が「セレクト」であれば、プライオリティが3番目に高い「3」が「セレクト」に設定される。   For example, in the best shot initial setting, the priority is set in the order of voices input by the user. That is, if the first recognized voice is “Excellent”, “1” having the highest priority is set to “Excellent”, and if the next recognized voice is “Good”, the priority is second. If the high “2” is set to “good” and the third recognized voice is “select”, the third highest priority “3” is set to “select”.

図6(A)および図6(B)は、ベストショット撮影機能を終了させる操作がされた後にLCDモニタ26に表示されるGUIの一例を示す図解図である。図6(A)を参照して、LCDモニタ26は、状態表示領域50、機能表示領域52およびキー表示領域54を含む。状態表示領域50には、アンテナ12による電波受信状態、リチウムイオン電池48の残電池容量および現在日時などが表示される。また、機能表示領域52には、「エクセレント」または「グッド」の識別情報が対応付けられた画像(写真)が表示される。たとえば、「エクセレント」の識別情報が対応付けられた画像としては、図2(A)および図2(F)に示した画像が表示される。また、「グッド」の識別情報が対応付けられた画像としては、図2(C)および図2(D)に示した画像が表示される。   FIGS. 6A and 6B are illustrative views showing an example of a GUI displayed on the LCD monitor 26 after an operation for ending the best shot photographing function is performed. Referring to FIG. 6A, LCD monitor 26 includes a status display area 50, a function display area 52, and a key display area 54. In the status display area 50, the radio wave reception status by the antenna 12, the remaining battery capacity of the lithium ion battery 48, the current date and time, and the like are displayed. In the function display area 52, an image (photograph) associated with identification information of “excellent” or “good” is displayed. For example, the images shown in FIGS. 2A and 2F are displayed as the images associated with the identification information of “Excellent”. Further, as the image associated with the identification information “good”, the images shown in FIGS. 2C and 2D are displayed.

キー表示領域54には、切り換えキー56およびモードキー58が含まれる。切り換えキー56は、機能表示領域52に表示される内容を切り替えるためのキーである。たとえば、モードキー56の表示範囲内がタッチされると、機能表示領域52に表示される画像が図6(B)に示す状態に切り替わる。   The key display area 54 includes a switching key 56 and a mode key 58. The switching key 56 is a key for switching the content displayed in the function display area 52. For example, when the display area of the mode key 56 is touched, the image displayed in the function display area 52 is switched to the state shown in FIG.

なお、図6(A)で示す状態表示領域50、機能表示領域52、キー表示領域54および切り換えキー56については、他の図面でも同様であるため、他の図面では、詳細な説明を省略する。   Note that the state display area 50, the function display area 52, the key display area 54, and the switching key 56 shown in FIG. 6A are the same in other drawings, and thus detailed description thereof is omitted in the other drawings. .

図6(B)を参照して、機能表示領域52には、「セレクト」の識別情報が対応付けられた画像と、ベストショットの識別情報が対応付けられていない「その他」の画像が表示される。たとえば、「セレクト」の識別情報が対応付けられた画像としては、図2(I)に示した画像である。また、「その他」の画像としては、図2(B)、図2(E)、図2(G)および図2(H)に示した画像が表示される。   Referring to FIG. 6B, in function display area 52, an image associated with “select” identification information and an “other” image not associated with best shot identification information are displayed. The For example, the image associated with the identification information of “Select” is the image shown in FIG. In addition, as the “others” image, the images shown in FIGS. 2B, 2E, 2G, and 2H are displayed.

ここで、ベストショットの識別情報に基づいて画像が表示される状態(ベストショットモード)でモードキー58が操作されると、シーンの識別情報に基づいて画像が表示される状態(シーンモード)に切り替わる。図7(A)を参照して、機能表示領域52には、「人物写真」または「集合写真」の識別情報が対応付けられた画像が表示される。たとえば、人物写真の識別情報が対応付けられた画像としては、図2(A)および図2(B)に示した画像が表示される。また、「集合写真」の識別情報が対応付けられた画像としては、図2(D)および図2(H)に示した画像が表示される。   Here, when the mode key 58 is operated in a state where an image is displayed based on the best shot identification information (best shot mode), the image is displayed based on the scene identification information (scene mode). Switch. Referring to FIG. 7A, in function display area 52, an image associated with identification information of “person photograph” or “group photograph” is displayed. For example, the images shown in FIGS. 2A and 2B are displayed as the images associated with the identification information of the person photograph. Further, as the image associated with the identification information of “group photo”, the images shown in FIG. 2D and FIG. 2H are displayed.

図7(B)を参照して、切り替えキー56が操作されると、機能表示領域52には、「風景写真」の識別情報が対応付けられた画像と、シーンの識別情報が対応付けられていない「その他のシーン」の画像とが表示される。たとえば、「風景写真」の識別情報が対応付けられた画像としては、図2(I)に示した画像である。また、「その他のシーン」の画像としては、図2(C)、図2(E)、図2(F)および図2(G)に示した画像が表示される。   Referring to FIG. 7B, when the switching key 56 is operated, the function display area 52 is associated with the image associated with the identification information of “landscape photograph” and the identification information of the scene. There is no “Other Scene” image displayed. For example, the image associated with the identification information of “landscape photograph” is the image shown in FIG. In addition, as the “other scene” images, the images shown in FIGS. 2C, 2E, 2F, and 2G are displayed.

シーンモードでモードキー58が操作されると、ベストショットおよびシーンの両方の識別情報に基づいて画像が表示される状態(同時モード)に切り替わる。図8(A)を参照して、機能表示領域52には、「人物写真」の識別情報が対応付けられた画像が、ベストショットの識別情報毎に表示されている。たとえば、「人物写真」と「エクセレント」との識別情報が対応付けられた画像として図2(A)に示す画像が表示され、「人物写真」の識別情報が対応付けられたが、ベストショットの識別情報が対応付けられていない画像として図2(B)に示した画像が表示される。   When the mode key 58 is operated in the scene mode, the mode is switched to a state (simultaneous mode) in which an image is displayed based on both best shot and scene identification information. Referring to FIG. 8A, in the function display area 52, an image associated with the identification information of “person photograph” is displayed for each identification information of the best shot. For example, the image shown in FIG. 2A is displayed as an image in which the identification information of “person photograph” and “excellent” is associated, and the identification information of “person photograph” is associated with the best shot. The image shown in FIG. 2B is displayed as an image not associated with identification information.

なお、該当する画像が存在しない場合には、画像が存在しないことを示す文字列が表示される。たとえば、人物の撮影シーンにおいて、「グッド」または「セレクト」の識別情報が対応付けられた画像が存在しなければ、「グッド」および「セレクト」の画像が表示される領域には「no image」の文字列が表示される。   When there is no corresponding image, a character string indicating that there is no image is displayed. For example, if there is no image associated with identification information of “Good” or “Select” in a person's shooting scene, “no image” is displayed in the area where the images of “Good” and “Select” are displayed. Is displayed.

「人物写真」の識別情報に基づいて画像表示されている状態で、切り替えキー56が操作されると、機能表示領域52には、「集合写真」の識別情報が対応付けられた画像が、ベストショットの識別情報毎に表示される。たとえば、図8(B)を参照して、「集合写真」と「グッド」との識別情報が対応付けられた画像として図2(D)に示す画像が表示され、集合写真の識別情報が対応付けられたが、ベストショットの識別情報が対応付けられていない画像として図2(H)に示した画像が表示される。なお、図8(B)では、「エクセレント」および「セレクト」の画像が表示される領域には、「no image」の文字列が表示される。   When the switching key 56 is operated in a state where an image is displayed based on the identification information of “person photograph”, an image associated with the identification information of “group photo” is best displayed in the function display area 52. Displayed for each shot identification information. For example, referring to FIG. 8B, the image shown in FIG. 2D is displayed as an image in which the identification information of “group photo” and “good” is associated with the identification information of the group photo. The image shown in FIG. 2H is displayed as an image that is attached but not associated with the identification information of the best shot. In FIG. 8B, the character string “no image” is displayed in the area where the images “Excellent” and “Select” are displayed.

また、「集合写真」の識別情報に基づいて画像表示されている状態で、切り替えキー56が操作されると、「風景写真」の識別情報が対応付けられた画像が、ベストショットの識別情報毎に表示される。たとえば、図9(A)を参照して、「風景写真」と「セレクト」とが対応付けられた画像として図2(I)に示す画像が表示される。なお、図9(A)では、「エクセレント」、「グッド」および「その他」の画像が表示される領域には、「no image」の文字列が表示される。   Further, when the switching key 56 is operated in a state where an image is displayed based on the identification information of “group photo”, an image associated with the identification information of “landscape photo” is displayed for each identification information of the best shot. Is displayed. For example, referring to FIG. 9A, the image shown in FIG. 2I is displayed as an image in which “landscape photograph” and “select” are associated with each other. In FIG. 9A, the character string “no image” is displayed in the area where the images “Excellent”, “Good”, and “Other” are displayed.

また、「風景写真」の識別情報に基づいて画像表示されている状態で、切り替えキー56が操作されると、シーンの識別情報が対応付けられていない画像が、ベストショットの識別情報毎に表示される。たとえば、図9(B)を参照して、「エクセレント」の識別情報のみが対応付けられた画像として図2(F)に示す画像が表示され、「グッド」の識別情報のみが対応付けられた画像として図2(C)に示す画像が表示され、識別情報が対応付けられていない画像データとして図2(E)および図2(G)のそれぞれに示す画像が表示される。   Further, when the switching key 56 is operated in a state where an image is displayed based on the identification information of “landscape photograph”, an image not associated with the scene identification information is displayed for each identification information of the best shot. Is done. For example, referring to FIG. 9B, the image shown in FIG. 2F is displayed as an image in which only the “excellent” identification information is associated, and only the “good” identification information is associated. The image shown in FIG. 2C is displayed as an image, and the images shown in FIGS. 2E and 2G are displayed as image data not associated with identification information.

そして、同時モードでモードキー58が操作されると、ベストショットモード(図6(A),(B)参照)に戻る。   When the mode key 58 is operated in the simultaneous mode, the mode returns to the best shot mode (see FIGS. 6A and 6B).

ここで、使用者によって任意の画像に対して削除操作がされると、その画像データはフラッシュメモリ28、RAM30またはメモリカード44から削除される。たとえば、使用者によって画像が選択(タッチ操作)されると、その画像を削除するか否かを確認するGUIが表示される。さらに、削除が選択されると、その画像の表示が消去される。このように、本実施例では、識別情報別に画像データを表示することで、使用者による画像データの取捨選択を容易に行うことができる。   Here, when an arbitrary image is deleted by the user, the image data is deleted from the flash memory 28, the RAM 30 or the memory card 44. For example, when an image is selected (touch operation) by the user, a GUI for confirming whether or not to delete the image is displayed. Further, when deletion is selected, the display of the image is deleted. As described above, in this embodiment, by displaying the image data for each identification information, the user can easily select the image data.

なお、削除操作には、同一の識別情報が対応付けられている画像を一括で削除する一括削除操作や、タッチアンドリリースやタッチアンドスライドによって任意の画像データを選択してから、まとめて削除する選択削除操作が含まれる。また、多くの画像が撮影された場合に、1画面中に全ての画像を表示しきれなければ、画面をスクロールする操作に応じて、表示されていない画像が表示されるようにしてもよい。   In addition, the deletion operation is a batch deletion operation for deleting images associated with the same identification information in a batch, or arbitrary image data is selected by touch-and-release or touch-and-slide, and then deleted collectively. Includes selective delete operations. In addition, when many images are captured, if not all images can be displayed in one screen, an image that is not displayed may be displayed in response to an operation of scrolling the screen.

また、モードキー58が操作された後に入力される音声を認識して、表示される画像の状態を切り替えるようにしてもよい。たとえば、携帯端末10は、モードキー58が操作された後に、「ベストショット別」の音声を認識すれば、ベストショットモードとなり、「シーン別」の音声を認識すれば、シーンモードとなり、「シーンとベストショット」の音声を認識すれば、同時モードとなる。   In addition, the voice input after the mode key 58 is operated may be recognized and the state of the displayed image may be switched. For example, after the mode key 58 is operated, the mobile terminal 10 enters the best shot mode if it recognizes the “best shot” sound, and enters the scene mode if it recognizes the “by scene” sound. If it recognizes the “best shot” voice, it will be in simultaneous mode.

図10は、RAM30のメモリマップを示す図解図である。図10を参照して、RAM30のメモリマップには、プログラム記憶領域302およびデータ記憶領域304が含まれる。プログラムおよびデータの一部は、フラッシュメモリ28から一度に全部または必要に応じて部分的にかつ順次的に読み出され、RAM30に記憶されてからCPU20aなどで処理される。   FIG. 10 is an illustrative view showing a memory map of the RAM 30. Referring to FIG. 10, the memory map of RAM 30 includes a program storage area 302 and a data storage area 304. A part of the program and data is read from the flash memory 28 all at once or partially and sequentially as needed, stored in the RAM 30, and then processed by the CPU 20a or the like.

プログラム記憶領域302は、携帯端末10を動作させるためのプログラムを記憶する。携帯端末10を動作させるためのプログラムは、音声認識プログラム310、撮影プログラム312、識別情報設定プログラム314、ベストショット撮影プログラム316および画像表示プログラム318などによって構成される。音声認識プログラム310は、第2マイク16bに入力された音声を認識するためのプログラムである。撮影プログラム312は、カメラ制御回路38a、イメージセンサ38bおよびフォーカスレンズ38cを利用して被写界の画像を撮影するためのプログラムである。   The program storage area 302 stores a program for operating the mobile terminal 10. Programs for operating the mobile terminal 10 include a voice recognition program 310, a photographing program 312, an identification information setting program 314, a best shot photographing program 316, an image display program 318, and the like. The voice recognition program 310 is a program for recognizing the voice input to the second microphone 16b. The shooting program 312 is a program for shooting an image of the scene using the camera control circuit 38a, the image sensor 38b, and the focus lens 38c.

識別情報設プログラム314は、シーンの識別情報およびベストショットの識別情報を初期設定するためのプログラムであり、このプログラムが実行されること、シーン設定テーブルおよびベストショット設定テーブルが更新される。ベストショット撮影プログラム316は、第1所定時間毎に連続して画像を撮影するためのプログラムであり、シーンの識別情報およびベストショットの識別情報を、撮影した画像に対応付けて保存する。画像表示プログラム318は、撮影された画像をLCDモニタ26に表示するためのプログラムであり、図6(A)などに示すように画像を表示させる。   The identification information setting program 314 is a program for initial setting of scene identification information and best shot identification information. When this program is executed, the scene setting table and the best shot setting table are updated. The best shot shooting program 316 is a program for continuously shooting images every first predetermined time, and stores scene identification information and best shot identification information in association with the shot images. The image display program 318 is a program for displaying a photographed image on the LCD monitor 26, and displays an image as shown in FIG.

なお、図示は省略するが、携帯端末10を動作させるためのプログラムは、通話を行うためのプログラムや、現在時刻を表示するためのプログラムなどを含む。   In addition, although illustration is abbreviate | omitted, the program for operating the portable terminal 10 contains the program for performing a telephone call, the program for displaying the present time, etc.

データ記憶領域304には、タッチバッファ330、スルー画像バッファ332、テンポラリバッファ334、表示画像バッファ336および暫定バッファ338が設けられる。また、データ記憶領域304には、タッチ座標マップデータ340および識別情報データ342が記憶されるとともに、タッチフラグ344、音声認識フラグ346、第1カウンタ348および第2カウンタ350が設けられる。   In the data storage area 304, a touch buffer 330, a through image buffer 332, a temporary buffer 334, a display image buffer 336, and a temporary buffer 338 are provided. In the data storage area 304, touch coordinate map data 340 and identification information data 342 are stored, and a touch flag 344, a voice recognition flag 346, a first counter 348, and a second counter 350 are provided.

タッチバッファ330は、タッチパネル36aによって検出されたタッチなどの入力結果を一時記憶するためのバッファであり、たとえばタッチ点およびリリース点の座標データを一時的に記憶する。スルー画像バッファ332は、カメラ制御回路38aから読み出されたYUV形式の画像データが一時的に保存(一旦格納)されるバッファである。   The touch buffer 330 is a buffer for temporarily storing an input result such as a touch detected by the touch panel 36a, and temporarily stores coordinate data of a touch point and a release point, for example. The through image buffer 332 is a buffer in which YUV format image data read from the camera control circuit 38a is temporarily saved (stored once).

テンポラリバッファ334は、撮影された画像が一時的に保存されるバッファであり、たとえば図3(A)に示すテンポラリ領域が含まれる。表示画像バッファ336は、LCDモニタ26に表示される画像が一旦格納されるバッファである。暫定バッファ338は、識別情報が対応付けられなかった画像が一時的に保存されるバッファであり、たとえば図3(D)に示す暫定領域が含まれる。   The temporary buffer 334 is a buffer for temporarily storing captured images, and includes, for example, a temporary area shown in FIG. The display image buffer 336 is a buffer that temporarily stores an image displayed on the LCD monitor 26. The temporary buffer 338 is a buffer in which an image that is not associated with identification information is temporarily stored, and includes a temporary area shown in FIG. 3D, for example.

タッチ座標マップデータ340は、タッチパネル制御回路34によって特定されるタッチ点などの座標を、LCDモニタ26の表示座標と対応付けるためのデータである。つまり、CPU20aは、タッチ座標マップデータ328に基づいて、タッチパネル36aに対して行われたタッチ操作の結果をLCDモニタ26の表示に対応付けることができる。識別情報データ342は、図5(A)に示すシーン設定テーブルと、図5(B)に示すベストショット設定テーブルとから構成されるデータである。   The touch coordinate map data 340 is data for associating coordinates such as a touch point specified by the touch panel control circuit 34 with display coordinates of the LCD monitor 26. That is, based on the touch coordinate map data 328, the CPU 20a can associate the result of the touch operation performed on the touch panel 36a with the display on the LCD monitor 26. The identification information data 342 is data composed of a scene setting table shown in FIG. 5A and a best shot setting table shown in FIG.

タッチフラグ344は、タッチパネル36aにタッチしているか(触れているか)否かを判断するためのフラグである。たとえば、タッチフラグ344は、1ビットのレジスタで構成される。タッチフラグ344がオン(成立)されると、レジスタにはデータ値「1」が設定される。一方、タッチフラグ344タッチフラグ344がオフ(不成立)されると、レジスタにはデータ値「0」が設定される。   The touch flag 344 is a flag for determining whether or not the touch panel 36a is touched (touched). For example, the touch flag 344 is composed of a 1-bit register. When the touch flag 344 is turned on (established), a data value “1” is set in the register. On the other hand, when the touch flag 344 is turned off (not established), a data value “0” is set in the register.

また、音声認識フラグ346は、音声が認識されたか否かを判断するためのフラグであり、音声認識プログラム310による処理で、音声が認識されればオンに切り替わる。なお、音声認識フラグ346の構成は、タッチフラグ344と同じであるため、詳細な説明は省略する。   The voice recognition flag 346 is a flag for determining whether or not voice is recognized, and is turned on when voice is recognized by the processing by the voice recognition program 310. Note that the configuration of the voice recognition flag 346 is the same as that of the touch flag 344, and thus detailed description thereof is omitted.

第1カウンタ348は、連続撮影処理において、画像が撮影されるまでの第2所定時間(2秒)をカウントするためのカウンタである。また、第2カウンタ350は、連続撮影処理において、画像が撮影された後の第3所定時間(1秒)をカウントするためのカウンタである。   The first counter 348 is a counter for counting a second predetermined time (2 seconds) until an image is shot in the continuous shooting process. The second counter 350 is a counter for counting a third predetermined time (1 second) after the image is captured in the continuous photographing process.

なお、図示は省略するが、データ記憶領域304には、GUIを表示するための画像データが記憶されると共に、携帯端末10の動作に必要なカウンタや、フラグも設けられる。   Although illustration is omitted, the data storage area 304 stores image data for displaying the GUI, and also includes a counter and a flag necessary for the operation of the mobile terminal 10.

CPU20aは、「Linux(登録商標)」および「REX」などのRTOS(Real-time Operating System)の制御下で、図11に示す識別情報設定処理、図12と図13とに示すベストショット撮影処理および図14に示す画像表示処理などを含む複数のタスクを並列的に実行する。   The CPU 20a, under the control of RTOS (Real-time Operating System) such as “Linux (registered trademark)” and “REX”, performs the identification information setting process shown in FIG. 11, and the best shot photographing process shown in FIGS. A plurality of tasks including the image display process shown in FIG. 14 and the like are executed in parallel.

図11は、識別情報設定処理のフロー図である。たとえば、使用者が識別情報を設定する操作を行うと、CPU20aは、ステップS1では設定される識別情報を決定する。たとえば、使用者が行う操作に応じて、シーンの識別情報か、ベストショットの識別情報かを決定する。続いて、ステップS3では、音声認識処理が実行される。つまり、設定される識別情報に対応する音声を取り込むために、音声認識処理を実行する。なお、識別情報設定処理と音声認識処理とは、並列的に実行される。   FIG. 11 is a flowchart of the identification information setting process. For example, when the user performs an operation for setting identification information, the CPU 20a determines the identification information to be set in step S1. For example, according to the operation performed by the user, it is determined whether it is the scene identification information or the best shot identification information. Subsequently, in step S3, voice recognition processing is executed. That is, the voice recognition process is executed to capture the voice corresponding to the set identification information. The identification information setting process and the voice recognition process are executed in parallel.

続いて、ステップS5では、音声が入力されたか否かを判断する。つまり、第2マイク16bに音声が入力されたか否かを判断する。ステップS5で“NO”であれば、つまり音声が入力されなければステップS5の処理を繰り返し実行する。一方、ステップS5で“YES”であれば、つまり音声が入力されればステップS7で、入力された音声を認識する。たとえば、第2マイク16bに入力された音声が「人物写真」であれば、音声認識処理によって「人物写真」の文字列のデータがROM32から読み出される。   Subsequently, in step S5, it is determined whether or not a voice is input. That is, it is determined whether or not sound is input to the second microphone 16b. If “NO” in the step S5, that is, if no voice is inputted, the process of the step S5 is repeatedly executed. On the other hand, if “YES” in the step S5, that is, if a voice is inputted, the inputted voice is recognized in a step S7. For example, if the voice input to the second microphone 16b is “person picture”, the character string data of “person picture” is read from the ROM 32 by voice recognition processing.

続いて、ステップS9では、シーンの設定であるか否かを判断する。つまり、ステップS1でシーンの識別情報を設定する操作がされたか否かを判断する。ステップS9で“YES”であれば、つまりシーンの識別情報を設定する操作がされていれば、ステップS11で認識結果をシーン設定テーブルに記録し、ステップS15に進む。たとえば、「人物の撮影シーン」に対する識別情報の設定であり、かつ音声の認識結果が「人物写真」であれば、シーン設定テーブルには、「人物の撮影シーン」に対応して「人物写真」の識別情報が記録される。   Subsequently, in step S9, it is determined whether or not the scene is set. That is, it is determined whether or not an operation for setting scene identification information has been performed in step S1. If “YES” in the step S9, that is, if an operation for setting the scene identification information is performed, the recognition result is recorded in the scene setting table in a step S11, and the process proceeds to the step S15. For example, if the identification information is set for “person's shooting scene” and the voice recognition result is “person's photograph”, the scene setting table will display “person photograph” corresponding to “person's shooting scene”. The identification information is recorded.

一方、ステップS9で“NO”であれば、つまりベストショットの識別情報を設定する操作がされていれば、ステップS13で認識結果をベストショット設定テーブルに記録する。たとえば、ベストショットのプライオリティが最も高い識別情報の設定であり、かつ音声の認識結果が「エクセレント」であれば、ベストショットの設定テーブルには、プライオリティが最も高いことを示す「1」に対応して、「エクセレント」の識別情報が記録される。   On the other hand, if “NO” in the step S9, that is, if an operation for setting the identification information of the best shot is performed, the recognition result is recorded in the best shot setting table in a step S13. For example, if the setting of the identification information with the highest priority of the best shot is set and the voice recognition result is “Excellent”, the setting table of the best shot corresponds to “1” indicating the highest priority. Thus, “Excellent” identification information is recorded.

ステップS15では、終了操作か否かを判断する。つまり、識別情報設定処理を終了するための操作がされたか否かを判断する。ステップS15で“NO”であれば、つまり終了操作でなければ、ステップS1に戻る。一方、ステップS15で“YES”であれば、つまり終了操作がされれば、識別情報設定処理を終了する。   In step S15, it is determined whether or not it is an end operation. That is, it is determined whether or not an operation for ending the identification information setting process has been performed. If “NO” in the step S15, that is, if it is not an end operation, the process returns to the step S1. On the other hand, if “YES” in the step S15, that is, if an end operation is performed, the identification information setting process is ended.

図12は、ベストショット撮影処理を示すフロー図である。CPU20aは、ステップS31では、撮影開始操作か否かを判断する。たとえば、キー入力装置22に含まれる、シャッターキーが押下されたか否かを判断する。ステップS31で“NO”であれば、つまり撮影開始操作がされなければ、ステップS31の処理を繰り返し実行する。一方、ステップS31で“YES”であれば、つまり撮影開始操作がされると、ステップS33で音声認識処理を実行する。つまり、撮影された画像データに対応づけられる識別情報を決めるために、音声認識処理を実行する。なお、ベストショット撮影処理と音声認識処理とは、並列的に実行される。   FIG. 12 is a flowchart showing the best shot shooting process. In step S31, the CPU 20a determines whether or not it is a shooting start operation. For example, it is determined whether or not a shutter key included in the key input device 22 has been pressed. If “NO” in the step S31, that is, if the photographing start operation is not performed, the process of the step S31 is repeatedly executed. On the other hand, if “YES” in the step S31, that is, if a photographing start operation is performed, a voice recognition process is executed in a step S33. That is, voice recognition processing is executed to determine identification information associated with the captured image data. The best shot shooting process and the voice recognition process are executed in parallel.

続いて、ステップS35では、タイマー処理を実行する。たとえばタイマー処理では、第1カウンタ348によって画像が撮影される前の第2所定時間を計測し、第2カウンタ350によって画像が撮影された後の第3所定時間を計測する。なお、第2所定時間はステップS35の処理が実行された時にカウントが始まり、第3所定時間は画像が撮影された時にカウントが始まる。   Subsequently, in step S35, timer processing is executed. For example, in the timer process, the second predetermined time before the image is captured by the first counter 348 is measured, and the third predetermined time after the image is captured by the second counter 350 is measured. The second predetermined time starts counting when the process of step S35 is executed, and the third predetermined time starts counting when an image is taken.

ステップS37では、シーンを決定する音声が入力されたか否かを判断する。つまり、「人物写真」、「集合写真」または「風景写真」の音声が入力され、その音声が認識されたか否かを判断する。ステップS37で“NO”であれば、つまりシーンを決定する音声が入力されなければ、ステップS41に進む。一方、ステップS37で“YES”であれば、つまりシーンを決定する音声が入力されれば、ステップS39でシーンの識別情報を決定する。たとえば、「人物写真」の音声が認識されていれば、次に撮影される画像に対応付けられる識別情報を「人物写真」とする。   In step S37, it is determined whether or not a sound for determining a scene has been input. That is, it is determined whether or not the voice of “person photo”, “group photo” or “landscape photo” has been input and the voice has been recognized. If “NO” in the step S37, that is, if a sound for determining a scene is not input, the process proceeds to a step S41. On the other hand, if “YES” in the step S37, that is, if a sound for determining a scene is input, identification information of the scene is determined in a step S39. For example, if the voice of “person photograph” is recognized, the identification information associated with the next photographed image is “person photograph”.

続いて、ステップS41では、タイマーが満了か否かを判断する。つまり、ステップS41では、タイマー処理が実行されてから第2所定時間が経過したか否かを判断する。ステップS41で“NO”であれば、つまり第2所定時間が経過していなければ、ステップS37に戻る。一方、ステップS41で“YES”であれば、つまり第2所定時間が経過すれば、ステップS43で撮影処理を実行する。つまり、被写界の画像が撮影される。   Subsequently, in step S41, it is determined whether or not the timer has expired. That is, in step S41, it is determined whether or not the second predetermined time has elapsed since the timer process was executed. If “NO” in the step S41, that is, if the second predetermined time has not elapsed, the process returns to the step S37. On the other hand, if “YES” in the step S41, that is, if the second predetermined time has elapsed, the photographing process is executed in a step S43. That is, an image of the scene is taken.

続いて、ステップS45では、ベストショットを決定する音声が入力されたか否かを判断する。つまり、「エクセレント」、「グッド」および「セレクト」の音声が入力され、その音声が認識されたか否かを判断する。ステップS45で“NO”であれば、つまりベストショットを決定する音声が入力されなければ、ステップS49に進む。一方、ステップS45で“YES”であれば、つまりベストショットを決定する音声が入力されていれば、ステップS47でベストショットの識別情報を決定する。たとえば、「グッド」の音声が認識されていれば、ステップS43で撮影された画像に対応付ける識別情報を「グッド」とする。   Subsequently, in step S45, it is determined whether or not a sound for determining the best shot has been input. That is, it is determined whether or not “Excellent”, “Good” and “Select” voices are input and the voices are recognized. If “NO” in the step S45, that is, if the sound for determining the best shot is not input, the process proceeds to the step S49. On the other hand, if “YES” in the step S45, that is, if the sound for determining the best shot is input, the identification information of the best shot is determined in a step S47. For example, if the “good” voice is recognized, the identification information associated with the image taken in step S43 is “good”.

続いて、ステップS49でタイマーが満了か否かを判断する。つまり、ステップS49では、ステップS41の処理とは異なり、撮影されてから第3所定時間が経過したか否かを判断する。ステップS49で“NO”であれば、つまり第3所定時間が経過していなければ、ステップS45に戻る。一方、ステップS49で“YES”であれば、つまり第3所定時間が経過していれば、図13に示すステップS51で画像をバッファに一時保存する。つまり、ステップS43で撮影された画像をテンポラリ領域(テンポラリバッファ334)に一時保存する。   Subsequently, in step S49, it is determined whether or not the timer has expired. That is, in step S49, unlike the processing in step S41, it is determined whether or not a third predetermined time has elapsed since the image was taken. If “NO” in the step S49, that is, if the third predetermined time has not elapsed, the process returns to the step S45. On the other hand, if “YES” in the step S49, that is, if the third predetermined time has elapsed, the image is temporarily stored in the buffer in a step S51 shown in FIG. That is, the image captured in step S43 is temporarily stored in the temporary area (temporary buffer 334).

続いて、ステップS53では、音声が認識されたか否かを判断する。つまり、音声認識フラグ346がオンであるか否かを判断する。ステップS53で“NO”であれば、つまり音声認識フラグ346がオフであれば、ステップS55で画像を暫定領域(暫定バッファ338)に一時保存して、ステップS63に進む。つまり、音声が認識されず、識別情報が決まっていないため、ステップS55では、撮影された画像が暫定領域に一時保存される。   Subsequently, in step S53, it is determined whether or not a voice is recognized. That is, it is determined whether or not the voice recognition flag 346 is on. If “NO” in the step S53, that is, if the voice recognition flag 346 is turned off, the image is temporarily stored in the temporary area (temporary buffer 338) in a step S55, and the process proceeds to a step S63. That is, since the voice is not recognized and the identification information is not determined, the captured image is temporarily stored in the provisional area in step S55.

一方、ステップS53で“YES”であれば、つまり音声認識フラグ346がオンであれば、ステップS57で識別情報を画像に対応付ける。たとえば、シーンの識別情報が「人物写真」と決められており、ベストショットの識別情報が「グッド」と決められていれば、テンポラリ領域に格納された撮影された画像に、「人物写真」および「グッド」の識別情報が対応付けられる。なお、シーンの識別情報のみが決まっていればシーンの識別情報のみが対応付けられ、ベストショットの識別情報のみが決まっていればベストショットの識別情報のみが対応付けられる。   On the other hand, if “YES” in the step S53, that is, if the voice recognition flag 346 is turned on, the identification information is associated with the image in a step S57. For example, if the scene identification information is determined to be “portrait photograph” and the best shot identification information is determined to be “good”, the captured image stored in the temporary area includes “portrait photograph” and “Good” identification information is associated. If only the scene identification information is determined, only the scene identification information is associated. If only the best shot identification information is determined, only the best shot identification information is associated.

続いて、ステップS59では、画像を保存領域に保存する。つまり、識別情報が対応付けられた画像データを、ベストショット保存領域またはシーン保存領域に保存する。なお、ステップS59の処理を実行するCPU20aは保存手段として機能する。続いて、ステップS61では、空き容量が十分か否かを判断する。つまり、フラッシュメモリ28またはメモリカード44に、さらに画像データを保存することが可能であるか否かを判断する。ステップS61で“NO”であれば、つまりフラッシュメモリ28またはメモリカード44に、さらに画像データを保存することが不可能な状態であれば、ベストショット撮影処理を終了する。   In step S59, the image is stored in a storage area. That is, the image data associated with the identification information is stored in the best shot storage area or the scene storage area. The CPU 20a that executes the process of step S59 functions as a storage unit. Subsequently, in step S61, it is determined whether or not the free space is sufficient. That is, it is determined whether or not further image data can be stored in the flash memory 28 or the memory card 44. If “NO” in the step S61, that is, if it is impossible to further store image data in the flash memory 28 or the memory card 44, the best shot photographing process is ended.

一方、ステップS61で“YES”であれば、つまりフラッシュメモリ28またはメモリカード44に、さらに画像データを保存することが可能な状態であれば、ステップS63で終了操作か否かを判断する。たとえば、キー入力装置22に含まれるシャッターキーが再び操作されたか否かを判断する。ステップS63で“NO”であれば、つまり終了操作がされていなければ図12に示すステップS35に戻る。一方、ステップS63で“YES”であれば、つまり終了操作がされれば、ベストショット撮影処理を終了する。   On the other hand, if “YES” in the step S61, that is, if the image data can be further stored in the flash memory 28 or the memory card 44, it is determined whether or not the end operation is performed in a step S63. For example, it is determined whether or not the shutter key included in the key input device 22 has been operated again. If “NO” in the step S63, that is, if the ending operation is not performed, the process returns to the step S35 shown in FIG. On the other hand, if “YES” in the step S63, that is, if an end operation is performed, the best shot photographing process is ended.

なお、ベストショット撮影処理において、ステップS35,S41,S43,S49の処理を実行するCPU20aは撮影制御手段として機能する。また、ステップS39およびステップS47の処理を実行するCPU20aは決定手段として機能し、さらにステップS39の処理を実行するCPU20aは第1決定手段、ステップS47の処理を実行するCPU20aは第2決定手段として機能する。また、ステップS57の処理を実行するCPU20aは対応付手段として機能する。   In the best shot shooting process, the CPU 20a that executes the processes of steps S35, S41, S43, and S49 functions as a shooting control unit. Further, the CPU 20a that executes the processing of step S39 and step S47 functions as a determination unit, the CPU 20a that executes the processing of step S39 functions as a first determination unit, and the CPU 20a that executes the processing of step S47 functions as a second determination unit. To do. Further, the CPU 20a that executes the process of step S57 functions as an association unit.

図14は、画像表示処理を示すフロー図である。CPU20aは、ベストショット撮影処理が終了すると画像表示処理を実行し、ステップS71で画像データを読み込む。つまり、ベストショット保存領域およびシーン保存領域と、RAM30の暫定保存領域(暫定バッファ338)とから画像データを読み出し、表示画像バッファ336に格納する。続いて、ステップS73では、ベストショットモードであるか否かを判断する。つまり、ベストショットの識別情報に基づいて画像を表示するモードであるか否かを判断する。ステップS73で“YES”であれば、つまりベストショットモードであれば、ステップS75でベストショットの識別情報に基づいて画像を表示し、ステップS85に進む。たとえば、ステップS75では、図6(A),図6(B)に示すように、表示画像バッファ336に格納された画像データのそれぞれは、「エクセレント」、「グッド」、「セレクト」および「その他」に分けられて、LCDモニタ26に表示される。   FIG. 14 is a flowchart showing image display processing. When the best shot photographing process is completed, the CPU 20a executes an image display process, and reads image data in step S71. That is, the image data is read from the best shot storage area and the scene storage area, and the temporary storage area (provisional buffer 338) of the RAM 30, and stored in the display image buffer 336. Subsequently, in step S73, it is determined whether or not the best shot mode is set. That is, it is determined whether or not the image display mode is based on the best shot identification information. If “YES” in the step S73, that is, if the best shot mode is set, an image is displayed based on the identification information of the best shot in a step S75, and the process proceeds to the step S85. For example, in step S75, as shown in FIGS. 6A and 6B, each of the image data stored in the display image buffer 336 is “Excellent”, “Good”, “Select”, and “Others”. Are displayed on the LCD monitor 26.

なお、携帯端末10が工場出荷状態の場合には、ベストショットモードで、画像が表示されるように設定されているため、1度目のループ(ステップS73−S83)では、ステップS73では“YES”と判断され、ステップS75の処理が実行される。そして、使用者は、ベストショット撮影機能の後に画像が表示されるモードを、任意に設定することができてもよい。   Note that when the mobile terminal 10 is in a factory-shipped state, it is set to display an image in the best shot mode, and therefore, “YES” in step S73 in the first loop (steps S73 to S83). Is determined, and the process of step S75 is executed. The user may be able to arbitrarily set a mode in which an image is displayed after the best shot shooting function.

一方、ステップS73で“NO”であれば、つまりベストショットモードでなければ、ステップS77でシーンモードか否かを判断する。ステップS77で“YES”であれば、つまりシーンモードであれば、ステップS79でシーンの識別情報に基づいて画像を表示し、ステップS85に進む。たとえば、ステップS79では、図7(A),図7(B)に示すように、表示画像バッファ336に格納された画像データのそれぞれは、「人物の撮影シーン」、「集合の撮影シーン」、「風景の撮影シーン」および「その他の撮影シーン」に分けられて、LCDモニタ26に表示される。   On the other hand, if “NO” in the step S73, that is, if the best shot mode is not set, it is determined whether or not the scene mode is set in a step S77. If “YES” in the step S77, that is, if it is the scene mode, an image is displayed based on the scene identification information in a step S79, and the process proceeds to a step S85. For example, in step S79, as shown in FIGS. 7A and 7B, each of the image data stored in the display image buffer 336 includes “person's shooting scene”, “collection shooting scene”, It is divided into “landscape scenes” and “other scenes” and displayed on the LCD monitor 26.

一方、ステップS77で“NO”であれば、つまりベストショットシーンでなければ、ステップS81で同時モードか否かを判断する。ステップS81で“NO”であれば、ステップS85に進み、“YES”であれば、ステップS83でベストショットおよびシーンの識別情報に基づいて画像を表示する。たとえば、ステップS83では、図8(A),図8(B),図9(A)および図9(B)に示すように、表示画像バッファ336に格納された画像データのそれぞれは、撮影されたシーンにおいて、ベストショット毎に表示される。   On the other hand, if “NO” in the step S77, that is, if it is not the best shot scene, it is determined whether or not the simultaneous mode is set in a step S81. If “NO” in the step S81, the process proceeds to a step S85, and if “YES”, an image is displayed on the basis of the best shot and scene identification information in a step S83. For example, in step S83, as shown in FIGS. 8A, 8B, 9A, and 9B, each of the image data stored in the display image buffer 336 is captured. Displayed for each best shot in the selected scene.

なお、ステップS75、ステップS79またはステップS83の処理を実行するCPU20aは、画像表示手段として機能する。   The CPU 20a that executes the process of step S75, step S79, or step S83 functions as an image display unit.

ステップS85では、モード切り替え操作か否かを判断する。たとえば、モードキー58が操作されたか否かを判断する。ステップS85で“YES”であれば、たとえばモードキー58が操作されれば、ステップS73に戻る。一方、ステップS85で“NO”であれば、つまりモードキー58が操作されていなければ、ステップS87で終了操作か否かを判断する。たとえば、キー入力装置22に含まれる終話キーなどが操作されたか否かを判断する。ステップS87で“NO”であれば、つまり終了操作がされなければステップS85に戻る。一方、ステップS87で“YES”であれば、つまり終了操作がされれば、画像表示処理を終了する。   In step S85, it is determined whether or not it is a mode switching operation. For example, it is determined whether or not the mode key 58 has been operated. If “YES” in the step S85, for example, if the mode key 58 is operated, the process returns to the step S73. On the other hand, if “NO” in the step S85, that is, if the mode key 58 is not operated, it is determined whether or not the end operation is performed in a step S87. For example, it is determined whether or not an end key included in the key input device 22 has been operated. If “NO” in the step S87, that is, if the end operation is not performed, the process returns to the step S85. On the other hand, if “YES” in the step S87, that is, if an end operation is performed, the image display process is ended.

なお、ステップS87で“YES”である場合に、暫定バッファ338に格納された画像データをフラッシュメモリ28またはメモリカード44に保存するか否かの処理が実行されてもよい。そして、保存する操作がされなければ、暫定バッファ338に格納された画像データは消去される。   If “YES” in the step S87, processing for determining whether or not to save the image data stored in the temporary buffer 338 in the flash memory 28 or the memory card 44 may be executed. If no saving operation is performed, the image data stored in the temporary buffer 338 is deleted.

また、本実施例では、撮影される前の2秒(第2所定時間)と撮影された後の1秒(第3所定時間)と合わせて、第1所定時間(3秒)となるように処理が実行されているが、使用者は、第2所定時間と第3所定時間とを変えずに、第1所定時間のみを任意に変更してもよい。また、使用者は、第1所定時間との矛盾を生じない限り、第2所定時間および第3所定時間も任意に変更してもよい。   In this embodiment, the first predetermined time (3 seconds) is set by combining 2 seconds (second predetermined time) before shooting and 1 second (third predetermined time) after shooting. Although the process is being performed, the user may arbitrarily change only the first predetermined time without changing the second predetermined time and the third predetermined time. Further, the user may arbitrarily change the second predetermined time and the third predetermined time as long as there is no contradiction with the first predetermined time.

以上の説明から分かるように、携帯端末10は、音声を認識するための第2マイク16bおよびイメージセンサ38bとフォーカスレンズ38cとを制御するカメラ制御回路38aを備える。また、携帯端末10は、カメラ制御回路38aを制御することで、カメラ機能を実行し、被写界の画像を撮影する。また、携帯端末10は3秒毎に画像を撮影するベストショット撮影機能を実行することができる。そして、携帯端末10は、ベストショット撮影機能が実行されて、画像が撮影されるときに、音声が入力されると、その画像に識別情報を対応付けてフラッシュメモリ28またはメモリカード44に保存する。   As can be seen from the above description, the mobile terminal 10 includes the second microphone 16b for recognizing the sound, the camera control circuit 38a for controlling the image sensor 38b, and the focus lens 38c. Further, the mobile terminal 10 controls the camera control circuit 38a to execute the camera function and take an image of the object scene. In addition, the mobile terminal 10 can execute a best shot shooting function for shooting an image every 3 seconds. Then, when the best shot shooting function is executed and an image is shot, when the voice is input, the mobile terminal 10 associates the identification information with the image and stores it in the flash memory 28 or the memory card 44. .

これにより、使用者は、連続して撮影される写真のうち、上手に撮影されたときに発話することで、ベストショットを容易に撮影することができる。さらに、ベストショットには識別情報が対応付けられて保存されるため、使用者は、複数の写真の中から、ベストショットを選別する作業をしなくても済むようになる。   Accordingly, the user can easily take the best shot by speaking when the photograph is taken well among the continuously photographed photographs. Furthermore, since the best shot is stored with identification information associated therewith, the user does not have to work to select the best shot from a plurality of photographs.

なお、本実施例では、撮影される画像データのサイズとしてUXGA,WQVGAおよびVGAに限定されるものではなく、適宜他のサイズが用いられてもよい。さらに、カメラ機能では、静止画像だけでなく、動画像も撮影可能であってもよい。また、イメージセンサ38bには、CMOSイメージセンサまたはCCDイメージセンサが採用される。   In the present embodiment, the size of image data to be captured is not limited to UXGA, WQVGA, and VGA, and other sizes may be used as appropriate. Furthermore, the camera function may be able to capture not only still images but also moving images. Further, a CMOS image sensor or a CCD image sensor is adopted as the image sensor 38b.

また、携帯端末10の通信方式には、CDMA方式に限らず、W-CDMA方式、TDMA方式、PHS方式およびGSM方式などを採用してもよい。携帯端末10のみに限らず、カメラ機能を備えるPDA(Personal Digital Assistant)などの携帯情報端末などであってもよい。さらに、カメラ機能を備えない携帯端末10に対して、WEBカメラやモバイルカメラなどを取り付け、ベストショット撮影機能のソフト(プログラム)をインストールすることで、本実施例が実施されてもよい。また、音声認識処理には、第1マイク16aが用いられてもよい。   Further, the communication method of the mobile terminal 10 is not limited to the CDMA method, but may be a W-CDMA method, a TDMA method, a PHS method, a GSM method, or the like. Not only the portable terminal 10 but also a portable information terminal such as a PDA (Personal Digital Assistant) having a camera function may be used. Furthermore, the present embodiment may be implemented by attaching a web camera, a mobile camera, or the like to the mobile terminal 10 that does not have a camera function and installing software (program) for the best shot shooting function. The first microphone 16a may be used for the voice recognition process.

また、本明細書中の「ベストショット」の語は、和製英語であるため、英語文法における「best shot:ベストを尽くしての試み、できるだけのこと」とは解釈しないでいただきたい。さらに、「ベストショット」の語は、「上手に撮影できた写真」だけでなく、「大切に保存しておきたい写真」や、「お気に入りの写真」などの意味も包含されるものと理解されたい。   In addition, since the word “best shot” in this specification is Japanese-made English, it should not be interpreted as “best shot: all you can do to do your best” in the English grammar. In addition, the term “best shot” is understood to include not only “good photos”, but also “photos you want to keep” and “favorite photos”. I want.

10 … 携帯端末
16a … 第1マイク
16b … 第2マイク
20a … CPU
20b … DSP
22 … キー入力装置
26 … LCDモニタ
28 … フラッシュメモリ
30 … RAM
32 … ROM
38a … カメラ制御回路
38b … イメージセンサ
38c … フォーカスレンズ
44 … メモリカード
DESCRIPTION OF SYMBOLS 10 ... Portable terminal 16a ... 1st microphone 16b ... 2nd microphone 20a ... CPU
20b DSP
22 ... Key input device 26 ... LCD monitor 28 ... Flash memory 30 ... RAM
32 ... ROM
38a ... Camera control circuit 38b ... Image sensor 38c ... Focus lens 44 ... Memory card

Claims (7)

音声を入力するための音声入力手段を有する、携帯端末であって、
画像を撮影する撮影手段、
前記撮影手段を、第1所定時間毎に画像を連続して撮影させるよう制御する撮影制御手段、
前記音声入力手段に入力された音声を認識する音声認識手段、
連続して画像が撮影されている状態で、前記撮影手段によって撮影された後の第2所定時間に音声が入力されたとき、音声認識された結果に基づいて、画像の優先順位を示す第1識別情報を決定する第1決定手段、
連続して撮影されている画像のうち、前記撮影手段によって画像が撮影された後に決められた第1識別情報を、当該画像に対応付ける対応付手段、および
前記第1識別情報が対応付けられた画像を保存する保存手段を備える、携帯端末。
A portable terminal having voice input means for inputting voice,
Photographing means for photographing images,
A photographing control means for controlling the photographing means to continuously photograph images every first predetermined time;
Voice recognition means for recognizing the voice input to the voice input means;
When a sound is input at a second predetermined time after being photographed by the photographing means in a state where images are continuously photographed, the first priority indicating the priority order of the images is based on the result of speech recognition. First determining means for determining identification information;
Among the images continuously has been taken, the first identification information determined after the image has been captured by the imaging means, associating means for associating with the image, and the first identification information is associated image A portable terminal provided with a storage means for storing.
連続して撮影されている画像のうち、前記第1識別情報が対応付けられていない画像を一時保存する一時保存手段をさらに備える、請求項1記載の携帯端末。 The portable terminal according to claim 1, further comprising a temporary storage unit that temporarily stores an image that is not associated with the first identification information among images that are continuously captured . 連続して撮影されている状態で、前記撮影手段によって撮影される前の第所定時間に入力された音声に基づいて撮影シーンを示す第2識別情報を決定する第2決定手段をさらに備え
記対応付手段は、連続して撮影されている画像のうち、前記撮影手段によって画像が撮影された時の後と前とに決められた第1識別情報および第2識別情報のそれぞれを、当該画像に対応付ける、請求項1または2記載の携帯端末。
A second determining unit that determines second identification information indicating a shooting scene based on a voice input at a third predetermined time before being shot by the shooting unit while being continuously shot ;
Before SL correlating means, among the image captured in succession, each of the first identification information and second identification information determined for the previous and after the time the image was taken by said photographing means The mobile terminal according to claim 1, wherein the mobile terminal is associated with the image.
前記対応付手段によって対応付けられた第1識別情報に基づいて保存された画像を表示する画像表示手段をさらに備える、請求項1ないし3のいずれかに記載の携帯端末。   The portable terminal according to any one of claims 1 to 3, further comprising image display means for displaying an image stored based on the first identification information associated by the association means. 音声を入力するための音声入力手段を有する、電子カメラであって、
画像を撮影する撮影手段、
前記撮影手段を、第1所定時間毎に画像を連続して撮影させるよう制御する撮影制御手段、
前記音声入力手段に入力された音声を認識する音声認識手段、
連続して画像が撮影されている状態で、前記撮影手段によって撮影された後の第2所定時間に音声が入力されたとき、音声認識された結果に基づいて、画像の優先順位を示す識別情報を決定する決定手段、
連続して撮影されている画像のうち、前記撮影手段によって画像が撮影された後に決められた識別情報を、当該画像に対応付ける対応付手段、および
前記識別情報が対応付けられた画像を保存する保存手段を備える、電子カメラ。
An electronic camera having voice input means for inputting voice,
Photographing means for photographing images,
A photographing control means for controlling the photographing means to continuously photograph images every first predetermined time;
Voice recognition means for recognizing the voice input to the voice input means;
Identification information indicating the priority order of images based on the result of speech recognition when speech is input at a second predetermined time after being photographed by the photographing means in a state where images are continuously photographed. Determining means to determine,
Among the images continuously being captured, the identification information determined after the image has been captured by the imaging means, stores associating unit for associating with the image, and an image in which the identification information is associated with stored An electronic camera comprising means.
音声を入力するための音声入力手段、画像を撮影する撮影手段および前記音声入力手段に入力された音声を認識する音声認識手段を有する、電子機器のプロセサを、
前記撮影手段を、第1所定時間毎に画像を連続して撮影させるよう制御する撮影制御手段、
連続して画像が撮影されている状態で、前記撮影手段によって撮影された後の第2所定時間に音声が入力されたとき、音声認識された結果に基づいて、画像の優先順位を示す識別情報を決定する決定手段、
連続して撮影されている画像のうち、前記撮影手段によって画像が撮影された後に決められた識別情報を、当該画像に対応付ける対応付手段、および
前記識別情報が対応付けられた画像を保存する保存手段として機能させる、連続撮影プログラム。
A processor of an electronic device having voice input means for inputting voice, photographing means for taking an image, and voice recognition means for recognizing voice input to the voice input means,
A photographing control means for controlling the photographing means to continuously photograph images every first predetermined time;
Identification information indicating the priority order of images based on the result of speech recognition when speech is input at a second predetermined time after being photographed by the photographing means in a state where images are continuously photographed. Determining means to determine,
Among the images continuously being captured, the identification information determined after the image has been captured by the imaging means, stores associating unit for associating with the image, and an image in which the identification information is associated with stored A continuous shooting program that functions as a means.
音声を入力するための音声入力手段、画像を撮影する撮影手段および前記音声入力手段に入力された音声を認識する音声認識手段を有する、電子機器における連続撮影方法であって、前記電子機器のプロセサが、
前記撮影手段を、第1所定時間毎に画像を連続して撮影させるよう制御する撮影制御ステップ、
連続して画像が撮影されている状態で、前記撮影手段によって撮影された後の第2所定時間に音声が入力されたとき、音声認識された結果に基づいて、画像の優先順位を示す識別情報を決定する決定ステップ
連続して撮影されている画像のうち、前記撮影手段によって画像が撮影された後に決められた識別情報を、当該画像に対応付ける対応付ステップおよび
前記識別情報が対応付けられた画像を保存する保存ステップを実行する、連続撮影方法。
Voice input means for inputting a voice, an image having a speech recognition means for recognizing a voice input to the imaging means and the voice input means to shoot, a continuous shooting method in an electronic device, the electronic device processor But,
A photographing control step for controlling the photographing means to continuously photograph images every first predetermined time ;
Identification information indicating the priority order of images based on the result of speech recognition when speech is input at a second predetermined time after being photographed by the photographing means in a state where images are continuously photographed. Determine the decision step ,
Saving among the images continuously being captured, the identification information determined after the image has been captured by the imaging means, associating step that associates with the image, and an image in which the identification information is associated A continuous shooting method that executes a storage step .
JP2009127449A 2009-05-27 2009-05-27 Mobile terminal, electronic camera and continuous shooting program Active JP5415830B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009127449A JP5415830B2 (en) 2009-05-27 2009-05-27 Mobile terminal, electronic camera and continuous shooting program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009127449A JP5415830B2 (en) 2009-05-27 2009-05-27 Mobile terminal, electronic camera and continuous shooting program

Publications (2)

Publication Number Publication Date
JP2010278612A JP2010278612A (en) 2010-12-09
JP5415830B2 true JP5415830B2 (en) 2014-02-12

Family

ID=43425180

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009127449A Active JP5415830B2 (en) 2009-05-27 2009-05-27 Mobile terminal, electronic camera and continuous shooting program

Country Status (1)

Country Link
JP (1) JP5415830B2 (en)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09149365A (en) * 1995-11-20 1997-06-06 Ricoh Co Ltd Digital still video camera
JP2003069925A (en) * 2001-08-24 2003-03-07 Fuji Photo Film Co Ltd Attached information input method, device and program
US20050192808A1 (en) * 2004-02-26 2005-09-01 Sharp Laboratories Of America, Inc. Use of speech recognition for identification and classification of images in a camera-equipped mobile handset
JP2005354519A (en) * 2004-06-11 2005-12-22 Nippon Telegr & Teleph Corp <Ntt> Imaging apparatus and imaging program
JP2006180089A (en) * 2004-12-21 2006-07-06 Olympus Corp Digital camera and searching system
JP4352260B2 (en) * 2005-01-17 2009-10-28 ソニー株式会社 Imaging device, method for recording captured image data, captured image data processing device, and captured image data processing method
JP4742912B2 (en) * 2006-02-28 2011-08-10 カシオ計算機株式会社 Image / audio recording apparatus, image / audio recording method, and image / audio recording control program
JP2008236644A (en) * 2007-03-23 2008-10-02 Fujifilm Corp Photographing device and image reproduction device

Also Published As

Publication number Publication date
JP2010278612A (en) 2010-12-09

Similar Documents

Publication Publication Date Title
JP7169383B2 (en) Capture and user interface using night mode processing
KR101432177B1 (en) Portable device and method for processing the photography the same, and photography processing system having it
JP5848932B2 (en) Mobile terminal, folder management program, and folder management method
KR101477178B1 (en) Portable terminal having dual camera and photographing method using the same
KR101237809B1 (en) Camera apparatus
CN108718378B (en) Image recording device and method
JP4659088B2 (en) Mobile device with camera
CN114679538A (en) Shooting method and terminal
JP5791448B2 (en) Camera device and portable terminal
JP2010147527A (en) Communication terminal, and program for identifying information transmission source
KR20140034574A (en) Method and apparatus for displaying camera preview screen in a portable terminal
CN113824878A (en) Shooting control method based on foldable screen and electronic equipment
CN105827942A (en) Rapid photographing method and electronic device
JP2007093967A (en) Photographing apparatus
CN113489894A (en) Shooting method and terminal in long-focus scene
US9661229B2 (en) Method for capturing a picture in a portable terminal by outputting a notification of an object being in a capturing position
JPWO2008149709A1 (en) Portable terminal, portable terminal control method, portable terminal control program, and computer-readable recording medium recording the same
US20140210941A1 (en) Image capture apparatus, image capture method, and image capture program
JP5415830B2 (en) Mobile terminal, electronic camera and continuous shooting program
JP5911300B2 (en) Imaging apparatus and control method thereof
JP5280185B2 (en) Portable terminal and electronic camera
KR20090032209A (en) Method and apparatus for registering a image in a telephone directory of portable terminal
KR100734003B1 (en) User terminal capable of function selection using camera and function selection method thereof
JP5973619B2 (en) Portable terminal, invalid area setting program, and invalid area setting method
KR102081659B1 (en) Method and apparatus for taking images for applying visual effect

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120305

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131114

R150 Certificate of patent or registration of utility model

Ref document number: 5415830

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150