JP2007011738A - Character processor - Google Patents

Character processor Download PDF

Info

Publication number
JP2007011738A
JP2007011738A JP2005192472A JP2005192472A JP2007011738A JP 2007011738 A JP2007011738 A JP 2007011738A JP 2005192472 A JP2005192472 A JP 2005192472A JP 2005192472 A JP2005192472 A JP 2005192472A JP 2007011738 A JP2007011738 A JP 2007011738A
Authority
JP
Japan
Prior art keywords
character
correction characteristics
correction
selection
characters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005192472A
Other languages
Japanese (ja)
Inventor
Yasuhiro Miki
康弘 三木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2005192472A priority Critical patent/JP2007011738A/en
Publication of JP2007011738A publication Critical patent/JP2007011738A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Character Discrimination (AREA)
  • Character Input (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a character processor capable of preparing the same character as a character appearing in an objective field. <P>SOLUTION: A γ correction circuit 52 stores six γ correction characteristics for correcting the reproducibility of a field image captured by an image sensor 48 by mutually different forms. A camera CPU 60 selects three γ correction characteristics out of six γ correction characteristics on the basis of the contrast of the field image captured by the image sensor 48. The characters are recognized by the camera CPU 60 from the field image having reproducibility corrected by three γ correction characteristics respectively selected by the camera CPU 60. Three characters recognized by the camera CPU 60 are displayed on an LCD 36. Character selecting operation is received by the camera CPU 60. One character following the character selecting operation out of three characters displayed on the LCD 36 is stored in a flash memory 42. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明は、文字処理装置に関し、特にたとえば、撮影された被写界に現れた文字を認識する、文字処理装置に関する。   The present invention relates to a character processing device, and more particularly to, for example, a character processing device that recognizes characters appearing in a photographed scene.

従来のこの種の装置の一例が、特許文献1に開示されている。この従来技術は、読み取られた画像データに対してコントラストを最適化した濃度補正を行おうとするものである。これによって、OCRの認識率を向上させることができる。
特許公開2003−51944号公報[H04N 1/407,1/46,1/60,G06T 1/00,5/00]
An example of a conventional device of this type is disclosed in Patent Document 1. This prior art is intended to perform density correction with optimized contrast on the read image data. Thereby, the recognition rate of OCR can be improved.
Patent Publication 2003-51944 [H04N 1 / 407,1 / 46,1 / 60, G06T 1 / 00,5 / 00]

しかし、従来技術では、被写体の文字と同じ文字を装置が独力で作成することを想定しているため、厳密な濃度補正が必要となる。   However, in the prior art, since it is assumed that the device creates the same character as the character of the subject by itself, strict density correction is required.

それゆえに、この発明の主たる目的は、被写界に現れた文字と同じ文字を簡単な処理で作成することができる、文字処理装置を提供することである。   Therefore, a main object of the present invention is to provide a character processing apparatus capable of creating the same character as the character appearing in the scene by simple processing.

請求項1の発明に従う文字処理装置(28)は、被写界を捉える撮像手段(48)、撮像手段によって捉えられた被写界像の再現性を互いに異なる態様で補正するM個(M:3以上の整数)の補正特性を保持する保持手段(52b~52g)、撮像手段によって捉えられた被写界像のコントラストに基づいてM個の補正特性の中からN個(N:2以上M個未満の整数)の補正特性を選択する選択手段(S5)、選択手段によって選択されたN個の補正特性の各々によって補正された再現性を有する被写界像から文字を認識する認識手段(S9)、認識手段によって認識されたN個の文字を表示する表示手段(S15)、表示手段の表示処理に関連して文字選択操作を受け付ける受付手段(S17)、および表示手段によって表示されたN個の文字のうち前記文字選択操作に従う1つの文字を保存する保存手段(S19)を備える。   The character processing device (28) according to the first aspect of the present invention includes an image pickup means (48) for capturing a scene, and M pieces (M: M) for correcting the reproducibility of the scene image captured by the image pickup means in different modes. A holding means (52b to 52g) for holding correction characteristics of an integer of 3 or more, and N out of M correction characteristics (N: 2 or more M) based on the contrast of the object scene image captured by the imaging means A selection means (S5) for selecting a correction characteristic of less than (integer) pieces, and a recognition means for recognizing a character from the object scene image having reproducibility corrected by each of the N correction characteristics selected by the selection means ( S9), display means (S15) for displaying N characters recognized by the recognition means, accepting means (S17) for accepting a character selection operation in relation to display processing of the display means, and N displayed by the display means One character that follows the character selection operation is preserved. Comprising storage means (S19) for.

被写界は、撮像手段によって捉えられる。保持手段は、撮像手段によって捉えられた被写界像の再現性を互いに異なる態様で補正するM個の補正特性を保持する。選択手段は、撮像手段によって捉えられた被写界像のコントラストに基づいて、M個の補正特性の中からN個の補正特性を選択する。   The object scene is captured by the imaging means. The holding unit holds M correction characteristics for correcting the reproducibility of the object scene image captured by the imaging unit in different modes. The selection unit selects N correction characteristics from the M correction characteristics based on the contrast of the object scene image captured by the imaging unit.

文字は、選択手段によって選択されたN個の補正特性の各々によって補正された再現性を有する被写界像から、認識手段によって認識される。認識手段によって認識されたN個の文字は、表示手段によって表示される。文字選択操作は、表示手段の表示処理に関して、受付手段によって表示される。保存手段は、表示手段によって表示されたN個の文字のうち文字選択操作に従う1つの文字を保存する。   The character is recognized by the recognition unit from the object scene image having reproducibility corrected by each of the N correction characteristics selected by the selection unit. N characters recognized by the recognition means are displayed by the display means. The character selection operation is displayed by the receiving unit regarding the display process of the display unit. The storage unit stores one character according to the character selection operation among the N characters displayed by the display unit.

このように、文字認識を施される被写界像の再現性を補正する補正特性は、被写界像のコントラストに基づいて選択される。この結果、認識精度が向上する。さらに、選択される補正特性の数は、保持手段によって保持された補正特性の数よりも小さい。この結果、的外れな認識処理が排除される。さらに、文字認識のために選択される補正特性の数は2以上であり、認識された2以上の文字のいずれか1つが文字選択操作によって選択される。この結果、いずれの文字を最終的に選択するかが操作者の操作に委ねられる。   As described above, the correction characteristic for correcting the reproducibility of the object scene image subjected to character recognition is selected based on the contrast of the object scene image. As a result, recognition accuracy is improved. Furthermore, the number of correction characteristics to be selected is smaller than the number of correction characteristics held by the holding means. As a result, inappropriate recognition processing is eliminated. Furthermore, the number of correction characteristics selected for character recognition is two or more, and any one of the two or more recognized characters is selected by a character selection operation. As a result, it is left to the operator's operation which character is finally selected.

これによって、被写界に現れた文字と同じ文字を簡単な処理で作成することができる。   As a result, the same character as that appearing in the object scene can be created by a simple process.

請求項2の発明に従う文字処理装置は、請求項1に従属し、保持手段は各々がN個の補正特性を有するようにM個の補正特性を複数のグループに分割し、選択手段は複数のグループのいずれか1つからN個の補正特徴を選択する。   The character processing device according to the invention of claim 2 is dependent on claim 1, and the holding means divides the M correction characteristics into a plurality of groups so that each of the holding means has N correction characteristics, and the selection means has a plurality of selection means. N correction features are selected from any one of the groups.

請求項3の発明に従う文字処理装置は、請求項1または2に従属し、選択手段は文字認識操作に応答して選択処理を実行する。   A character processing device according to a third aspect of the invention is dependent on the first or second aspect, and the selection means executes the selection process in response to a character recognition operation.

請求項4の発明に従う携帯端末(10)は、請求項1ないし3のいずれかに記載の文字処理装置を備える。   A portable terminal (10) according to the invention of claim 4 comprises the character processing device according to any one of claims 1 to 3.

請求項5の発明に従う文字処理プログラムは、被写界を捉える撮像手段、および撮像手段によって捉えられた被写界像の再現性を互いに異なる態様で補正するM個(M:3以上の整数)の補正特性を保持する保持手段(52b~52g)を備える文字処理装置(10)のプロセサ(60)に、撮像手段によって捉えられた被写界像のコントラストに基づいてM個の補正特性の中からN個(N:2以上M個未満の整数)の補正特性を選択する選択ステップ(S5)、選択手段によって選択されたN個の補正特性の各々によって補正された再現性を有する被写界像から文字を認識する認識ステップ(S9)、認識手段によって認識されたN個の文字を表示する表示ステップ(S15)、表示手段の表示処理に関連して文字選択操作を受け付ける受付ステップ(S17)、および表示手段によって表示されたN個の文字のうち文字選択操作に従う1つの文字を保存する保存ステップ(S19)を実行させる。   A character processing program according to a fifth aspect of the present invention is an image pickup means for capturing a scene and M pieces (M: an integer equal to or greater than 3) for correcting the reproducibility of the scene image captured by the image pickup means in different manners. The processor (60) of the character processing device (10) having the holding means (52b to 52g) for holding the correction characteristics of the M is based on the contrast of the object scene image captured by the imaging means. A selection step (S5) for selecting N (N: integer greater than or equal to 2 and less than M) correction characteristics, and an object field having reproducibility corrected by each of the N correction characteristics selected by the selection means A recognition step for recognizing characters from the image (S9), a display step for displaying N characters recognized by the recognition means (S15), and a reception step for accepting a character selection operation related to the display processing of the display means (S17) And by display means Are N number of storage step of storing a single character following the character selection operation of the character (S19) is executed.

この発明によれば、文字認識を施される被写界像の再現性を補正する補正特性は、被写界像のコントラストに基づいて選択される。この結果、認識精度が向上する。さらに、選択される補正特性の数は、保持手段によって保持された補正特性の数よりも小さい。この結果、的外れな認識処理が排除される。さらに、文字認識のために選択される補正特性の数は2以上であり、認識された2以上の文字のいずれか1つが文字選択操作によって選択される。この結果、いずれの文字を最終的に選択するかが操作者の操作に委ねられる。これによって、被写界に現れた文字と同じ文字を簡単な処理で作成することができる。   According to the present invention, the correction characteristic for correcting the reproducibility of the object scene image subjected to character recognition is selected based on the contrast of the object scene image. As a result, recognition accuracy is improved. Furthermore, the number of correction characteristics to be selected is smaller than the number of correction characteristics held by the holding means. As a result, inappropriate recognition processing is eliminated. Furthermore, the number of correction characteristics selected for character recognition is two or more, and any one of the two or more recognized characters is selected by a character selection operation. As a result, it is left to the operator's operation which character is finally selected. As a result, the same character as that appearing in the object scene can be created by a simple process.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、この実施例の携帯端末10は、操作キー26を含む。操作キー26によって通話のための発話操作が行われると、メインCPU30は、信号処理回路16,無線回路14およびアンテナ12を通して、発話信号を図示しない相手方の携帯端末に送信する。これに対して、相手方が着話操作を行うと、通話可能状態となる。   With reference to FIG. 1, the portable terminal 10 of this embodiment includes an operation key 26. When a speech operation for a call is performed by the operation key 26, the main CPU 30 transmits a speech signal to a partner mobile terminal (not shown) through the signal processing circuit 16, the wireless circuit 14, and the antenna 12. On the other hand, when the other party performs an incoming call operation, it becomes possible to talk.

通話可能状態となった後にマイクロフォン24に音声が入力されると、この音声は、マイクロフォン20によってアナログ信号である音声信号に変換される。変換された音声信号は、アンプ22によって増幅され、AD/DA変換回路18によってディジタル信号である音声データに変換される。変換された音声データは、信号処理回路16によって符号化処理を施され、さらに無線回路14によって変調処理を施される。無線回路14によって生成された変調音声データは、アンテナ12から発信される。   When voice is input to the microphone 24 after the call is ready, this voice is converted by the microphone 20 into a voice signal that is an analog signal. The converted audio signal is amplified by the amplifier 22 and converted by the AD / DA conversion circuit 18 into audio data that is a digital signal. The converted audio data is subjected to coding processing by the signal processing circuit 16 and further subjected to modulation processing by the radio circuit 14. The modulated audio data generated by the radio circuit 14 is transmitted from the antenna 12.

一方、相手方から送られてきた変調音声データは、アンテナ12によって受信され、無線回路14によって復調処理を施されるとともに、信号処理回路16によって複合処理を施される。信号処理回路16によって複合された音声データは、AD/DA変換回路18によってアナログ音声信号に変換され、変換された音声信号は、アンプ24を介してスピーカ26から出力される。   On the other hand, the modulated audio data sent from the other party is received by the antenna 12, subjected to demodulation processing by the radio circuit 14, and subjected to composite processing by the signal processing circuit 16. The audio data combined by the signal processing circuit 16 is converted into an analog audio signal by the AD / DA conversion circuit 18, and the converted audio signal is output from the speaker 26 via the amplifier 24.

このようにして相手方との間で通話が行われている最中に、操作キー26によって通話終了操作が行われると、メインCPU30は、信号処理回路16および無線回路14を制御して、相手方に通話終了信号を送信する。通話終了信号の送信後、メインCPU30は、通話処理を終了する。先に相手方から通話終了信号を受信した場合も、メインCPU30は、通話処理を終了する。   When a call end operation is performed by the operation key 26 while a call is being performed with the other party in this way, the main CPU 30 controls the signal processing circuit 16 and the radio circuit 14 to call the other party. Send a call end signal. After transmitting the call end signal, the main CPU 30 ends the call process. Also when the call end signal is received from the other party first, the main CPU 30 ends the call process.

通話が行われていない状態で、操作キー26によって文字認識機能が有効化されると、カメラユニット28およびメインCPU30によってスルー画像出力処理が実行される。カメラユニット28はまず、被写界像を撮影し、撮影された被写界像に対応する生画像データを30fpsのフレームレートで生成し、生成された各フレームの生画像データにγ補正処理を含む信号処理を施す。これによって得られた各フレームの画像データは、メインCPU30に出力される。メインCPU30は、カメラユニット28から出力された画像データを30fpsのフレームレートでVRAM32に書き込まれる。VRAM32に書き込まれた画像データはLCDドライバ34によって読み出され、この結果、被写界像のリアルタイム動画像(スルー画像)がLCD36に表示される。   When the character recognition function is validated by the operation key 26 in a state where no telephone call is made, a through image output process is executed by the camera unit 28 and the main CPU 30. The camera unit 28 first captures a scene image, generates raw image data corresponding to the captured scene image at a frame rate of 30 fps, and performs a γ correction process on the generated raw image data of each frame. Including signal processing. The image data of each frame obtained in this way is output to the main CPU 30. The main CPU 30 writes the image data output from the camera unit 28 into the VRAM 32 at a frame rate of 30 fps. The image data written in the VRAM 32 is read by the LCD driver 34, and as a result, a real-time moving image (through image) of the object scene image is displayed on the LCD 36.

操作キー26に設けられた図示しないボタンにより文字認識開始操作が行われると、カメラユニット28およびメインCPU30によって文字認識処理が実行される。カメラユニット28は、γ補正処理を施された画像データに2値化処理を行い、テキストコード表を参照して、2値化データによって表現された文字に近似する文字を検出する。なお、テキストコード表はフラッシュメモリ62に格納される。また、このテキストコード表とは、文字コードとビットマップ状の文字との対照表である。   When a character recognition start operation is performed by a button (not shown) provided on the operation key 26, a character recognition process is executed by the camera unit 28 and the main CPU 30. The camera unit 28 performs binarization processing on the image data that has been subjected to the γ correction processing, and refers to the text code table to detect a character that approximates the character expressed by the binarized data. The text code table is stored in the flash memory 62. The text code table is a comparison table between character codes and bitmapped characters.

メインCPU30は、検出された文字を表すビットマップデータをVRAM32に描画する。LCDドライバ34は、VRAM32からビットマップデータを読み出し、これに対応する文字をLCD36に表示する。こうして、被写界に現れた文字と同じ(または近似する)文字がLCD36に表示される。   The main CPU 30 draws bitmap data representing the detected character in the VRAM 32. The LCD driver 34 reads the bitmap data from the VRAM 32 and displays the corresponding characters on the LCD 36. In this way, the same (or similar) character as the character appearing in the scene is displayed on the LCD 36.

このような文字認識処理および文字表示処理は、文字認識終了操作が行われるまで、互いに異なるγ補正曲線を用いて複数回にわたって実行される。LCD36には、複数の文字が表示される。   Such character recognition processing and character display processing are executed a plurality of times using different γ correction curves until a character recognition end operation is performed. A plurality of characters are displayed on the LCD 36.

LCD36に表示された複数の文字の中から操作者が所望の文字を1つ選択する操作つまり文字選択操作が行われると、メインCPU30は操作者によって選択された文字に対応する文字コードをテキストコード表から読み出し、読み出された文字コードをフラッシュメモリ42に保存する。   When the operator performs an operation of selecting one desired character from the plurality of characters displayed on the LCD 36, that is, a character selection operation, the main CPU 30 sets a character code corresponding to the character selected by the operator as a text code. The character code read from the table is stored in the flash memory 42.

図2によれば、LCD36には、ピクトエリア36a,プレビューエリア36b,認識結果エリア36cおよびキー操作機能エリア36dが形成される。LCDドライバ34は、メインCPU30より発行される命令に基づいてVRAM32に描画されたビットマップデータをLCD36に出力する。スルー画像出力処理中、プレビューエリア36bにスルー画像が表示される。文字認識処理中、プレビューエリア36bにスルー画像が表示され、認識結果エリア36cに文字が表示される。編集用画面の表示処理中、認識結果エリア36cに複数の文字が表示される。   As shown in FIG. 2, the LCD 36 includes a pictogram area 36a, a preview area 36b, a recognition result area 36c, and a key operation function area 36d. The LCD driver 34 outputs the bitmap data drawn in the VRAM 32 to the LCD 36 based on a command issued from the main CPU 30. During the through image output process, the through image is displayed in the preview area 36b. During the character recognition process, a through image is displayed in the preview area 36b, and a character is displayed in the recognition result area 36c. During display processing of the editing screen, a plurality of characters are displayed in the recognition result area 36c.

カメラユニット28は、詳しくは図3に示すように構成される。被写界の光学像は、光学レンズ46を介してイメージセンサ48の撮像面に照射される。撮像面では、光電変換によって被写界の光学像に対応する電荷つまり生画像信号が生成される。カメラCPU60は、プリ露光および間引き読み出しの繰り返しをタイミングジェネレータ(TG)58に命令する。   The camera unit 28 is configured in detail as shown in FIG. The optical image of the object scene is irradiated onto the imaging surface of the image sensor 48 via the optical lens 46. On the imaging surface, a charge corresponding to the optical image of the object scene, that is, a raw image signal is generated by photoelectric conversion. The camera CPU 60 commands the timing generator (TG) 58 to repeat pre-exposure and thinning-out reading.

TG58は、イメージセンサ48のプリ露光と、これによって生成された画像信号の間引き読み出しとを繰り返し実行する。TG58はまた、画素クロック,水平同期信号Hsyncおよび垂直同期信号Vsyncを含む複数のタイミング信号を発生する。ドライバ56は、かかるタイミング信号に応答してイメージセンサ48を駆動する。この結果、垂直同期信号Vsyncは1/30秒毎に発生し、画像信号は1/30秒に1フレームの割合でイメージセンサ48から出力される。   The TG 58 repeatedly executes pre-exposure of the image sensor 48 and thinning-out reading of the image signal generated thereby. The TG 58 also generates a plurality of timing signals including a pixel clock, a horizontal synchronization signal Hsync, and a vertical synchronization signal Vsync. The driver 56 drives the image sensor 48 in response to the timing signal. As a result, the vertical synchronization signal Vsync is generated every 1/30 seconds, and the image signal is output from the image sensor 48 at a rate of 1 frame per 1/30 seconds.

出力された生画像信号は、CDS/AGC/AD回路50によってノイズ除去,レベル調整およびA/D変換の一連の処理を施され、これによってディジタル信号である生画像データが得られる。γ補正回路52は、CDS/AGC/AD回路50から出力された生画像データにγ補正処理を施し、カメラ信号処理回路54は、γ補正回路52から出力されたγ補正画像データに白バランス調整,色分離,YUV変換などの処理を施し、YUV形式の画像データを生成する。生成された画像データはメモリコントローラ66によってSDRAM68に書き込まれる。カメラCPU60は、SDRAM68に書き込まれた画像データを読み出し、この画像データに上述で示した文字認識処理を施す。これによって得られた文字コードは、再びメモリコントローラ66によってSDRAM68に書き込まれる。メモリコントローラ66はまた、SDRAM68に書き込まれた文字コードを読み出し、I/F70に向けて出力される。こうして、カメラユニット28で生成された文字コードがメインCPU30に出力される。   The output raw image signal is subjected to a series of processes of noise removal, level adjustment and A / D conversion by the CDS / AGC / AD circuit 50, thereby obtaining raw image data as a digital signal. The γ correction circuit 52 performs γ correction processing on the raw image data output from the CDS / AGC / AD circuit 50, and the camera signal processing circuit 54 adjusts the white balance to the γ correction image data output from the γ correction circuit 52. , Color separation, YUV conversion, and the like are performed to generate YUV format image data. The generated image data is written into the SDRAM 68 by the memory controller 66. The camera CPU 60 reads the image data written in the SDRAM 68 and performs the character recognition process described above on the image data. The character code obtained in this way is written again into the SDRAM 68 by the memory controller 66. The memory controller 66 also reads the character code written in the SDRAM 68 and outputs it to the I / F 70. Thus, the character code generated by the camera unit 28 is output to the main CPU 30.

γ補正回路52は、詳しくは図4に示すように構成される。クランプ回路52aは、CDS/AGC/AD回路50から出力された生画像データにクランプ処理を施し、クランプ処理が施された生画像データをスイッチSW1に向けて出力する。   The γ correction circuit 52 is configured in detail as shown in FIG. The clamp circuit 52a performs clamp processing on the raw image data output from the CDS / AGC / AD circuit 50, and outputs the raw image data subjected to the clamp processing to the switch SW1.

カメラCPU60は、SDRAM68に格納された画像データのコントラストが閾値よりも大きいか否か判別し、この判別結果に従ってγ補正回路52に切り換え命令を発行する。スイッチSW1は、コントラストが閾値よりも大きければ端子T1に接続され、コントラストが閾値以下であれば端子T2に接続される。つまり、スイッチSW1の接続先は画像データのコントラストの大きさに基づいて変更される。これによって、文字認識処理にかかる時間が短縮される。   The camera CPU 60 determines whether or not the contrast of the image data stored in the SDRAM 68 is larger than a threshold value, and issues a switching command to the γ correction circuit 52 according to the determination result. The switch SW1 is connected to the terminal T1 if the contrast is greater than the threshold value, and is connected to the terminal T2 if the contrast is equal to or less than the threshold value. That is, the connection destination of the switch SW1 is changed based on the contrast level of the image data. Thereby, the time required for the character recognition process is shortened.

γ補正回路52に形成された6つのLUT52b〜52gは、2値化処理グループ(GRP1)およびリニア処理グループ(GRP2)の2つのグループに分けられる。GRP1はLUT52b,LUT52cおよびLUT52dによって構成され、GRP2はLUT52e,LUT52fおよびLUT52gによって構成される。   The six LUTs 52b to 52g formed in the γ correction circuit 52 are divided into two groups, a binarization processing group (GRP1) and a linear processing group (GRP2). GRP1 is composed of LUT 52b, LUT 52c and LUT 52d, and GRP2 is composed of LUT 52e, LUT 52f and LUT 52g.

クランプ回路52aから出力された生画像データがLUT52bに与えられると、LUT52bは図5(A)に示すγ曲線に従って補正された生画像データを端子T3に向けて出力する。こうして、強度の2値化処理を施されたγ補正画像データがLUT52bから出力される。   When the raw image data output from the clamp circuit 52a is applied to the LUT 52b, the LUT 52b outputs the raw image data corrected according to the γ curve shown in FIG. 5A toward the terminal T3. In this way, the γ-corrected image data that has been subjected to intensity binarization processing is output from the LUT 52b.

クランプ回路52aから出力された生画像データがLUT52cに与えられると、LUT52cは図5(B)に示すγ曲線に従って補正された生画像データを端子T4に向けて出力する。こうして、中度の2値化処理を施されたγ補正画像データがLUT52cから出力される。   When the raw image data output from the clamp circuit 52a is applied to the LUT 52c, the LUT 52c outputs the raw image data corrected according to the γ curve shown in FIG. 5B toward the terminal T4. In this way, the γ-corrected image data subjected to the medium binarization process is output from the LUT 52c.

クランプ回路52aから出力された生画像データがLUT52dに与えられると、LUT52dは図5(C)に示すγ曲線に従って補正された生画像データを端子T5向けて出力する。こうして、弱度の2値化処理を施されたγ補正画像データがLUT52dから出力される。   When the raw image data output from the clamp circuit 52a is given to the LUT 52d, the LUT 52d outputs the raw image data corrected according to the γ curve shown in FIG. 5C toward the terminal T5. In this way, the γ-corrected image data that has been subjected to the binarization processing of the weakness is output from the LUT 52d.

クランプ回路52aから出力された生画像データがLUT52eに与えられると、LUT52eは図6(A)に示すγ曲線に従って補正された生画像データを端子T6に向けて出力する。こうして、強度のリニア処理を施されたγ補正画像データがLUT52eから出力される。   When the raw image data output from the clamp circuit 52a is applied to the LUT 52e, the LUT 52e outputs the raw image data corrected according to the γ curve shown in FIG. 6A toward the terminal T6. In this way, the γ corrected image data subjected to the intensity linear process is output from the LUT 52e.

クランプ回路52aから出力された生画像データがLUT52fに与えられると、LUT52fは図6(B)に示すγ曲線に従って補正された生画像データを端子T7に向けて出力する。こうして、中度のリニア処理を施されたγ補正画像データがLUT52fから出力される。   When the raw image data output from the clamp circuit 52a is given to the LUT 52f, the LUT 52f outputs the raw image data corrected according to the γ curve shown in FIG. 6B toward the terminal T7. In this way, the γ corrected image data subjected to the medium linear processing is output from the LUT 52f.

クランプ回路52aから出力された生画像データがLUT52fに与えられると、LUT52fは図6(C)に示すγ曲線に従って補正された生画像データを端子T8に向けて出力する。こうして、弱度のリニア処理を施されたγ補正画像データがLUT52gから出力される。   When the raw image data output from the clamp circuit 52a is given to the LUT 52f, the LUT 52f outputs the raw image data corrected according to the γ curve shown in FIG. 6C toward the terminal T8. In this way, the γ-corrected image data subjected to the weak linear processing is output from the LUT 52g.

図4に戻って、カメラCPU60は、スイッチSW2およびSW3を同時に切り換える命令をγ補正回路52に発行し、この切り換え命令に従ってSDRAM68に形成された第1エリア68a,第2エリア68bおよび第3エリア68c(図7参照)への書き込み先切り換え命令をメモリコントローラ66に発行する。   Returning to FIG. 4, the camera CPU 60 issues a command for simultaneously switching the switches SW2 and SW3 to the γ correction circuit 52, and the first area 68a, the second area 68b and the third area 68c formed in the SDRAM 68 according to the switching command. A write destination switching command to (see FIG. 7) is issued to the memory controller 66.

具体的には、スイッチSW2およびSW3は、端子T3およびT6にそれぞれ接続される。コントローラ66は、カメラ信号処理回路54より与えられた画像データを第1エリア68aに書き込み、第1エリア68aに書き込まれた画像データを読み出す。カメラCPU60は、これによって得られた画像データを文字コードに変換する。変換された文字コードは、コントローラ66によって第1エリア68aに書き込まれる。   Specifically, the switches SW2 and SW3 are connected to terminals T3 and T6, respectively. The controller 66 writes the image data given from the camera signal processing circuit 54 in the first area 68a, and reads out the image data written in the first area 68a. The camera CPU 60 converts the image data obtained thereby into a character code. The converted character code is written into the first area 68a by the controller 66.

カメラCPU60から切り換え命令が発行されると、スイッチSW2およびSW3は端子T4およびT7にそれぞれ接続され、コントローラ66はカメラ信号処理回路54より与えられた画像データを第2エリア68bに書き込む。また、カメラCPU60から切り換え命令が発行されると、スイッチSW2およびSW3は端子T5およびT8にそれぞれ接続され、コントローラ66はカメラ信号処理回路54より与えられた画像データを第3エリア68cに書き込む。さらに、カメラCPU60から切り換え命令が発行されると、スイッチSW2およびSW3は端子T3およびT6にそれぞれ接続され、コントローラ66はカメラ信号処理回路54より与えられた画像データを第1エリア68aに書き込む。   When a switching command is issued from the camera CPU 60, the switches SW2 and SW3 are connected to the terminals T4 and T7, respectively, and the controller 66 writes the image data given from the camera signal processing circuit 54 into the second area 68b. When a switching command is issued from the camera CPU 60, the switches SW2 and SW3 are connected to the terminals T5 and T8, respectively, and the controller 66 writes the image data given from the camera signal processing circuit 54 in the third area 68c. Further, when a switching command is issued from the camera CPU 60, the switches SW2 and SW3 are connected to the terminals T3 and T6, respectively, and the controller 66 writes the image data given from the camera signal processing circuit 54 in the first area 68a.

つまり、スイッチSW2およびSW3の接続先は文字コードがSDRAM68に格納される毎に変更され、コントローラ66はγ補正の強度が異なる3つの生画像データをSDRAM68に格納する。   That is, the connection destination of the switches SW2 and SW3 is changed every time the character code is stored in the SDRAM 68, and the controller 66 stores the three raw image data having different γ correction intensities in the SDRAM 68.

この実施例によれば、図8(A)に示すような文字と背景とのコントラストの大きい被写体が撮影されるとき、文字認識処理中の文字が認識結果エリア42cに表示される(図9参照)。文字認識処理が終了すると、第1エリア68a,第2エリア68bおよび第3エリア68cに格納された文字コードに対応する文字が図10(A)に示すようにそれぞれ表示される。   According to this embodiment, when a subject having a large contrast between the character and the background as shown in FIG. 8A is photographed, the character being subjected to the character recognition process is displayed in the recognition result area 42c (see FIG. 9). ). When the character recognition process is completed, the characters corresponding to the character codes stored in the first area 68a, the second area 68b, and the third area 68c are displayed as shown in FIG.

一方、図8(B)に示すような文字と背景とのコントラストの小さい被写体が撮影されるとき、文字認識処理が終了すると、第1エリア68a,第2エリア68bおよび第3エリア68cに格納された文字コードに対応する文字が図10(B)に示すようにそれぞれ表示される。   On the other hand, when a subject having a small contrast between the character and the background is photographed as shown in FIG. 8B, when the character recognition process is completed, the characters are stored in the first area 68a, the second area 68b, and the third area 68c. Characters corresponding to the character codes are displayed as shown in FIG.

文字認識機能が有効化されたとき、カメラCPU60は図11〜図13に示すフロー図に従う処理を実行する。なお、図11〜図13に示すフロー図に対応する制御プログラムはフラッシュメモリ62に記憶される。   When the character recognition function is validated, the camera CPU 60 executes processing according to the flowcharts shown in FIGS. A control program corresponding to the flowcharts shown in FIGS. 11 to 13 is stored in the flash memory 62.

図11を参照して、ステップS1で初期設定を行う。具体的には、スイッチSW1を端子T1に接続させる命令,スイッチSW2を端子T3に接続させる命令およびスイッチSW3を端子T6に接続させる命令をγ補正回路52に発行し、カウント値Nを1に設定する。   Referring to FIG. 11, initial setting is performed in step S1. Specifically, an instruction to connect the switch SW1 to the terminal T1, an instruction to connect the switch SW2 to the terminal T3, and an instruction to connect the switch SW3 to the terminal T6 are issued to the γ correction circuit 52, and the count value N is set to 1. To do.

ステップS3では、認識開始操作が行われるまで待機する。認識開始操作が行われると、ステップS5で選択処理を行う。ステップS7では、垂直同期信号Vsyncが発生するまで待機する。垂直同期信号Vsyncが発生すると、ステップS9で文字認識処理を行う。ステップS11ではγ曲線切換処理を実行し、この処理を終えると、認識終了操作が行われたか否かをステップS13で判断する。判断結果がYESであればステップS15に進み、判断結果がNOであればステップS7に戻る。ステップS15では、SDRAM68に格納された文字コードを認識結果エリア42cに表示すべく一覧表示処理を実行する。ステップS17で操作者による所望の文字が選択されると、選択完了と判断し、ステップS19に進む。ステップS19では、所望の文字に対応する文字コードをフラッシュメモリ42に保存し、この処理を終える。   In step S3, the process waits until a recognition start operation is performed. When a recognition start operation is performed, a selection process is performed in step S5. In step S7, the process waits until the vertical synchronization signal Vsync is generated. When the vertical synchronization signal Vsync is generated, character recognition processing is performed in step S9. In step S11, a γ curve switching process is executed. When this process is completed, it is determined in step S13 whether or not a recognition end operation has been performed. If the determination result is YES, the process proceeds to step S15, and if the determination result is NO, the process returns to step S7. In step S15, a list display process is executed to display the character codes stored in the SDRAM 68 in the recognition result area 42c. When a desired character is selected by the operator in step S17, it is determined that the selection is completed, and the process proceeds to step S19. In step S19, the character code corresponding to the desired character is stored in the flash memory 42, and this process ends.

ステップS5の選択処理について図12を用いて説明する。ステップS21では、SDRAM68に格納された画像データのコントラストが閾値よりも大きいか否か判別する。判別結果がYESであればステップS23に進み、判別結果がNOであればステップS25に進む。ステップS23では、スイッチSW1を端子T1に接続させる命令をγ補正回路52に発行し、上位ルーチンに復帰する。ステップS25では、スイッチSW1を端子T2に接続させる命令をγ補正回路52に発行し、上位ルーチンに復帰する。   The selection process in step S5 will be described with reference to FIG. In step S21, it is determined whether or not the contrast of the image data stored in the SDRAM 68 is greater than a threshold value. If the determination result is YES, the process proceeds to step S23, and if the determination result is NO, the process proceeds to step S25. In step S23, a command for connecting the switch SW1 to the terminal T1 is issued to the γ correction circuit 52, and the process returns to the upper routine. In step S25, a command to connect the switch SW1 to the terminal T2 is issued to the γ correction circuit 52, and the process returns to the upper routine.

ステップS11のγ曲線切換処理について図13を用いて説明する。ステップS31では、カウント値Nをインクリメントさせる。ステップS33では、カウント値Nが3より大きいか否か判断する。判別結果がYESであればステップS35に進み、判別結果がNOであればステップS37に進む。ステップS35では、カウント値Nに1を代入し、ステップS37に進む。ステップS37では、カウント値Nの値に基づいてスイッチSW2およびSW3を切り換える命令をγ補正回路52に発行する。つまり、カウント値Nが1のとき、スイッチSW2およびSW3は端子T3およびT6にそれぞれ接続され、カウント値Nが2のとき、スイッチSW2およびSW3は端子T4およびT7にそれぞれ接続され、そしてカウント値Nが3のとき、スイッチSW2およびSW3は端子T5およびT8に接続される。   The γ curve switching process in step S11 will be described with reference to FIG. In step S31, the count value N is incremented. In step S33, it is determined whether the count value N is greater than 3. If the determination result is YES, the process proceeds to step S35, and if the determination result is NO, the process proceeds to step S37. In step S35, 1 is substituted into the count value N, and the process proceeds to step S37. In step S37, an instruction to switch the switches SW2 and SW3 based on the count value N is issued to the γ correction circuit 52. That is, when the count value N is 1, the switches SW2 and SW3 are connected to the terminals T3 and T6, respectively, and when the count value N is 2, the switches SW2 and SW3 are connected to the terminals T4 and T7, respectively. Is 3, the switches SW2 and SW3 are connected to the terminals T5 and T8.

以上の説明からわかるように、被写界は、イメージセンサ48によって捉えられる。LUT52b〜52gは、イメージセンサ48によって捉えられた被写界像の再現性を互いに異なる態様で補正する6個のγ補正特性を保持する。カメラCPU60は、イメージセンサ48によって捉えられた被写界像のコントラストに基づいて、6個の補正特性の中から3個の補正特性を選択する。   As can be seen from the above description, the object scene is captured by the image sensor 48. The LUTs 52b to 52g hold six γ correction characteristics that correct the reproducibility of the object scene image captured by the image sensor 48 in different modes. The camera CPU 60 selects three correction characteristics from the six correction characteristics based on the contrast of the object scene image captured by the image sensor 48.

文字は、カメラCPU60によって選択された3個のγ補正特性の各々によって補正された再現性を有する被写界像から、カメラCPU60によって認識される。カメラCPU60によって認識された3個の文字は、LCD36に表示される。文字選択操作は、カメラCPU60によって受け付けられる。LCD36に表示された3個の文字のうち文字選択操作に従う1つの文字がフラッシュメモリ42に保存される。   The character is recognized by the camera CPU 60 from the object scene image having reproducibility corrected by each of the three γ correction characteristics selected by the camera CPU 60. Three characters recognized by the camera CPU 60 are displayed on the LCD 36. The character selection operation is accepted by the camera CPU 60. Of the three characters displayed on the LCD 36, one character following the character selection operation is stored in the flash memory 42.

このように、文字認識を施される被写界像の再現性を補正するγ補正特性は、被写界像のコントラストに基づいて選択される。この結果、認識精度が向上する。さらに、選択されるγ補正特性の数は、LUT52a〜52gによって保持されたγ補正特性の数よりも小さい。この結果、的外れな認識処理が排除される。さらに、文字認識のために選択されるγ補正特性の数は2以上であり、認識された2以上の文字のいずれか1つが文字選択操作によって選択される。この結果、いずれの文字を最終的に選択するかが操作者の操作に委ねられる。
これによって、被写界に現れた文字と同じ文字を簡単な処理で作成することができる。
As described above, the γ correction characteristic for correcting the reproducibility of the object scene image subjected to character recognition is selected based on the contrast of the object scene image. As a result, recognition accuracy is improved. Further, the number of γ correction characteristics to be selected is smaller than the number of γ correction characteristics held by the LUTs 52a to 52g. As a result, inappropriate recognition processing is eliminated. Furthermore, the number of γ correction characteristics selected for character recognition is two or more, and any one of the two or more recognized characters is selected by a character selection operation. As a result, it is left to the operator's operation which character is finally selected.
As a result, the same character as that appearing in the object scene can be created by a simple process.

なお、この実施例では、認識処理の対象が文字であるが、これに限らず、数字,符号,アルファベットなどのキャラクタデータも認識することができる。   In this embodiment, the object of the recognition process is a character. However, the present invention is not limited to this, and character data such as numbers, codes, and alphabets can also be recognized.

また、この実施例では、2値化処理グループはLUT52b〜52dによって構成され、リニア処理グループはLUT52e〜52gによって構成されるため、LUT52b〜52gの各々は2値化処理グループおよびリニア処理グループの両方に属しない。しかし、これに限らず、LUT52b〜52gのいずれか一つが2値化処理グループおよびリニア処理グループの両方のグループに属する構成を持つこともの可能である。   In this embodiment, since the binarization processing group is composed of LUTs 52b to 52d and the linear processing group is composed of LUTs 52e to 52g, each of the LUTs 52b to 52g is both a binarization processing group and a linear processing group. Does not belong to. However, the present invention is not limited to this, and any one of the LUTs 52b to 52g may have a configuration belonging to both the binarization processing group and the linear processing group.

この発明の一実施例の構成を示すブロック図である。It is a block diagram which shows the structure of one Example of this invention. LCD36の構成の一例を示す図解図である。4 is an illustrative view showing one example of a configuration of an LCD 36. FIG. 図1実施例に適用されるカメラユニット28の構成を示すブロック図である。It is a block diagram which shows the structure of the camera unit 28 applied to the FIG. 1 Example. 図3実施例に適用されるγ補正回路52の構成を示すブロック図である。FIG. 4 is a block diagram showing a configuration of a γ correction circuit 52 applied to the embodiment in FIG. 3. (A)はLUT52bの入出力態様を示す図解図であり、(B)はLUT52cの入出力態様を示す図解図であり、(C)はLUT52dの入出力態様を示す図解図である。(A) is an illustrative view showing an input / output mode of the LUT 52b, (B) is an illustrative view showing an input / output mode of the LUT 52c, and (C) is an illustrative view showing an input / output mode of the LUT 52d. (A)はLUT52eの入出力態様を示す図解図であり、(B)はLUT52fの入出力態様を示す図解図であり、(C)はLUT52gの入出力態様を示す図解図である。(A) is an illustrative view showing an input / output aspect of the LUT 52e, (B) is an illustrative view showing an input / output aspect of the LUT 52f, and (C) is an illustrative view showing an input / output aspect of the LUT 52g. 図3実施例に適用されるSDRAM68のマッピングの一例を示す図解図である。FIG. 4 is an illustrative view showing one example of mapping of SDRAM 68 applied to the embodiment in FIG. 3; (A)はプレビューエリア42bの表示態様の一例を示す図解図であり、(B)はプレビューエリア42bの表示態様の他の一例を示す図解図である。(A) is an illustration figure which shows an example of the display mode of the preview area 42b, (B) is an illustration figure which shows another example of the display mode of the preview area 42b. 図1実施例に適用されるプリビューエリア42cの表示態様の一例を示す図解図である。It is an illustration figure which shows an example of the display mode of the preview area 42c applied to the FIG. 1 Example. (A)はプレビューエリア42cの表示態様の他の一例を示す図解図であり、(B)はプレビューエリア42cの表示態様のその他の一例を示す図解図である。(A) is an illustration figure which shows another example of the display mode of the preview area 42c, (B) is an illustration figure which shows another example of the display mode of the preview area 42c. 図1実施例に適用されるカメラCPU60の動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of camera CPU60 applied to the FIG. 1 Example. 図1実施例に適用されるカメラCPU60の動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of camera CPU60 applied to the FIG. 1 Example. 図1実施例に適用されるカメラCPU60の動作のその他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of camera CPU60 applied to the FIG. 1 Example.

符号の説明Explanation of symbols

10 … 携帯通話装置
12 … アンテナ
26 … 操作キー
28 … カメラユニット
30 … メインCPU
36 … LCD
48 … イメージセンサ
52 … γ補正回路
52a … クランプ回路
52b〜52g … LUT
60 … カメラCPU
68 … SDRAM
48 … USBコントローラ
50 … USB端子
52 … PC
DESCRIPTION OF SYMBOLS 10 ... Mobile telephone apparatus 12 ... Antenna 26 ... Operation key 28 ... Camera unit 30 ... Main CPU
36 ... LCD
48 ... Image sensor 52 ... Gamma correction circuit 52a ... Clamp circuit 52b-52g ... LUT
60 ... Camera CPU
68 ... SDRAM
48 ... USB controller 50 ... USB terminal 52 ... PC

Claims (5)

被写界を捉える撮像手段、
前記撮像手段によって捉えられた被写界像の再現性を互いに異なる態様で補正するM個(M:3以上の整数)の補正特性を保持する保持手段、
前記撮像手段によって捉えられた被写界像のコントラストに基づいて前記M個の補正特性の中からN個(N:2以上M個未満の整数)の補正特性を選択する選択手段、
前記選択手段によって選択されたN個の補正特性の各々によって補正された再現性を有する被写界像から文字を認識する認識手段、
前記認識手段によって認識されたN個の文字を表示する表示手段、
前記表示手段の表示処理に関連して文字選択操作を受け付ける受付手段、および
前記表示手段によって表示されたN個の文字のうち前記文字選択操作に従う1つの文字を保存する保存手段を備える、文字処理装置。
Imaging means for capturing the object scene,
Holding means for holding M (M: integer greater than or equal to 3) correction characteristics for correcting the reproducibility of the object scene image captured by the imaging means in different manners;
Selection means for selecting N (N: an integer less than or equal to 2 and less than M) correction characteristics from the M correction characteristics based on the contrast of the object scene image captured by the imaging means;
Recognizing means for recognizing characters from an object scene image having reproducibility corrected by each of the N correction characteristics selected by the selecting means;
Display means for displaying N characters recognized by the recognition means;
Character processing comprising: a receiving unit that receives a character selection operation related to the display process of the display unit; and a storage unit that stores one character according to the character selection operation among N characters displayed by the display unit apparatus.
前記保持手段は各々が前記N個の補正特性を有するように前記M個の補正特性を複数のグループに分割し、
前記選択手段は前記複数のグループのいずれか1つから前記N個の補正特徴を選択する、請求項1記載の文字処理装置。
The holding means divides the M correction characteristics into a plurality of groups so that each has the N correction characteristics,
The character processing apparatus according to claim 1, wherein the selection unit selects the N correction features from any one of the plurality of groups.
前記選択手段は文字認識操作に応答して選択処理を実行する、請求項1または2記載の文字処理装置。   The character processing apparatus according to claim 1, wherein the selection unit executes a selection process in response to a character recognition operation. 請求項1ないし3のいずれかに記載の文字処理装置を備える、携帯端末。   A portable terminal comprising the character processing device according to claim 1. 被写界を捉える撮像手段、および前記撮像手段によって捉えられた被写界像の再現性を互いに異なる態様で補正するM個(M:3以上の整数)の補正特性を保持する保持手段を備える文字処理装置のプロセサに、
前記撮像手段によって捉えられた被写界像のコントラストに基づいて前記M個の補正特性の中からN個(N:2以上M個未満の整数)の補正特性を選択する選択ステップ、
前記選択手段によって選択されたN個の補正特性の各々によって補正された再現性を有する被写界像から文字を認識する認識ステップ、
前記認識手段によって認識されたN個の文字を表示する表示ステップ、
前記表示手段の表示処理に関連して文字選択操作を受け付ける受付ステップ、および
前記表示手段によって表示されたN個の文字のうち前記文字選択操作に従う1つの文字を保存する保存ステップを実行させる、文字処理プログラム。
Imaging means for capturing an object scene, and holding means for retaining M (M: an integer of 3 or more) correction characteristics for correcting the reproducibility of the object scene image captured by the image capturing means in different modes. In the processor of the character processor
A selection step of selecting N (N: integer from 2 to less than M) correction characteristics from the M correction characteristics based on the contrast of the object scene image captured by the imaging means;
A recognition step for recognizing characters from a scene image having reproducibility corrected by each of the N correction characteristics selected by the selection means;
A display step of displaying N characters recognized by the recognition means;
A character receiving step for receiving a character selection operation in relation to the display process of the display means, and a storage step for storing one character according to the character selection operation among the N characters displayed by the display means. Processing program.
JP2005192472A 2005-06-30 2005-06-30 Character processor Pending JP2007011738A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005192472A JP2007011738A (en) 2005-06-30 2005-06-30 Character processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005192472A JP2007011738A (en) 2005-06-30 2005-06-30 Character processor

Publications (1)

Publication Number Publication Date
JP2007011738A true JP2007011738A (en) 2007-01-18

Family

ID=37750140

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005192472A Pending JP2007011738A (en) 2005-06-30 2005-06-30 Character processor

Country Status (1)

Country Link
JP (1) JP2007011738A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009124439A (en) * 2007-11-14 2009-06-04 Canon Inc Image pickup apparatus, method and program for controlling the same
JP2012080588A (en) * 2012-01-10 2012-04-19 Canon Inc Imaging device and control method of the same

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01147784A (en) * 1987-12-04 1989-06-09 Oki Electric Ind Co Ltd Character recognizing device
JPH06292007A (en) * 1993-03-31 1994-10-18 Minolta Camera Co Ltd Picture processing unit and picture reader
JPH08255224A (en) * 1995-03-17 1996-10-01 Ricoh Co Ltd Digital copy machine
JP2001203934A (en) * 2000-01-24 2001-07-27 Ricoh Co Ltd Digital camera
JP2003289467A (en) * 2002-03-27 2003-10-10 Casio Comput Co Ltd Imaging apparatus and automatic focusing method therefor
JP2004355518A (en) * 2003-05-30 2004-12-16 Sharp Corp Mobile communication device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01147784A (en) * 1987-12-04 1989-06-09 Oki Electric Ind Co Ltd Character recognizing device
JPH06292007A (en) * 1993-03-31 1994-10-18 Minolta Camera Co Ltd Picture processing unit and picture reader
JPH08255224A (en) * 1995-03-17 1996-10-01 Ricoh Co Ltd Digital copy machine
JP2001203934A (en) * 2000-01-24 2001-07-27 Ricoh Co Ltd Digital camera
JP2003289467A (en) * 2002-03-27 2003-10-10 Casio Comput Co Ltd Imaging apparatus and automatic focusing method therefor
JP2004355518A (en) * 2003-05-30 2004-12-16 Sharp Corp Mobile communication device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009124439A (en) * 2007-11-14 2009-06-04 Canon Inc Image pickup apparatus, method and program for controlling the same
JP2012080588A (en) * 2012-01-10 2012-04-19 Canon Inc Imaging device and control method of the same

Similar Documents

Publication Publication Date Title
KR100627018B1 (en) On screen display control image display apparatus, image display method and computer readble media recording program
US7777785B2 (en) Image pickup device, picked-up image processing method, and computer-readable recording medium for performing a correction process on a picked-up image
JP4337879B2 (en) Multi-colored two-dimensional barcode and video display device, information terminal device, display method, decoding method, information communication system, and information communication method
JP5683745B2 (en) Image display apparatus and method
US8050710B2 (en) Image transmission apparatus, image transmission method and image transmission program product
JP4251650B2 (en) Image processing apparatus and program
US9426270B2 (en) Control apparatus and control method to control volume of sound
JP4662874B2 (en) Image processing apparatus and program
US20060082661A1 (en) Method of controlling digital photographing apparatus for classification reproduction and digital photographing apparatus using the method
JP2007174229A (en) Color video image display device
US20120188440A1 (en) Camera device, mobile terminal and ae controlling method
US20060028575A1 (en) Automatic focusing method and digital photographing apparatus using the same
US7456893B2 (en) Method of controlling digital image processing apparatus for efficient reproduction and digital image processing apparatus using the method
JP2007011738A (en) Character processor
US8417281B2 (en) Communication terminal with camera
KR101889702B1 (en) Method for correcting user’s hand tremor, machine-readable storage medium and imaging device
US20050174447A1 (en) Method of controlling digital photographing apparatus and digital photographing apparatus using the same
KR20070009237A (en) Method for comparing motion
US20060152613A1 (en) Method and apparatus for displaying digital images
KR100663580B1 (en) Method for image display of mobile with digital camera
KR100547706B1 (en) How to register wallpaper on TV
JP2012119798A (en) Image generation method, image generation device and program
KR100800896B1 (en) Apparatus and method message transmission in mobile telephone
JP2011197995A (en) Image processor and image processing method
JP2006330090A (en) Electronic apparatus, image display device, and electronic apparatus operation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080619

A625 Written request for application examination (by other person)

Free format text: JAPANESE INTERMEDIATE CODE: A625

Effective date: 20080619

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20090925

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110627

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111206