JP2012075044A - Device, method and program for image processing - Google Patents

Device, method and program for image processing Download PDF

Info

Publication number
JP2012075044A
JP2012075044A JP2010219989A JP2010219989A JP2012075044A JP 2012075044 A JP2012075044 A JP 2012075044A JP 2010219989 A JP2010219989 A JP 2010219989A JP 2010219989 A JP2010219989 A JP 2010219989A JP 2012075044 A JP2012075044 A JP 2012075044A
Authority
JP
Japan
Prior art keywords
character
image
area
region
recognition accuracy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010219989A
Other languages
Japanese (ja)
Other versions
JP5216828B2 (en
Inventor
Yoshiaki Mizuoka
良彰 水岡
Masaru Suzuki
優 鈴木
Shinichiro Hamada
伸一郎 浜田
Toshihiro Yamazaki
智弘 山崎
Noriko Yamanaka
紀子 山中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2010219989A priority Critical patent/JP5216828B2/en
Publication of JP2012075044A publication Critical patent/JP2012075044A/en
Application granted granted Critical
Publication of JP5216828B2 publication Critical patent/JP5216828B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device for processing the part in which a user is interested out of an image including characters.SOLUTION: An image processing device in an embodiment includes a capture part for capturing the image of a subject, a detection part for detecting the character region of the image, an estimation part for estimating the character recognition accuracy for the character region and a display part for superimposing and displaying incomplete region information on the image according to the character recognition accuracy of the character region.

Description

本発明の実施形態は、文字を含む画像、例えば雑誌や吊り広告などの撮影画像をカメラなどの画像取込装置でメモとして取り込むための画像処理装置に関する。   Embodiments described herein relate generally to an image processing apparatus for capturing an image including characters, for example, a captured image such as a magazine or a hanging advertisement as a memo with an image capturing apparatus such as a camera.

近年、デジタルカメラやカメラ機能付き携帯電話の性能向上、小型化、普及により手軽に撮影が可能となり、文書などの文字を含む被写体を簡単なメモとして撮影が行われている。このような撮影画像(すなわち、ビットマップ画像)が多く撮影され蓄積されてくると所望のビットマップ画像の取り出しが大変になることから、予めビットマップ画像に含まれる文字画像の文字認識を行い、この文字認識結果を検索に利用することがなされている。   2. Description of the Related Art In recent years, digital cameras and mobile phones with camera functions have been improved in performance, miniaturized, and popularized, so that it has become easy to shoot, and subjects including characters such as documents have been taken as simple memos. When many such photographed images (that is, bitmap images) are photographed and accumulated, it becomes difficult to extract a desired bitmap image. Therefore, character recognition of a character image included in the bitmap image is performed in advance, This character recognition result is used for search.

そして、文字画像から文字列データを認識し、文字画像のサイズや文字色などの表示様態を用いて算出された文字列データの重要度を利用して検索精度を向上する、といったことが行われている。   Then, the character string data is recognized from the character image, and the search accuracy is improved by using the importance of the character string data calculated using the display mode such as the character image size and character color. ing.

一般に、ビットマップ画像に含まれる文字全てが検索に必要ではなく、ユーザが撮影する際に注目した箇所が重要である。ユーザが撮影する際に注目していない箇所に含まれる文字が検索に用いられることはユーザの意図に反していると考えられる。すなわち、ある検索クエリ文字列が与えられた際には、当該クエリ文字列が撮影時に注目した箇所に存在する画像が検索結果上位に出力されることが望ましいと考えられる。   In general, not all characters included in a bitmap image are necessary for a search, and a portion that is noticed when a user takes a picture is important. It is considered that it is contrary to the user's intention that the characters included in the part not focused on when the user takes a picture are used for the search. That is, when a certain search query character string is given, it is desirable that an image that exists in a location where the query character string is noticed at the time of photographing is output to the top of the search result.

しかし、上記重要度を用いた場合、撮影者によって注目する箇所は必ずしも視覚的印象が強い箇所ではない。例えば新聞には複数の記事があり、各記事の文字画像の表示様態には大きな差が無いことが多いが、ユーザは載っている記事のうちの一部のみを注目していることが多く、このような場合に対応できない。   However, in the case where the importance is used, the portion noticed by the photographer is not necessarily a portion having a strong visual impression. For example, there are multiple articles in newspapers, and there is often no big difference in the display mode of character images of each article, but users often pay attention to only a part of the articles that are included, It cannot cope with such a case.

特開2007−058819号公報JP 2007-058819 A

文字を含む画像から、ユーザが注目する箇所を処理する画像処理装置を提供する。   Provided is an image processing apparatus that processes a portion of interest from an image including characters.

実施形態の画像処理装置は、被写体の画像を取り込む取込部と、前記画像の文字領域を検出する検出部と、前記文字領域について文字認識精度を推定する推定部と、前記文字領域の前記文字認識精度に応じて前記画像に重畳表示する表示部を持つ。   An image processing apparatus according to an embodiment includes a capturing unit that captures an image of a subject, a detection unit that detects a character region of the image, an estimation unit that estimates character recognition accuracy for the character region, and the characters in the character region A display unit that superimposes and displays on the image according to recognition accuracy is provided.

本実施形態に係る画像撮影装置の概略構成図。1 is a schematic configuration diagram of an image capturing device according to an embodiment. 本実施形態に係る画像撮影全体のフローチャート。The flowchart of the whole image imaging | photography concerning this embodiment. 本実施形態に係るビットマップ画像の文字領域のレイアウト解析結果の一例を示す図。The figure which shows an example of the layout analysis result of the character area of the bitmap image which concerns on this embodiment. 本実施形態に係るビットマップ画像の文字領域のレイアウト解析結果の一例を示す図。The figure which shows an example of the layout analysis result of the character area of the bitmap image which concerns on this embodiment. 図3のレイアウト解析結果の場合の文字領域情報の表現例を示す図。The figure which shows the example of expression of the character area information in the case of the layout analysis result of FIG. 文字認識精度推定部130のフローチャート。The flowchart of the character recognition precision estimation part 130. FIG. 文字認識精度情報の表現形式の一例を示す図。The figure which shows an example of the expression format of character recognition accuracy information. 文字領域が切れてしまっている不完全領域の一例を示す図。The figure which shows an example of the incomplete area | region where the character area has been cut | disconnected. 不完全領域推定部140のフローチャート。The flowchart of the incomplete area | region estimation part 140. FIG. 重畳表示部150の表示画面右下にある不完全領域の一例を示す図。The figure which shows an example of the incomplete area | region in the lower right of the display screen of the superimposition display part. 不完全領域情報の表現形式の一例を示す図。The figure which shows an example of the expression format of imperfect area information. 取込画像上に認識精度の推定結果を重畳表示した第1の例を示す図。The figure which shows the 1st example which superimposed and displayed the estimation result of recognition accuracy on the capture image. 図12の各領域についての文字認識精度情報を示す図。The figure which shows the character recognition accuracy information about each area | region of FIG. 取込画像上に認識精度の推定結果を重畳表示した第2の例を示す図。The figure which shows the 2nd example which superimposed and displayed the estimation result of recognition accuracy on the capture image. 不完全領域情報の一例を示す図。The figure which shows an example of incomplete area | region information. レイアウト指定部160による領域指定のフローチャート。10 is a flowchart of area designation by the layout designation unit 160. レイアウト指定部160の選択領域追加モードでの表示画面の一例を示す図。The figure which shows an example of the display screen in the selection area | region addition mode of the layout designation | designated part 160. FIG. レイアウト指定部160の新規領域追加モードでの表示画面の一例を示す図。The figure which shows an example of the display screen in the new area addition mode of the layout designation | designated part 160. FIG. 撮影時の重畳表示部150の画面状態の例を示す図。The figure which shows the example of the screen state of the superimposition display part 150 at the time of imaging | photography. 撮影時の重畳表示部150の画面状態の例を示す図。The figure which shows the example of the screen state of the superimposition display part 150 at the time of imaging | photography.

以下、本発明の実施の形態について図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本実施形態に係る画像撮影装置100の概略構成図である。画像撮影装置100は、被写体のビットマップ画像を取り込む画像取込部110と、取り込んだビットマップ画像の文字領域を検出するレイアウト検出部120と、検出された各文字領域について被写体のビットマップ画像に含まれる文字の文字認識精度を推定する文字認識精度推定部130と、検出された各文字領域について、文字領域全体が画像取込部110の取り込み可能範囲内に収まっていない不完全領域であるか否かを推定する不完全領域推定部140と、文字認識精度推定部130から得られた各文字領域についての文字認識精度情報および不完全領域推定部140から得られた不完全領域情報を、被写体のビットマップ画像に重畳して表示する重畳表示部150と、レイアウト検出部120で検出された各文字領域を表示し、指定領域を選択できるUI(ユーザーインターフェース)を持つレイアウト指定部160と、文字認識精度推定部130から得られた文字認識精度とレイアウト指定部160で選択された指定領域を入力として、この入力に応じて、例えば文字認識精度の推定値が所定のしきい値を超えたら、シャッターを切るためのシャッター信号を出力する撮影判断部170と、シャッター信号に応じてシャッターを切るシャッター部180と、文字認識精度推定部130から得られた文字認識精度情報および不完全領域推定部140から得られた不完全領域情報を入力とし、検索インデクスの重み付けを決定するインデクス重み付け部190と、検索インデクスと被写体のビットマップ画像を保存する画像DB(データベース)200を備える。   FIG. 1 is a schematic configuration diagram of an image capturing apparatus 100 according to the present embodiment. The image capturing apparatus 100 includes an image capturing unit 110 that captures a bitmap image of a subject, a layout detection unit 120 that detects a character region of the captured bitmap image, and a bitmap image of the subject for each detected character region. The character recognition accuracy estimation unit 130 that estimates the character recognition accuracy of the included characters, and whether each detected character region is an incomplete region that does not fall within the capture range of the image capture unit 110 The incomplete area estimation unit 140 for estimating whether or not the character recognition accuracy information for each character area obtained from the character recognition accuracy estimation unit 130 and the incomplete area information obtained from the incomplete area estimation unit 140 A superimposed display unit 150 that superimposes and displays on the bitmap image, and each character area detected by the layout detection unit 120, A layout designation unit 160 having a UI (user interface) capable of selecting a fixed area, a character recognition accuracy obtained from the character recognition accuracy estimation unit 130, and a designation area selected by the layout designation unit 160 are input, and in response to this input For example, when the estimated value of the character recognition accuracy exceeds a predetermined threshold value, the photographing determination unit 170 that outputs a shutter signal for releasing the shutter, the shutter unit 180 that releases the shutter according to the shutter signal, and the character recognition An index weighting unit 190 that determines the weighting of the search index by using the character recognition accuracy information obtained from the accuracy estimation unit 130 and the incomplete region information obtained from the incomplete region estimation unit 140 as inputs, and the search index and subject bit An image DB (database) 200 for storing map images is provided.

図2は本実施形態に係る画像撮影全体のフローチャートである。本図に示す通り、画像取り込みから撮影の分岐まで繰り返し処理(S210〜S280)を行っており、レイアウト検出部120による文字領域情報や、文字認識精度推定部130による文字認識精度情報、不完全領域推定部140による不完全領域情報をその都度出力し、処理に用いる。   FIG. 2 is a flowchart of the entire image shooting according to this embodiment. As shown in the figure, iterative processing (S210 to S280) is performed from image capture to shooting branch, character area information by the layout detection unit 120, character recognition accuracy information by the character recognition accuracy estimation unit 130, and incomplete region. The incomplete area information by the estimation unit 140 is output each time and used for processing.

本実施形態では、繰り返し処理から始まる。この繰り返し処理の部分では、まず画像取込部110により画像を取り込み(S210)、レイアウト検出部120により取込画像の文字領域の推定を行なって文字領域情報を出力する(S220)。次に文字領域内情報抽出処理を行う(S230)。その中には文字認識精度推定部130によって推定した文字認識精度情報の出力と、不完全領域推定部140によって推定した不完全領域情報を出力する。次に、文字領域情報と文字認識精度情報と不完全領域情報を入力として、重畳表示部150により文字認識精度および不完全領域であるか否かを重畳表示する(S240)。次にレイアウト指定部160により指定領域を受け取り(S250)、文字認識精度情報と不完全領域情報と指定領域を入力として、撮影判断部170により自動撮影するか判断する(S260)。自動撮影するかの判断により自動撮影される場合には繰り返し処理の部分を抜ける。またユーザによる撮影操作があった場合にも繰り返し処理の部分を抜ける(S270のYes)。繰り返し処理を抜けた後は、文字認識精度情報と不完全領域情報を入力として、インデクス重み付け部190により検索インデクスが生成され(S290)、取込画像と検索インデクスが画像DBに保存する(S300)。   In this embodiment, the process starts from an iterative process. In this repetitive processing part, first, the image capturing unit 110 captures an image (S210), the layout detecting unit 120 estimates the character region of the captured image, and outputs character region information (S220). Next, in-character area information extraction processing is performed (S230). Among them, the output of the character recognition accuracy information estimated by the character recognition accuracy estimation unit 130 and the incomplete region information estimated by the incomplete region estimation unit 140 are output. Next, the character area information, the character recognition accuracy information, and the incomplete area information are input, and the superimposed display unit 150 displays the character recognition accuracy and whether or not the area is incomplete (S240). Next, the designated area is received by the layout designating section 160 (S250), and the character recognition accuracy information, the incomplete area information, and the designated area are input, and the photographing determining section 170 determines whether to perform automatic photographing (S260). If automatic shooting is performed depending on whether or not automatic shooting is to be performed, the repetitive process is skipped. Also, when there is a photographing operation by the user, the part of the repetitive processing is exited (Yes in S270). After exiting the iterative process, the character recognition accuracy information and the incomplete area information are input, and the index weighting unit 190 generates a search index (S290), and the captured image and the search index are stored in the image DB (S300). .

以下では、各機能ブロックについて詳細説明をする。   Hereinafter, each functional block will be described in detail.

画像取込部110は被写体のビットマップ画像を取り込む機能を持つ。この段階で被写体には限定は無く、どのような画像でも取り込むことが可能である。本実施形態ではデジタルカメラのようにレンズを通してデジタルデータとして画像を取り込むことを想定しているが、必ずしもそのように限定されるものではない。例えば、動画の各フレームから画像を取り込んでも良いし、画像取込部110に接続された表示内容を操作可能な表示装置に表示されている画像の一部または全体をキャプチャして取り込んでも良い。   The image capturing unit 110 has a function of capturing a bitmap image of a subject. At this stage, the subject is not limited, and any image can be captured. In the present embodiment, it is assumed that an image is captured as digital data through a lens like a digital camera, but the present invention is not necessarily limited thereto. For example, an image may be captured from each frame of a moving image, or a part or the whole of an image displayed on a display device that can operate display content connected to the image capturing unit 110 may be captured and captured.

レイアウト検出部120は、画像取込部110が取り込んだビットマップ画像中に存在する文字領域を解析して取得する。図3は、本実施形態に係るビットマップ画像の文字領域のレイアウト解析結果の一例である。この例では、同程度の文字サイズで同フォントである文字のまとまりを矩形(領域1〜領域6)で取得している。なお、レイアウト解析結果は必ずしもこのように限定されるものではなく、例えば図4のように、文字が含まれる記事の領域単位で取得しても良い。この例では、同程度のサイズで同じデザインでまとまりとなっている領域を矩形で取得している。また、画像取込部110では取込画像に限定は無いため、文字画像が含まれない画像も入力されるが、このような画像が入力された場合、文字領域は一つも無いと出力される。   The layout detection unit 120 analyzes and acquires a character region existing in the bitmap image captured by the image capture unit 110. FIG. 3 is an example of the layout analysis result of the character area of the bitmap image according to the present embodiment. In this example, a group of characters having the same character size and the same font is acquired as a rectangle (region 1 to region 6). Note that the layout analysis result is not necessarily limited in this way, and may be acquired in units of areas of articles including characters, for example, as shown in FIG. In this example, a region having the same size and the same design is obtained as a rectangle. In addition, since there is no limitation on the captured image in the image capturing unit 110, an image that does not include a character image is also input. However, when such an image is input, it is output that there is no character area. .

図5は、図3のレイアウト解析結果の場合の文字領域情報の表現例である。この例では、多角形の各頂点を左回りに並べて保持している。このように多角形の各頂点で表現することで、四角形に限らず複雑な形状の領域に対応が可能である。   FIG. 5 is a representation example of character area information in the case of the layout analysis result of FIG. In this example, the vertices of the polygon are held side by side in the counterclockwise direction. In this way, by expressing each vertex of the polygon, it is possible to deal with an area having a complicated shape as well as a quadrangle.

文字認識精度推定部130は、レイアウト検出部120で得られた各文字領域内の文字画像について文字認識(OCR)を行った際の認識精度の予測値を算出する。当該予測値の算出例としては、既存のOCRが出力する各文字の認識結果の確度値の、平均や最低値などから算出する方法がある。当該装置内部では、実際にOCRを行っても良いが、ハードウェア資源の限定された環境に装置が搭載される場合にはOCRの実行が厳しいことも考えられる。この場合には、OCRを行った際の文字認識精度の予測値のみを算出しても構わない。   The character recognition accuracy estimation unit 130 calculates a predicted value of recognition accuracy when character recognition (OCR) is performed on the character image in each character region obtained by the layout detection unit 120. As an example of calculating the predicted value, there is a method of calculating from the average or minimum value of the accuracy value of the recognition result of each character output by the existing OCR. Although the OCR may actually be performed inside the device, it may be difficult to execute the OCR when the device is mounted in an environment where hardware resources are limited. In this case, only the predicted value of the character recognition accuracy when performing OCR may be calculated.

図6はOCRを行わずに文字認識精度を予測するフローチャートの例である。この例では、文字画像に文字認識精度を低減させる要因である、歪みやたわみ、照り返し、撮影時のボケやブレが存在する場合に所定の定数だけ精度予測値を下げ(S630〜S680)、最終的な精度予測値を算出する(S690)。   FIG. 6 is an example of a flowchart for predicting character recognition accuracy without performing OCR. In this example, the accuracy prediction value is lowered by a predetermined constant when there is distortion, deflection, reflection, blurring or blurring at the time of photographing, which are factors that reduce character recognition accuracy in the character image (S630 to S680), and finally A predicted accuracy value is calculated (S690).

図7は出力される文字認識精度情報の表現形式の例である。OCRを行わずに文字認識精度を予測する場合には、同図のように簡単な形式で構わない。   FIG. 7 shows an example of the expression format of the output character recognition accuracy information. When predicting character recognition accuracy without performing OCR, a simple format as shown in FIG.

このように、撮影前のプレビュー時に文字認識精度を予測し、プレビュー画面にフィードバック情報として重畳する。例えば、文字認識精度の予測値が所定のしきい値以下である場合はその領域に網掛け処理等をすることによって、文字認識精度の予測値が低いことをユーザに表示する。   In this way, the character recognition accuracy is predicted at the time of preview before photographing, and is superimposed as feedback information on the preview screen. For example, when the predicted value of the character recognition accuracy is equal to or lower than a predetermined threshold, the user is notified that the predicted value of the character recognition accuracy is low by performing a shading process or the like on the area.

不完全領域推定部140は、レイアウト検出部120で得られた各文字領域について、図8のように、文字領域それぞれについて、文字領域全体が取り込み可能範囲内に収まっていない不完全領域であるかを推定し、推定結果を出力する。   As shown in FIG. 8, the incomplete area estimation unit 140 determines whether each character area obtained by the layout detection unit 120 is an incomplete area in which the entire character area does not fall within the capture range. And output the estimation result.

不完全領域であるかどうかを推定する方法はいくつか考えられる。例えば撮影可能範囲の端付近に未知語が多く存在する場合に不完全領域とすることで、不完全領域であるかどうかを推定することができる。未知語であるか判別するには、既知語リストを予め与えておき、リストに語が存在するか調べる方法がある。あるいは形態素解析処理を行なって調べる方法がある。   There are several possible methods for estimating whether or not the region is an incomplete region. For example, when there are many unknown words near the end of the imageable range, it is possible to estimate whether the area is an incomplete area by setting the incomplete area. In order to determine whether the word is an unknown word, there is a method in which a known word list is given in advance and whether or not a word exists in the list is checked. Alternatively, there is a method of examining by performing morphological analysis processing.

図9は形態素解析処理を行なって調べるフローチャートの一例である。まず文字領域の画像を取得し(S910)、取得した文字画像についてOCRを行い(S920)、OCRによって得られた認識結果に対して形態素解析を行い(S930)、撮影可能範囲枠に接した行折り返し箇所の前後あるいは折り返し箇所をまたがって存在する形態素を取得する(S940)。まず前述の行折り返し箇所の形態素の数n_allを取得し(S950)、さらにその中で未知語である形態素の数n_unkを取得する(S960)。n_unk / n_all が所定の閾値tより大きい場合に(S970のYes)不完全領域と判定し(S980)、所定の閾値t以下である場合に完全領域と判定する(S990)。   FIG. 9 is an example of a flowchart for checking by performing a morphological analysis process. First, an image of the character area is acquired (S910), OCR is performed on the acquired character image (S920), morphological analysis is performed on the recognition result obtained by OCR (S930), and the line in contact with the imageable range frame. A morpheme existing before and after the folded portion or across the folded portion is acquired (S940). First, the number n_all of morphemes at the above-described line wrapping location is acquired (S950), and the number of morphemes n_unk that is an unknown word is acquired (S960). When n_unk / n_all is larger than the predetermined threshold t (Yes in S970), it is determined as an incomplete region (S980), and when it is equal to or smaller than the predetermined threshold t, it is determined as a complete region (S990).

図10は、文字領域の右枠が領域全体から切れている不完全領域を含むビットマップ画像の一部の例である。形態素解析の結果、この図で指し示す「DVり」、「ブルーコーダー」、「い」、「搭レイディスク」、「可ザリンク」、「ブルーレイディスクレ」といった各形態素が撮影可能領域の端で得られるが、これらは未知語である。同図で文章は12行存在するが、そのうちの6行の折り返し箇所に未知語が存在することから、撮影可能範囲枠に接している箇所に未知語が存在する割合は0.5と求まる。この値を所定の閾値と比較し、閾値以上の時に不完全領域と判別する。   FIG. 10 is an example of a part of a bitmap image including an incomplete region in which the right frame of the character region is cut from the entire region. As a result of the morphological analysis, each morpheme such as “DV-R”, “Blue Coder”, “I”, “Building Ray Disc”, “Zalink”, “Blu-ray Disc” indicated in this figure is obtained at the end of the recordable area. These are unknown words. In the same figure, there are 12 lines of text, but since there are unknown words in the folded part of 6 lines, the ratio of the unknown word existing in the part in contact with the shootable range frame is 0.5. This value is compared with a predetermined threshold value, and when it is equal to or greater than the threshold value, it is determined as an incomplete region.

不完全領域であるかどうかを推定する別の方法として、特にハードウェア環境などの制約によりOCRが実行できない場合には、簡易的に、単に文字領域が撮影可能範囲枠に接している場合を、不完全領域としてもよい。   As another method to estimate whether the area is incomplete, especially when OCR cannot be performed due to restrictions such as hardware environment, simply, if the character area is in contact with the shootable range frame, It may be an incomplete area.

図11は不完全領域情報の表現形式の例である。同図の通り本実施形態では各領域について不完全領域であるか否かを2値で表現している。   FIG. 11 shows an example of an expression format of incomplete area information. As shown in the figure, in the present embodiment, whether each area is an incomplete area is expressed in binary.

シャッター部180は、撮影実行の指示を入力とし、撮影を実行する。本実施形態ではデジタルカメラのように撮影の瞬間を指示することを想定しているが、必ずしもこのような構成に限定されるものではない。例えば動画からあるフレームを取り込む場合には、取り込むフレームの指示を入力とし、取り込みを実行する。   The shutter unit 180 receives a shooting execution instruction as input and executes shooting. In the present embodiment, it is assumed that the moment of shooting is instructed as in a digital camera, but the present invention is not necessarily limited to such a configuration. For example, when capturing a certain frame from a moving image, an instruction for the frame to be captured is input and the capture is executed.

重畳表示部150は、レイアウト情報、文字認識精度情報、不完全領域情報を受け取り、レイアウト情報に従い文字領域を囲う枠線を取込画像上に重畳表示し、さらに文字認識精度の低い部分および不完全領域を暗く表示する。文字認識精度が所定の閾値以下である場合に暗く表示すれば良い。部分の輝度を何%下げるかは、予め指定しても良いし、ユーザに設定させても良い。あるいは、文字認識精度推定部130から受け取った文字認識精度情報にある、文字認識精度の予測値に正比例するよう決定しても良い。   The superimposed display unit 150 receives layout information, character recognition accuracy information, and incomplete area information, and superimposes and displays a frame line surrounding the character area on the captured image according to the layout information. Display areas darkly. What is necessary is just to display darkly, when a character recognition precision is below a predetermined threshold value. The percentage of the luminance of the part to be lowered may be specified in advance or may be set by the user. Alternatively, it may be determined to be directly proportional to the predicted value of character recognition accuracy in the character recognition accuracy information received from the character recognition accuracy estimation unit 130.

図12は取込画像上に認識精度の推定結果を重畳表示した一例である。取込画像は雑誌のビットマップ画像であり、文字領域の一部に照り返し部分がある。   FIG. 12 shows an example in which the recognition accuracy estimation result is superimposed on the captured image. The captured image is a bitmap image of a magazine, and a part of the character area has a reflection part.

図13は、図12の各領域についての文字認識精度情報を示す。この例では照り返し部分を含む領域の文字認識精度は低く、所定の閾値0.6に達していないことから、当該領域(領域1〜4)は暗く表示している。なお、文字画像の存在しない領域は暗く表示するか、明るく表示するかはどちらでも良く、暗く表示することで文字認識精度が良好な部分を目立たせても良いし、明るく表示することで文字認識精度が悪い部分を目立たせても良いし、ユーザに設定させても良い。   FIG. 13 shows character recognition accuracy information for each region in FIG. In this example, since the character recognition accuracy of the area including the reflection portion is low and the predetermined threshold value 0.6 is not reached, the area (areas 1 to 4) is displayed darkly. In addition, the area where the character image does not exist can be displayed darkly or brightly, and it is possible to make the part with good character recognition accuracy stand out by displaying it darkly, or character recognition by displaying it brightly. A portion with poor accuracy may be conspicuous or may be set by the user.

本実施形態では、文字認識精度の低い領域は暗く表示するが、文字認識精度の良し悪しが分かる形態であればどのような重畳表示方法でも良い。例えば、文字認識精度に応じて文字領域を囲む枠線の色を変更しても良いし、文字認識精度の予測値を直接表示しても良いし、具体的な認識結果を表示しても良い。   In this embodiment, an area with low character recognition accuracy is displayed darkly, but any superposition display method may be used as long as the character recognition accuracy is good or bad. For example, the color of the frame surrounding the character area may be changed according to the character recognition accuracy, the predicted value of the character recognition accuracy may be directly displayed, or a specific recognition result may be displayed. .

図14は取込画像上に認識精度の推定結果を重畳した別の一例である。この例では取込画像が雑誌のビットマップ画像である点は図12と同じであるが、文字領域のうち、全体が撮影可能枠内に収まっていない不完全領域(領域1、2、5)が存在する。文字領域が不完全領域であるかどうかは、不完全領域推定部140から不完全領域情報を受け取る。この例は、図15に示される不完全領域情報を受け取り表示した結果である。図14の右下の領域(領域5)は、照り返しがなく文字認識精度は良いが、不完全領域であるため暗く表示している。   FIG. 14 is another example in which the recognition accuracy estimation result is superimposed on the captured image. In this example, the captured image is the same as that of FIG. 12 except that the captured image is a bitmap image of a magazine. However, an incomplete region (regions 1, 2, and 5) of the character region that is not entirely within the frame that can be photographed. Exists. Whether the character area is an incomplete area is received from the incomplete area estimation unit 140. This example is a result of receiving and displaying the incomplete area information shown in FIG. The lower right area (area 5) in FIG. 14 has no reflection and has good character recognition accuracy, but is dark because it is an incomplete area.

レイアウト指定部160は、タッチパネルを備えた表示画面にレイアウト情報に従って文字画像の存在する領域を重畳表示するとともに、少なくとも精度良く文字認識して欲しい注目する領域を1つ以上選択させる。選択させる領域は1つでも良いし、複数でも良い。   The layout designating unit 160 superimposes and displays a region where a character image exists according to the layout information on a display screen provided with a touch panel, and selects at least one region of interest for which character recognition is desired at least accurately. One or more regions may be selected.

図16はレイアウト指定部160によって領域を1つ以上指定するまでのフローチャートである。同図が示す通り、領域を確定するまでに3つのモードが存在し、それぞれ、既に表示されている領域候補から注目する領域を選択する選択領域追加モード(S1640)、候補領域として表示されていない領域を指定する新規領域追加モード(S1660)、追加された候補領域から削除を行う候補領域削除モード(S1680)である。各モードの切り替えは、当該装置に接続されたボタンから操作させても良いし、タッチパネル画面上に切り替えメニューを表示して切り替えを受け付けても良い。選択領域を確定すると、新規領域をレイアウト検出部120に出力し、さらに選択領域と新規領域を撮影判断部170に出力する。指定領域の確定についても、当該装置に接続されたボタンから操作させても良いし、タッチパネル画面乗に確定メニューを表示して確定を受け付けても良い。   FIG. 16 is a flowchart until one or more areas are designated by the layout designation unit 160. As shown in the figure, there are three modes until a region is determined, and each is a selection region addition mode (S1640) for selecting a region of interest from already displayed region candidates, which are not displayed as candidate regions. A new area addition mode (S1660) for designating an area and a candidate area deletion mode (S1680) for deleting from the added candidate area. Switching between modes may be performed from a button connected to the device, or a switching menu may be displayed on the touch panel screen to accept the switching. When the selected area is confirmed, the new area is output to the layout detection unit 120, and the selected area and the new area are output to the imaging determination unit 170. Regarding the confirmation of the designated area, it may be operated from a button connected to the device, or a confirmation menu may be displayed on the touch panel screen to accept the confirmation.

図16で示されるレイアウト指定160による領域指定の処理の流れを説明する。まず取込画像に文字領域を緑色の枠線(図17では便宜上、点線で表示)で重畳表示する(S1610)。次に、現在のモードが候補領域削除モードかどうか判別し(S1620)、該当しない場合は新規領域モードかどうか判別し(S1630)、どちらのモードでも無い場合は選択領域追加モードと判別する。選択領域追加モードでは、まずタッチパネルにより選択された領域を選択領域として候補に追加し(S1640)、次に当該領域の枠線の色を所定の色である赤(図17では便宜上、太い実線で表示)に変更する(S1650)。新規領域指定モードでは、タッチパネルで囲んだ領域を新規領域として候補に追加し(S1660)、その際に当該領域の枠線を追加で重畳表示する(S1670)。候補領域削除モードでは、タッチパネルにより既に候補領域とされている中から削除する領域が選択されると、当該領域を候補から削除し(S1680)、重畳表示していた枠線も元の状態に戻す(S1690)。   The flow of the area designation process by the layout designation 160 shown in FIG. 16 will be described. First, the character region is superimposed and displayed on the captured image with a green frame (indicated by a dotted line in FIG. 17 for convenience) (S1610). Next, it is determined whether or not the current mode is the candidate region deletion mode (S1620). If it is not applicable, it is determined whether or not it is a new region mode (S1630). In the selection area addition mode, first, an area selected by the touch panel is added as a selection area to a candidate (S1640), and then the border color of the area is red, which is a predetermined color (in FIG. 17, for convenience, a thick solid line). Display) (S1650). In the new area designation mode, the area enclosed by the touch panel is added as a new area as a candidate (S1660), and at that time, the frame line of the area is additionally superimposed and displayed (S1670). In the candidate area deletion mode, when a region to be deleted is selected from the candidates already selected by the touch panel, the area is deleted from the candidate (S1680), and the frame line that has been superimposed is returned to the original state. (S1690).

図17はレイアウト指定部160の選択領域追加モードでの表示画面の一例である。レイアウト情報に従って取込画像に重畳して文字領域を枠線で囲って重畳表示している。ユーザにタッチパネルの注目する領域をタッチさせることで1つ以上指定を受け取ることが可能である。なお、当該装置にはタッチパネルを使用しなくても良く、例えば装置に接続されたボタンを順次ボタンを押させることでどの領域を選択するか決定させても良い。また、候補領域削除モードでは、同様な操作をさせることで候補領域を削除する。   FIG. 17 is an example of a display screen in the selection area addition mode of the layout designation unit 160. In accordance with the layout information, it is superimposed on the captured image, and the character area is surrounded and displayed in a superimposed manner. One or more designations can be received by causing the user to touch an area of interest on the touch panel. Note that the device does not need to use a touch panel. For example, it is possible to determine which region to select by sequentially pressing buttons connected to the device. In the candidate area deletion mode, the candidate area is deleted by performing the same operation.

図18はレイアウト指定部160の新規領域追加モードでの表示画面の一例である。本実施形態では同図のように、ユーザにタッチパネル上で指により指定したい領域を指で囲む動作により指定させる。囲む動作は、指によりタッチパネル上で一筆書きになぞる操作とする。なぞった経路の線が閉じている場合は、閉じられた領域を入力した領域とし、閉じていない場合は、なぞった経路の線の始点と終点を直線で繋いで閉じた領域を入力した領域とする。入力した当該領域を含む矩形領域で文字画像が存在するか解析を行い、もし発見された場合には発見した領域を候補に追加し、発見されない場合は文字が存在しないことを画面上に表示して通知する。   FIG. 18 is an example of a display screen in the new area addition mode of the layout designation unit 160. In the present embodiment, as shown in the figure, the user is allowed to specify an area to be specified with a finger on the touch panel by an operation of surrounding with the finger. The surrounding operation is an operation of tracing with a finger on the touch panel. If the traced line is closed, the closed area is set as the input area.If the traced line is not closed, the start point and end point of the traced path are connected by a straight line, and the closed area is input. To do. Analyzes whether a character image exists in the rectangular area that includes the input area, and if found, adds the found area to the candidate, and if not found, displays on the screen that no character exists. To notify.

撮影判断部170は、レイアウト指定部160から受け取った指定領域についての文字認識精度と不完全領域情報を見ることで撮影を行うか判断し、撮影を行うと判断した場合はシャッター信号をシャッター部180に出力し自動的に撮影を行う。本実施形態では、指定領域の文字認識精度が良く、不完全領域ではない場合に撮影を行うと判断する。なお、この自動撮影は必ずしも前述の条件全てが必須ではなく、少なくとも、指定領域の文字認識精度が良いか、あるいは指定領域が不完全領域でなければ、自動撮影してもよい。   The shooting determination unit 170 determines whether to perform shooting by looking at the character recognition accuracy and incomplete area information for the specified area received from the layout specifying unit 160. If it is determined that shooting is to be performed, the shooting determination unit 170 outputs a shutter signal to the shutter unit 180. To automatically shoot. In the present embodiment, it is determined that shooting is performed when the character recognition accuracy of the designated area is good and the area is not an incomplete area. Note that this automatic shooting does not necessarily require all of the above-mentioned conditions, and automatic shooting may be performed if at least the character recognition accuracy of the designated area is good or the designated area is not an incomplete area.

このように、撮影前のプレビュー時に、精度良く文字認識して欲しい箇所をユーザに指定させ、当該箇所の文字認識精度の予測値が所定のしきい値以上になるまで待ち、当該予測値がしきい値以上となった時に、自動的に撮影する。   In this way, at the time of preview before shooting, the user is allowed to specify a location where character recognition is desired with high accuracy, and waits until the predicted value of the character recognition accuracy at the location exceeds a predetermined threshold value. Automatically captures when the threshold is exceeded.

なお、自動撮影機能は無効とし、ユーザに指定領域の文字認識精度が良い、あるいは指定領域が不完全領域でない旨を通知し、ユーザにシャッターを押させてもよい。   The automatic shooting function may be disabled, the user may be notified that the character recognition accuracy of the designated area is good, or the designated area is not an incomplete area, and the user may press the shutter.

インデクス重み付け部190は、文字認識精度と不完全領域情報を受け取り、これらの情報からインデクスの重み付けを決定する。当該装置は、撮影時に認識精度が良くなるように撮影した領域は、撮影を行ったユーザが注目した領域であると考え、当該領域が検索結果の上位に来るようにするための装置である。なお、本実施形態では文字認識精度と不完全領域情報を受け取るが、さらにレイアウト指定部160にて得られる指定領域情報も合わせて受け取り、検索結果に反映させてもよい。   The index weighting unit 190 receives character recognition accuracy and incomplete area information, and determines an index weight from these pieces of information. The device is a device for considering that the region photographed so as to improve the recognition accuracy at the time of photographing is the region noticed by the user who performed the photographing and placing the region at the top of the search result. In this embodiment, the character recognition accuracy and the incomplete area information are received, but the specified area information obtained by the layout specifying unit 160 may also be received and reflected in the search result.

図19および20は、撮影時の重畳表示部150の画面状態の例である。被写体に「ABC」と「XYZ」という文字列が存在するので、これらを検索インデクスに登録する。   19 and 20 are examples of screen states of the superimposed display unit 150 at the time of shooting. Since the character strings “ABC” and “XYZ” exist in the subject, they are registered in the search index.

図19の例では、登録する際に「ABC」という文字列自体は認識できるが「ABC」という文字列が存在する領域には照り返しがあり文字認識精度は低くなっていることから、この撮影画像に対する「ABC」という検索インデクスの重み付けは低くし、「XYZ」という検索インデクスの重み付けはそのままにする。   In the example of FIG. 19, since the character string “ABC” itself can be recognized at the time of registration, there is a reflection in the area where the character string “ABC” exists, and the character recognition accuracy is low. The weight of the search index “ABC” is reduced, and the weight of the search index “XYZ” is left as it is.

図20の例では、「ABC」あるいは「XYZ」という文字列が存在する2つの文字領域は、どちらも文字認識精度は良い。しかし「XYZ」という文字列が存在する文字領域は文字領域の右側が撮影可能範囲で切れてしまっていることから、この撮影画像に対する「ABC」という検索インデクスはそのままにし、「XYZ」という検索インデクスの重み付けは低くする。これによって、検索クエリに「XYZ」が与えられた場合には、図19の撮影画像が検索結果の上位に来るようになり、検索クエリに「ABC」が与えられた場合には、図20の撮影画像が検索結果の上位に来るようになる。   In the example of FIG. 20, the character recognition accuracy is good in both of the two character areas in which the character string “ABC” or “XYZ” exists. However, in the character area where the character string "XYZ" exists, the right side of the character area is cut off in the shootable range, so the search index "ABC" for this shot image is left as it is, and the search index "XYZ" The weight of is reduced. Accordingly, when “XYZ” is given to the search query, the captured image of FIG. 19 comes to the top of the search result, and when “ABC” is given to the search query, FIG. The captured image comes to the top of the search results.

このように、ユーザが撮影時に指定した箇所に検索クエリ文字列が存在する画像が検索結果上位に出力する。ユーザが撮影する際に注目していない箇所に含まれる文字が検索に用いられることはユーザの意図に反していると考えられることから、撮影時に文字認識精度の予測値が所定のしきい値に満たなかった箇所に存在した文字のインデックス重み付けを、検索クエリ生成時に低く設定する。これにより、ユーザが撮影した箇所により検索された画像が検索結果の上位に出力される。   In this way, an image in which the search query character string exists at the location designated by the user at the time of shooting is output to the top of search results. Since it is considered that the use of characters included in a part that is not focused on when the user takes a picture is contrary to the user's intention, the predicted value of the character recognition accuracy is set to a predetermined threshold at the time of shooting. The index weighting of the characters that existed in the part that was not satisfied is set low when generating the search query. As a result, the image searched for by the location photographed by the user is output at the top of the search result.

本実施形態では、注目する領域に文字列が存在する場合には検索結果が上位に来るようにしていたが、必ずしもそのように限定されるものではなく、例えば注目されていない領域の文字列はインデクスを作成せず、検索結果で出力されないようにしても良い。   In the present embodiment, when a character string exists in the region of interest, the search result is arranged at the top. However, the search result is not necessarily limited to this. For example, the character string of the region not attracting attention is An index may not be created and may not be output as a search result.

なお、本実施形態は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Note that the present embodiment is not limited to the above-described embodiment as it is, and can be embodied by modifying the components without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

100 画像撮影装置
110 画像取込部
120 レイアウト検出部
130 文字認識精度推定部
140 不完全領域推定部
150 重畳表示部
160 レイアウト指定部
170 撮影判断部
180 シャッター部
190 インデクス重み付け部
200 画像DB
DESCRIPTION OF SYMBOLS 100 Image photographing device 110 Image capture part 120 Layout detection part 130 Character recognition accuracy estimation part 140 Incomplete area estimation part 150 Superimposition display part 160 Layout designation part 170 Shooting judgment part 180 Shutter part 190 Index weighting part 200 Image DB

Claims (7)

被写体の画像を取り込む取込部と、
前記画像の文字領域を検出する検出部と、
前記文字領域について文字認識精度を推定する推定部と、
前記文字領域の前記文字認識精度に応じて前記画像に重畳表示する表示部とを備える画像処理装置。
A capture unit for capturing an image of a subject;
A detection unit for detecting a character region of the image;
An estimation unit for estimating character recognition accuracy for the character region;
An image processing apparatus comprising: a display unit that superimposes and displays on the image according to the character recognition accuracy of the character region.
前記表示部は、前記文字領域のうち、前記文字認識精度が低い領域を暗く表示することを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the display unit displays a dark area of the character area where the character recognition accuracy is low. 前記文字領域は、当該文字領域全体が前記取込部の取り込み可能範囲内に収まっていない不完全領域であるかを推定する不完全領域推定部をさらに備え、
前記表示部は、前記不完全領域を前記画像に重畳表示することを特徴とする請求項1記載の画像処理装置。
The character region further includes an incomplete region estimation unit that estimates whether the entire character region is an incomplete region that is not within the capture range of the capture unit,
The image processing apparatus according to claim 1, wherein the display unit superimposes and displays the incomplete area on the image.
前記文字認識精度に基づいて撮影を行うか否かを判断する判断部をさらに備えることを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a determination unit that determines whether to perform shooting based on the character recognition accuracy. 前記不完全領域であるかに基づいて撮影を行うか否かを判断する判断部をさらに備えることを特徴とする請求項3記載の画像処理装置。   The image processing apparatus according to claim 3, further comprising a determination unit that determines whether to perform imaging based on whether the region is an incomplete region. 被写体の画像を取り込むステップと、
前記画像の文字領域を検出するステップと、
前記文字領域の文字認識精度を推定するステップと、
前記文字領域の前記文字認識精度を前記画像に重畳表示するステップとを備える画像処理方法。
Capturing a subject image;
Detecting a character region of the image;
Estimating the character recognition accuracy of the character region;
An image processing method comprising: superimposing and displaying the character recognition accuracy of the character region on the image.
コンピュータを、
被写体の画像を取り込む手段と、
前記画像の文字領域を検出する手段と、
前記文字領域の文字認識精度を推定する手段と、
前記文字領域の前記文字認識精度を前記画像に重畳表示する手段として機能させるための画像処理プログラム。
Computer
Means for capturing an image of a subject;
Means for detecting a character region of the image;
Means for estimating the character recognition accuracy of the character region;
An image processing program for causing the character recognition accuracy of the character region to function as means for superimposing and displaying on the image.
JP2010219989A 2010-09-29 2010-09-29 Image processing apparatus, method, and program Active JP5216828B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010219989A JP5216828B2 (en) 2010-09-29 2010-09-29 Image processing apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010219989A JP5216828B2 (en) 2010-09-29 2010-09-29 Image processing apparatus, method, and program

Publications (2)

Publication Number Publication Date
JP2012075044A true JP2012075044A (en) 2012-04-12
JP5216828B2 JP5216828B2 (en) 2013-06-19

Family

ID=46170769

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010219989A Active JP5216828B2 (en) 2010-09-29 2010-09-29 Image processing apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP5216828B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015088046A (en) * 2013-10-31 2015-05-07 株式会社東芝 Image display device, image display method and program
JP2016206876A (en) * 2015-04-21 2016-12-08 Cyberdyne株式会社 Travel route teaching system and method for autonomous mobile body

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7247472B2 (en) 2018-04-19 2023-03-29 富士フイルムビジネスイノベーション株式会社 Information processing device and program

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0424151U (en) * 1990-06-20 1992-02-27
JPH04211883A (en) * 1990-06-11 1992-08-03 Ricoh Co Ltd Character recognizing device
JPH05182014A (en) * 1991-12-28 1993-07-23 Ricoh Co Ltd Character recognition method
JPH06318267A (en) * 1994-04-01 1994-11-15 Ricoh Co Ltd Method for recognizing and outputting character
JPH07160801A (en) * 1993-12-03 1995-06-23 Matsushita Electric Ind Co Ltd On-line character recognizing device
JPH09134410A (en) * 1995-11-13 1997-05-20 Ricoh Co Ltd Method for determining degree of certainty of recognition result and character recognition system
JP2006268245A (en) * 2005-03-23 2006-10-05 Casio Hitachi Mobile Communications Co Ltd Information acquiring device and program
JP2008250818A (en) * 2007-03-30 2008-10-16 Omron Corp Program for portable terminal device and portable terminal device
JP2010081100A (en) * 2008-09-24 2010-04-08 Casio Computer Co Ltd Imaging device, imaging method, and imaging program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04211883A (en) * 1990-06-11 1992-08-03 Ricoh Co Ltd Character recognizing device
JPH0424151U (en) * 1990-06-20 1992-02-27
JPH05182014A (en) * 1991-12-28 1993-07-23 Ricoh Co Ltd Character recognition method
JPH07160801A (en) * 1993-12-03 1995-06-23 Matsushita Electric Ind Co Ltd On-line character recognizing device
JPH06318267A (en) * 1994-04-01 1994-11-15 Ricoh Co Ltd Method for recognizing and outputting character
JPH09134410A (en) * 1995-11-13 1997-05-20 Ricoh Co Ltd Method for determining degree of certainty of recognition result and character recognition system
JP2006268245A (en) * 2005-03-23 2006-10-05 Casio Hitachi Mobile Communications Co Ltd Information acquiring device and program
JP2008250818A (en) * 2007-03-30 2008-10-16 Omron Corp Program for portable terminal device and portable terminal device
JP2010081100A (en) * 2008-09-24 2010-04-08 Casio Computer Co Ltd Imaging device, imaging method, and imaging program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015088046A (en) * 2013-10-31 2015-05-07 株式会社東芝 Image display device, image display method and program
US10296803B2 (en) 2013-10-31 2019-05-21 Kabushiki Kaisha Toshiba Image display apparatus, image display method, and computer program product
JP2016206876A (en) * 2015-04-21 2016-12-08 Cyberdyne株式会社 Travel route teaching system and method for autonomous mobile body

Also Published As

Publication number Publication date
JP5216828B2 (en) 2013-06-19

Similar Documents

Publication Publication Date Title
JP5652652B2 (en) Display control apparatus and method
EP2822267B1 (en) Method and apparatus for previewing a dual-shot image
WO2017166726A1 (en) Intelligent image capturing method and device
EP3125135A1 (en) Picture processing method and device
US20080068456A1 (en) Camera
US11127113B2 (en) Display control apparatus and control method thereof
US8456491B2 (en) System to highlight differences in thumbnail images, mobile phone including system, and method
US11551465B2 (en) Method and apparatus for detecting finger occlusion image, and storage medium
EP2720226A1 (en) Photographing apparatus and method for synthesizing images
KR101646669B1 (en) Method and apparatus for updating a composition database using user pattern, and digital photographing apparatus
JP5216828B2 (en) Image processing apparatus, method, and program
KR101503017B1 (en) Motion detecting method and apparatus
JP6381892B2 (en) Image processing apparatus, image processing method, and image processing program
CN112822394B (en) Display control method, display control device, electronic equipment and readable storage medium
US9767587B2 (en) Image extracting apparatus, image extracting method and computer readable recording medium for recording program for extracting images based on reference image and time-related information
JP5733956B2 (en) IMAGING DEVICE AND ITS CONTROL METHOD, MOVIE RECORDING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
CN112702508A (en) Camera position indication method and device, mobile terminal and storage medium
US20230274388A1 (en) Photographing Method, and Electronic Device and Non-Transitory Readable Storage Medium
CN112396675A (en) Image processing method, device and storage medium
US20080238949A1 (en) Electronic device, image displaying method and image displaying program storage medium
JP5911300B2 (en) Imaging apparatus and control method thereof
JP2017041795A (en) Image processing device, and image processing method
JP2005055973A (en) Personal digital assistant
JP2007228233A (en) Photographic device
JP6289107B2 (en) Image reproduction apparatus, control method thereof, and control program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130304

R151 Written notification of patent or utility model registration

Ref document number: 5216828

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160308

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350