JP5906745B2 - Image display device, image display method, and program - Google Patents

Image display device, image display method, and program Download PDF

Info

Publication number
JP5906745B2
JP5906745B2 JP2012003942A JP2012003942A JP5906745B2 JP 5906745 B2 JP5906745 B2 JP 5906745B2 JP 2012003942 A JP2012003942 A JP 2012003942A JP 2012003942 A JP2012003942 A JP 2012003942A JP 5906745 B2 JP5906745 B2 JP 5906745B2
Authority
JP
Japan
Prior art keywords
image
unit
processed
predetermined
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012003942A
Other languages
Japanese (ja)
Other versions
JP2013143725A (en
Inventor
哲司 牧野
哲司 牧野
義裕 手島
義裕 手島
玲 浜田
玲 浜田
紳一 松井
紳一 松井
浩一 中込
浩一 中込
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012003942A priority Critical patent/JP5906745B2/en
Publication of JP2013143725A publication Critical patent/JP2013143725A/en
Application granted granted Critical
Publication of JP5906745B2 publication Critical patent/JP5906745B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像表示装置、画像表示方法及びプログラムに関する。   The present invention relates to an image display device, an image display method, and a program.

従来、携帯端末等を用いて撮像された画像から、例えば二次元バーコードなどのコントラストの大きい専用のマーカーを検出し、検出されたマーカーの位置に空間的に位置を合わせた仮想オブジェクト(例えば、三次元モデル等)を追加表示することによって、ユーザの現実の環境を拡張しようとする拡張現実(augmented reality:AR)技術が知られている(例えば、特許文献1参照)。   Conventionally, a dedicated marker having a high contrast, such as a two-dimensional barcode, is detected from an image captured using a mobile terminal or the like, and a virtual object (for example, spatially aligned with the detected marker position (for example, Augmented reality (AR) technology for expanding a user's real environment by additionally displaying a three-dimensional model or the like is known (see, for example, Patent Document 1).

特開2011−76589号公報JP 2011-76589 A

しかしながら、上記の技術では、仮想オブジェクトを追加表示したい位置にマーカーを設ける必要があるため、被写体の一部分或いは全体に仮想オブジェクトを表示したい場合には、被写体とは全く関係のないマーカーを被写体の一部分或いは全体に配置しなければならず、当該被写体自体の品質が低下してしまうといった問題がある。また、表示される仮想オブジェクトは、撮像された物体に関連するものの、当該画像の内容(特に、主要被写体)とはかけ離れた違和感のあるものが表示されてしまう虞もある。   However, in the above technique, it is necessary to provide a marker at a position where a virtual object is to be additionally displayed. Therefore, when a virtual object is to be displayed on a part of the subject or on the whole, a marker that is completely unrelated to the subject is displayed on the part of the subject. Or it has to be arranged in the whole, and there is a problem that the quality of the subject itself is lowered. Further, although the displayed virtual object is related to the imaged object, there is a possibility that an uncomfortable feeling far from the content of the image (particularly the main subject) may be displayed.

本発明は、このような問題に鑑みてなされたものであり、本発明の課題は、撮像される被写体自体の品質を低下させることなく、当該被写体の内容に対して親和性の高い画像を表示することができる画像表示装置、画像表示方法及びプログラムを提供することである。   The present invention has been made in view of such problems, and an object of the present invention is to display an image having a high affinity for the contents of the subject without deteriorating the quality of the subject to be imaged. An image display apparatus, an image display method, and a program that can be used.

上記課題を解決するため、本発明の一つの態様は、特定の被写体を含む所定の画像の四辺形枠状の特定の画像領域を抽出する抽出手段と、前記所定の画像に対して所定の画像変換処理が施された処理済み画像を作成する画像処理手段と、前記四辺形枠状の前記特定の画像領域の傾きに対応させるように、前記処理済み画像に対して射影変換処理を行って四辺形画像を生成する射影変換処理手段と、前記特定の画像領域内に、前記処理済み画像の射影変換画像を合成した合成画像を生成する生成手段と、前記所定の画像と、前記処理済み画像とを対応付けて記録する記録手段と、前記特定の被写体が連続して撮像された複数の画像を逐次取得する第1取得手段と、前記第1取得手段により取得された前記複数の画像のうち、一の画像から特徴点を複数抽出する特徴点抽出手段と、前記所定の画像に対応する処理済み画像を前記記録手段から取得するとともに前記特徴点抽出手段により抽出された複数の特徴点と類似する各特徴点と対応付けられた前記処理済み画像を前記記録手段から取得する第2取得手段と、を備え、前記生成手段は、前記一の画像における前記特徴点抽出手段により抽出された複数の特徴点に対応する画像領域に対して、前記第2取得手段により取得された前記処理済み画像を合成した合成画像を生成することを特徴とする画像表示装置である。 In order to solve the above-described problem, one aspect of the present invention provides an extraction unit that extracts a specific image area in a quadrilateral frame shape of a predetermined image including a specific subject, and a predetermined image with respect to the predetermined image. An image processing means for creating a processed image that has been subjected to the conversion process, and a projective conversion process is performed on the processed image so as to correspond to the inclination of the specific image area of the quadrilateral frame shape, and the four sides A projection conversion processing means for generating a shape image; a generation means for generating a composite image obtained by synthesizing a projection conversion image of the processed image in the specific image area; the predetermined image; and the processed image. Among the plurality of images acquired by the first acquisition unit, the first acquisition unit that sequentially acquires a plurality of images in which the specific subject is continuously captured, Feature points from one image A plurality of feature point extracting means and a processed image corresponding to the predetermined image are acquired from the recording means and associated with each feature point similar to the plurality of feature points extracted by the feature point extracting means. A second acquisition unit that acquires the processed image from the recording unit, and the generation unit generates an image area corresponding to a plurality of feature points extracted by the feature point extraction unit in the one image. On the other hand, the image display device is characterized in that a composite image is generated by combining the processed images acquired by the second acquisition means .

本発明によれば、撮像される被写体自体の品質を低下させることなく、当該被写体の内容に対して親和性の高い画像を表示することができる。   According to the present invention, it is possible to display an image having high affinity for the content of the subject without degrading the quality of the subject to be imaged.

本発明を適用した実施形態1の携帯端末の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the portable terminal of Embodiment 1 to which this invention is applied. 図1の携帯端末に登録されている第1処理済み画像テーブルの一例を示す図である。It is a figure which shows an example of the 1st processed image table registered into the portable terminal of FIG. 図1の携帯端末に抽出された特徴点情報の一例を模式的に示す図である。It is a figure which shows typically an example of the feature point information extracted by the portable terminal of FIG. 図1の携帯端末による画像登録処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to an image registration process by the mobile terminal of FIG. 1. 図4の画像登録処理に係る画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which concerns on the image registration process of FIG. 図1の携帯端末による画像表示処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to image display processing by the mobile terminal of FIG. 1. 図6の画像表示処理を説明するための図である。It is a figure for demonstrating the image display process of FIG. 図6の画像表示処理に係る画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which concerns on the image display process of FIG. 図6の画像表示処理に係る画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which concerns on the image display process of FIG. 図6の画像表示処理を説明するための図である。It is a figure for demonstrating the image display process of FIG. 本発明を適用した実施形態2の携帯端末の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the portable terminal of Embodiment 2 to which this invention is applied. 図11の携帯端末による画像登録処理に係る動作の一例を示すフローチャートである。12 is a flowchart illustrating an example of an operation related to an image registration process performed by the mobile terminal in FIG. 11. 図12の携帯端末による画像表示処理に係る動作の一例を示すフローチャートである。13 is a flowchart illustrating an example of an operation related to image display processing by the mobile terminal of FIG. 図12の画像表示処理を説明するための図である。It is a figure for demonstrating the image display process of FIG. 図12の画像表示処理を説明するための図である。It is a figure for demonstrating the image display process of FIG. 本発明に係る画像表示システムの概略構成を示す図である。1 is a diagram showing a schematic configuration of an image display system according to the present invention.

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。   Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.

[実施形態1]
図1は、本発明を適用した実施形態1の携帯端末100の概略構成を示すブロック図である。
図1に示すように、携帯端末100は、中央制御部1、メモリ2、撮像部3、撮像制御部4、画像データ生成部5、記録部6、画像処理部7、表示制御部8、表示部9、送受話部10、通信制御部11、操作入力部12等を備えている。
なお、携帯端末100は、例えば、通信機能を具備する撮像装置や、携帯電話やPHS(Personal Handy-phone System)などの移動体通信網で用いられる移動局、PDA(Personal Data Assistants)等から構成されている。
[Embodiment 1]
FIG. 1 is a block diagram showing a schematic configuration of a mobile terminal 100 according to the first embodiment to which the present invention is applied.
As shown in FIG. 1, the mobile terminal 100 includes a central control unit 1, a memory 2, an imaging unit 3, an imaging control unit 4, an image data generation unit 5, a recording unit 6, an image processing unit 7, a display control unit 8, and a display. Unit 9, transmission / reception unit 10, communication control unit 11, operation input unit 12 and the like.
The mobile terminal 100 includes, for example, an imaging device having a communication function, a mobile station used in a mobile communication network such as a mobile phone or a PHS (Personal Handy-phone System), a PDA (Personal Data Assistants), and the like. Has been.

中央制御部1は、携帯端末100の各部を制御する。具体的には、中央制御部1は、携帯端末100の各部を制御するCPU(図示略)を具備し、各種処理プログラム(図示略)に従って各種の制御動作を行う。   The central control unit 1 controls each unit of the mobile terminal 100. Specifically, the central control unit 1 includes a CPU (not shown) that controls each part of the mobile terminal 100, and performs various control operations according to various processing programs (not shown).

メモリ2は、例えば、DRAM(Dynamic Random Access Memory)等により構成され、画像情報等を一時的に記録するバッファメモリや、中央制御部1などのワーキングメモリ、当該携帯端末100の機能に係る各種プログラムやデータが格納されたプログラムメモリ等(何れも図示略)を備えている。   The memory 2 is composed of, for example, a DRAM (Dynamic Random Access Memory) or the like, and is a buffer memory that temporarily records image information, a working memory such as the central control unit 1, and various programs related to the functions of the mobile terminal 100 And a program memory (not shown) in which data is stored.

撮像部3は、特定の被写体Sを撮像してフレーム画像Fの画像信号を生成する。
ここで、特定の被写体Sとは、二次元画像であっても良いし、3次元形状の立体であっても良い。例えば、特定の被写体Sを二次元画像とした場合には、壁面に配置された写真等が挙げられる(図7参照)。
The imaging unit 3 captures a specific subject S and generates an image signal of the frame image F.
Here, the specific subject S may be a two-dimensional image or a three-dimensional solid. For example, when the specific subject S is a two-dimensional image, a photograph placed on the wall surface can be cited (see FIG. 7).

また、撮像部3は、レンズ部3aと、電子撮像部3bとを備えている。
レンズ部3aは、ズームレンズやフォーカスレンズ等の複数のレンズから構成されている。
電子撮像部3bは、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、レンズ部3aの各種レンズを通過した光学像を二次元の画像信号に変換する。
なお、図示は省略するが、撮像部3は、レンズ部3aを通過する光の量を調整する絞りを備えていても良い。
The imaging unit 3 includes a lens unit 3a and an electronic imaging unit 3b.
The lens unit 3a includes a plurality of lenses such as a zoom lens and a focus lens.
The electronic imaging unit 3b is composed of, for example, an image sensor such as a charge coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS), and converts an optical image that has passed through various lenses of the lens unit 3a into a two-dimensional image signal. To do.
In addition, although illustration is abbreviate | omitted, the imaging part 3 may be provided with the aperture_diaphragm | restriction which adjusts the quantity of the light which passes the lens part 3a.

撮像制御部4は、撮像部3による被写体の撮像を制御する。即ち、撮像制御部4は、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部4は、タイミング発生器、ドライバにより電子撮像部3bを走査駆動して、所定周期毎に光学像を電子撮像部3bにより二次元の画像信号に変換させ、当該電子撮像部3bの撮像領域から1画面分ずつフレーム画像Fを読み出して画像データ生成部5に出力させる。
また、撮像制御部4は、AF(自動合焦処理)、AE(自動露出処理)、AWB(自動ホワイトバランス)等の被写体の撮像条件の調整制御を行う。
The imaging control unit 4 controls the imaging of the subject by the imaging unit 3. That is, the imaging control unit 4 includes a timing generator, a driver, and the like, although not illustrated. Then, the imaging control unit 4 scans and drives the electronic imaging unit 3b with a timing generator and a driver, converts the optical image into a two-dimensional image signal with the electronic imaging unit 3b at a predetermined period, and the electronic imaging unit 3b. The frame image F is read out from the imaging area for each screen and is output to the image data generation unit 5.
In addition, the imaging control unit 4 performs adjustment control of imaging conditions of the subject such as AF (automatic focusing process), AE (automatic exposure process), AWB (automatic white balance), and the like.

画像データ生成部5は、電子撮像部3bから転送されたフレーム画像Fのアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。
また、画像データ生成部5は、生成したフレーム画像FのYUVデータを水平及び垂直ともに所定倍率で縮小処理を行って、ライブビュー表示用の低解像度(例えば、VGAやQVGAサイズ等)の画像データを生成する。具体的には、画像データ生成部5は、表示部9によるライブビュー画像の所定の表示フレームレートに応じた所定のタイミングで、フレーム画像FのYUVデータからライブビュー表示用の低解像度の画像データを生成する。
The image data generation unit 5 appropriately adjusts the gain for each RGB color component with respect to the analog value signal of the frame image F transferred from the electronic image pickup unit 3b, and then samples and holds it by a sample hold circuit (not shown). The digital data is converted into digital data by an A / D converter (not shown), color processing including pixel interpolation processing and γ correction processing is performed by a color process circuit (not shown), and then a digital luminance signal Y and color difference signal Cb, Cr (YUV data) is generated.
Further, the image data generation unit 5 reduces the YUV data of the generated frame image F at a predetermined magnification in both horizontal and vertical directions, and generates low-resolution (for example, VGA, QVGA size, etc.) image data for live view display. Is generated. Specifically, the image data generation unit 5 has low resolution image data for live view display from the YUV data of the frame image F at a predetermined timing corresponding to a predetermined display frame rate of the live view image by the display unit 9. Is generated.

そして、画像処理部7は、生成された各フレーム画像FのYUVデータをメモリ2に順次出力し、当該メモリ2に格納させる。   Then, the image processing unit 7 sequentially outputs the generated YUV data of each frame image F to the memory 2 and stores it in the memory 2.

記録部6は、例えば、不揮発性メモリ(フラッシュメモリ)等により構成され、各種データの書き込みや読み出しを行う。具体的には、記録部6は、例えば、画像情報をExif形式の画像ファイルとして記録し、画像処理部7の符号化部(図示略)により所定の圧縮形式(例えば、JPEG形式等)で符号化された記録用の画像情報を少なくとも一つ記録する。   The recording unit 6 is composed of, for example, a nonvolatile memory (flash memory) or the like, and performs writing and reading of various data. Specifically, the recording unit 6 records, for example, image information as an Exif format image file, and encodes it in a predetermined compression format (eg, JPEG format) by an encoding unit (not shown) of the image processing unit 7. At least one piece of recorded image information for recording is recorded.

また、記録部6は、第1処理済み画像テーブルT1(図2参照)を記録している。
第1処理済み画像テーブルT1は、画像登録処理により登録された情報を記録するテーブルである。具体的には、図2に示すように、第1処理済み画像テーブルT1は、登録処理の対象となる画像を識別するための「画像ID」(例えば、「A」〜「C」、…)と、当該画像の特徴情報に係る「特徴情報」(例えば、「特徴情報1」〜「特徴情報3」、…)と、当該画像に対して所定の画像変換処理が施された処理済み画像P2の画像データに係る「処理済み画像」(例えば、「第1処理済み画像」〜「第3処理済み画像」、…)とが対応付けられている。
The recording unit 6 records the first processed image table T1 (see FIG. 2).
The first processed image table T1 is a table for recording information registered by the image registration process. Specifically, as shown in FIG. 2, the first processed image table T1 includes an “image ID” (for example, “A” to “C”,...) For identifying an image to be registered. And “feature information” (for example, “feature information 1” to “feature information 3”,...) Related to the feature information of the image, and a processed image P2 obtained by performing a predetermined image conversion process on the image. Are associated with “processed images” (for example, “first processed image” to “third processed image”,...).

ここで、画像IDは、特定の被写体Sを含む所定の画像P1を識別するものである。即ち、画像IDは、撮像部3によりライブビュー画像として撮像される特定の被写体Sと略等しい物体を撮像対象として撮像された所定の画像P1と対応付けられている。例えば、額装された写真の場合(図7参照)、記録部6に記録されている当該写真の元画像の画像データと対応付けて画像IDが登録される。
なお、「画像ID」を「A」〜「C」として模式的に表すが、一例であってこれに限られるものではなく、適宜任意に変更可能である。
Here, the image ID identifies a predetermined image P1 including a specific subject S. In other words, the image ID is associated with a predetermined image P1 captured using an object that is substantially equal to the specific subject S captured as a live view image by the imaging unit 3 as an imaging target. For example, in the case of a framed photo (see FIG. 7), the image ID is registered in association with the image data of the original image of the photo recorded in the recording unit 6.
The “image ID” is schematically represented as “A” to “C”, but is only an example and is not limited thereto, and can be arbitrarily changed as appropriate.

また、特徴情報は、後述する画像処理部7の特徴量演算部7eにより抽出された特徴点に係る形や色などの各種の特徴量を含む。例えば、特徴情報をSIFT(Scale-Invariant Features Transform)特徴量を用いて表す場合には、各特徴点のXY平面空間での座標位置と、m次元の特徴ベクトルにより規定される(図3参照)。
また、特徴情報は、登録処理の対象となる所定の画像P1の画像データに対して正方形変換処理が施されることで生成された第1正方形画像P1a(図5(b)参照)から抽出された複数の特徴点に係る情報を含む。ここで、正方形変換処理とは、具体的には、所定の画像P1の短辺側を長辺側に合わせるように相対的に拡大する処理や、長辺側を短辺側に合わせるように相対的に縮小する処理等を含む。
なお、特徴情報としては、SURF(Speeded Up Robust Features)特徴量を用いて表しても良いし、特徴点の輝度レベルを8bit(256段階)で表現した輝度値(0〜255)を用いて良いし、RGBの各色成分を8bit(256段階)で表現したRGB値(0〜255)を用いても良い。
また、SIFT特徴量やSURF特徴量は、公知の技術であるので、ここでは詳細な説明を省略する。
なお、「特徴情報」を「特徴情報1」〜「特徴情報3」として模式的に表すが、一例であってこれに限られるものではなく、適宜任意に変更可能である。
The feature information includes various feature amounts such as shapes and colors related to feature points extracted by a feature amount calculation unit 7e of the image processing unit 7 described later. For example, when feature information is expressed using SIFT (Scale-Invariant Features Transform) feature amounts, it is defined by the coordinate position of each feature point in the XY plane space and an m-dimensional feature vector (see FIG. 3). .
Further, the feature information is extracted from the first square image P1a (see FIG. 5B) generated by performing the square conversion process on the image data of the predetermined image P1 to be registered. Information on a plurality of feature points. Here, the square conversion process is specifically a process of relatively enlarging the short side of the predetermined image P1 so as to match the long side, or a relative so that the long side is matched with the short side. Including a process of automatically reducing.
Note that the feature information may be expressed using a SURF (Speeded Up Robust Features) feature quantity, or a brightness value (0 to 255) expressing the brightness level of the feature point in 8 bits (256 levels). Alternatively, RGB values (0 to 255) expressing each color component of RGB in 8 bits (256 levels) may be used.
Further, since SIFT feature values and SURF feature values are known techniques, detailed description thereof is omitted here.
The “feature information” is schematically represented as “feature information 1” to “feature information 3”. However, the “feature information” is merely an example, and is not limited thereto, and can be arbitrarily changed as appropriate.

また、画像変換処理の種類としては、例えば、後述する画像変換処理部7aによる各種のアート変換処理(例えば、「色鉛筆風」、「油彩画風」、「水彩画風」等;詳細後述)、輪郭強調処理、階調補正処理、2値化処理等が挙げられる。
なお、処理済み画像P2は、一枚の静止画像であっても良いし、複数のフレーム画像からなる動画像であっても良い。また、動画像を構成するフレーム画像Fの各々は、画像変換処理が施されているか否かは任意に変更可能である。
なお、「処理済み画像」を「第1処理済み画像」〜「第3処理済み画像」として模式的に表すが、一例であってこれに限られるものではなく、適宜任意に変更可能である。
The types of image conversion processing include, for example, various art conversion processing (for example, “color pencil style”, “oil painting style”, “watercolor style”, etc .; details will be described later) by an image conversion processing section 7a, which will be described later, Processing, gradation correction processing, binarization processing, and the like.
The processed image P2 may be a single still image or a moving image composed of a plurality of frame images. In addition, whether each of the frame images F constituting the moving image has been subjected to image conversion processing can be arbitrarily changed.
In addition, although “processed image” is schematically represented as “first processed image” to “third processed image”, it is an example, and the present invention is not limited to this, and can be arbitrarily changed as appropriate.

このように、記録部6は、予め特定の被写体Sを撮像した所定の画像P1から抽出された複数の特徴点と対応付けて、当該所定の画像P1に対して所定の画像変換処理が施された処理済み画像P2を記録する。
なお、記録部6は、例えば、不揮発性メモリ(フラッシュメモリ)等の記録媒体を備えて構成されても良く、この場合、当該記録媒体の着脱機構を具備しても良い。
As described above, the recording unit 6 performs a predetermined image conversion process on the predetermined image P1 in association with a plurality of feature points extracted from the predetermined image P1 obtained by capturing a specific subject S in advance. The processed image P2 is recorded.
Note that the recording unit 6 may be configured to include a recording medium such as a nonvolatile memory (flash memory), and in this case, may include a mechanism for attaching and detaching the recording medium.

画像処理部7は、画像変換処理部7a、第1取得部7b、画像領域特定部7c、正方形画像生成部7d、特徴量演算部7e、第2取得部7f、四辺形画像生成部7g、合成画像生成部7hを具備している。   The image processing unit 7 includes an image conversion processing unit 7a, a first acquisition unit 7b, an image region specifying unit 7c, a square image generation unit 7d, a feature amount calculation unit 7e, a second acquisition unit 7f, a quadrilateral image generation unit 7g, a composition An image generation unit 7h is provided.

画像変換処理部7aは、登録処理の対象である所定の画像P1に対して画像変換処理を施す。
画像変換処理とは、画像の視覚的効果を変換させる処理であり、静止画像の表示態様を変化させる処理や、静止画像から複数のフレーム画像F、…からなる動画像を生成する処理等を含む。
The image conversion processing unit 7a performs an image conversion process on a predetermined image P1 that is a registration process target.
Image conversion processing is processing for converting the visual effect of an image, and includes processing for changing the display mode of a still image, processing for generating a moving image composed of a plurality of frame images F,. .

具体的には、画像変換処理部7aは、登録処理の対象である所定の画像P1を各種の視覚的効果を有する画像に加工するアート変換処理を施す。
ここで、アート変換処理とは、処理対象となる所定の画像P1の視覚的効果、即ち、表示部9に表示された状態における表示態様を変化させる画像処理のことである。アート変換処理としては、例えば、色鉛筆で書いたような視覚的効果を有する画像に加工する「色鉛筆風」(図5(c)参照)や、油彩絵の具で描いたような視覚的効果を有する画像に加工する「油彩画風」や、水彩絵の具で描いたような視覚的効果を有する画像に加工する「水彩画風」等が挙げられるが、一例であってこれらに限られるものではなく、適宜任意に変更可能である。
画像変換処理部7aは、ユーザによる操作入力部12の所定操作に基づいて指定された所定の処理内容のアート変換処理(例えば、「色鉛筆風」等)を所定の画像P1に対して施す。具体的には、画像変換処理部7aは、記録部6に記録されている画像のうち、ユーザによる操作入力部12の所定操作に基づいて指定された所定の画像P1の画像データ(YUVデータ)を複製して、登録処理の対象として取得する(図5(a)参照)。その後、画像変換処理部7aは、当該画像データに対して、ユーザによる操作入力部12の所定操作に基づいて指定された所定の処理内容のアート変換処理(例えば、「色鉛筆風」等)を施して、絵画調の画像に加工された処理済み画像P2(図5(c)参照)を生成する。
Specifically, the image conversion processing unit 7a performs an art conversion process for processing a predetermined image P1 that is an object of registration processing into an image having various visual effects.
Here, the art conversion process is an image process for changing the visual effect of the predetermined image P1 to be processed, that is, the display mode in the state displayed on the display unit 9. As art conversion processing, for example, “color pencil style” (see FIG. 5C) that is processed into an image having a visual effect written with a colored pencil, or an image having a visual effect drawn with an oil paint. "Oil painting style" to be processed into "Watercolor painting style" that is processed into an image having a visual effect as drawn with watercolor paints, etc., but is not limited to these, It can be changed.
The image conversion processing unit 7a performs an art conversion process (for example, “color pencil style”) having a predetermined processing content designated based on a predetermined operation of the operation input unit 12 by the user on the predetermined image P1. Specifically, the image conversion processing unit 7a, among the images recorded in the recording unit 6, image data (YUV data) of a predetermined image P1 designated based on a predetermined operation of the operation input unit 12 by the user. Is obtained as a target of registration processing (see FIG. 5A). After that, the image conversion processing unit 7a performs an art conversion process (for example, “color pencil style”) of predetermined processing contents designated based on a predetermined operation of the operation input unit 12 by the user on the image data. Thus, a processed image P2 (see FIG. 5C) processed into a picture-like image is generated.

なお、画像を各種の視覚的効果を有する画像に加工する技術は、例えば、公知の画像処理関連のソフトウェアを用いた処理と略同様の処理によって実現され、HSV色空間における色相、彩度、明度などを変更したり各種のフィルタを用いることで行われるが、公知の技術であるので、詳細な説明を省略する。また、「○○風」とは、公知の画像処理関連のソフトウェアによって実現可能なアート変換処理が施された視覚的効果のことを言う。   Note that the technology for processing an image into an image having various visual effects is realized by, for example, substantially the same processing as processing using known image processing related software, and hue, saturation, and brightness in the HSV color space. However, since this is a known technique, detailed description thereof is omitted. “OO style” refers to a visual effect that has been subjected to art conversion processing that can be realized by known image processing-related software.

なお、画像変換処理としては、所定の画像P1を絵画調の画像に加工するアート変換処理に限られるものではなく、例えば、輪郭強調処理、階調補正処理、2値化処理など適宜任意に変更することができる。また、画像変換処理部7aは、所定の画像P1を複数のフレーム画像からなる動画像に変換しても良い。   Note that the image conversion process is not limited to the art conversion process for processing the predetermined image P1 into a picture-like image. can do. The image conversion processing unit 7a may convert the predetermined image P1 into a moving image composed of a plurality of frame images.

第1取得部7bは、複数のフレーム画像F、…を逐次取得する。
即ち、第1取得部7bは、特定の被写体Sが連続して撮像された複数の画像を逐次取得する。具体的には、撮像部3により特定の被写体S(例えば、額装された写真等)が連続して撮像されて画像データ生成部5により逐次生成された複数のフレーム画像F、…のライブビュー表示用の低解像度の画像データをメモリ2から逐次取得する。
The first acquisition unit 7b sequentially acquires a plurality of frame images F,.
That is, the first acquisition unit 7b sequentially acquires a plurality of images in which a specific subject S is continuously captured. Specifically, a live view display of a plurality of frame images F,..., In which a specific subject S (for example, a framed photograph or the like) is continuously captured by the imaging unit 3 and sequentially generated by the image data generation unit 5. The low-resolution image data for use is sequentially acquired from the memory 2.

画像領域特定部7cは、特定の画像領域Aを特定する。
即ち、画像領域特定部7cは、第1取得部7bにより取得された複数の画像のうち、一の画像内の特定の画像領域Aを特定する。具体的には、画像領域特定部7cは、第1取得部7bにより取得された複数のフレーム画像F、…のうち、一のフレーム画像Fのライブビュー表示用の低解像度の画像データに含まれる四辺形枠状の特定の画像領域Aを特定する(図8(a)参照)。また、画像領域特定部7cは、例えば、一のフレーム画像Fのライブビュー表示用の低解像度の画像データのコントラストを算出し、隣接する領域の色(例えば、白色等)に対してコントラストの変化の大きい色(例えば、黒色等)からなる領域を特定の画像領域Aとして特定する。
具体的には、例えば、額装された写真を撮像する場合には、画像領域特定部7cは、当該写真の撮像により生成された一のフレーム画像F内で所定の色からなる矩形状の額縁Gに対応する四辺形枠状の特定の画像領域Aを特定する。
なお、特定の画像領域Aとして、所定の色からなる四辺形枠状のものを例示したが、一例であってこれに限られるものではなく、当該特定の画像領域Aは一のフレーム画像F内で他の領域と識別可能な色や形状からなる領域であれば適宜任意に変更可能である。
The image area specifying unit 7c specifies a specific image area A.
That is, the image area specifying unit 7c specifies a specific image area A in one image among the plurality of images acquired by the first acquiring unit 7b. Specifically, the image area specifying unit 7c is included in the low-resolution image data for live view display of one frame image F among the plurality of frame images F acquired by the first acquiring unit 7b. A specific image area A having a quadrangular frame shape is specified (see FIG. 8A). The image area specifying unit 7c calculates the contrast of low-resolution image data for live view display of one frame image F, for example, and changes the contrast with respect to the color (for example, white) of the adjacent area. A region composed of a large color (for example, black) is specified as a specific image region A.
Specifically, for example, when taking a framed photo, the image area specifying unit 7c has a rectangular frame G having a predetermined color in one frame image F generated by taking the photo. A specific image area A having a quadrangular frame shape corresponding to is specified.
The specific image area A is exemplified by a quadrilateral frame shape having a predetermined color. However, the specific image area A is not limited to this, and the specific image area A is included in one frame image F. The region can be arbitrarily changed as long as the region has a color and shape that can be distinguished from other regions.

正方形画像生成部7dは、正方形画像を生成する。
即ち、正方形画像生成部7dは、画像領域特定部7cにより特定された四辺形枠状の特定の画像領域Aの内側の四辺形領域A1の画像に対して正方形変換処理を行って第2正方形画像P3を生成する。具体的には、正方形画像生成部7dは、例えば、四辺形枠状の特定の画像領域Aの4つの頂点の内側の角部の座標位置を特定し、当該4つの内側の角部により囲まれた領域内で、直線検出処理(例えば、ハフ変換処理など)を行って四辺形枠状の特定の画像領域Aの内側の四辺形領域A1を特定する(図8(b)参照)。その後、正方形画像生成部7dは、四辺形領域A1の画像の画像データを取得し、当該画像データに対して正方形変換処理を施し、短辺側を長辺側に合わせるように相対的に拡大したり、長辺側を短辺側に合わせるように相対的に縮小することで第2正方形画像P3(図8(c)参照)を生成する。
なお、正方形画像生成部7dは、四辺形枠状の特定の画像領域Aの4つの頂点の内側の角部により囲まれた領域を四辺形領域A1として特定しても良い。例えば、額装された写真の場合に、額縁Gの内側の縁部が写真と重なっている場合には、平面視にて額縁Gと写真との間に隙間が存在しないため、正方形画像生成部7dは、四辺形枠状の特定の画像領域Aの4つの頂点の内側の角部のうち、隣合う2つの角部どうしを結ぶ4つの辺により囲まれた領域を四辺形領域A1として特定する。
The square image generation unit 7d generates a square image.
That is, the square image generation unit 7d performs a square conversion process on the image of the quadrilateral area A1 inside the specific image area A having the quadrilateral frame shape specified by the image area specifying unit 7c, thereby performing the second square image. P3 is generated. Specifically, for example, the square image generation unit 7d specifies the coordinate positions of the corners inside the four vertices of the specific image region A having a quadrilateral frame shape, and is surrounded by the four inner corners. In this area, a straight line detection process (for example, a Hough transform process) is performed to specify a quadrilateral area A1 inside a specific image area A having a quadrilateral frame shape (see FIG. 8B). Thereafter, the square image generation unit 7d acquires image data of the image of the quadrangular region A1, performs a square conversion process on the image data, and relatively enlarges the short side to match the long side. Alternatively, the second square image P3 (see FIG. 8C) is generated by relatively reducing the long side to match the short side.
Note that the square image generation unit 7d may specify a region surrounded by the corners inside the four vertices of the specific image region A having a quadrilateral frame shape as the quadrilateral region A1. For example, in the case of a framed photo, if the inner edge of the frame G overlaps the photo, there is no gap between the frame G and the photo in plan view, and therefore the square image generating unit 7d Specifies a region surrounded by four sides connecting two adjacent corners among the corners inside the four vertices of the specific image region A having a quadrangular frame shape as the quadrangular region A1.

また、正方形画像生成部7dは、登録処理の対象となる所定の画像P1、即ち、画像変換処理部7aによりアート変換処理が施される前の画像の画像データを複製して取得し、当該画像データに対して正方形変換処理を施して第1正方形画像P1a(図5(b)参照)を生成する。
ここで、第1正方形画像P1a及び第2正方形画像P3の水平及び垂直の各方向の画素数は、互いに等しくなっているのが好ましい。この場合、第1正方形画像P1a及び第2正方形画像P3は、原点(0,0)の位置を一致させた状態で、水平方向に最も遠く、且つ、垂直方向に最も遠い画素(xn,ym)の位置が一致するようになっている。
Further, the square image generation unit 7d obtains a copy of the predetermined image P1 to be registered, that is, the image data of the image before the art conversion processing is performed by the image conversion processing unit 7a. A square conversion process is performed on the data to generate a first square image P1a (see FIG. 5B).
Here, the number of pixels in each of the horizontal and vertical directions of the first square image P1a and the second square image P3 is preferably equal to each other. In this case, the first square image P1a and the second square image P3 are the farthest pixel in the horizontal direction and the farthest pixel in the vertical direction (xn, ym) with the position of the origin (0, 0) being matched. The positions of are matched.

特徴量演算部7eは、複数のフレーム画像F、…のうち、一のフレーム画像Fから有効な特徴点を抽出する特徴抽出処理を行う。
即ち、特徴量演算部7eは、第1取得部7bにより取得された複数のフレーム画像F、…のうち、一のフレーム画像Fから有効な特徴点を複数抽出する。具体的には、特徴量演算部7eは、画像領域特定部7cにより特定された特定の画像領域A内からコントラストの境界で構成されるコーナーなどの画素の周囲の領域に多くの濃淡情報をもつ有効な特徴点を複数抽出する。
例えば、特徴量演算部7eは、ライブビュー表示用の一のフレーム画像Fのうち、正方形画像生成部7dにより生成された第2正方形画像P3の画像データに対して所定の特徴抽出処理を施して特徴点を複数抽出し、有効な特徴点におけるSIFT特徴量(各画素のXY平面空間での座標位置、m次元の特徴ベクトル等)を算出する。また、特徴量演算部7eは、抽出された特徴点に係る各種の情報を対応付けて、特徴点情報D(図3参照)としてメモリ2に一時的に記録させる。
図3に示すように、SIFT特徴量は、特徴点を所定の順序で番号付けた「特徴点No.」(例えば、「1」〜「3」、…)と、各特徴点のXY平面空間での座標位置を規定する「x座標」及び「y座標」(例えば、「36、120」〜「612、398」、…)と、各特徴点のm次元の特徴ベクトルに係る「特徴情報」(例えば、「127,25,68,495,54,2,866,…」〜「68,5,47,2,5,9,87,56,475,…」、…)とが対応付けられている。
なお、「特徴点No.」を「1」〜「3」として模式的に表し、また、「x座標」及び「y座標」を「36、120」〜「612、398」として模式的に表し、また、「特徴情報」を「127,25,68,495,54,2,866,…」〜「68,5,47,2,5,9,87,56,475,…」として模式的に表すが、一例であってこれらに限られるものではなく、適宜任意に変更可能である。
The feature amount calculation unit 7e performs a feature extraction process of extracting effective feature points from one frame image F among the plurality of frame images F,.
That is, the feature amount calculation unit 7e extracts a plurality of effective feature points from one frame image F among the plurality of frame images F acquired by the first acquisition unit 7b. Specifically, the feature amount calculation unit 7e has a large amount of shading information in a region around the pixel such as a corner constituted by a contrast boundary from within the specific image region A specified by the image region specifying unit 7c. Multiple effective feature points are extracted.
For example, the feature amount calculation unit 7e performs a predetermined feature extraction process on the image data of the second square image P3 generated by the square image generation unit 7d out of one frame image F for live view display. A plurality of feature points are extracted, and SIFT feature amounts (coordinate positions of each pixel in the XY plane space, m-dimensional feature vectors, etc.) at the effective feature points are calculated. Further, the feature amount calculation unit 7e associates various pieces of information related to the extracted feature points and temporarily records them in the memory 2 as feature point information D (see FIG. 3).
As shown in FIG. 3, the SIFT feature amount includes “feature point numbers” (for example, “1” to “3”,...) Obtained by numbering feature points in a predetermined order, and an XY plane space of each feature point. “X-coordinate” and “y-coordinate” (for example, “36, 120” to “612, 398”,... (For example, “127, 25, 68, 495, 54, 2, 866,...” To “68, 5, 47, 2, 5, 9, 87, 56, 475,...”) Are associated with each other.
The “feature point No.” is schematically represented as “1” to “3”, and the “x coordinate” and the “y coordinate” are schematically represented as “36, 120” to “612, 398”. In addition, “feature information” is schematically represented as “127, 25, 68, 495, 54, 2, 866,...” To “68, 5, 47, 2, 5, 9, 87, 56, 475,. Thus, the present invention is not limited to these and can be arbitrarily changed as appropriate.

また、特徴量演算部7eは、正方形画像生成部7dにより生成された第1正方形画像P1aの画像データに対して、上記と同様に所定の特徴抽出処理を施して、有効な特徴点におけるSIFT特徴量(各画素のXY平面空間での座標位置、m次元の特徴ベクトル等)を算出する。   In addition, the feature amount calculation unit 7e performs predetermined feature extraction processing on the image data of the first square image P1a generated by the square image generation unit 7d in the same manner as described above, so that the SIFT feature at the effective feature point is obtained. The amount (coordinate position of each pixel in the XY plane space, m-dimensional feature vector, etc.) is calculated.

第2取得部7fは、記録部6から処理済み画像P2を取得する。
具体的には、第2取得部7fは、画像領域特定部7cにより特定された特定の画像領域A内から抽出された複数の特徴点と、記録部6の第1処理済み画像テーブルT1に記録されている複数の特徴点との相違度を算出する相違度算出部f1を具備し、この相違度算出部f1により算出された相違度に基づいて、第1処理済み画像テーブルT1から処理済み画像P2を特定する。
The second acquisition unit 7f acquires the processed image P2 from the recording unit 6.
Specifically, the second acquisition unit 7f records the plurality of feature points extracted from the specific image area A specified by the image area specifying unit 7c and the first processed image table T1 of the recording unit 6. A dissimilarity calculating unit f1 that calculates the dissimilarity with the plurality of feature points that have been processed, and based on the dissimilarity calculated by the dissimilarity calculating unit f1, processed images are processed from the first processed image table T1. P2 is specified.

即ち、相違度算出部f1は、特徴量演算部7eにより抽出された複数の特徴点と記録部6に記録されている複数の特徴点との相違度を算出する。具体的には、相違度算出部f1は、第2正方形画像P3から抽出された複数の特徴点の各々の特徴情報(特徴点情報D)をメモリ2から読み出して取得するとともに、各処理済み画像P2に対応する第1正方形画像P1aから予め抽出された複数の特徴点の各々の特徴情報を第1処理済み画像テーブルT1から読み出して取得する。そして、相違度算出部f1は、第2正方形画像P3から抽出された複数の特徴点の各々の特徴情報と第1正方形画像P1aから予め抽出された複数の特徴点の各々の特徴情報とを対応する次元毎に比較し、所定の演算式に従って画像どうしの相違度を算出する。
第2取得部7fは、相違度算出部f1により算出された相違度が所定の判定値以下となったか否かを判定する。この判定の結果、相違度が所定の判定値以下となったと判定されると、第2取得部7fは、当該相違度の算出に用いられた第1正方形画像P1aの複数の特徴点と対応付けられた処理済み画像P2の画像データを記録部6から取得する。
That is, the difference calculation unit f1 calculates the difference between the plurality of feature points extracted by the feature amount calculation unit 7e and the plurality of feature points recorded in the recording unit 6. Specifically, the dissimilarity calculation unit f1 reads out and obtains feature information (feature point information D) of each of a plurality of feature points extracted from the second square image P3 from the memory 2 and processes each processed image. Feature information of each of a plurality of feature points extracted in advance from the first square image P1a corresponding to P2 is read from the first processed image table T1 and obtained. Then, the dissimilarity calculation unit f1 associates the feature information of each of the plurality of feature points extracted from the second square image P3 with the feature information of each of the plurality of feature points previously extracted from the first square image P1a. The degree of difference between images is calculated according to a predetermined arithmetic expression.
The second acquisition unit 7f determines whether or not the difference calculated by the difference calculation unit f1 is equal to or less than a predetermined determination value. As a result of this determination, when it is determined that the degree of difference is equal to or less than a predetermined determination value, the second acquisition unit 7f associates the plurality of feature points of the first square image P1a used for calculating the difference. The image data of the processed image P2 thus obtained is acquired from the recording unit 6.

このように、第2取得部7fは、特徴量演算部7eにより抽出された複数の特徴点と類似する各特徴点と対応付けられた処理済み画像P2を記録部6から取得する。
なお、第2取得部7fの構成は、一例であってこれに限られるものではなく、適宜任意に変更可能であり、例えば、相違度算出部f1を具備するか否かは適宜任意に変更可能である。また、第2取得部7fは、特徴量演算部7eにより一の画像から所定の画像に対応する画像領域が抽出された場合には、抽出された所定の画像に対応する処理済み画像P2を記録部6から取得するようにしても良い。
As described above, the second acquisition unit 7f acquires the processed image P2 associated with each feature point similar to the plurality of feature points extracted by the feature amount calculation unit 7e from the recording unit 6.
Note that the configuration of the second acquisition unit 7f is an example and is not limited thereto, and can be arbitrarily changed as appropriate. For example, whether or not the difference degree calculation unit f1 is provided can be arbitrarily changed as appropriate. It is. The second acquisition unit 7f records the processed image P2 corresponding to the extracted predetermined image when the feature amount calculation unit 7e extracts an image region corresponding to the predetermined image from one image. You may make it acquire from the part 6. FIG.

四辺形画像生成部7gは、処理済み画像P2から四辺形画像P2aを生成する。
即ち、四辺形画像生成部7gは、画像領域特定部7cにより特定された四辺形枠状の特定の画像領域Aの傾きに対応させるように、第2取得部7fにより取得された処理済み画像P2の画像データに対して射影変換処理を行って四辺形画像P2aの画像データを生成する(図9参照)。具体的には、四辺形画像生成部7gは、例えば、四辺形枠状の特定の画像領域A或いは当該画像領域の内側の四辺形領域A1に対して直線検出処理(例えば、ハフ変換処理など)を行って、四辺形を構成する4つの線分の傾きを特定する。そして、四辺形画像生成部7gは、第2取得部7fにより取得された処理済み画像P2の4つの辺(上下左右の各辺)の傾きを4つの線分の傾きに対応させるように、当該処理済み画像P2の画像データに対して射影変換処理を施して、特定の画像領域Aの内側の四辺形領域A1と略等しい形状の四辺形画像P2aの画像データを生成する。
The quadrilateral image generation unit 7g generates a quadrilateral image P2a from the processed image P2.
That is, the quadrilateral image generation unit 7g processes the processed image P2 acquired by the second acquisition unit 7f so as to correspond to the inclination of the specific image region A having the quadrangular frame shape specified by the image region specifying unit 7c. The image data of the quadrilateral image P2a is generated by performing projective transformation processing on the image data (see FIG. 9). Specifically, the quadrilateral image generation unit 7g performs, for example, a straight line detection process (for example, a Hough transform process) on a specific image area A having a quadrilateral frame shape or a quadrilateral area A1 inside the image area. To identify the slopes of the four line segments that make up the quadrilateral. Then, the quadrilateral image generation unit 7g correlates the inclinations of the four sides (upper, lower, left and right sides) of the processed image P2 acquired by the second acquisition unit 7f with the inclinations of the four line segments. Projective transformation processing is performed on the image data of the processed image P2, and image data of a quadrilateral image P2a having a shape substantially equal to the quadrilateral region A1 inside the specific image region A is generated.

合成画像生成部7hは、複数のフレーム画像F、…のうち、一のフレーム画像Fに対して、処理済み画像P2を合成した合成画像Faを生成する。
即ち、合成画像生成部7hは、一のフレーム画像Fの画像領域のうち、当該一のフレーム画像Fから抽出された複数の特徴点に対応する画像領域(例えば、四辺形領域A1)に対して、第2取得部7fにより取得された処理済み画像P2を合成した合成画像Faを生成する。具体的には、合成画像生成部7hは、一のフレーム画像Fの画像領域のうち、画像領域特定部7cにより特定された特定の画像領域A内に処理済み画像P2を合成した合成画像Faを生成する。
例えば、合成画像生成部7hは、ライブビュー表示用の一のフレーム画像Fの画像領域の中で、特定の画像領域Aの内側の四辺形領域A1の各隅部の座標位置を特定し、当該四辺形領域A1と重なるように、四辺形画像生成部7gにより生成された当該四辺形領域A1と略等しい形状の処理済み画像P2の四辺形画像P2aを合成した合成画像Faの画像データを生成する。
そして、合成画像生成部7hは、生成された各合成画像Faの画像データをメモリ2に順次出力し、当該メモリ2に格納させる。
The composite image generation unit 7h generates a composite image Fa obtained by combining the processed image P2 with the one frame image F among the plurality of frame images F,.
That is, the composite image generation unit 7h applies to an image area (for example, a quadrilateral area A1) corresponding to a plurality of feature points extracted from the one frame image F among the image areas of the one frame image F. Then, a combined image Fa is generated by combining the processed image P2 acquired by the second acquisition unit 7f. Specifically, the composite image generation unit 7h generates a composite image Fa obtained by combining the processed image P2 in the specific image region A specified by the image region specification unit 7c among the image regions of one frame image F. Generate.
For example, the composite image generation unit 7h specifies the coordinate position of each corner of the quadrilateral area A1 inside the specific image area A in the image area of one frame image F for live view display, and Image data of a combined image Fa is generated by combining the quadrilateral image P2a of the processed image P2 having a shape substantially equal to the quadrangular region A1 generated by the quadrangular image generation unit 7g so as to overlap the quadrangular region A1. .
Then, the composite image generation unit 7 h sequentially outputs the generated image data of each composite image Fa to the memory 2 and stores it in the memory 2.

表示制御部8は、メモリ2に一時的に記憶されている表示用の画像データを読み出して表示部9に表示させる制御を行う。
具体的には、表示制御部8は、VRAM(Video Random Access Memory)、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、中央制御部1の制御下にてメモリ2から読み出されてVRAM(図示略)に記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから所定の再生フレームレート(例えば、30fps)で読み出して、これらのデータを元にビデオ信号を発生して表示部9に出力する。
また、表示制御部8は、合成画像生成部7hにより生成された合成画像Faを表示部9に逐次表示させる。即ち、表示制御部8は、一のフレーム画像Fに対応する合成画像Faの画像データをメモリ2から逐次取得して、当該合成画像Faを表示部9に逐次ライブビュー表示させる(図10参照)。
The display control unit 8 performs control for reading display image data temporarily stored in the memory 2 and displaying the read image data on the display unit 9.
Specifically, the display control unit 8 includes a VRAM (Video Random Access Memory), a VRAM controller, a digital video encoder, and the like. The digital video encoder reads the luminance signal Y and the color difference signals Cb and Cr read from the memory 2 and stored in the VRAM (not shown) under the control of the central control unit 1 through the VRAM controller. Are read out at a predetermined playback frame rate (for example, 30 fps), and a video signal is generated based on these data and output to the display unit 9.
Further, the display control unit 8 causes the display unit 9 to sequentially display the composite image Fa generated by the composite image generation unit 7h. In other words, the display control unit 8 sequentially acquires the image data of the composite image Fa corresponding to one frame image F from the memory 2 and sequentially displays the composite image Fa on the display unit 9 (see FIG. 10). .

表示部9は、例えば、液晶表示パネルから構成され、表示制御部8からのビデオ信号に基づいて撮像部3により撮像された画像などを表示画面に表示する。具体的には、表示部9は、静止画撮像モードや動画撮像モードにて、撮像部3及び撮像制御部4により撮像され画像データ生成部5により生成された複数のフレーム画像F、…を所定の表示フレームレートで逐次更新しながらライブビュー画像を表示する。また、表示部9は、静止画として記録される画像のレックビュー画像を表示したり、動画として記録中の画像を表示する。   The display unit 9 is composed of, for example, a liquid crystal display panel, and displays an image captured by the imaging unit 3 based on a video signal from the display control unit 8 on a display screen. Specifically, the display unit 9 predetermines a plurality of frame images F, which are captured by the image capturing unit 3 and the image capturing control unit 4 and generated by the image data generating unit 5 in the still image capturing mode and the moving image capturing mode. The live view image is displayed while sequentially updating at the display frame rate. The display unit 9 displays a rec view image of an image recorded as a still image or an image being recorded as a moving image.

送受話部10は、通信ネットワークNを介して接続された外部機器の外部ユーザとの通話を行う。
具体的には、送受話部10は、マイク10a、スピーカ10b、データ変換部10c等を備えている。そして、送受話部10は、マイク10aから入力されるユーザの送話音声をデータ変換部10cによりA/D変換処理して送話音声データを中央制御部1に出力するとともに、中央制御部1の制御下にて、通信制御部11から出力されて入力される受話音声データ等の音声データをデータ変換部10cによりD/A変換処理してスピーカ10bから出力する。
The transmitter / receiver unit 10 performs a call with an external user of an external device connected via the communication network N.
Specifically, the transmission / reception unit 10 includes a microphone 10a, a speaker 10b, a data conversion unit 10c, and the like. The transmission / reception unit 10 performs A / D conversion processing on the user's transmission voice input from the microphone 10a by the data conversion unit 10c and outputs the transmission voice data to the central control unit 1. Under the control, voice data such as received voice data outputted and inputted from the communication control unit 11 is D / A converted by the data conversion unit 10c and outputted from the speaker 10b.

通信制御部11は、通信ネットワークN及び通信アンテナ11aを介してデータの送受信を行う。
即ち、通信アンテナ11aは、当該携帯端末100が無線基地局(図示略)との通信で採用している所定の通信方式(例えば、W−CDMA(Wideband Code Division Multiple Access)方式、CDMA2000方式、GSM(Global System for Mobile Communications;登録商標)方式等)に対応したデータの送受信が可能なアンテナである。そして、通信制御部11は、所定の通信方式に対応する通信プロトコルに従って、この通信方式で設定される通信チャネルにより無線基地局との間で通信アンテナ11aを介してデータの送受信を行う。
即ち、通信制御部11は、中央制御部1から出力されて入力される指示信号に基づいて、通信相手の外部機器に対して、当該外部機器の外部ユーザとの通話中の音声の送受信や、電子メールのデータの送受信を行う。
なお、通信制御部11の構成は一例であってこれに限られるものではなく、適宜任意に変更可能であり、例えば、図示は省略するが、無線LANモジュールを搭載し、アクセスポイント(Access Point)を介して通信ネットワークNにアクセス可能な構成としても良い。
The communication control unit 11 transmits and receives data via the communication network N and the communication antenna 11a.
That is, the communication antenna 11a is a predetermined communication method (for example, W-CDMA (Wideband Code Division Multiple Access) method, CDMA2000 method, GSM) adopted by the mobile terminal 100 for communication with a radio base station (not shown). (Global System for Mobile Communications (registered trademark) system, etc.) is an antenna that can transmit and receive data. The communication control unit 11 transmits / receives data to / from the radio base station via the communication antenna 11a through a communication channel set in the communication method according to a communication protocol corresponding to a predetermined communication method.
That is, the communication control unit 11 transmits / receives voice during a call with an external user of the external device to the external device of the communication partner based on the instruction signal output from the central control unit 1 and input, Send and receive e-mail data.
Note that the configuration of the communication control unit 11 is an example and is not limited thereto, and can be arbitrarily changed as appropriate. For example, although not shown, a wireless LAN module is mounted and an access point (Access Point) is provided. It is good also as a structure which can access the communication network N via this.

なお、通信ネットワークNは、携帯端末100を無線基地局やゲートウェイサーバ(図示略)等を介して接続する通信ネットワークである。また、通信ネットワークNは、専用線や既存の一般公衆回線を利用して構築された通信ネットワークであり、LAN(Local Area Network)やWAN(Wide Area Network)等の様々な回線形態を適用することが可能である。また、通信ネットワークNには、例えば、電話回線網、ISDN回線網、専用線、移動体通信網、通信衛星回線、CATV回線網等の各種通信ネットワーク網と、IPネットワーク、VoIP(Voice over Internet Protocol)ゲートウェイ、インターネットサービスプロバイダ等が含まれる。   The communication network N is a communication network that connects the mobile terminal 100 via a wireless base station, a gateway server (not shown), or the like. The communication network N is a communication network constructed by using a dedicated line or an existing general public line, and applies various line forms such as a LAN (Local Area Network) and a WAN (Wide Area Network). Is possible. The communication network N includes, for example, various communication network networks such as a telephone line network, ISDN line network, dedicated line, mobile communication network, communication satellite line, CATV line network, IP network, VoIP (Voice over Internet Protocol). ) Gateways, Internet service providers, etc. are included.

操作入力部12は、携帯端末100本体に対して各種指示を入力するためのものである。
具体的には、操作入力部12は、被写体の撮影指示に係るシャッタボタン、モードや機能等の選択指示に係る上下左右のカーソルボタンや決定ボタン、電話の発着信や電子メールの送受信等の実行指示に係る通信関連ボタン、テキストの入力指示に係る数字ボタンや記号ボタン等の各種ボタン(何れも図示略)を備えている。
そして、ユーザにより各種ボタンが操作されると、操作入力部12は、操作されたボタンに応じた操作指示を中央制御部1に出力する。中央制御部1は、操作入力部12から出力され入力された操作指示に従って所定の動作(例えば、被写体の撮像、電話の発着信、電子メールの送受信等)を各部に実行させる。
The operation input unit 12 is for inputting various instructions to the mobile terminal 100 main body.
Specifically, the operation input unit 12 executes a shutter button related to a subject photographing instruction, up / down / left / right cursor buttons and a determination button related to a selection instruction of a mode, a function, etc., making / receiving a call, sending / receiving an e-mail, etc. Various buttons (not shown) such as communication-related buttons related to instructions and numeric buttons and symbol buttons related to text input instructions are provided.
When various buttons are operated by the user, the operation input unit 12 outputs an operation instruction corresponding to the operated button to the central control unit 1. The central control unit 1 causes each unit to execute a predetermined operation (for example, imaging of a subject, incoming / outgoing calls, transmission / reception of an e-mail, etc.) according to an operation instruction output from the operation input unit 12 and input.

なお、操作入力部12は、表示部9と一体となって設けられたタッチパネルを有していても良く、ユーザによるタッチパネルの所定操作に基づいて、当該所定操作に応じた操作指示を中央制御部1に出力しても良い。   The operation input unit 12 may include a touch panel provided integrally with the display unit 9, and an operation instruction corresponding to the predetermined operation is given to the central control unit based on a predetermined operation of the touch panel by the user. 1 may be output.

<画像登録処理>
次に、携帯端末100による画像登録処理について図4及び図5を参照して説明する。
図4は、画像登録処理に係る動作の一例を示すフローチャートである。図5は、画像登録処理に係る画像の一例を模式的に示す図であり、図5(a)は、登録処理の対象となる所定の画像P1を模式的に表し、図5(b)は、第1正方形画像P1aを模式的に表し、図5(c)は、処理済み画像P2を模式的に表している。
<Image registration process>
Next, image registration processing by the mobile terminal 100 will be described with reference to FIGS. 4 and 5.
FIG. 4 is a flowchart illustrating an example of an operation related to the image registration process. FIG. 5 is a diagram schematically illustrating an example of an image related to the image registration process. FIG. 5A schematically illustrates a predetermined image P1 that is a target of the registration process, and FIG. The first square image P1a is schematically shown, and FIG. 5C schematically shows the processed image P2.

図4に示すように、先ず、記録部6に記録されている所定数の画像の中で、ユーザによる操作入力部12の所定操作に基づいて所定の画像P1(図5(a)参照)が指定されると(ステップS1)、正方形画像生成部7dは、当該所定の画像P1の画像データを複製して記録部6から取得する(ステップS2)。その後、正方形画像生成部7dは、当該画像データに対して正方形変換処理を施して、短辺側を長辺側に合わせるように相対的に拡大したり、長辺側を短辺側に合わせるように相対的に縮小することで第1正方形画像P1a(図5(b)参照)を生成する(ステップS3)。   As shown in FIG. 4, first, among a predetermined number of images recorded in the recording unit 6, a predetermined image P1 (see FIG. 5A) is based on a predetermined operation of the operation input unit 12 by the user. When specified (step S1), the square image generation unit 7d duplicates and acquires the image data of the predetermined image P1 from the recording unit 6 (step S2). Thereafter, the square image generation unit 7d performs a square conversion process on the image data, and relatively enlarges the short side to match the long side, or matches the long side to the short side. The first square image P1a (see FIG. 5B) is generated by reducing the image relative to (step S3).

次に、特徴量演算部7eは、正方形画像生成部7dにより生成された第1正方形画像P1aの画像データに対して所定の特徴抽出処理を施して特徴点を複数抽出し、有効な特徴点におけるSIFT特徴量を算出する(ステップS4)。   Next, the feature amount calculation unit 7e performs a predetermined feature extraction process on the image data of the first square image P1a generated by the square image generation unit 7d, and extracts a plurality of feature points. A SIFT feature amount is calculated (step S4).

その後、画像変換処理部7aは、処理対象の所定の画像P1の画像データを複製して記録部6から取得した後、ユーザによる操作入力部12の所定操作に基づいて指定された所定の処理内容の画像変換処理(例えば、アート変換処理等)を施して、処理済み画像P2(図5(c)参照)を生成する(ステップS5)。   Thereafter, the image conversion processing unit 7a duplicates and acquires the image data of the predetermined image P1 to be processed from the recording unit 6, and then the predetermined processing content designated based on the predetermined operation of the operation input unit 12 by the user. The image conversion process (for example, art conversion process) is performed to generate a processed image P2 (see FIG. 5C) (step S5).

そして、記録部6は、処理対象の画像の「画像ID」と、特徴量演算部7eにより抽出された特徴点に係る「特徴情報」と、画像変換処理部7aにより生成された処理済み画像P2の画像データ「処理済み画像」とを対応付けて第1処理済み画像テーブルT1(図2参照)に登録する(ステップS6)。
上記の各処理は、ユーザにより登録対象として指定された全ての画像について行われ、全ての画像に関する情報の登録が完了すると、当該画像登録処理が終了する。
The recording unit 6 then processes the “image ID” of the image to be processed, the “feature information” regarding the feature point extracted by the feature amount calculation unit 7e, and the processed image P2 generated by the image conversion processing unit 7a. Are registered in the first processed image table T1 (see FIG. 2) in association with each other (step S6).
Each of the above processes is performed for all images designated as registration targets by the user, and when registration of information regarding all images is completed, the image registration process ends.

<画像表示処理>
次に、携帯端末100による画像表示処理について図6〜図10を参照して説明する。
図6は、画像表示処理に係る動作の一例を示すフローチャートである。また、図7は、画像表示処理を説明するための図である。また、図8は、画像表示処理に係る画像の一例を模式的に示す図であり、図8(a)は、フレーム画像F内の特定の画像領域Aを模式的に表し、図8(b)は、特定の画像領域Aの内側の四辺形領域A1を模式的に表し、図8(c)は、第2正方形画像P3を模式的に表している。また、図9は、画像表示処理に係る四辺形画像P2aの一例を模式的に示す図である。また、図10は、画像表示処理を説明するための図である。
<Image display processing>
Next, image display processing by the portable terminal 100 will be described with reference to FIGS.
FIG. 6 is a flowchart illustrating an example of an operation related to the image display process. FIG. 7 is a diagram for explaining image display processing. FIG. 8 is a diagram schematically illustrating an example of an image related to the image display processing. FIG. 8A schematically illustrates a specific image region A in the frame image F, and FIG. ) Schematically represents the quadrilateral area A1 inside the specific image area A, and FIG. 8C schematically represents the second square image P3. FIG. 9 is a diagram schematically illustrating an example of a quadrilateral image P2a related to image display processing. FIG. 10 is a diagram for explaining image display processing.

図6に示すように、先ず、ユーザによる操作入力部12の所定操作に基づいて撮像モードが選択された後、撮像制御部4の制御下にて、撮像部3により特定の被写体Sの撮像が行われると(ステップS11)、表示制御部8は、画像データ生成部5により生成された複数のフレーム画像F、…を所定の表示フレームレートで逐次更新しながらライブビュー画像を表示部9に表示させる(ステップS12;図7参照)。   As shown in FIG. 6, first, after an imaging mode is selected based on a predetermined operation of the operation input unit 12 by the user, a specific subject S is imaged by the imaging unit 3 under the control of the imaging control unit 4. When performed (step S11), the display control unit 8 displays the live view image on the display unit 9 while sequentially updating the plurality of frame images F,... Generated by the image data generation unit 5 at a predetermined display frame rate. (Step S12; see FIG. 7).

次に、画像処理部7の第1取得部7bは、画像データ生成部5により逐次生成された複数のフレーム画像F、…のライブビュー表示用の低解像度の画像データをメモリ2から逐次取得する(ステップS13)。続けて、画像領域特定部7cは、取得された複数のフレーム画像F、…のうち、一のフレーム画像Fのライブビュー表示用の低解像度の画像データに含まれる四辺形枠状の特定の画像領域A(図8(a)参照)を特定する(ステップS14)。これにより、画像領域特定部7cは、例えば、額装された写真を特定の被写体Sとして撮像する場合に、矩形状の額縁Gに対応する四辺形枠状の特定の画像領域Aを特定する。   Next, the first acquisition unit 7b of the image processing unit 7 sequentially acquires low-resolution image data for live view display of a plurality of frame images F,... Sequentially generated by the image data generation unit 5 from the memory 2. (Step S13). Subsequently, the image area specifying unit 7c specifies a quadrilateral frame-shaped specific image included in the low-resolution image data for live view display of one frame image F among the plurality of acquired frame images F,. Region A (see FIG. 8A) is specified (step S14). Thereby, for example, when the framed photograph is captured as the specific subject S, the image area specifying unit 7c specifies the specific image area A having a quadrangular frame shape corresponding to the rectangular frame G.

次に、正方形画像生成部7dは、四辺形枠状の特定の画像領域Aの4つの頂点の内側の角部により囲まれた領域内で四辺形領域A1(図8(b)参照)を特定した後(ステップS15)、四辺形領域A1の画像の画像データに対して正方形変換処理を施して、短辺側を長辺側に合わせるように相対的に拡大したり、長辺側を短辺側に合わせるように相対的に縮小することで第2正方形画像P3(図8(c)参照)を生成する(ステップS16)。
次に、特徴量演算部7eは、正方形画像生成部7dにより生成された第2正方形画像P3の画像データに対して所定の特徴抽出処理を施して特徴点を複数抽出し、有効な特徴点におけるSIFT特徴量を算出する(ステップS17)。そして、特徴量演算部7eは、抽出された特徴点に係る各種の情報を対応付けて、特徴点情報D(図3参照)としてメモリ2に一時的に記録させる。
Next, the square image generation unit 7d identifies the quadrilateral region A1 (see FIG. 8B) within the region surrounded by the corners inside the four vertices of the specific image region A having a quadrilateral frame shape. (Step S15), the image data of the image of the quadrilateral area A1 is subjected to a square conversion process so that the short side is relatively enlarged to match the long side, or the long side is set to the short side. A second square image P3 (see FIG. 8C) is generated by relatively reducing the image so as to match the side (step S16).
Next, the feature amount calculation unit 7e performs a predetermined feature extraction process on the image data of the second square image P3 generated by the square image generation unit 7d, and extracts a plurality of feature points. A SIFT feature amount is calculated (step S17). Then, the feature amount calculation unit 7e associates various pieces of information related to the extracted feature points and temporarily records them in the memory 2 as feature point information D (see FIG. 3).

次に、第2取得部7fの相違度算出部f1は、第1処理済み画像テーブルT1から各処理済み画像P2の第1正方形画像P1aから予め抽出された複数の特徴点の各々の特徴情報を読み出して取得した後(ステップS18)、メモリ2に一時的に記録されている特徴点情報Dを取得し、互いの特徴情報を対応する次元毎に比較して、所定の演算式に従って画像どうしの相違度を算出する(ステップS19)。
そして、第2取得部7fは、相違度算出部f1により算出された相違度が所定の判定値以下となったか否かを判定する(ステップS20)。ここで、相違度が所定の判定値以下であると判定されると(ステップS20;YES)、第2取得部7fは、当該相違度の算出に用いられた第1正方形画像P1aの複数の特徴点と対応付けられた処理済み画像P2の画像データを記録部6から取得する(ステップS21)。
Next, the dissimilarity calculation unit f1 of the second acquisition unit 7f obtains the feature information of each of the plurality of feature points extracted in advance from the first square image P1a of each processed image P2 from the first processed image table T1. After reading out and acquiring (step S18), the feature point information D temporarily recorded in the memory 2 is acquired, the mutual feature information is compared for each corresponding dimension, and the images are compared according to a predetermined arithmetic expression. The degree of difference is calculated (step S19).
Then, the second acquisition unit 7f determines whether or not the difference calculated by the difference calculation unit f1 is equal to or less than a predetermined determination value (step S20). Here, if it is determined that the difference is equal to or less than the predetermined determination value (step S20; YES), the second acquisition unit 7f has a plurality of features of the first square image P1a used for calculating the difference. Image data of the processed image P2 associated with the point is acquired from the recording unit 6 (step S21).

一方、ステップS20にて、相違度が所定の判定値よりも大きいと判定されると(ステップS20;NO)、中央制御部1のCPUは、処理をステップS1に戻し、撮像制御部4の制御下にて、撮像部3により特定の被写体Sの撮像が行われる。その後、中央制御部1は、ステップS2以降の各処理を上記と同様にして実行する。
なお、ステップS20の判定にて、所定の判定値以下となった相違度が複数あった場合には、第2取得部7fは、相違度が最も小さいものを特定して、当該相違度の算出に用いられた複数の特徴点と対応付けられた処理済み画像P2の画像データを取得する。
On the other hand, when it is determined in step S20 that the degree of difference is larger than the predetermined determination value (step S20; NO), the CPU of the central control unit 1 returns the process to step S1 and controls the imaging control unit 4 Below, a specific subject S is imaged by the imaging unit 3. Thereafter, the central control unit 1 executes each processing after step S2 in the same manner as described above.
In addition, when there are a plurality of dissimilarities that are equal to or smaller than the predetermined determination value in the determination in step S20, the second acquisition unit 7f specifies the one having the smallest dissimilarity and calculates the dissimilarity The image data of the processed image P2 associated with the plurality of feature points used in the above is acquired.

その後、四辺形画像生成部7gは、四辺形枠状の特定の画像領域Aにおける四辺形を構成する4つの線分の傾きを特定した後、当該4つの線分の傾きに処理済み画像P2の4つの辺の傾きを対応させるように、処理済み画像P2の画像データに対して射影変換処理を施して四辺形画像P2aの画像データを生成する(ステップS22)。
続けて、合成画像生成部7hは、ライブビュー表示用の一のフレーム画像Fの画像領域の中で、特定の画像領域Aの内側の四辺形領域A1と重なるように当該四辺形領域A1と略等しい形状の処理済み画像P2の四辺形画像P2aを合成した合成画像Faの画像データを生成する(ステップS23)。そして、合成画像生成部7hは、各合成画像Faの画像データをメモリ2に順次出力し、当該メモリ2に格納させる。
After that, the quadrilateral image generation unit 7g specifies the inclinations of the four line segments constituting the quadrilateral in the specific image area A of the quadrilateral frame shape, and then the processed image P2 has the inclinations of the four line segments. Projective transformation processing is performed on the image data of the processed image P2 so as to correspond to the inclinations of the four sides, thereby generating image data of the quadrilateral image P2a (step S22).
Subsequently, the composite image generating unit 7h is substantially the same as the quadrangular region A1 so as to overlap the quadrangular region A1 inside the specific image region A in the image region of one frame image F for live view display. Image data of a composite image Fa obtained by combining the quadrilateral image P2a of the processed image P2 having the same shape is generated (step S23). Then, the composite image generation unit 7 h sequentially outputs the image data of each composite image Fa to the memory 2 and stores it in the memory 2.

次に、表示制御部8は、メモリ2から一のフレーム画像Fに対応する合成画像Faの画像データを取得して、当該合成画像Faを表示部9にライブビュー表示させる(ステップS24;図10参照)。即ち、表示部9には、一のフレーム画像Fのうち、特定の画像領域Aの内側の四辺形領域A1の部分が処理済み画像P2の四辺形画像P2aに置き換えられた合成画像Faが表示される。   Next, the display control unit 8 acquires the image data of the composite image Fa corresponding to the one frame image F from the memory 2 and displays the composite image Fa on the display unit 9 (step S24; FIG. 10). reference). That is, the display unit 9 displays the composite image Fa in which the portion of the quadrilateral area A1 inside the specific image area A in the one frame image F is replaced with the quadrilateral image P2a of the processed image P2. The

その後、中央制御部1のCPUは、画像表示処理の終了指示が入力されたか否かを判定する(ステップS25)。具体的には、中央制御部1のCPUは、例えば、ユーザによる操作入力部12のシャッタボタンの所定操作(例えば、全押し操作等)に基づいて被写体の撮像指示が入力されたか否かや、選択決定ボタンの所定操作に基づいて撮像モードとは異なるモードが設定されたか否か等に応じて、画像表示処理の終了指示が入力されたか否かを判定する。
ステップS25にて、画像表示処理の終了指示が入力されていないと判定されると(ステップS25;NO)、中央制御部1のCPUは、処理をステップS1に戻し、それ以降の処理の実行を制御する。
一方、画像表示処理の終了指示が入力されたと判定されると(ステップS25;YES)、中央制御部1のCPUは、画像表示処理を終了する。
Thereafter, the CPU of the central control unit 1 determines whether or not an instruction to end the image display process has been input (step S25). Specifically, the CPU of the central control unit 1 determines whether or not a subject imaging instruction is input based on, for example, a predetermined operation (for example, full pressing operation) of the shutter button of the operation input unit 12 by the user, It is determined whether or not an instruction to end the image display process is input based on whether or not a mode different from the imaging mode is set based on a predetermined operation of the selection determination button.
If it is determined in step S25 that an instruction to end the image display process has not been input (step S25; NO), the CPU of the central control unit 1 returns the process to step S1 and executes the subsequent processes. Control.
On the other hand, if it is determined that an instruction to end the image display process has been input (step S25; YES), the CPU of the central control unit 1 ends the image display process.

以上のように、実施形態1の携帯端末100によれば、逐次取得された複数のフレーム画像F、…のうち、一のフレーム画像Fから特徴点を複数抽出し、当該複数の特徴点と類似する各特徴点と対応付けられた処理済み画像P2を記録部6から取得して、一のフレーム画像Fの画像領域のうち、当該一のフレーム画像Fから抽出された複数の特徴点に対応する画像領域に対して、処理済み画像P2を合成した合成画像Faを生成するので、被写体とは全く関係のないマーカーを用いなくとも所定の画像変換処理が施された特定の被写体Sの内容に対する親和性の高い処理済み画像P2を含む合成画像Faを逐次表示させることができる。つまり、複数のフレーム画像F、…を逐次ライブビュー表示させる際、当該複数のフレーム画像F、…のうちの一のフレーム画像Fの複数の特徴点と類似する各特徴点が記録部6に記録されている場合に、当該各特徴点と対応付けられた処理済み画像P2をフレーム画像F内に合成することで、表示される画像の一部分を処理済み画像P2に置換したライブビュー画像(合成画像Fa)を逐次表示することができ、ライブビュー画像の視認者に対して、現実の被写体の内容に対して親和性を低下させることなく興趣性のより高い画像を提供することができる。
このように、撮像される物体自体の品質を低下させることなく、当該物体の内容に対して親和性の高い画像を表示することができる。
As described above, according to the mobile terminal 100 of the first embodiment, a plurality of feature points are extracted from one frame image F among a plurality of sequentially acquired frame images F,... And similar to the plurality of feature points. The processed image P2 associated with each feature point to be acquired is acquired from the recording unit 6 and corresponds to a plurality of feature points extracted from the one frame image F in the image region of the one frame image F. Since the composite image Fa is generated by compositing the processed image P2 with respect to the image region, the affinity for the content of the specific subject S that has been subjected to the predetermined image conversion processing without using a marker that has nothing to do with the subject. The composite image Fa including the highly processed image P2 can be sequentially displayed. That is, when the plurality of frame images F,... Are sequentially displayed in live view, the feature points similar to the plurality of feature points of one frame image F of the plurality of frame images F,. The live view image (synthesized image) in which a part of the displayed image is replaced with the processed image P2 by synthesizing the processed image P2 associated with each feature point in the frame image F. Fa) can be sequentially displayed, and a more interesting image can be provided to the viewer of the live view image without reducing the affinity for the contents of the actual subject.
In this way, an image having high affinity for the contents of the object can be displayed without degrading the quality of the imaged object itself.

また、一のフレーム画像F内の特定の画像領域A内から特徴点を複数抽出するので、特徴点の抽出範囲を制限することで当該複数の特徴点と類似する各特徴点の特定を適正に、且つ、高速に行うことができ、記録部6からの処理済み画像P2の取得を適正に行うことができる。
さらに、一のフレーム画像Fの画像領域のうち、特定の画像領域A内に処理済み画像P2を合成した合成画像Faを生成するので、特定の画像領域Aを利用することで一のフレーム画像Fの画像領域内にて処理済み画像P2を適正な位置に合成することができる。
さらに、四辺形枠状の特定の画像領域Aの傾きに対応させるように、処理済み画像P2に対して射影変換処理を行って四辺形画像P2aを生成して、一のフレーム画像Fの画像領域のうち、特定の画像領域A内に処理済み画像P2の四辺形画像P2aを合成した合成画像Faを生成するので、特定の被写体Sを斜めから撮像することで特定の画像領域Aが直角四辺形状になっていない場合であっても、四辺形枠状の特定の画像領域Aの傾きに合わせた形状の処理済み画像P2の四辺形画像P2aを一のフレーム画像Fの画像領域に合成することができ、合成画像Faの視認者に対して違和感を生じさせ難くすることができる。
In addition, since a plurality of feature points are extracted from a specific image region A in one frame image F, the feature points similar to the plurality of feature points can be specified appropriately by limiting the extraction range of the feature points. In addition, the processing can be performed at high speed, and the processed image P2 from the recording unit 6 can be appropriately acquired.
Further, since the composite image Fa is generated by combining the processed image P2 in the specific image region A among the image regions of the single frame image F, the single frame image F can be obtained by using the specific image region A. The processed image P2 can be synthesized at an appropriate position in the image area.
Further, a projection conversion process is performed on the processed image P2 so as to correspond to the inclination of the specific image area A having a quadrilateral frame shape to generate a quadrilateral image P2a, and the image area of one frame image F Among them, the composite image Fa is generated by combining the quadrilateral image P2a of the processed image P2 in the specific image region A, so that the specific image region A has a right-sided quadrilateral shape by capturing the specific subject S from an oblique direction. Even if not, the quadrilateral image P2a of the processed image P2 having a shape that matches the inclination of the specific image area A of the quadrilateral frame shape may be combined with the image area of one frame image F. It is possible to make it difficult for the viewer of the composite image Fa to feel uncomfortable.

また、一のフレーム画像Fから抽出された複数の特徴点と記録部6に記録されている複数の特徴点との相違度を算出し、算出された相違度が所定の判定値以下となった複数の特徴点と対応付けられた処理済み画像P2を記録部6から取得するので、所定の画像P1の内容に対する親和性の高い処理済み画像P2の特定を適正に行うことができる。特に、四辺形枠状の特定の画像領域Aの内側の四辺形領域A1の画像に対して正方形変換処理を行って生成された第2正方形画像P3から抽出された複数の特徴点と記録部6に記録されている所定の画像P1を正方形に変換した第1正方形画像P1aから予め抽出された複数の特徴点との相違度を算出することで、画像どうしの向き、即ち、水平及び垂直の各方向の影響を排除して相違度を算出することができ、当該算出処理の高速化を図ることができる。   Further, the degree of difference between the plurality of feature points extracted from one frame image F and the plurality of feature points recorded in the recording unit 6 is calculated, and the calculated difference degree is equal to or less than a predetermined determination value. Since the processed image P2 associated with a plurality of feature points is acquired from the recording unit 6, the processed image P2 having high affinity for the content of the predetermined image P1 can be properly specified. In particular, a plurality of feature points extracted from the second square image P3 generated by performing the square conversion process on the image of the quadrilateral area A1 inside the specific image area A of the quadrilateral frame shape and the recording unit 6 By calculating the degree of difference from a plurality of feature points extracted in advance from the first square image P1a obtained by converting the predetermined image P1 recorded in the square into a square, each of the horizontal and vertical directions The degree of difference can be calculated by removing the influence of the direction, and the calculation process can be speeded up.

[実施形態2]
図11は、本発明を適用した実施形態2の携帯端末200の概略構成を示すブロック図である。
なお、実施形態2の携帯端末200は、以下に詳細に説明する以外の点で上記実施形態1の携帯端末100と略同様の構成をなし、詳細な説明は省略する。
[Embodiment 2]
FIG. 11 is a block diagram illustrating a schematic configuration of the mobile terminal 200 according to the second embodiment to which the present invention is applied.
Note that the portable terminal 200 of the second embodiment has substantially the same configuration as the portable terminal 100 of the first embodiment except for the details described below, and a detailed description thereof is omitted.

図11に示すように、実施形態2の携帯端末200の記録部6には、第2処理済み画像テーブルT2が記録されている。
第2処理済み画像テーブルT2は、第1処理済み画像テーブルT1と同様に、「画像ID」と、「特徴情報」と、「処理済み画像」とが対応付けられたものであるが、このうち、「特徴情報」は、登録処理の対象となる所定の画像P1の画像データ自体から抽出された複数の特徴点に係る情報を含む。
As shown in FIG. 11, the second processed image table T2 is recorded in the recording unit 6 of the mobile terminal 200 of the second embodiment.
Like the first processed image table T1, the second processed image table T2 is a table in which “image ID”, “feature information”, and “processed image” are associated with each other. The “feature information” includes information related to a plurality of feature points extracted from the image data itself of the predetermined image P1 to be registered.

また、画像処理部207は、画像変換処理部7aと、第1取得部7bと、特徴量演算部7eと、第2取得部7fと、合成画像生成部7hとを具備している。
なお、画像変換処理部7a及び第1取得部7bの機能は、上記実施形態1と同様であり、その詳細な説明は省略する。
The image processing unit 207 includes an image conversion processing unit 7a, a first acquisition unit 7b, a feature amount calculation unit 7e, a second acquisition unit 7f, and a composite image generation unit 7h.
The functions of the image conversion processing unit 7a and the first acquisition unit 7b are the same as those in the first embodiment, and a detailed description thereof is omitted.

特徴量演算部7eは、複数のフレーム画像F、…のうち、一のフレーム画像Fからコントラストの境界で構成されるコーナーなどの画素の周囲の領域に多くの濃淡情報をもつ有効な特徴点を抽出する特徴抽出処理を行う。
具体的には、特徴量演算部7eは、例えば、ライブビュー表示用の一のフレーム画像Fの画像データに対して所定の特徴抽出処理を施して特徴点を複数抽出し、有効な特徴点におけるSIFT特徴量(各画素のXY平面空間での座標位置、m次元の特徴ベクトル等)を算出する。また、特徴量演算部7eは、抽出された特徴点に係る各種の情報を対応付けて、特徴点情報D(図3参照)としてメモリ2に一時的に記録させる。
また、特徴量演算部7eは、例えば、登録処理の対象となる所定の画像P1の画像データに対して、上記と同様に所定の特徴抽出処理を施して特徴点を複数抽出し、有効な特徴点におけるSIFT特徴量(各画素のXY平面空間での座標位置、m次元の特徴ベクトル等)を算出する。
The feature amount calculation unit 7e selects effective feature points having a large amount of grayscale information in a region around a pixel such as a corner constituted by a boundary of contrast from one frame image F among a plurality of frame images F,. The feature extraction process to extract is performed.
Specifically, the feature amount calculation unit 7e performs a predetermined feature extraction process on the image data of one frame image F for live view display, for example, to extract a plurality of feature points. SIFT feature values (coordinate positions of each pixel in the XY plane space, m-dimensional feature vectors, etc.) are calculated. Further, the feature amount calculation unit 7e associates various pieces of information related to the extracted feature points and temporarily records them in the memory 2 as feature point information D (see FIG. 3).
In addition, the feature amount calculation unit 7e performs, for example, a predetermined feature extraction process on the image data of the predetermined image P1 to be registered, and extracts a plurality of feature points in the same manner as described above. SIFT feature values (coordinate positions of each pixel in the XY plane space, m-dimensional feature vectors, etc.) at the points are calculated.

なお、特徴量演算部7eは、特徴点を抽出する前に、例えば、AF評価値等を利用して予め主要被写体が含まれる特定の被写体領域A2(図14参照)を特定しておき、当該特定の被写体領域A2内から特徴点を抽出するようにしても良い。   Note that, before extracting the feature points, the feature amount calculation unit 7e specifies a specific subject area A2 (see FIG. 14) including the main subject in advance using, for example, an AF evaluation value, and the like. The feature points may be extracted from within the specific subject area A2.

第2取得部7fの相違度算出部f1は、特徴量演算部7eにより抽出された複数の特徴点と記録部6に記録されている複数の特徴点との相違度を算出する。具体的には、相違度算出部f1は、一のフレーム画像Fから抽出された複数の特徴点の各々の特徴情報をメモリ2から読み出して取得するとともに、各処理済み画像P2に対応する所定の画像P1から予め抽出された複数の特徴点の各々の特徴情報を第2処理済み画像テーブルT2から読み出して取得する。そして、相違度算出部f1は、一のフレーム画像Fから抽出された複数の特徴点の各々の特徴情報と所定の画像P1から予め抽出された複数の特徴点の各々の特徴情報とを対応する次元毎に比較し、所定の演算式に従って画像どうしの相違度を算出する。
第2取得部7fは、相違度算出部f1により算出された相違度が所定の判定値以下となったか否かを判定する。この判定の結果、相違度が所定の判定値以下となったと判定されると、第2取得部7fは、当該相違度の算出に用いられた所定の画像P1の複数の特徴点と対応付けられた処理済み画像P2の画像データを記録部6から取得する。
The difference calculation unit f1 of the second acquisition unit 7f calculates the difference between the plurality of feature points extracted by the feature amount calculation unit 7e and the plurality of feature points recorded in the recording unit 6. Specifically, the degree-of-difference calculation unit f1 reads out and obtains feature information of each of a plurality of feature points extracted from one frame image F from the memory 2 and obtains predetermined information corresponding to each processed image P2. The feature information of each of the plurality of feature points extracted in advance from the image P1 is read from the second processed image table T2 and acquired. Then, the dissimilarity calculation unit f1 associates the feature information of each of the plurality of feature points extracted from one frame image F with the feature information of each of the plurality of feature points extracted in advance from the predetermined image P1. Comparison is made for each dimension, and the degree of difference between the images is calculated according to a predetermined arithmetic expression.
The second acquisition unit 7f determines whether or not the difference calculated by the difference calculation unit f1 is equal to or less than a predetermined determination value. As a result of this determination, when it is determined that the degree of difference is equal to or less than a predetermined determination value, the second acquisition unit 7f is associated with a plurality of feature points of the predetermined image P1 used for calculation of the difference. The image data of the processed image P2 is acquired from the recording unit 6.

合成画像生成部7hは、複数のフレーム画像F、…のうち、一のフレーム画像Fに対して、処理済み画像P2を合成した合成画像Fbを生成する。
即ち、合成画像生成部7hは、一のフレーム画像Fの画像領域のうち、当該一のフレーム画像Fから抽出された複数の特徴点に対応する画像領域に対して、第2取得部7fにより取得された処理済み画像P2を合成した合成画像Fbを生成する。具体的には、合成画像生成部7hは、例えば、ライブビュー表示用の一のフレーム画像Fの画像領域の中で、主要被写体が含まれる特定の被写体領域A2(例えば、写真に対応する領域等)を特定し、当該特定の被写体領域A2と重なるように処理済み画像P2を合成した合成画像Fbの画像データを生成する。
このとき、特定の被写体領域A2の形状が矩形状ではない場合には、合成画像生成部7hは、処理済み画像P2の画像データに対して射影変換処理を施して、当該処理済み画像P2の四辺形画像P2aの画像データを生成し、当該四辺形画像P2aを一のフレーム画像Fの画像領域に合成するようにしても良い。
The composite image generation unit 7h generates a composite image Fb obtained by combining the processed image P2 with one frame image F among the plurality of frame images F,.
That is, the composite image generation unit 7h acquires the image region corresponding to a plurality of feature points extracted from the one frame image F from the image region of the one frame image F by the second acquisition unit 7f. A synthesized image Fb is generated by synthesizing the processed image P2. Specifically, the composite image generation unit 7h, for example, in the image area of one frame image F for live view display, includes a specific subject area A2 including the main subject (for example, an area corresponding to a photograph or the like). ) Is specified, and image data of a composite image Fb obtained by combining the processed image P2 so as to overlap with the specific subject area A2 is generated.
At this time, if the shape of the specific subject area A2 is not rectangular, the composite image generation unit 7h performs projective transformation processing on the image data of the processed image P2, and the four sides of the processed image P2 The image data of the shape image P2a may be generated, and the quadrilateral image P2a may be combined with the image area of one frame image F.

<画像登録処理>
次に、携帯端末200による画像登録処理について図12を参照して説明する。
図12は、画像登録処理に係る動作の一例を示すフローチャートである。
なお、実施形態2の携帯端末200による画像登録処理は、以下に詳細に説明する以外の点で上記実施形態1の携帯端末100による画像登録処理と略同様であり、詳細な説明は省略する。
<Image registration process>
Next, image registration processing by the mobile terminal 200 will be described with reference to FIG.
FIG. 12 is a flowchart illustrating an example of an operation related to the image registration process.
Note that the image registration process performed by the mobile terminal 200 according to the second embodiment is substantially the same as the image registration process performed by the mobile terminal 100 according to the first embodiment except for the details described below, and a detailed description thereof will be omitted.

図12に示すように、上記実施形態1の画像登録処理と略同様に、先ず、記録部6に記録されている所定数の画像の中で、ユーザによる操作入力部12の所定操作に基づいて所定の画像P1(図5(a)参照)が指定されると(ステップS1)、特徴量演算部7eは、当該所定の画像P1の画像データを複製して記録部6から取得する(ステップS52)。
次に、特徴量演算部7eは、取得された所定の画像P1の画像データに対して所定の特徴抽出処理を施して特徴点を複数抽出し、有効な特徴点におけるSIFT特徴量を算出する(ステップS53)。
As shown in FIG. 12, as in the image registration process of the first embodiment, first, among a predetermined number of images recorded in the recording unit 6, first, based on a predetermined operation of the operation input unit 12 by the user. When a predetermined image P1 (see FIG. 5A) is specified (step S1), the feature amount calculation unit 7e duplicates and acquires the image data of the predetermined image P1 from the recording unit 6 (step S52). ).
Next, the feature amount calculation unit 7e performs a predetermined feature extraction process on the acquired image data of the predetermined image P1 to extract a plurality of feature points, and calculates a SIFT feature amount at an effective feature point ( Step S53).

その後、画像変換処理部7aは、処理対象の所定の画像P1の画像データを複製して記録部6から取得した後、ユーザによる操作入力部12の所定操作に基づいて指定された所定の処理内容の画像変換処理(例えば、アート変換処理等)を施して、処理済み画像P2(図5(c)参照)を生成する(ステップS54)。   Thereafter, the image conversion processing unit 7a duplicates and acquires the image data of the predetermined image P1 to be processed from the recording unit 6, and then the predetermined processing content designated based on the predetermined operation of the operation input unit 12 by the user. The image conversion process (for example, art conversion process) is performed to generate a processed image P2 (see FIG. 5C) (step S54).

そして、記録部6は、処理対象の画像の「画像ID」と、特徴量演算部7eにより抽出された特徴点に係る「特徴情報」と、画像変換処理部7aにより生成された処理済み画像P2の画像データ「処理済み画像」とを対応付けて第2処理済み画像テーブルT2に登録する(ステップS55)。
上記の各処理は、ユーザにより登録対象として指定された全ての画像について行われ、全ての画像に関する情報の登録が完了すると、当該画像登録処理が終了する。
The recording unit 6 then processes the “image ID” of the image to be processed, the “feature information” regarding the feature point extracted by the feature amount calculation unit 7e, and the processed image P2 generated by the image conversion processing unit 7a. Are registered in the second processed image table T2 in association with each other (step S55).
Each of the above processes is performed for all images designated as registration targets by the user, and when registration of information regarding all images is completed, the image registration process ends.

<画像表示処理>
次に、携帯端末200による画像表示処理について図13〜図15を参照して説明する。
図13は、画像表示処理に係る動作の一例を示すフローチャートである。また、図14及び図15は、画像表示処理を説明するための図である。
なお、実施形態2の携帯端末200による画像表示処理は、以下に詳細に説明する以外の点で上記実施形態1の携帯端末100による画像表示処理と略同様であり、詳細な説明は省略する。
<Image display processing>
Next, image display processing by the portable terminal 200 will be described with reference to FIGS.
FIG. 13 is a flowchart illustrating an example of an operation related to image display processing. 14 and 15 are diagrams for explaining the image display process.
Note that the image display process performed by the mobile terminal 200 according to the second embodiment is substantially the same as the image display process performed by the mobile terminal 100 according to the first embodiment except for the details described below, and a detailed description thereof will be omitted.

図13に示すように、上記実施形態1の画像登録処理と略同様に、先ず、ユーザによる操作入力部12の所定操作に基づいて撮像モードが選択された後、撮像制御部4の制御下にて、撮像部3により特定の被写体Sの撮像が行われると(ステップS11)、表示制御部8は、画像データ生成部5により生成された複数のフレーム画像F、…を所定の表示フレームレートで逐次更新しながらライブビュー画像を表示部9に表示させる(ステップS12;図14参照)。   As shown in FIG. 13, in substantially the same manner as the image registration process of the first embodiment, first, after an imaging mode is selected based on a predetermined operation of the operation input unit 12 by the user, the control is performed by the imaging control unit 4. When the imaging unit 3 captures a specific subject S (step S11), the display control unit 8 displays the plurality of frame images F,... Generated by the image data generation unit 5 at a predetermined display frame rate. The live view image is displayed on the display unit 9 while sequentially updating (step S12; see FIG. 14).

次に、画像処理部207の第1取得部7bは、上記実施形態1の画像登録処理と略同様に、画像データ生成部5により逐次生成された複数のフレーム画像F、…のライブビュー表示用の低解像度の画像データをメモリ2から逐次取得する(ステップS13)。続けて、特徴量演算部7eは、取得された複数のフレーム画像F、…のうち、一のフレーム画像Fのライブビュー表示用の低解像度の画像データに対して所定の特徴抽出処理を施して特徴点を複数抽出し、有効な特徴点におけるSIFT特徴量を算出する(ステップS64)。そして、特徴量演算部7eは、抽出された特徴点に係る各種の情報を対応付けて、特徴点情報Dとしてメモリ2に一時的に記録させる。   Next, the first acquisition unit 7b of the image processing unit 207 is for live view display of a plurality of frame images F,... Sequentially generated by the image data generation unit 5 in substantially the same manner as the image registration processing of the first embodiment. Are sequentially acquired from the memory 2 (step S13). Subsequently, the feature amount calculation unit 7e performs predetermined feature extraction processing on the low-resolution image data for live view display of one frame image F among the plurality of acquired frame images F,. A plurality of feature points are extracted, and SIFT feature values at effective feature points are calculated (step S64). Then, the feature amount calculation unit 7e associates various pieces of information related to the extracted feature points and temporarily records them in the memory 2 as the feature point information D.

次に、第2取得部7fの相違度算出部f1は、第2処理済み画像テーブルT2から各処理済み画像P2に対応する所定の画像P1から予め抽出された複数の特徴点の各々の特徴情報を読み出して取得した後(ステップS65)、メモリ2に一時的に記録されている特徴点情報Dを取得し、互いの特徴情報を対応する次元毎に比較して、所定の演算式に従って画像どうしの相違度を算出する(ステップS66)。
そして、第2取得部7fは、上記実施形態1の画像登録処理と略同様に、相違度算出部f1により算出された相違度が所定の判定値以下となったか否かを判定する(ステップS20)。ここで、相違度が所定の判定値以下であると判定されると(ステップS20;YES)、上記実施形態1の画像登録処理と略同様に、第2取得部7fは、当該相違度の算出に用いられた所定の画像P1の複数の特徴点と対応付けられた処理済み画像P2の画像データを記録部6から取得する(ステップS21)。
Next, the dissimilarity calculation unit f1 of the second acquisition unit 7f includes feature information of each of a plurality of feature points extracted in advance from a predetermined image P1 corresponding to each processed image P2 from the second processed image table T2. Is acquired (step S65), the feature point information D temporarily recorded in the memory 2 is acquired, the mutual feature information is compared for each corresponding dimension, and the images are compared according to a predetermined arithmetic expression. Is calculated (step S66).
Then, the second acquisition unit 7f determines whether or not the difference calculated by the difference calculation unit f1 is equal to or less than a predetermined determination value in substantially the same manner as the image registration process of the first embodiment (step S20). ). Here, if it is determined that the degree of difference is equal to or less than the predetermined determination value (step S20; YES), the second acquisition unit 7f calculates the degree of difference in substantially the same manner as the image registration process of the first embodiment. The image data of the processed image P2 associated with a plurality of feature points of the predetermined image P1 used in the above is acquired from the recording unit 6 (step S21).

一方、ステップS20にて、相違度が所定の判定値よりも大きいと判定されると(ステップS20;NO)、上記実施形態1の画像登録処理と略同様に、中央制御部1のCPUは、処理をステップS1に戻し、撮像制御部4の制御下にて、撮像部3により特定の被写体Sの撮像が行われる。その後、中央制御部1は、ステップS2以降の各処理を上記と同様にして実行する。   On the other hand, if it is determined in step S20 that the degree of difference is greater than a predetermined determination value (step S20; NO), the CPU of the central control unit 1 performs substantially the same as the image registration process of the first embodiment. The processing is returned to step S1, and the imaging of the specific subject S is performed by the imaging unit 3 under the control of the imaging control unit 4. Thereafter, the central control unit 1 executes each processing after step S2 in the same manner as described above.

その後、合成画像生成部7hは、ライブビュー表示用の一のフレーム画像Fの画像領域の中で、主要被写体である矩形状の写真に対応する特定の被写体領域A2を特定し、当該特定の被写体領域A2と重なるように処理済み画像P2を合成した合成画像Fbの画像データを生成する(ステップS67)。そして、合成画像生成部7hは、各合成画像Fbの画像データをメモリ2に順次出力し、当該メモリ2に格納させる。   Thereafter, the composite image generation unit 7h specifies a specific subject area A2 corresponding to a rectangular photograph that is the main subject in the image area of one frame image F for live view display, and the specific subject Image data of a synthesized image Fb obtained by synthesizing the processed image P2 so as to overlap with the area A2 is generated (step S67). Then, the composite image generation unit 7 h sequentially outputs the image data of each composite image Fb to the memory 2 and stores it in the memory 2.

次に、表示制御部8は、メモリ2から一のフレーム画像Fに対応する合成画像Fbの画像データを取得して、当該合成画像Fbを表示部9にライブビュー表示させる(ステップS68;図15参照)。即ち、表示部9には、一のフレーム画像Fのうち、主要被写体である矩形状の写真に対応する特定の被写体領域A2の部分が処理済み画像P2に置き換えられた合成画像Fbが表示される。   Next, the display control unit 8 acquires the image data of the composite image Fb corresponding to the one frame image F from the memory 2, and displays the composite image Fb on the display unit 9 in live view (step S68; FIG. 15). reference). That is, the display unit 9 displays a composite image Fb in which a part of a specific subject area A2 corresponding to a rectangular photograph that is a main subject in one frame image F is replaced with a processed image P2. .

その後、中央制御部1のCPUは、上記実施形態1の画像登録処理と略同様に、画像表示処理の終了指示が入力されたか否かを判定する(ステップS25)。
ここで、画像表示処理の終了指示が入力されていないと判定されると(ステップS25;NO)、中央制御部1のCPUは、処理をステップS1に戻し、それ以降の処理の実行を制御する。一方、画像表示処理の終了指示が入力されたと判定されると(ステップS25;YES)、中央制御部1のCPUは、画像表示処理を終了する。
Thereafter, the CPU of the central control unit 1 determines whether or not an instruction to end the image display process has been input in substantially the same manner as the image registration process of the first embodiment (step S25).
Here, if it is determined that an instruction to end the image display process has not been input (step S25; NO), the CPU of the central control unit 1 returns the process to step S1, and controls the execution of the subsequent processes. . On the other hand, if it is determined that an instruction to end the image display process has been input (step S25; YES), the CPU of the central control unit 1 ends the image display process.

以上のように、実施形態2の携帯端末200によれば、上記実施形態1の携帯端末100と同様に、複数のフレーム画像F、…を逐次ライブビュー表示させる際、当該複数のフレーム画像F、…のうちの一のフレーム画像Fの複数の特徴点と類似する各特徴点が記録部6に記録されている場合に、当該各特徴点と対応付けられた処理済み画像P2をフレーム画像F内に合成することで、表示される画像の一部分を処理済み画像P2に置換したライブビュー画像(合成画像Fb)を逐次表示することができ、ライブビュー画像の視認者に対して、現実の被写体の内容に対して親和性を低下させることなく興趣性のより高い画像を提供することができる。
このように、撮像される物体自体の品質を低下させることなく、当該物体の内容に対して親和性の高い合成画像Fbを表示することができる。
As described above, according to the mobile terminal 200 of the second embodiment, when the plurality of frame images F,... Are sequentially displayed in live view, as in the mobile terminal 100 of the first embodiment, the plurality of frame images F, When the feature points similar to the plurality of feature points of one frame image F are recorded in the recording unit 6, the processed image P2 associated with the feature points is included in the frame image F. , The live view image (synthesized image Fb) obtained by replacing a part of the displayed image with the processed image P2 can be sequentially displayed, and the viewer of the live view image can see the real subject. An image with higher interest can be provided without lowering the affinity for the content.
Thus, the synthesized image Fb having high affinity for the contents of the object can be displayed without degrading the quality of the object to be imaged.

なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、上記実施形態1、2では、第1及び第2処理済み画像テーブルT1、T2を携帯端末100、200の記録部6に記録するようにしたが、当該テーブルを携帯端末100、200と所定の通信ネットワークNを介して接続されたサーバ300に記録しておいても良い(図16参照)。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, in the first and second embodiments, the first and second processed image tables T1 and T2 are recorded in the recording unit 6 of the mobile terminals 100 and 200. May be recorded in the server 300 connected via the communication network N (see FIG. 16).

即ち、図16に示すように、携帯端末100(200)とサーバ300とは所定の通信ネットワークNを介して各種情報を送受信可能に接続された画像表示システムを構成している。
サーバ300は、例えば、Web(World Wide Web)サーバとしてインターネット上に所定のページを開設する機能を具備するものであり、携帯端末100からのアクセスに応じて当該携帯端末100に所定の情報を送信する。
具体的には、サーバ300は、第3処理済み画像テーブルT3を記録する記録手段(図示略)を備え、上記実施形態1、2における画像登録処理にて登録された情報が携帯端末100から所定の通信ネットワークNを介して送信されて当該第3処理済み画像テーブルT3に記録する。
また、サーバ300は、画像表示処理にて、携帯端末100から所定の通信ネットワークNを介して第3処理済み画像テーブルT3に記録されている複数の特徴点の各々の特徴情報の読み出しが指示されると、指示された特徴情報を読み出して所定の通信ネットワークNを介して携帯端末100に送信する。また、サーバ300は、画像表示処理にて、携帯端末100から所定の通信ネットワークNを介して第3処理済み画像テーブルT3に記録されている処理済み画像P2の読み出しが指示されると、指示された処理済み画像P2の画像データを読み出して所定の通信ネットワークNを介して携帯端末100に送信する。
That is, as shown in FIG. 16, the portable terminal 100 (200) and the server 300 constitute an image display system that is connected via a predetermined communication network N so that various types of information can be transmitted and received.
The server 300 has, for example, a function of opening a predetermined page on the Internet as a Web (World Wide Web) server, and transmits predetermined information to the mobile terminal 100 in response to an access from the mobile terminal 100. To do.
Specifically, the server 300 includes recording means (not shown) for recording the third processed image table T3, and information registered in the image registration processing in the first and second embodiments is predetermined from the portable terminal 100. And is recorded in the third processed image table T3.
In addition, the server 300 is instructed to read the feature information of each of the plurality of feature points recorded in the third processed image table T3 from the portable terminal 100 via the predetermined communication network N in the image display process. Then, the instructed feature information is read out and transmitted to the portable terminal 100 via the predetermined communication network N. Further, the server 300 is instructed when the readout of the processed image P2 recorded in the third processed image table T3 is instructed from the portable terminal 100 via the predetermined communication network N in the image display processing. The image data of the processed image P2 is read out and transmitted to the portable terminal 100 via the predetermined communication network N.

このような構成としても、上記実施形態1、2と同様に、撮像される物体自体の品質を低下させることなく、当該物体の内容に対して親和性の高い合成画像Fa(Fb)を表示することができる。   Even in such a configuration, similarly to the first and second embodiments, the composite image Fa (Fb) having high affinity for the content of the object is displayed without degrading the quality of the object to be imaged. be able to.

なお、上記変形例にあっては、携帯端末100側で画像登録処理を行うようにしたが、当該画像登録処理をサーバ300側で行っても良い。即ち、サーバ300に、上記実施形態1、2等に係る正方形画像生成部7dや特徴量演算部7eや画像変換処理部7a等を具備する画像処理部を搭載しておき、当該画像処理部による画像登録処理の実行によって、「画像ID」と、「特徴情報」と、「処理済み画像」とを対応付けて第3処理済み画像テーブルT3に登録するようにしても良い。   In the modification, the image registration process is performed on the mobile terminal 100 side. However, the image registration process may be performed on the server 300 side. That is, the server 300 is mounted with an image processing unit including the square image generation unit 7d, the feature amount calculation unit 7e, the image conversion processing unit 7a, and the like according to the first and second embodiments, and the image processing unit. By executing the image registration process, “image ID”, “feature information”, and “processed image” may be associated with each other and registered in the third processed image table T3.

また、上記実施形態1、2並びに変形例にあっては、第1〜第3処理済み画像テーブルT1〜T3の各々に複数の処理済み画像P2(例えば、画像処理を異ならせたものや、動画像等)を記録しておき、画像表示処理の際に、ユーザによる操作入力部12等の所定操作に基づいて指定された何れか一の処理済み画像P2を第1〜第3処理済み画像テーブルT1〜T3から取得するようにしても良い。   In the first and second embodiments and the modified examples, each of the first to third processed image tables T1 to T3 includes a plurality of processed images P2 (for example, images processed differently or moving images Image), and any one processed image P2 designated on the basis of a predetermined operation of the operation input unit 12 or the like by the user at the time of image display processing is stored in the first to third processed image tables. You may make it acquire from T1-T3.

また、上記実施形態1、2並びに変形例にあっては、第1〜第3処理済み画像テーブルT1〜T3を設け、当該テーブルに予め生成された処理済み画像P2を記録しておくようにしたが、画像表示処理の際に、画像変換処理部7aが所定の画像P1に対して所定の画像変換処理を行って処理済み画像P2を生成し、第2取得部7fは、当該処理済み画像P2を取得するようにしても良い。   In the first and second embodiments and the modified examples, the first to third processed image tables T1 to T3 are provided, and the processed image P2 generated in advance is recorded in the table. However, during the image display process, the image conversion processing unit 7a performs a predetermined image conversion process on the predetermined image P1 to generate a processed image P2, and the second acquisition unit 7f receives the processed image P2 You may make it acquire.

さらに、携帯端末100、200、画像表示システムの構成は、上記実施形態1、2並びに変形例に例示したものは一例であり、これに限られるものではなく、適宜任意に変更することができる。   Furthermore, the configurations of the portable terminals 100 and 200 and the image display system are merely examples as illustrated in the first and second embodiments and the modified examples, and are not limited thereto, and can be arbitrarily changed as appropriate.

加えて、上記実施形態1、2並びに変形例にあっては、各機能を、携帯端末100(200)の中央制御部1の制御下にて、第1取得部7b、特徴量演算部7e、第2取得部7f、合成画像生成部7h、表示制御部8が駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部1のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリに、第1取得処理ルーチン、特徴点抽出処理ルーチン、第2取得処理ルーチン、生成処理ルーチン、表示制御処理ルーチンを含むプログラムを記憶しておく。そして、第1取得処理ルーチンにより中央制御部1のCPUを、特定の被写体Sが連続して撮像された複数の画像を逐次取得するように機能させても良い。また、特徴点抽出処理ルーチンにより中央制御部1のCPUを、取得された複数の画像のうち、一の画像から所定の画像に対応する画像領域を抽出するように機能させても良い。また、第2取得処理ルーチンにより中央制御部1のCPUを、抽出された所定の画像に対応する処理済み画像P2を記録手段から取得するように機能させても良い。また、生成処理ルーチンにより中央制御部1のCPUを、一の画像における所定の画像に対応する画像領域が抽出された位置に、取得された処理済み画像P2を合成した合成画像Faを生成するように機能させても良い。また、表示制御処理ルーチンにより中央制御部1のCPUを、生成された合成画像Faを表示手段に逐次表示させるように機能させても良い。
In addition, in the above-described Embodiments 1 and 2 and the modified examples, each function is controlled under the control of the central control unit 1 of the mobile terminal 100 (200), the first acquisition unit 7b, the feature amount calculation unit 7e, The second acquisition unit 7f, the composite image generation unit 7h, and the display control unit 8 are configured to be driven. However, the configuration is not limited to this, and a predetermined program or the like is executed by the CPU of the central control unit 1 It is good also as a structure implement | achieved by doing.
That is, a program including a first acquisition processing routine, a feature point extraction processing routine, a second acquisition processing routine, a generation processing routine, and a display control processing routine is stored in a program memory that stores the program. Then, the CPU of the central control unit 1 may function to sequentially acquire a plurality of images in which the specific subject S is continuously captured by the first acquisition processing routine. Further, the CPU of the central control unit 1 may function so as to extract an image region corresponding to a predetermined image from one image among a plurality of acquired images by the feature point extraction processing routine. Further, the CPU of the central control unit 1 may function to acquire the processed image P2 corresponding to the extracted predetermined image from the recording unit by the second acquisition processing routine. Further, the CPU of the central control unit 1 generates a composite image Fa obtained by combining the acquired processed image P2 at a position where an image area corresponding to a predetermined image in one image is extracted by the generation processing routine. You may make it function. Further, the CPU of the central control unit 1 may be caused to function so as to sequentially display the generated composite image Fa on the display means by the display control processing routine.

同様に、その他の機能についても、中央制御部1のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。   Similarly, other functions may be realized by executing a predetermined program or the like by the CPU of the central control unit 1.

さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。   Furthermore, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory or a portable recording medium such as a CD-ROM is applied in addition to a ROM or a hard disk. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.

〔付記〕
本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
<請求項1>
予め特定の被写体を含む所定の画像と、当該所定の画像に所定の画像変換処理が施された処理済み画像とを対応付けて記録する記録手段と、
前記特定の被写体が連続して撮像された複数の画像を逐次取得する第1取得手段と、
この第1取得手段により取得された前記複数の画像のうち、一の画像から前記所定の画像に対応する画像領域を抽出する抽出手段と、
この抽出手段により抽出された前記所定の画像に対応する処理済み画像を前記記録手段から取得する第2取得手段と、
前記一の画像における前記所定の画像に対応する画像領域が抽出された位置に、前記第2取得手段により取得された前記処理済み画像を合成した合成画像を生成する生成手段と、
この生成手段により生成された前記合成画像を表示手段に逐次ライブビュー表示させる表示制御手段と、
を備えることを特徴とする画像表示装置。
<請求項2>
前記抽出手段は、前記第1取得手段により取得された前記複数の画像のうち、一の画像から特徴点を複数抽出する特徴点抽出手段を更に備え、
前記第2取得手段は、前記特徴点抽出手段により抽出された複数の特徴点と類似する各特徴点と対応付けられた前記処理済み画像を前記記録手段から取得し、
前記生成手段は、前記一の画像の画像領域のうち、当該一の画像から抽出された複数の特徴点に対応する画像領域に対して、前記第2取得手段により取得された前記処理済み画像を合成した合成画像を生成することを特徴とする請求項1に記載の画像表示装置。
<請求項3>
前記一の画像内の特定の画像領域を特定する特定手段を更に備え、
前記特徴点抽出手段は、前記特定手段により特定された前記特定の画像領域内から前記特徴点を複数抽出することを特徴とする請求項2に記載の画像表示装置。
<請求項4>
前記生成手段は、前記一の画像の画像領域のうち、前記特定手段により特定された前記特定の画像領域内に前記処理済み画像を合成した合成画像を生成することを特徴とする請求項3に記載の画像表示装置。
<請求項5>
前記特定手段により特定された四辺形枠状の前記特定の画像領域の傾きに対応させるように、前記第2取得手段により取得された前記処理済み画像に対して射影変換処理を行って四辺形画像を生成する射影変換処理手段を更に備え、
前記生成手段は、前記一の画像の画像領域のうち、前記特定の画像領域内に前記射影変換処理手段により生成された前記処理済み画像の四辺形画像を合成した合成画像を生成することを特徴とする請求項3又は4に記載の画像表示装置。
<請求項6>
前記特徴点抽出手段により抽出された複数の特徴点と前記記録手段に記録されている複数の特徴点との相違度を算出する算出手段を更に備え、
前記第2取得手段は、前記算出手段により算出された相違度が所定の判定値以下となった複数の特徴点と対応付けられた前記処理済み画像を前記記録手段から取得することを特徴とする請求項2〜5の何れか一項に記載の画像表示装置。
<請求項7>
前記記録手段は、前記所定の画像を正方形に変換した第1正方形画像から予め抽出された複数の特徴点と前記処理済み画像とを対応付けて記録し、
前記特定手段により特定された四辺形枠状の前記特定の画像領域の内側の四辺形領域の画像に対して正方形変換処理を行って第2正方形画像を生成する正方形画像生成手段を更に備え、
前記算出手段は、前記特徴点抽出手段により前記第2正方形画像から抽出された複数の特徴点と前記記録手段に記録されている前記第1正方形画像から予め抽出された複数の特徴点との相違度を算出することを特徴とする請求項6に記載の画像表示装置。
<請求項8>
予め特定の被写体を含む所定の画像と、当該所定の画像に対して所定の画像変換処理が施された処理済み画像とを対応付けて記録する記録手段を備える画像表示装置を用いた画像表示方法であって、
前記特定の被写体が連続して撮像された複数の画像を逐次取得する処理と、
取得された前記複数の画像のうち、一の画像から前記所定の画像に対応する画像領域を抽出する処理と、
抽出された前記所定の画像に対応する処理済み画像を前記記録手段から取得する処理と、
前記一の画像における前記所定の画像に対応する画像領域が抽出された位置に、取得された前記処理済み画像を合成した合成画像を生成する処理と、
生成された前記合成画像を表示手段に逐次表示させる処理と、
を含むことを特徴とする画像表示方法。
<請求項9>
予め特定の被写体を含む所定の画像と、当該所定の画像に対して所定の画像変換処理が施された処理済み画像とを対応付けて記録する記録手段を備える画像表示装置のコンピュータを、
前記特定の被写体が連続して撮像された複数の画像を逐次取得する第1取得手段、
この第1取得手段により取得された前記複数の画像のうち、一の画像から前記所定の画像に対応する画像領域を抽出する抽出手段、
この抽出手段により抽出された前記所定の画像に対応する処理済み画像を前記記録手段から取得する第2取得手段、
前記一の画像における前記所定の画像に対応する画像領域が抽出された位置に、前記第2取得手段により取得された前記処理済み画像を合成した合成画像を生成する生成手段、
この生成手段により生成された前記合成画像を表示手段に逐次表示させる表示制御手段、
として機能させることを特徴とするプログラム。
[Appendix]
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
<Claim 1>
A recording unit that records a predetermined image including a specific subject in advance and a processed image obtained by performing a predetermined image conversion process on the predetermined image in association with each other;
First acquisition means for sequentially acquiring a plurality of images in which the specific subject is continuously captured;
An extracting unit that extracts an image region corresponding to the predetermined image from one image among the plurality of images acquired by the first acquiring unit;
Second acquisition means for acquiring a processed image corresponding to the predetermined image extracted by the extraction means from the recording means;
Generating means for generating a composite image obtained by combining the processed image acquired by the second acquisition means at a position where an image region corresponding to the predetermined image in the one image is extracted;
Display control means for sequentially displaying live images on the display means, the composite image generated by the generation means;
An image display device comprising:
<Claim 2>
The extraction unit further includes a feature point extraction unit that extracts a plurality of feature points from one image among the plurality of images acquired by the first acquisition unit,
The second acquisition unit acquires the processed image associated with each feature point similar to the plurality of feature points extracted by the feature point extraction unit from the recording unit,
The generating unit is configured to apply the processed image acquired by the second acquiring unit to an image region corresponding to a plurality of feature points extracted from the one image among the image regions of the one image. The image display apparatus according to claim 1, wherein a combined image is generated.
<Claim 3>
A specifying unit for specifying a specific image area in the one image;
The image display apparatus according to claim 2, wherein the feature point extracting unit extracts a plurality of the feature points from the specific image area specified by the specifying unit.
<Claim 4>
The said generation means produces | generates the synthesized image which synthesize | combined the said processed image in the said specific image area specified by the said specification means among the image areas of the said one image. The image display device described.
<Claim 5>
A quadrilateral image is obtained by performing projective transformation processing on the processed image acquired by the second acquisition unit so as to correspond to the inclination of the specific image region of the quadrilateral frame shape specified by the specifying unit. Further comprising projective transformation processing means for generating
The generating unit generates a composite image obtained by combining the quadrilateral image of the processed image generated by the projective transformation processing unit in the specific image region out of the image region of the one image. The image display device according to claim 3 or 4.
<Claim 6>
A calculation unit for calculating a degree of difference between the plurality of feature points extracted by the feature point extraction unit and the plurality of feature points recorded in the recording unit;
The second acquisition unit acquires from the recording unit the processed image associated with a plurality of feature points whose degree of difference calculated by the calculation unit is equal to or less than a predetermined determination value. The image display apparatus as described in any one of Claims 2-5.
<Claim 7>
The recording means records a plurality of feature points extracted in advance from the first square image obtained by converting the predetermined image into a square in association with the processed image,
A square image generating means for generating a second square image by performing a square conversion process on the image of the quadrilateral area inside the specific image area of the quadrilateral frame shape specified by the specifying means;
The calculation unit is configured to discriminate between a plurality of feature points extracted from the second square image by the feature point extraction unit and a plurality of feature points previously extracted from the first square image recorded in the recording unit. The image display device according to claim 6, wherein the degree is calculated.
<Claim 8>
An image display method using an image display device including a recording unit that records a predetermined image including a specific subject in advance and a processed image obtained by performing a predetermined image conversion process on the predetermined image in association with each other Because
A process of sequentially acquiring a plurality of images in which the specific subject is continuously captured;
A process of extracting an image region corresponding to the predetermined image from one image among the plurality of acquired images;
Processing for obtaining a processed image corresponding to the extracted predetermined image from the recording means;
Processing for generating a combined image obtained by combining the acquired processed image at a position where an image region corresponding to the predetermined image in the one image is extracted;
A process of sequentially displaying the generated composite image on a display means;
An image display method comprising:
<Claim 9>
A computer of an image display device including a recording unit that records a predetermined image including a specific subject in advance and a processed image obtained by performing a predetermined image conversion process on the predetermined image.
First acquisition means for sequentially acquiring a plurality of images in which the specific subject is continuously captured;
Extraction means for extracting an image region corresponding to the predetermined image from one image among the plurality of images acquired by the first acquisition means;
Second acquisition means for acquiring a processed image corresponding to the predetermined image extracted by the extraction means from the recording means;
Generating means for generating a composite image obtained by combining the processed image acquired by the second acquisition means at a position where an image region corresponding to the predetermined image in the one image is extracted;
Display control means for sequentially displaying the composite image generated by the generating means on a display means;
A program characterized by functioning as

100、200 携帯端末
1 中央制御部
6 記録部
T1 第1処理済み画像テーブル
T2 第2処理済み画像テーブル
T3 第3処理済み画像テーブル
7、207 画像処理部
7a 画像変換処理部
7b 第1取得部
7c 画像領域特定部
7d 正方形画像生成部
7e 特徴量演算部
7f 第2取得部
f1 相違度算出部
7g 四辺形画像生成部
7h 合成画像生成部
8 表示制御部
9 表示部
N 通信ネットワーク
100, 200 Mobile terminal 1 Central control unit 6 Recording unit T1 First processed image table T2 Second processed image table T3 Third processed image table 7, 207 Image processing unit 7a Image conversion processing unit 7b First acquisition unit 7c Image area specifying unit 7d Square image generation unit 7e Feature amount calculation unit 7f Second acquisition unit f1 Dissimilarity calculation unit 7g Quadrilateral image generation unit 7h Composite image generation unit 8 Display control unit 9 Display unit N Communication network

Claims (9)

特定の被写体を含む所定の画像の四辺形枠状の特定の画像領域を抽出する抽出手段と、
前記所定の画像に対して所定の画像変換処理が施された処理済み画像を作成する画像処理手段と、
前記四辺形枠状の前記特定の画像領域の傾きに対応させるように、前記処理済み画像に対して射影変換処理を行って四辺形画像を生成する射影変換処理手段と、
前記特定の画像領域内に、前記処理済み画像の射影変換画像を合成した合成画像を生成する生成手段と、
前記所定の画像と、前記処理済み画像とを対応付けて記録する記録手段と、
前記特定の被写体が連続して撮像された複数の画像を逐次取得する第1取得手段と、
前記第1取得手段により取得された前記複数の画像のうち、一の画像から特徴点を複数抽出する特徴点抽出手段と、
前記所定の画像に対応する処理済み画像を前記記録手段から取得するとともに前記特徴点抽出手段により抽出された複数の特徴点と類似する各特徴点と対応付けられた前記処理済み画像を前記記録手段から取得する第2取得手段と、を備え、
前記生成手段は、前記一の画像における前記特徴点抽出手段により抽出された複数の特徴点に対応する画像領域に対して、前記第2取得手段により取得された前記処理済み画像を合成した合成画像を生成する
ことを特徴とする画像表示装置。
An extraction means for extracting a specific image region in a quadrilateral frame shape of a predetermined image including a specific subject;
Image processing means for creating a processed image obtained by performing a predetermined image conversion process on the predetermined image;
Projective transformation processing means for generating a quadrilateral image by performing a projective transformation process on the processed image so as to correspond to the inclination of the specific image region of the quadrilateral frame shape ;
Generating means for generating a synthesized image obtained by synthesizing the projective transformation image of the processed image in the specific image region;
Recording means for associating and recording the predetermined image and the processed image;
First acquisition means for sequentially acquiring a plurality of images in which the specific subject is continuously captured;
Feature point extraction means for extracting a plurality of feature points from one image among the plurality of images acquired by the first acquisition means;
Obtaining the processed image corresponding to the predetermined image from the recording means and the processed image associated with each feature point similar to the plurality of feature points extracted by the feature point extracting means Second acquisition means for acquiring from,
The generating means combines the processed image acquired by the second acquiring means with an image area corresponding to a plurality of feature points extracted by the feature point extracting means in the one image. An image display device characterized by generating the image.
前記抽出手段は、前記第1取得手段により取得された前記複数の画像のうち、一の画像から前記所定の画像に対応する画像領域を抽出し、
記生成手段は、前記一の画像における前記所定の画像に対応する画像領域が抽出された位置に、前記第2取得手段により取得された前記処理済み画像を合成した合成画像を生成することを特徴とする請求項1記載の画像表示装置。
The extraction means, from among the acquired plurality of images by said first acquisition means, and extracts an image region corresponding to the predetermined image from one image,
Before Symbol generating means, the position of the image region corresponding to the predetermined image in the one image is extracted, generating a composite image of the processed image acquired by the second acquisition means The image display device according to claim 1, wherein:
前記生成手段は、前記生成された前記合成画像を表示手段に逐次ライブビュー表示させることを特徴とする請求項記載の画像表示装置。 The image display apparatus according to claim 2 , wherein the generation unit sequentially displays the generated composite image on a display unit . 前記一の画像内の特定の画像領域を特定する特定手段を更に備え、
前記特徴点抽出手段は、前記特定手段により特定された前記特定の画像領域内から前記特徴点を複数抽出することを特徴とする請求項に記載の画像表示装置。
A specifying unit for specifying a specific image area in the one image;
The image display apparatus according to claim 2 , wherein the feature point extracting unit extracts a plurality of the feature points from the specific image area specified by the specifying unit.
前記生成手段は、前記一の画像の画像領域のうち、前記特定手段により特定された前記特定の画像領域内に前記処理済み画像を合成した合成画像を生成することを特徴とする請求項に記載の画像表示装置。 It said generating means of the image area of the one image, in claim 4, characterized in that to generate a composite synthetic image the processed image in the specific image region specified by the specifying means The image display device described. 前記特徴点抽出手段により抽出された複数の特徴点と前記記録手段に記録されている複数の特徴点との相違度を算出する算出手段を更に備え、
前記第2取得手段は、前記算出手段により算出された相違度が所定の判定値以下となった複数の特徴点と対応付けられた前記処理済み画像を前記記録手段から取得することを特徴とする請求項1〜5の何れか一項に記載の画像表示装置。
A calculation unit for calculating a degree of difference between the plurality of feature points extracted by the feature point extraction unit and the plurality of feature points recorded in the recording unit;
The second acquisition unit acquires from the recording unit the processed image associated with a plurality of feature points whose degree of difference calculated by the calculation unit is equal to or less than a predetermined determination value. The image display apparatus as described in any one of Claims 1-5 .
前記記録手段は、前記所定の画像を正方形に変換した第1正方形画像から予め抽出された複数の特徴点と前記処理済み画像とを対応付けて記録し、
前記四辺形枠状の前記特定の画像領域の内側の四辺形領域の画像に対して正方形変換処理を行って第2正方形画像を生成する正方形画像生成手段を更に備え、
前記算出手段は、前記特徴点抽出手段により前記第2正方形画像から抽出された複数の特徴点と前記記録手段に記録されている前記第1正方形画像から予め抽出された複数の特徴点との相違度を算出することを特徴とする請求項に記載の画像表示装置。
The recording means records a plurality of feature points extracted in advance from the first square image obtained by converting the predetermined image into a square in association with the processed image,
Further comprising a square image generating means for generating a second square image by performing a square conversion processing on the image of the inside of the quadrilateral region of the quadrilateral frame shape of said particular image area,
The calculation unit is configured to discriminate between a plurality of feature points extracted from the second square image by the feature point extraction unit and a plurality of feature points previously extracted from the first square image recorded in the recording unit. The image display device according to claim 6 , wherein the degree is calculated.
特定の被写体を含む所定の画像の四辺形枠状の特定の画像領域を抽出する抽出処理と、
前記所定の画像に対して所定の画像変換処理が施された処理済み画像を作成する画像処理と、
前記四辺形枠状の前記特定の画像領域の傾きに対応させるように、前記処理済み画像に対して射影変換処理を行って四辺形画像を生成する射影変換処理と、
前記特定の画像領域内に、前記処理済み画像の射影変換画像を合成した合成画像を生成する生成処理と、
前記所定の画像と、前記処理済み画像とを対応付けて記録手段に記録する記録処理と、
前記特定の被写体が連続して撮像された複数の画像を逐次取得する第1取得処理と、
前記第1取得処理により取得された前記複数の画像のうち、一の画像から特徴点を複数抽出する特徴点抽出処理と、
前記所定の画像に対応する処理済み画像を前記記録手段から取得するとともに前記特徴点抽出処理により抽出された複数の特徴点と類似する各特徴点と対応付けられた前記処理済み画像を前記記録手段から取得する第2取得処理と、を備え、
前記生成処理は、前記一の画像における前記特徴点抽出処理により抽出された複数の特徴点に対応する画像領域に対して、前記第2取得処理により取得された前記処理済み画像を合成した合成画像を生成する
ことを特徴とする画像表示方法。
An extraction process for extracting a specific image area in a quadrilateral frame shape of a predetermined image including a specific subject;
Image processing for creating a processed image obtained by performing predetermined image conversion processing on the predetermined image;
A projective transformation process for generating a quadrilateral image by performing a projective transformation process on the processed image so as to correspond to the inclination of the specific image region of the quadrilateral frame shape ;
A generation process for generating a composite image obtained by combining the projection conversion image of the processed image in the specific image region;
A recording process in which the predetermined image and the processed image are associated and recorded in a recording unit;
A first acquisition process for sequentially acquiring a plurality of images in which the specific subject is continuously captured;
A feature point extraction process for extracting a plurality of feature points from one image among the plurality of images acquired by the first acquisition process;
Obtaining the processed image corresponding to the predetermined image from the recording means and the processed image associated with each feature point similar to the plurality of feature points extracted by the feature point extraction processing from the recording means A second acquisition process acquired from
The generation process is a composite image obtained by combining the processed image acquired by the second acquisition process with an image region corresponding to a plurality of feature points extracted by the feature point extraction process in the one image. An image display method characterized by generating an image.
画像表示装置のコンピュータを、
特定の被写体を含む所定の画像の四辺形枠状の特定の画像領域を抽出する抽出手段と、
前記所定の画像に対して所定の画像変換処理が施された処理済み画像を作成する画像処理手段と、
前記四辺形枠状の前記特定の画像領域の傾きに対応させるように、前記処理済み画像に対して射影変換処理を行って四辺形画像を生成する射影変換処理手段と、
前記特定の画像領域内に、前記処理済み画像の射影変換画像を合成した合成画像を生成する生成手段と、
前記所定の画像と、前記処理済み画像とを対応付けて記録する記録手段と、
前記特定の被写体が連続して撮像された複数の画像を逐次取得する第1取得手段と、
前記第1取得手段により取得された前記複数の画像のうち、一の画像から特徴点を複数抽出する特徴点抽出手段と、
前記所定の画像に対応する処理済み画像を前記記録手段から取得するとともに前記特徴点抽出手段により抽出された複数の特徴点と類似する各特徴点と対応付けられた前記処理済み画像を前記記録手段から取得する第2取得手段と、して機能させ、
前記生成手段は、前記一の画像における前記特徴点抽出手段により抽出された複数の特徴点に対応する画像領域に対して、前記第2取得手段により取得された前記処理済み画像を合成した合成画像を生成する
ことを特徴とするプログラム。
The computer of the image display device
An extraction means for extracting a specific image region in a quadrilateral frame shape of a predetermined image including a specific subject;
Image processing means for creating a processed image obtained by performing a predetermined image conversion process on the predetermined image;
Projective transformation processing means for generating a quadrilateral image by performing a projective transformation process on the processed image so as to correspond to the inclination of the specific image region of the quadrilateral frame shape ;
Generating means for generating a synthesized image obtained by synthesizing the projective transformation image of the processed image in the specific image region;
Recording means for associating and recording the predetermined image and the processed image;
First acquisition means for sequentially acquiring a plurality of images in which the specific subject is continuously captured;
Feature point extraction means for extracting a plurality of feature points from one image among the plurality of images acquired by the first acquisition means;
Obtaining the processed image corresponding to the predetermined image from the recording means and the processed image associated with each feature point similar to the plurality of feature points extracted by the feature point extracting means Function as a second acquisition means for acquiring from
The generating means combines the processed image acquired by the second acquiring means with an image area corresponding to a plurality of feature points extracted by the feature point extracting means in the one image. A program characterized by generating <br/>.
JP2012003942A 2012-01-12 2012-01-12 Image display device, image display method, and program Active JP5906745B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012003942A JP5906745B2 (en) 2012-01-12 2012-01-12 Image display device, image display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012003942A JP5906745B2 (en) 2012-01-12 2012-01-12 Image display device, image display method, and program

Publications (2)

Publication Number Publication Date
JP2013143725A JP2013143725A (en) 2013-07-22
JP5906745B2 true JP5906745B2 (en) 2016-04-20

Family

ID=49040051

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012003942A Active JP5906745B2 (en) 2012-01-12 2012-01-12 Image display device, image display method, and program

Country Status (1)

Country Link
JP (1) JP5906745B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106548446B (en) * 2016-09-29 2019-08-09 北京奇艺世纪科技有限公司 A kind of method and device of the textures on Spherical Panorama Image
JP2020048025A (en) 2018-09-18 2020-03-26 富士フイルム株式会社 Imaging apparatus, operation program and operation method of imaging apparatus

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4423929B2 (en) * 2003-10-31 2010-03-03 カシオ計算機株式会社 Image output device, image output method, image output processing program, image distribution server, and image distribution processing program
JP5040796B2 (en) * 2008-05-09 2012-10-03 大日本印刷株式会社 Indoor furniture purchase support system, method, program, medium

Also Published As

Publication number Publication date
JP2013143725A (en) 2013-07-22

Similar Documents

Publication Publication Date Title
JP5413002B2 (en) Imaging apparatus and method, and program
JP4396720B2 (en) Image processing apparatus, image processing method, and program
JP5799928B2 (en) Threshold setting device, subject detection device, threshold setting method and program
JP4947136B2 (en) Image processing apparatus, image processing method, and program
US20100225785A1 (en) Image processor and recording medium
JP2011119974A (en) Panoramic image synthesizer, panoramic image synthesis method, and program
JP2010211255A (en) Imaging apparatus, image processing method, and program
WO2017013986A1 (en) Information processing device, terminal, and remote communication system
JP5212046B2 (en) Digital camera, image processing apparatus, and image processing program
JP5862623B2 (en) Image processing apparatus, image processing method, and program
JP5906745B2 (en) Image display device, image display method, and program
CN108810326B (en) Photographing method and device and mobile terminal
JP5733588B2 (en) Image processing apparatus and method, and program
JP5798696B2 (en) Image processing apparatus, method, recording medium, program, and imaging apparatus
JP6217225B2 (en) Image collation device, image collation method and program
JP6696596B2 (en) Image processing system, imaging device, image processing method and program
JP5131399B2 (en) Image processing apparatus, image processing method, and program
JP5928228B2 (en) Subject detection apparatus, subject detection method, and program
JP6079102B2 (en) Subject detection apparatus, subject detection method, and program
JP2010278701A (en) Image combining device, and image combining method and program
JP2011077850A (en) Image processing apparatus, image processing method, and program
JP5565227B2 (en) Image processing apparatus, image processing method, and program
JP6668646B2 (en) Image processing apparatus, image processing method, and program
JP2020115683A (en) Image processing system, imaging apparatus, image processing method, and program
JP5858012B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160223

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160307

R150 Certificate of patent or registration of utility model

Ref document number: 5906745

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150