JPWO2013099025A1 - Information processing apparatus, information processing method, information processing program, and information recording medium - Google Patents

Information processing apparatus, information processing method, information processing program, and information recording medium Download PDF

Info

Publication number
JPWO2013099025A1
JPWO2013099025A1 JP2013551157A JP2013551157A JPWO2013099025A1 JP WO2013099025 A1 JPWO2013099025 A1 JP WO2013099025A1 JP 2013551157 A JP2013551157 A JP 2013551157A JP 2013551157 A JP2013551157 A JP 2013551157A JP WO2013099025 A1 JPWO2013099025 A1 JP WO2013099025A1
Authority
JP
Japan
Prior art keywords
information
image
information processing
processing apparatus
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013551157A
Other languages
Japanese (ja)
Inventor
松本 和彦
和彦 松本
Original Assignee
ピタフォー モバイル エルエルシー
ピタフォー モバイル エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ピタフォー モバイル エルエルシー, ピタフォー モバイル エルエルシー filed Critical ピタフォー モバイル エルエルシー
Priority to JP2013551157A priority Critical patent/JPWO2013099025A1/en
Publication of JPWO2013099025A1 publication Critical patent/JPWO2013099025A1/en
Pending legal-status Critical Current

Links

Abstract

書面等の撮像対象物に記載されている情報を高画質或いは広範囲、高解像度で、更に簡易に画像化することが可能な情報処理装置等を提供する。携帯可能なスマートフォンSにおいて、撮像対象物の少なくとも一部を撮像し、当該撮像した少なくとも一部に対応するフレーム画像に相当するフレームデータを出力するカメラ9と、携帯されたスマートフォンSの移動に伴って連続して撮像された複数のフレーム画像同士の位置合わせを行う位置合わせ処理を、各フレーム画像を用いて、フレーム画像の連続撮像に対応して逐次行うCPU1と、位置合わせされた各フレーム画像を用いて、撮像対象物に対応する合成画像であってカメラ9により撮像された各フレーム画像よりも高画質或いは広範囲の合成画像を合成するCPU1と、を備える。Provided is an information processing apparatus and the like that can easily image information described in an imaging object such as a document with high image quality, a wide range, and high resolution. In the portable smartphone S, at least a part of the imaging object is imaged, and the camera 9 that outputs frame data corresponding to the frame image corresponding to the captured at least a part, and the movement of the portable smartphone S The CPU 1 sequentially performs the alignment processing for aligning a plurality of frame images captured continuously in correspondence with the continuous imaging of the frame images using the respective frame images, and the aligned frame images. , And a CPU 1 that synthesizes a composite image corresponding to the imaging object and a composite image having a higher image quality or a wider range than each frame image captured by the camera 9.

Description

本発明は、情報処理装置、情報処理方法並びに情報処理用プログラム及び情報記録媒体の技術分野に属する。より詳細には、カメラ等の撮像部を備える携帯可能な情報処理装置及び当該情報処理装置において実行される情報処理方法、並びに当該情報処理装置用のプログラム及び当該プログラムが記録された情報記録媒体の技術分野に属する。   The present invention belongs to a technical field of an information processing apparatus, an information processing method, an information processing program, and an information recording medium. More specifically, a portable information processing apparatus including an imaging unit such as a camera, an information processing method executed in the information processing apparatus, a program for the information processing apparatus, and an information recording medium on which the program is recorded It belongs to the technical field.

近年の情報化社会においては、業務以外の個人の日常生活においても、書面(紙)等に文字や記号又は図形として記載されている情報を、高画質且つ高解像度でデジタル的に画像化したいという要望は依然として多い。ここで、上記のような画像化のためには、いわゆるスキャナを用いることが一般的である。この場合のスキャナとしては、例えばいわゆるフラットベッド型のスキャナ等が一般的である。   In the information-oriented society in recent years, he wants to digitally image information written as letters, symbols or figures on paper (paper) etc. in high quality and high resolution even in the daily lives of individuals other than work. There are still many requests. Here, for imaging as described above, it is common to use a so-called scanner. As a scanner in this case, for example, a so-called flatbed scanner is generally used.

しかしながら、このようなスキャナを例えば業務以外の個人用として保有することは、コスト、設置場所又は取り扱いの煩雑さ等の面から便利でない場合が多い。また、個人としてパーソナルコンピュータを保有しない場合も近年では多くなり、よって上記スキャナを接続する本体としてのパーソナルコンピュータがそもそも存在しない環境も、個人宅等においては増加している。更に、一般に大型のフラットベッド型スキャナが必要な単行本、雑誌又は大型紙などに記載されている情報の画像化は、上記のような事情でより困難である場合が多い。   However, it is often not convenient to have such a scanner for personal use other than business, from the viewpoint of cost, installation location, handling complexity, and the like. In recent years, the number of personal computers that do not have a personal computer has increased. Therefore, an environment in which a personal computer as a main body to which the scanner is connected does not exist in the first place has increased. Furthermore, imaging of information described in a book, magazine, or large paper that generally requires a large flatbed scanner is often more difficult due to the circumstances described above.

一方、個人が手軽に扱える撮像用装置としては、いわゆるデジタルカメラが一般化している。しかしながら現在入手可能なデジタルカメラでは、それをスキャナの代替とするには画質(例えば画素数等)が十分でない場合が多い。また、仮にデジタルカメラをスキャナ代わりに用いようとしても、一般の個人が扱う場合は、例えば撮像時に手ブレが起きる、或いは周囲の照明が不適切といった理由により、スキャナとしては撮像に失敗する場合が多い。   On the other hand, so-called digital cameras have become common as imaging devices that can be easily handled by individuals. However, currently available digital cameras often have insufficient image quality (for example, the number of pixels, etc.) to replace them with scanners. Even if an attempt is made to use a digital camera instead of a scanner, if a general individual handles the camera, the camera may fail to capture the image due to, for example, camera shake or inappropriate lighting. Many.

他方、最近では、いわゆるスマートフォンやタブレット型情報端末など、カメラが内蔵された携帯型の情報機器を誰もが携行するようになってきており、しかもそれらは常に身に着けられている場合が多い。また、当該情報機器に備えられたカメラが備える撮像能力や画像処理能力、或いはネットワークへの接続能力は、いずれも近年大きく向上してきており、今後も急速な改善が期待される。   On the other hand, recently, everyone is carrying portable information devices with built-in cameras, such as so-called smartphones and tablet information terminals, and they are often worn all the time. . In addition, the imaging capability, image processing capability, and network connection capability of the camera included in the information device have been greatly improved in recent years, and rapid improvement is expected in the future.

またこれらとは別に、特に医療における検査画像の合成等の分野において、同一の撮像対象物を撮像して得られた複数の画像同士の位置合わせ処理を、非剛体(非線形)により行う技術が開発されている(例えば、下記非特許文献1参照)。   Apart from these, in particular in the field of medical examination image synthesis, etc., a technology has been developed that performs non-rigid (non-linear) alignment processing of multiple images obtained by imaging the same imaging object. (For example, see Non-Patent Document 1 below).

「3次元脳地図と医用頭部画像の自動非線形位置合わせ(Automated, Non-linear Registration Between 3-Dimensional Brain Map and Medical Head Image)」, pp175 - 183, "MEDICAL IMAGING TECHNOLOGY", Vol. 16, No. 3, May 1998"Automated, Non-linear Registration Between 3-Dimensional Brain Map and Medical Head Image", pp175-183, "MEDICAL IMAGING TECHNOLOGY", Vol. 16, No . 3, May 1998

以上のように、書面等に記載されている情報を高画質且つ高解像度で画像化したいという要望が多いにも拘わらず、それを個人でも簡易に実現できる有効な方法は、現状では存在していない。よって、このような画像化の方法の確立が望まれている。   As described above, there is currently an effective method that can be easily realized even by individuals, despite the fact that there are many requests to image information written in documents with high image quality and high resolution. Absent. Therefore, establishment of such an imaging method is desired.

そこで本発明は、上記の要請に鑑みて為されたもので、その課題は、書面等の撮像対象物に記載されている情報を高画質或いは広範囲、高解像度で、更に簡易に画像化することが可能な情報処理装置及び当該情報処理装置において実行される情報処理方法、並びに当該情報処理装置用のプログラム及び当該プログラムが記録された情報記録媒体を提供することにある。   Therefore, the present invention has been made in view of the above-mentioned demands, and the problem is to image information described in an imaging object such as a document with high image quality, wide range, and high resolution, and more easily. It is to provide an information processing apparatus capable of performing the information processing, an information processing method executed in the information processing apparatus, a program for the information processing apparatus, and an information recording medium on which the program is recorded.

上記の課題を解決するために、請求項1に記載の発明は、携帯可能なスマートフォン等の情報処理装置において、撮像対象物の少なくとも一部を撮像し、当該撮像した少なくとも一部に対応するフレーム画像に相当するフレーム画像情報を出力するカメラ等の撮像手段と、携帯された前記情報処理装置の移動に伴って前記撮像手段により連続して撮像された複数の前記フレーム画像同士の位置合わせを行う位置合わせ処理を、当該各フレーム画像にそれぞれ相当する複数の前記フレーム画像情報を用いて、前記フレーム画像の連続撮像に対応して逐次行うCPU等の位置合わせ手段と、位置合わせされた各前記フレーム画像にそれぞれ相当するフレーム画像情報を用いて、前記撮像対象物に対応する合成画像であって前記撮像手段により撮像された各前記フレーム画像よりも高画質或いは広範囲の合成画像を合成する合成処理を行うCPU等の合成手段と、を備える。   In order to solve the above-described problem, the invention according to claim 1 is a frame corresponding to at least a part of the imaged object in an information processing apparatus such as a portable smartphone. An imaging unit such as a camera that outputs frame image information corresponding to an image, and a plurality of the frame images continuously captured by the imaging unit as the portable information processing device moves are aligned. Alignment means such as a CPU that sequentially performs alignment processing corresponding to continuous imaging of the frame image using a plurality of pieces of frame image information corresponding to the frame images, and the aligned frames Using the frame image information corresponding to each image, a composite image corresponding to the object to be imaged and captured by the imaging means Comprising a synthesizing unit such as a CPU performs the synthesis process for synthesizing a high-quality or wide range of the composite image than each of said frame images, a.

上記の課題を解決するために、請求項19に記載の発明は、携帯可能なスマートフォン等の情報処理装置であって、撮像対象物の少なくとも一部を撮像し、当該撮像した少なくとも一部に対応するフレーム画像に相当するフレーム画像情報を出力するカメラ等の撮像手段を備える情報処理装置において実行される画像処理方法において、携帯された前記情報処理装置の移動に伴って前記撮像手段により連続して撮像された複数の前記フレーム画像同士の位置合わせを行う位置合わせ処理を、当該各フレーム画像にそれぞれ相当する複数の前記フレーム画像情報を用いて、前記フレーム画像の連続撮像に対応して逐次行う位置合わせ工程と、位置合わせされた各前記フレーム画像にそれぞれ相当するフレーム画像情報を用いて、前記撮像対象物に対応する合成画像であって前記撮像手段により撮像された各前記フレーム画像よりも高画質或いは広範囲の合成画像を合成する合成処理を行う合成工程と、を含む。   In order to solve the above-described problem, the invention according to claim 19 is an information processing apparatus such as a portable smartphone, and images at least a part of the imaging target and corresponds to the captured at least part. In an image processing method executed in an information processing apparatus including an imaging unit such as a camera that outputs frame image information corresponding to a frame image to be performed, the imaging unit continuously moves with the movement of the portable information processing apparatus. Positions for sequentially performing alignment processing for aligning a plurality of captured frame images using a plurality of pieces of frame image information corresponding to the respective frame images, corresponding to continuous imaging of the frame images Using the alignment step and frame image information corresponding to each of the aligned frame images, A corresponding composite image; and a synthesis step for synthesizing process for synthesizing a high-quality or wide range of the composite image than each of said frame image captured by the imaging means.

上記の課題を解決するために、請求項20に記載の発明は、携帯可能なスマートフォン等の情報処理装置であって、撮像対象物の少なくとも一部を撮像し、当該撮像した少なくとも一部に対応するフレーム画像に相当するフレーム画像情報を出力するカメラ等の撮像手段を備える情報処理装置に含まれるコンピュータを、携帯された前記情報処理装置の移動に伴って前記撮像手段により連続して撮像された複数の前記フレーム画像同士の位置合わせを行う位置合わせ処理を、当該各フレーム画像にそれぞれ相当する複数の前記フレーム画像情報を用いて、前記フレーム画像の連続撮像に対応して逐次行う位置合わせ手段、及び、位置合わせされた各前記フレーム画像にそれぞれ相当するフレーム画像情報を用いて、前記撮像対象物に対応する合成画像であって前記撮像手段により撮像された各前記フレーム画像よりも高画質或いは広範囲の合成画像を合成する合成処理を行う合成手段、として機能させる。   In order to solve the above-described problem, the invention according to claim 20 is an information processing apparatus such as a portable smartphone, and images at least a part of an imaging target and corresponds to at least a part of the captured image. A computer included in an information processing apparatus including an image capturing unit such as a camera that outputs frame image information corresponding to a frame image to be captured was continuously captured by the image capturing unit as the portable information processing apparatus moved. Alignment means for sequentially performing alignment processing for aligning a plurality of the frame images, using a plurality of pieces of frame image information corresponding to the respective frame images, corresponding to continuous imaging of the frame images; And corresponding to the imaging object by using frame image information corresponding to each of the aligned frame images. Synthesizing means for synthesizing process for synthesizing a high-quality or wide range of the composite image than each of said frame image captured by the imaging means an adult image, to function as a.

上記の課題を解決するために、請求項21に記載の発明は、携帯可能なスマートフォン等の情報処理装置であって、撮像対象物の少なくとも一部を撮像し、当該撮像した少なくとも一部に対応するフレーム画像に相当するフレーム画像情報を出力するカメラ等の撮像手段を備える情報処理装置に含まれるコンピュータを、携帯された前記情報処理装置の移動に伴って前記撮像手段により連続して撮像された複数の前記フレーム画像同士の位置合わせを行う位置合わせ処理を、当該各フレーム画像にそれぞれ相当する複数の前記フレーム画像情報を用いて、前記フレーム画像の連続撮像に対応して逐次行う位置合わせ手段、及び、位置合わせされた各前記フレーム画像にそれぞれ相当するフレーム画像情報を用いて、前記撮像対象物に対応する合成画像であって前記撮像手段により撮像された各前記フレーム画像よりも高画質或いは広範囲の合成画像を合成する合成処理を行う合成手段、として機能させる画像処理用プログラムが前記コンピュータにより読み出し可能に記録されている。   In order to solve the above-described problem, the invention according to claim 21 is an information processing apparatus such as a portable smart phone, which captures at least a part of an imaging target and corresponds to the captured at least part. A computer included in an information processing apparatus including an image capturing unit such as a camera that outputs frame image information corresponding to a frame image to be captured was continuously captured by the image capturing unit as the portable information processing apparatus moved. Alignment means for sequentially performing alignment processing for aligning a plurality of the frame images, using a plurality of pieces of frame image information corresponding to the respective frame images, corresponding to continuous imaging of the frame images; And corresponding to the imaging object by using frame image information corresponding to each of the aligned frame images. An image processing program that functions as a synthesis unit that performs a synthesis process for synthesizing a synthesized image that has a higher image quality or a wider range than each of the frame images captured by the imaging unit is recorded in a readable manner by the computer. Has been.

請求項1又は請求項19から請求項21のいずれか一項に記載の発明によれば、携帯された情報処理装置の移動に伴って連続して撮像された複数のフレーム画像同士の位置合わせを当該連続撮像に対応して逐次行うと共に、位置合わせされた各フレーム画像にそれぞれ相当する複数のフレーム画像情報を用いて高画質或いは広範囲の合成画像を合成するので、撮像対象物に対応する高画質或いは広範囲の合成画像を、携帯可能な情報処理装置を用いて合成することができる。   According to the invention according to any one of claims 1 or 19 to 21, alignment of a plurality of frame images continuously captured as the portable information processing apparatus moves is performed. In addition to sequentially performing corresponding to the continuous imaging, a high-quality image or a wide range of synthesized images are synthesized using a plurality of frame image information corresponding to each aligned frame image, so that a high-quality image corresponding to the imaging object Alternatively, a wide range of synthesized images can be synthesized using a portable information processing apparatus.

また、情報処理装置の移動に伴う連続撮像によって得られる複数のフレーム画像情報を用いて位置合わせ処理及び合成処理を行うので、撮像条件が異なる複数のフレーム画像情報を用いることで、より高画質或いは広範囲の合成画像を合成することができる。   In addition, since alignment processing and synthesis processing are performed using a plurality of frame image information obtained by continuous imaging accompanying the movement of the information processing apparatus, a higher image quality or A wide range of synthesized images can be synthesized.

上記の課題を解決するために、請求項2に記載の発明は、請求項1に記載の情報処理装置において、前記位置合わせ手段は、前記撮像対象物の全体に対応する全体フレーム画像に相当する全体フレーム画像情報と、前記一部にそれぞれ対応する各前記フレーム画像に相当する複数の前記フレーム画像情報と、を用いて、前記位置合わせ処理を前記連続撮像に対応して逐次行うように構成される。   In order to solve the above-described problem, the invention according to claim 2 is the information processing apparatus according to claim 1, wherein the alignment unit corresponds to a whole frame image corresponding to the whole of the imaging object. Using the whole frame image information and a plurality of the frame image information corresponding to each of the frame images respectively corresponding to the part, the alignment processing is sequentially performed corresponding to the continuous imaging. The

請求項2に記載の発明によれば、請求項1に記載の発明の作用に加えて、撮像対象物の一部にそれぞれ対応する複数のフレーム画像情報と、全体フレーム画像情報と、を用いて、位置合わせ処理を連続撮像に対応して逐次行うので、フレーム画像ごとの位置合わせ処理をより正確に行うことができる。   According to the invention described in claim 2, in addition to the operation of the invention described in claim 1, a plurality of pieces of frame image information respectively corresponding to a part of the imaging object and whole frame image information are used. Since the alignment process is sequentially performed corresponding to continuous imaging, the alignment process for each frame image can be performed more accurately.

上記の課題を解決するために、請求項3に記載の発明は、請求項1又は請求項2に記載の情報処理装置において、前記位置合わせ手段は、複数の前記フレーム画像情報を用いて、非剛体の前記位置合わせ処理を逐次行うように構成される。   In order to solve the above-described problem, the invention according to claim 3 is the information processing apparatus according to claim 1 or 2, wherein the alignment means uses a plurality of the frame image information, The rigid body is configured to sequentially perform the alignment process.

請求項3に記載の発明によれば、請求項1又は請求項2に記載の発明の作用に加えて、撮像手段から出力された複数のフレーム画像情報を用いて非剛体の位置合わせ処理を逐次行うので、汎用性が高く且つ高画質或いは広範囲の合成画像を合成することができる。   According to the invention described in claim 3, in addition to the operation of the invention described in claim 1 or 2, the non-rigid body alignment processing is sequentially performed using a plurality of frame image information output from the imaging unit. Therefore, it is possible to synthesize a high-quality image or a wide range of synthesized images with high versatility.

上記の課題を解決するために、請求項4に記載の発明は、請求項1から請求項3のいずれか一項に記載の情報処理装置において、前記位置合わせ処理後の前記フレーム画像に対応する前記一部が占める前記撮像対象物内の位置又は範囲を示す撮像済位置範囲情報に基づいて、前記連続撮像されるべき前記一部の前記撮像対象物上における位置又は範囲を示す位置範囲情報を生成するCPU等の位置範囲情報生成手段と、前記生成された位置範囲情報に基づいて、前記位置範囲情報に対応する位置への前記情報処理装置の移動を案内するための案内情報を生成するCPU等の案内情報生成手段と、前記生成された案内情報を前記情報処理装置の外部に告知するディスプレイ等の告知手段と、を備える。   In order to solve the above problem, an invention according to claim 4 corresponds to the frame image after the alignment processing in the information processing apparatus according to any one of claims 1 to 3. Based on imaged position range information indicating the position or range in the imaging object occupied by the part, position range information indicating the position or range of the part on the imaging object to be continuously imaged CPU for generating position range information generating means such as a CPU for generating and guidance information for guiding the movement of the information processing apparatus to a position corresponding to the position range information based on the generated position range information Guidance information generating means, and a notification means such as a display for notifying the generated guidance information to the outside of the information processing apparatus.

請求項4に記載の発明によれば、請求項1から請求項3のいずれか一項に記載の発明の作用に加えて、位置範囲情報を撮像済位置範囲情報に基づいて生成し、当該生成された位置範囲情報に基づいて、情報処理装置の移動案内用の案内情報を生成して外部に告知するので、高画質或いは広範囲の合成画像の合成のために必要なフレーム画像を撮像するために必要な位置へ、携帯する情報処理装置を正確且つ迅速に移動させることができる。   According to the invention described in claim 4, in addition to the operation of the invention described in any one of claims 1 to 3, the position range information is generated based on the imaged position range information, and the generation is performed. In order to capture a frame image necessary for synthesizing a high-quality image or a wide range of synthesized images, information on the movement of the information processing device is generated based on the position range information thus generated and notified to the outside. The portable information processing apparatus can be moved accurately and quickly to a required position.

上記の課題を解決するために、請求項5に記載の発明は、請求項1から請求項3のいずれか一項に記載の情報処理装置において、前記連続撮像されるべき前記一部の前記撮像対象物上における位置又は範囲を示す位置範囲情報を、撮像済みの前記フレーム画像に基づいて生成するCPU等の位置範囲情報生成手段と、前記生成された位置範囲情報に基づいて、前記位置範囲情報に対応する位置への前記情報処理装置の移動を案内するための案内情報を生成するCPU等の案内情報生成手段と、前記生成された案内情報を前記情報処理装置の外部に告知するディスプレイ等の告知手段と、を備える。   In order to solve the above-mentioned problem, the invention according to claim 5 is the information processing apparatus according to any one of claims 1 to 3, wherein the imaging of the part to be continuously imaged is performed. Position range information generating means such as a CPU for generating position range information indicating a position or range on an object based on the captured frame image, and the position range information based on the generated position range information A guide information generating means such as a CPU for generating guide information for guiding the movement of the information processing device to a position corresponding to the information, a display for notifying the generated guide information to the outside of the information processing device, etc. And a notification means.

請求項5に記載の発明によれば、請求項1から請求項3のいずれか一項に記載の発明の作用に加えて、位置範囲情報に基づいて、情報処理装置の移動案内用の案内情報を生成して外部に告知するので、高画質或いは広範囲の合成画像の合成のために必要なフレーム画像を撮像するために必要な位置へ、携帯する情報処理装置を正確且つ迅速に移動させることができる。   According to the invention described in claim 5, in addition to the operation of the invention described in any one of claims 1 to 3, guidance information for movement guidance of the information processing device based on the position range information. Since the information is generated and notified to the outside, it is possible to accurately and quickly move the portable information processing apparatus to a position necessary for capturing a frame image necessary for synthesizing a high-quality image or a wide range of synthesized images. it can.

上記の課題を解決するために、請求項6に記載の発明は、請求項4又は請求項5に記載の情報処理装置において、前記合成手段は、撮像済みの前記フレーム画像に相当する前記フレーム画像情報に基づいた前記合成処理を前記フレーム画像の連続撮像に対応して逐次行い、前記位置範囲情報生成手段は、前記合成された合成画像に相当する合成画像情報を外部の画質評価手段に出力する通信インターフェース等の外部出力手段と、前記出力された合成画像情報に対する前記画質評価手段による評価結果を示す評価結果情報を取得する通信インターフェース等の取得手段と、を備え、前記取得された評価結果情報を更に用いて前記位置範囲情報を生成するように構成される。   In order to solve the above-described problem, the invention according to claim 6 is the information processing apparatus according to claim 4 or 5, wherein the synthesizing unit is configured to generate the frame image corresponding to the captured frame image. The composition processing based on information is sequentially performed corresponding to continuous imaging of the frame images, and the position range information generation means outputs composite image information corresponding to the composite image synthesized to an external image quality evaluation means. The acquired evaluation result information, comprising: an external output means such as a communication interface; and an acquisition means such as a communication interface for acquiring evaluation result information indicating an evaluation result by the image quality evaluation means for the output composite image information. Is further used to generate the position range information.

請求項6に記載の発明によれば、請求項4又は請求項5に記載の発明の作用に加えて、撮像済みのフレーム画像に相当するフレーム画像情報に基づいた合成処理をフレーム画像の連続撮像に対応して逐次行うと共に、外部の画質評価手段による合成画像情報に対する評価結果情報を更に用いて位置範囲情報を生成するので、合成済みの合成画像の画質に基づいて位置範囲情報を生成することで、より高画質或いは広範囲な合成画像をその後に合成することができる。   According to the invention described in claim 6, in addition to the operation of the invention described in claim 4 or 5, the composition processing based on the frame image information corresponding to the captured frame image is performed. The position range information is generated based on the image quality of the synthesized image that has already been synthesized, and the position range information is generated by further using the evaluation result information for the synthesized image information by the external image quality evaluation means. Thus, it is possible to subsequently synthesize a higher-quality image or a wider range of synthesized images.

上記の課題を解決するために、請求項7に記載の発明は、請求項5に記載の情報処理装置において、前記位置範囲情報生成手段は、前記位置合わせ処理後の前記フレーム画像に基づいて前記位置範囲情報を生成するように構成される。   In order to solve the above-described problem, the invention according to claim 7 is the information processing apparatus according to claim 5, wherein the position range information generation unit is configured to perform the positioning based on the frame image after the alignment process. It is configured to generate position range information.

請求項7に記載の発明によれば、請求項5に記載の発明の作用に加えて、位置合わせ処理後のフレーム画像に基づいて位置範囲情報を生成するので、情報処理装置内で完結する構成により位置範囲情報を生成して、より高画質或いは広範囲な合成画像をその後に合成することができる。   According to the seventh aspect of the invention, in addition to the operation of the fifth aspect of the invention, the position range information is generated based on the frame image after the alignment process, and thus the configuration completed within the information processing apparatus Thus, position range information can be generated, and a synthesized image having a higher image quality or a wider range can be synthesized thereafter.

上記の課題を解決するために、請求項8に記載の発明は、請求項4又は請求項7に記載の情報処理装置において、前記位置範囲情報生成手段は、少なくとも前記位置合わせ処理に用いられた前記フレーム画像の数を、当該位置合わせ処理後の前記フレーム画像の画素ごとに積算するCPU等の積算手段を備え、前記位置範囲情報生成手段は、前記積算された数に基づいて前記位置範囲情報を生成するように構成される。   In order to solve the above problem, the invention according to claim 8 is the information processing apparatus according to claim 4 or 7, wherein the position range information generation means is used at least for the alignment processing. The CPU includes an accumulation unit such as a CPU that accumulates the number of the frame images for each pixel of the frame image after the alignment process, and the position range information generation unit is configured to add the position range information based on the accumulated number. Is configured to generate

請求項8に記載の発明によれば、請求項4又は請求項7に記載の発明の作用に加えて、少なくとも位置合わせ処理に用いられたフレーム画像の数を、位置合わせ処理後のフレーム画像の画素ごとに積算し、その積算された数に基づいて位置範囲情報を生成するので、より高画質或いは広範囲な合成画像をその後に合成することが可能な位置範囲情報を生成することができる。なおこの場合のフレーム画像の数として、例えばフレーム画像内の位置に応じて重み付けをした数を用いても良い。   According to the invention described in claim 8, in addition to the operation of the invention described in claim 4 or 7, at least the number of frame images used for the alignment process is set to the number of frame images after the alignment process. Since the integration is performed for each pixel and the position range information is generated based on the integrated number, it is possible to generate the position range information capable of subsequently combining a higher-quality or wide range composite image. As the number of frame images in this case, for example, a number weighted according to the position in the frame image may be used.

上記の課題を解決するために、請求項9に記載の発明は、請求項4から請求項8のいずれか一項に記載の情報処理装置において、前記案内情報は前記情報処理装置の携帯者により視認される案内情報であり、前記案内情報を表示するディスプレイ等の表示手段を更に備える。   In order to solve the above problem, an invention according to claim 9 is the information processing apparatus according to any one of claims 4 to 8, wherein the guidance information is received by a carrier of the information processing apparatus. It is guidance information to be visually recognized, and further includes display means such as a display for displaying the guidance information.

請求項9に記載の発明によれば、請求項4から請求項8のいずれか一項に記載の発明の作用に加えて、案内情報が情報処理装置の携帯者により視認される案内情報であり、当該案内情報を表示する表示手段を更に備えるので、高画質或いは広範囲の合成画像を合成するために必要な情報処理装置の移動を、その携帯者が容易に行うことができる。   According to the invention described in claim 9, in addition to the operation of the invention described in any one of claims 4 to 8, the guide information is guide information visually recognized by a person who carries the information processing apparatus. Further, since the display means for displaying the guidance information is further provided, the user can easily move the information processing apparatus necessary for synthesizing a high-quality or wide-range synthesized image.

上記の課題を解決するために、請求項10に記載の発明は、請求項9に記載の情報処理装置において、前記案内情報は、前記合成処理後の前記合成画像における画質を、当該画質ごとに識別可能な態様により表示される案内情報であるように構成される。   In order to solve the above-described problem, the invention according to claim 10 is the information processing apparatus according to claim 9, wherein the guidance information includes, for each image quality, the image quality of the combined image after the combining process. It is comprised so that it may be the guidance information displayed by the aspect which can be identified.

請求項10に記載の発明によれば、請求項9に記載の発明の作用に加えて、案内情報が、合成画像における画質を、当該画質ごとに識別可能な態様により表示される案内情報であるので、高画質或いは広範囲の合成画像を合成するために必要な情報処理装置の移動を、合成画像の画質に応じて容易に行うことができる。   According to the invention described in claim 10, in addition to the operation of the invention described in claim 9, the guide information is guide information displayed in such a manner that the image quality in the composite image can be identified for each image quality. Therefore, the movement of the information processing apparatus necessary for synthesizing a high-quality image or a wide range of synthesized images can be easily performed according to the quality of the synthesized image.

上記の課題を解決するために、請求項11に記載の発明は、請求項9又は請求項10に記載の情報処理装置において、前記案内情報は、前記合成処理後の前記合成画像における画質に対応した色により表示される案内情報であるように構成される。   In order to solve the above problem, the invention according to claim 11 is the information processing apparatus according to claim 9 or 10, wherein the guide information corresponds to an image quality in the composite image after the composite processing. It is constituted so that it is the guidance information displayed by the color.

請求項11に記載の発明によれば、請求項9又は請求項10に記載の発明の作用に加えて、案内情報が合成画像における画質に対応した色により表示される案内情報であるので、高画質或いは広範囲の合成画像を合成するために必要な情報処理装置の移動を、表示される色に応じて容易に行うことができる。   According to the invention described in claim 11, in addition to the operation of the invention described in claim 9 or claim 10, the guide information is the guide information displayed in a color corresponding to the image quality in the composite image. The movement of the information processing apparatus necessary for synthesizing the image quality or a wide range of synthesized images can be easily performed according to the displayed color.

上記の課題を解決するために、請求項12に記載の発明は、請求項9から請求項11のいずれか一項に記載の情報処理装置において、前記表示手段は、前記フレーム画像を表示すると共に、表示されている当該フレーム画像に重ねて前記案内情報を表示するように構成される。   In order to solve the above-mentioned problem, the invention according to claim 12 is the information processing apparatus according to any one of claims 9 to 11, wherein the display means displays the frame image. The guidance information is displayed so as to overlap the displayed frame image.

請求項12に記載の発明によれば、請求項9から請求項11のいずれか一項に記載の発明の作用に加えて、フレーム画像に重ねて案内情報を表示するので、フレーム画像内に映っている撮像対象物との関係で、案内情報を、その内容をより理解し易く表示することができる。   According to the twelfth aspect of the invention, in addition to the action of the invention according to any one of the ninth to eleventh aspects, the guidance information is displayed so as to be superimposed on the frame image. The guidance information can be displayed in a manner that makes it easier to understand the content of the guidance information in relation to the imaging object that is being captured.

上記の課題を解決するために、請求項13に記載の発明は、請求項9から請求項11のいずれか一項に記載の情報処理装置において、前記表示手段は、前記撮像対象物の全体に対応する全体フレーム画像を表示すると共に、当該全体フレーム画像に重ねて前記案内情報を表示するように構成される。   In order to solve the above-described problem, an invention according to claim 13 is the information processing apparatus according to any one of claims 9 to 11, wherein the display means is provided on the entire imaging object. A corresponding whole frame image is displayed, and the guidance information is displayed over the whole frame image.

請求項13に記載の発明によれば、請求項9から請求項11のいずれか一項に記載の発明の作用に加えて、全体フレーム画像に重ねて案内情報を表示するので、俯瞰的に全体フレーム画像と重ねて案内情報を表示することで、案内情報を、その内容をより理解し易く表示することができる。   According to the invention described in claim 13, in addition to the operation of the invention described in any one of claims 9-11, the guide information is displayed so as to be superimposed on the entire frame image. By displaying the guidance information superimposed on the frame image, it is possible to display the guidance information more easily.

上記の課題を解決するために、請求項14に記載の発明は、請求項9から請求項13のいずれか一項に記載の情報処理装置において、前記案内情報は、携帯されている当該情報処理装置の移動の諸元を示す案内情報であるように構成される。   In order to solve the above-described problem, an invention according to claim 14 is the information processing apparatus according to any one of claims 9 to 13, wherein the guide information is the information processing that is carried around. It is comprised so that it may be the guidance information which shows the item of movement of an apparatus.

請求項14に記載の発明によれば、請求項9から請求項13のいずれか一項に記載の発明の作用に加えて、案内情報が、情報処理装置の移動の諸元を示す案内情報であるので、情報処理装置の移動を容易に行うことができる。   According to the invention described in claim 14, in addition to the operation of the invention described in any one of claims 9-13, the guide information is guide information indicating specifications of movement of the information processing apparatus. Therefore, the information processing apparatus can be easily moved.

上記の課題を解決するために、請求項15に記載の発明は、請求項1から請求項14のいずれか一項に記載の情報処理装置において、前記位置合わせ処理又は前記合成処理の少なくともいずれか一方の終了後に当該情報処理装置における処理を中断させるCPU等の中断手段と、終了した当該少なくともいずれか一つの処理結果に対応する結果情報を保存させるCPU等の保存手段と、保存された結果情報を取得するCPU等の結果情報取得手段と、取得された結果情報を用いて、前記中断された処理を再開するCPU等の再開手段と、を更に備える。   In order to solve the above-described problem, the invention according to claim 15 is the information processing apparatus according to any one of claims 1 to 14, wherein at least one of the alignment process and the synthesis process. Interruption means such as a CPU for interrupting the processing in the information processing apparatus after one end, storage means such as a CPU for saving result information corresponding to the at least one of the completed processing results, and saved result information And a result information acquisition means such as a CPU for acquiring the information, and a restart means such as a CPU for restarting the interrupted processing using the acquired result information.

請求項15に記載の発明によれば、請求項1から請求項14のいずれか一項に記載の発明の作用に加えて、位置合わせ処理又は合成処理の少なくともいずれか一方の終了後に当該情報処理装置における処理を中断させた場合でも、保存されている結果情報を用いて当該処理を再開することができるので、位置合わせ処理及び合成処理の実行の自由度を向上させることができる。   According to the invention described in claim 15, in addition to the operation of the invention described in any one of claims 1 to 14, the information processing is performed after at least one of the alignment process and the synthesis process. Even when the process in the apparatus is interrupted, the process can be resumed using the stored result information, so that the degree of freedom in executing the alignment process and the synthesis process can be improved.

上記の課題を解決するために、請求項16に記載の発明は、請求項15に記載の情報処理装置において、前記結果情報には、中断までの前記少なくともいずれか一方の結果に対応するフレーム画像情報が含まれており、前記保存手段は、当該結果情報を外部の画像認識手段に出力する通信インターフェース等の外部出力手段を備え、前記結果情報取得手段は、前記画像認識手段により認識されたフレーム画像に相当するフレーム画像情報を含む前記結果情報を取得するように構成される。   In order to solve the above-described problem, the invention according to claim 16 is the information processing apparatus according to claim 15, wherein the result information includes a frame image corresponding to the at least one result until the interruption. Information is included, and the storage means includes external output means such as a communication interface for outputting the result information to an external image recognition means, and the result information acquisition means includes the frame recognized by the image recognition means. The result information including frame image information corresponding to the image is acquired.

請求項16に記載の発明によれば、請求項15に記載の発明の作用に加えて、中断までの結果情報を外部の画像認識手段により認識させ、その認識結果を取得して処理を再開するので、情報処理装置としての合成画像をより高画質或いは広範囲に合成することができる。   According to the invention of the sixteenth aspect, in addition to the action of the invention of the fifteenth aspect, the result information up to the interruption is recognized by the external image recognition means, the recognition result is acquired, and the process is resumed. Therefore, the synthesized image as the information processing apparatus can be synthesized with higher image quality or in a wider range.

上記の課題を解決するために、請求項17に記載の発明は、請求項1から請求項16のいずれか一項に記載の情報処理装置において、前記撮像手段による撮像時において前記撮像対象物の一部又は全部を照らすライト等の照明手段と、少なくとも前記位置合わせ処理の結果に基づいて、前記照明手段を制御するCPU等の照明制御手段と、を備える。   In order to solve the above-described problem, an invention according to claim 17 is the information processing apparatus according to any one of claims 1 to 16, wherein the imaging object is captured during imaging by the imaging unit. Illuminating means such as a light that illuminates a part or all of the information, and illumination control means such as a CPU that controls the illuminating means based on at least the result of the alignment process.

請求項17に記載の発明によれば、請求項1から請求項16のいずれか一項に記載の発明の作用に加えて、少なくとも位置合わせ処理の結果を用いて撮像対象物の一部又は全部を照らすので、より高画質或いは広範囲の合成画像を合成することができる。   According to the invention described in claim 17, in addition to the operation of the invention described in any one of claims 1 to 16, at least a part or all of the imaging object is obtained using the result of the alignment process. Therefore, it is possible to synthesize a higher-quality image or a wider range of synthesized images.

上記の課題を解決するために、請求項18に記載の発明は、請求項1から請求項17のいずれか一項に記載の情報処理装置において、前記位置合わせ手段は、前記撮像対象物との間の相対的な位置が異なる複数の前記撮像手段からそれぞれ出力された前記フレーム画像情報を用いて前記位置合わせ処理を行うように構成される。   In order to solve the above-described problem, an invention according to claim 18 is the information processing apparatus according to any one of claims 1 to 17, wherein the alignment unit is connected to the imaging object. The alignment processing is performed using the frame image information respectively output from the plurality of imaging units having different relative positions.

請求項18に記載の発明によれば、請求項1から請求項17のいずれか一項に記載の発明の作用に加えて、撮像対象物との間の相対的な位置が異なる複数の撮像手段からそれぞれ出力されたフレーム画像情報を用いて位置合わせ処理を行うので、複数の撮像手段を用いてより高画質或いは広範囲の合成画像を合成することができる。   According to the invention described in claim 18, in addition to the operation of the invention described in any one of claims 1 to 17, a plurality of imaging means having different relative positions with respect to the imaging object. Since the alignment processing is performed using the frame image information output from each of the images, it is possible to synthesize a higher-quality or wide-range composite image using a plurality of imaging units.

以上説明したように、本発明によれば、撮像対象物に対応する高画質或いは広範囲の合成画像を、携帯可能な情報処理装置を用いて合成することができる。また、撮像条件が異なる複数のフレーム画像情報を用いることで、より高画質或いは広範囲の合成画像を合成することができる。   As described above, according to the present invention, it is possible to synthesize a high-quality or wide-range synthesized image corresponding to an imaging object using a portable information processing apparatus. Further, by using a plurality of pieces of frame image information with different imaging conditions, it is possible to synthesize a higher-quality or wide range synthesized image.

従って、高画質或いは広範囲、高解像度で、更に簡易に撮像対象物を画像化することが可能となる。   Therefore, it becomes possible to image the imaging object more easily with high image quality, wide range, and high resolution.

第1実施形態に係るスマートフォンの概要構成を示すブロック図である。It is a block diagram which shows the schematic structure of the smart phone which concerns on 1st Embodiment. 第1実施形態に係る画像処理を示すフローチャートである。It is a flowchart which shows the image processing which concerns on 1st Embodiment. 第1実施形態に係る画像処理において表示される画面例等を示す図であり、(a)は撮像対象物としての書面を例示する図であり、(b)は位置合わせ処理時の表示例を示す図である。It is a figure which shows the example of a screen displayed in the image processing which concerns on 1st Embodiment, (a) is a figure which illustrates the document as an imaging target object, (b) is a display example at the time of an alignment process FIG. 第1実施形態に係る位置合わせ処理を例示する図(i)であり、(a)は位置合わせ前の状態を例示する図であり、(b)は位置合わせ処理中を例示する図(i)であり、(c)は位置合わせ処理中を例示する図(ii)である。It is figure (i) which illustrates the position alignment process which concerns on 1st Embodiment, (a) is a figure which illustrates the state before position alignment, (b) is a figure which illustrates the position process in progress (i). (C) is a diagram (ii) illustrating the position alignment process. 第1実施形態に係る位置合わせ処理を例示する図(ii)であり、(a)は位置合わせ処理中を例示する図(iii)であり、(b)は位置合わせ処理中を例示する図(iv)であり、(c)は位置合わせ処理中を例示する図(v)であり、(d)は位置合わせ処理中を例示する図(vi)である。It is figure (ii) which illustrates the position alignment process which concerns on 1st Embodiment, (a) is a figure (iii) which illustrates during position alignment process, (b) is a figure which illustrates during position alignment process ( iv), (c) is a diagram (v) illustrating the alignment process, and (d) is a diagram (vi) illustrating the alignment process. 第1実施形態に係る位置合わせ処理を例示する図(iii)であり、(a)は位置合わせ処理の他の例を示す図(i)であり、(b)は位置合わせ処理の他の例を示す図(ii)であり、(c)は位置合わせ処理の他の例を示す図(iii)であり、(d)は位置合わせ処理の他の例を示す図(iv)である。It is figure (iii) which illustrates the alignment process which concerns on 1st Embodiment, (a) is a figure (i) which shows the other example of the alignment process, (b) is another example of the alignment process (C) is a diagram (iii) showing another example of the alignment process, and (d) is a diagram (iv) showing another example of the alignment process. 第2実施形態に係る画像処理を示すフローチャートである。It is a flowchart which shows the image processing which concerns on 2nd Embodiment.

次に、本発明を実施するための形態について、図面に基づいて説明する。なお、以下に説明する各実施形態は、連写及び動画の撮像が可能なデジタルカメラ(以下、単にカメラと称する)を備える携帯可能なスマートフォンに対して本発明を適用した場合の実施の形態である。なお当該スマートフォンに備えられているデジタルカメラではなく、装置として独立したデジタルカメラに対して本発明を適用しても良い。また、本発明に係るスマートフォンの携帯者を、以下、単に「携帯者」と称する。
(I)第1実施形態
初めに、本発明に係る第1実施形態について、図1乃至図6を用いて説明する。なお、図1は第1実施形態に係るスマートフォンの概要構成を示すブロック図であり、図2は第1実施形態に係る画像処理を示すフローチャートである。また、図3は第1実施形態に係る画像処理において表示される画面例を示す図であり、図4乃至図6は第1実施形態に係る位置合わせ処理をそれぞれ例示する図である。
Next, modes for carrying out the present invention will be described based on the drawings. In addition, each embodiment described below is an embodiment when the present invention is applied to a portable smartphone including a digital camera (hereinafter simply referred to as a camera) capable of continuous shooting and moving image capturing. is there. In addition, you may apply this invention with respect to the digital camera independent as an apparatus instead of the digital camera with which the said smart phone is equipped. In addition, a smartphone user according to the present invention is hereinafter simply referred to as a “carrier”.
(I) First Embodiment First, a first embodiment according to the present invention will be described with reference to FIGS. 1 is a block diagram showing a schematic configuration of the smartphone according to the first embodiment, and FIG. 2 is a flowchart showing image processing according to the first embodiment. FIG. 3 is a diagram illustrating an example of a screen displayed in the image processing according to the first embodiment, and FIGS. 4 to 6 are diagrams illustrating the alignment processing according to the first embodiment.

第1実施形態に係るスマートフォンは、撮像対象物の一例としての例えば書面又は立体物上に文字、記号又は図形等を用いて記載されている情報を、上記カメラを用いて連写又は動画撮像する。その後当該スマートフォンは、第1実施形態に係る後述の画像処理により、当該撮像により得られた画像データを複数フレーム分用いて、当該画像データ相互の位置合わせ処理及び当該位置合わせ処理後の各画像データを合成する合成処理を実行する。これにより当該スマートフォンは、撮像対象物上の情報を高画質或いは広範囲にデジタル化する。   The smartphone according to the first embodiment performs continuous shooting or moving image capturing of information described by using characters, symbols, figures, or the like on a document or a three-dimensional object as an example of an imaging object using the camera. . After that, the smartphone uses the image data obtained by the imaging for a plurality of frames by image processing to be described later according to the first embodiment, and performs image data mutual alignment processing and each image data after the alignment processing. A synthesis process to synthesize is executed. Thereby, the smartphone digitizes the information on the imaging object with high image quality or in a wide range.

即ち図1に示すように、第1実施形態に係る「情報処理装置」の一例としてのスマートフォンSは、CPU1と、ROM(Read Only Memory)2と、RAM(Random Access Memory)3と、操作ボタン及びタッチパネル等からなる操作部4と、当該タッチパネルがその表面に配置されている液晶ディスプレイ等からなるディスプレイ5と、スピーカ7及びマイク8が接続されている通話制御部6と、「撮像手段」の一例としての上記カメラ9と、図1において図示しない外部のネットワーク(無線LAN(Local Area Network)、専用回線、インターネット又はいわゆる3G回線等のネットワーク)に接続するためのアンテナANTを備える通信インターフェース10と、により構成されている。またRAM3内には、CPU1を中心とした第1実施形態に係る画像処理を実行するために必要な各種バッファとして、位置合わせデータバッファ30と、データ量バッファ31と、合成画像バッファ32と、広域画像バッファ33と、カレント画像バッファ34と、位置合わせ済みカレント画像バッファ35と、が、揮発性の記憶領域として形成されている。   That is, as illustrated in FIG. 1, the smartphone S as an example of the “information processing apparatus” according to the first embodiment includes a CPU 1, a ROM (Read Only Memory) 2, a RAM (Random Access Memory) 3, and operation buttons. And an operation unit 4 including a touch panel, a display 5 including a liquid crystal display on the surface of the touch panel, a call control unit 6 to which a speaker 7 and a microphone 8 are connected, and an “imaging unit”. As an example, the camera 9 and a communication interface 10 including an antenna ANT for connecting to an external network (a network such as a wireless local area network (LAN), a dedicated line, the Internet, or a so-called 3G line) not shown in FIG. , Is configured. In the RAM 3, as various buffers necessary for executing image processing according to the first embodiment centered on the CPU 1, an alignment data buffer 30, a data amount buffer 31, a composite image buffer 32, and a wide area The image buffer 33, the current image buffer 34, and the aligned current image buffer 35 are formed as a volatile storage area.

上記の構成のうちCPU1が、第1実施形態に係る「位置合わせ手段」の一例、「合成手段」の一例、「位置範囲情報生成手段」の一例、「案内情報生成手段」の一例、「積算手段」の一例、「中断手段」の一例、「保存手段」の一例、「結果情報取得手段」の一例、「再開手段」の一例及び「照明制御手段」の一例に、それぞれ相当する。またディスプレイ5が、「告知手段」の一例及び「表示手段」の一例に、それぞれ相当する。更に通信インターフェース10が、「外部出力手段」の一例及び「取得手段」の一例に、それぞれ相当する。   In the above configuration, the CPU 1 is an example of the “positioning unit”, the example of the “combining unit”, the example of the “position range information generating unit”, the example of the “guidance information generating unit”, the “integration” according to the first embodiment. It corresponds to an example of “means”, an example of “interrupt means”, an example of “save means”, an example of “result information acquisition means”, an example of “resume means”, and an example of “illumination control means”. The display 5 corresponds to an example of “notification means” and an example of “display means”, respectively. Further, the communication interface 10 corresponds to an example of “external output unit” and an example of “acquisition unit”, respectively.

この構成において通信インターフェース10は、CPU1の制御の下、アンテナANTを介した上記ネットワークとのデータの授受を制御する。この時通信インターフェース10は、アンテナANTを介した無線によるデータの授受だけでなく、例えば有線LANやいわゆるUSB(Universal Serial Bus)等を介した有線によるデータの授受を制御するように構成することもできる。   In this configuration, the communication interface 10 controls the exchange of data with the network via the antenna ANT under the control of the CPU 1. At this time, the communication interface 10 may be configured to control not only wireless data transmission / reception via the antenna ANT but also wired data transmission / reception via a wired LAN or a so-called USB (Universal Serial Bus), for example. it can.

また通話制御部6は、CPU1の制御の下、マイク8及びスピーカ7を用いたスマートフォンSとしての音声通話を制御する。更に操作部4は、スマートフォンSの使用者による操作に基づいて、当該操作に対応する操作信号を生成してCPU1に出力する。これによりCPU1は、当該操作信号に基づいてスマートフォンS全体を制御する。   The call control unit 6 controls a voice call as the smartphone S using the microphone 8 and the speaker 7 under the control of the CPU 1. Furthermore, the operation part 4 produces | generates the operation signal corresponding to the said operation based on operation by the user of the smart phone S, and outputs it to CPU1. Thereby, CPU1 controls the smart phone S whole based on the said operation signal.

一方ROM2には、後述する第1実施形態に係る画像処理を初めとするスマートフォンSとしての処理のためのプログラム等が予め不揮発性に記録されている。そしてCPU1は、当該プログラム等をROM2から読み出して実行することにより、上記スマートフォンSとしての処理を制御する。この他ROM2は、例えば電話番号データやアドレスデータ等、スマートフォンSとしての処理に必要なデータも不揮発性に記憶する。またRAM3は、上記各バッファとして必要なデータを一時的に記憶し、更に上記スマートフォンSとしての処理に必要な他のデータを一時的に記憶する。更にディスプレイ5は、CPU1の制御の下、第1実施形態に係る画像処理のために必要な情報に加えて、スマートフォンSとしての処理に必要な情報を、その携帯者に対して表示する。   On the other hand, in the ROM 2, a program or the like for processing as the smartphone S including image processing according to the first embodiment described later is recorded in a nonvolatile manner in advance. And CPU1 controls the process as the said smart phone S by reading the said program etc. from ROM2, and running it. In addition, the ROM 2 also stores data necessary for processing as the smartphone S, such as telephone number data and address data, in a nonvolatile manner. The RAM 3 temporarily stores data necessary for each of the buffers, and further temporarily stores other data necessary for processing as the smartphone S. Further, the display 5 displays information necessary for processing as the smartphone S to the user under the control of the CPU 1 in addition to information necessary for image processing according to the first embodiment.

他方、カメラ9は、CPU1の制御の下、上記書面等上の情報を連写又は動画撮像し、当該撮像した画像に対応する画像データ(デジタル化された画像データ)を、当該連写の都度又は動画撮像の場合にあっては連続して、CPU1に出力する。これによりCPU1は、RAM3内の各バッファにそれぞれ記憶されているデータを用いて、第1実施形態に係る画像処理を実行する。   On the other hand, under the control of the CPU 1, the camera 9 continuously captures or captures the information on the document or the like, and acquires image data (digitized image data) corresponding to the captured image for each continuous capture. Or in the case of moving image imaging, it outputs to CPU1 continuously. Thus, the CPU 1 executes image processing according to the first embodiment using data stored in each buffer in the RAM 3.

次に、当該RAM3内の各バッファについて、具体的に説明する。   Next, each buffer in the RAM 3 will be specifically described.

先ず、RAM3内の位置合わせデータバッファ30は、後述する位置合わせ処理の結果としての変形状態を示す座標データを記憶する。次にRAM3内のデータ量バッファ31は、カメラ9により撮像された画像における各画素のそれぞれについて、第1実施形態に係る画像処理のうちの位置合わせ処理及び合成処理の対象となった画像(後述するカレント画像)の数(無名数)を、合成画像における各画素ごとに記憶する。ここで、データ量バッファ31に記憶されている値が大きいほど、その画素については第1実施形態に係る位置合わせ処理及び合成処理による高画質化が進んでいることを意味する。なお、例えば画像内の位置に応じて重み付けをした値を、画素ごとにデータ量バッファ31に記憶させるように構成することもできる。   First, the alignment data buffer 30 in the RAM 3 stores coordinate data indicating a deformation state as a result of alignment processing described later. Next, the data amount buffer 31 in the RAM 3 is an image that is a target of the alignment process and the synthesis process in the image process according to the first embodiment for each pixel in the image captured by the camera 9 (described later). The number (nameless number) of the current image) is stored for each pixel in the composite image. Here, the larger the value stored in the data amount buffer 31, the higher the image quality of the pixel is improved by the alignment process and the synthesis process according to the first embodiment. For example, a value weighted according to the position in the image may be stored in the data amount buffer 31 for each pixel.

一方、RAM3内の合成画像バッファ32は、第1実施形態に係る画像処理のうちの合成処理により高画質/広範囲化して形成された合成画像に相当する画像データを、当該合成処理の進捗に合わせて逐次記憶する。これに対してRAM3内の広域画像バッファ33は、後述する位置合わせ処理に用いるべく、第1実施形態に係る画像処理において撮像された書面等の全体画像に相当する一フレーム分の画像データ(フレーム画像データ)を記憶する。ここで、この場合の「全体画像」とは、例えば書面一枚に記載されている情報をデジタル化する場合は、その書面の全体を撮像した一つの画像を言う。   On the other hand, the composite image buffer 32 in the RAM 3 adjusts the image data corresponding to the composite image formed with high image quality / wide range by the composite processing of the image processing according to the first embodiment in accordance with the progress of the composite processing. And memorize sequentially. On the other hand, the wide area image buffer 33 in the RAM 3 is used for the alignment process described later, and image data (frame) corresponding to the entire image such as a document imaged in the image processing according to the first embodiment. Image data). Here, the “whole image” in this case means, for example, one image obtained by capturing the entire document when the information described in one document is digitized.

またRAM3内のカレント画像バッファ34は、その時点で第1実施形態に係る画像処理のうちの位置合わせ処理の対象となっている一フレーム分の画像データを記憶する。この場合の一フレーム分の画像データ(フレーム画像データ)に相当する画像を、「カレント画像」と称する。最後にRAM3内の位置合わせ済みカレント画像バッファ35は、第1実施形態に係る画像処理のうちの位置合わせ処理後で、且つこれから合成処理の対象となる一フレーム分の画像データを記憶する。   In addition, the current image buffer 34 in the RAM 3 stores image data for one frame that is the target of the alignment processing in the image processing according to the first embodiment at that time. In this case, an image corresponding to one frame of image data (frame image data) is referred to as a “current image”. Finally, the aligned current image buffer 35 in the RAM 3 stores image data for one frame that is the target of the composition process after the alignment process in the image processing according to the first embodiment.

次に、第1実施形態に係る画像処理について、具体的に図2乃至図6を用いて説明する。   Next, the image processing according to the first embodiment will be specifically described with reference to FIGS.

第1実施形態に係る画像処理は、例えば、携帯者による所定の操作が操作部4において実行されたときに開始される。   The image processing according to the first embodiment is started, for example, when a predetermined operation by the carrier is executed on the operation unit 4.

そして当該画像処理が開始されると、図2に示すようにCPU1は先ず、上記位置合わせデータバッファ30を、「変形なし」を意味する内容のデータを用いて初期化する(ステップS1)。これにより、第1実施形態に係る位置合わせ処理が開始される。次にCPU1は、上記データ量バッファ31及び合成画像バッファ32を、それぞれ「ゼロ」に初期化する(ステップS2)。   When the image processing is started, as shown in FIG. 2, the CPU 1 first initializes the alignment data buffer 30 with data having a content meaning “no deformation” (step S1). Thereby, the alignment process which concerns on 1st Embodiment is started. Next, the CPU 1 initializes the data amount buffer 31 and the composite image buffer 32 to “zero”, respectively (step S2).

次にCPU1は、上記全体画像を撮像する旨の表示をディスプレイ5において実行する等の処理により、携帯者に対して当該全体画像の撮像を告知する。これにより当該全体画像が携帯者の操作により撮像されると、CPU1は、当該全体画像に相当する一フレーム分の画像データを広域画像バッファ33に入力する(ステップS3)。   Next, the CPU 1 notifies the wearer of the imaging of the whole image through a process such as executing a display on the display 5 to capture the whole image. As a result, when the entire image is captured by a user's operation, the CPU 1 inputs image data for one frame corresponding to the entire image to the wide area image buffer 33 (step S3).

次にCPU1は、撮像対象物の任意の位置から連写又は動画撮像を開始する旨の表示をディスプレイ5において実行する等の処理により、携帯者に対して連写又は動画撮像を告知する。これにより当該連写又は動画撮像が携帯者の操作により実行されると、CPU1は、当該撮像に伴って入力されてくるカレント画像に相当する一フレーム分の画像データをカレント画像バッファ34に入力する(ステップS4)。これによりCPU1は、第1実施形態に係る非剛体の位置合わせ処理を、広域画像バッファ33に記憶されている画像データ(即ち全体画像に相当する画像データ)と、そのタイミングにおいてカレント画像バッファ34に記憶されている画像データと、を用いて行う(ステップS5)。このときの非剛体の位置合わせ処理は、カレント画像として撮像された撮像対象物の部分と、全体画像における当該部分と、を比較し、両者が画像として一致するようにカレント画像の位置合わせを行う処理である。この位置合わせ処理は、位置合わせデータバッファ30に記憶されている座標データを用いて行われる。当該位置合わせ処理には、例えば上記非特許文献1に記載されているものがあるが、より具体的には図4乃至図6を用いて後ほど詳説する。   Next, the CPU 1 notifies the user of continuous shooting or moving image shooting by executing a display on the display 5 to start continuous shooting or moving image shooting from an arbitrary position of the imaging target. As a result, when the continuous shooting or the moving image shooting is executed by a user's operation, the CPU 1 inputs image data for one frame corresponding to the current image input along with the shooting to the current image buffer 34. (Step S4). As a result, the CPU 1 performs non-rigid registration processing according to the first embodiment on the image data stored in the wide area image buffer 33 (that is, image data corresponding to the entire image) and the current image buffer 34 at that timing. This is performed using the stored image data (step S5). At this time, the non-rigid body alignment processing compares the portion of the imaging target imaged as the current image with the portion of the entire image, and performs alignment of the current image so that they match as an image. It is processing. This alignment process is performed using the coordinate data stored in the alignment data buffer 30. For example, the alignment process is described in Non-Patent Document 1 described above. More specifically, the alignment process will be described in detail later with reference to FIGS.

カレント画像に相当する一フレーム分の画像データに対する非剛体の位置合わせ処理が完了すると(ステップS5)、CPU1は、当該位置合わせ処理後のカレント画像の画像データを位置合わせ済みカレント画像バッファ35に記憶させる(ステップS6)。更にCPU1は、ステップS5の位置合わせ処理の結果としての変形状態を示す座標データを、位置合わせデータバッファ30に新たに記憶させる(ステップS7)。   When the alignment processing of the non-rigid body with respect to the image data for one frame corresponding to the current image is completed (step S5), the CPU 1 stores the image data of the current image after the alignment processing in the aligned current image buffer 35. (Step S6). Further, the CPU 1 newly stores coordinate data indicating the deformation state as a result of the alignment process in step S5 in the alignment data buffer 30 (step S7).

次にCPU1は、位置合わせ処理後のカレント画像の画質が、第1実施形態の画像処理として所望される高画質として十分な解像度を有しているか否かを判定する(ステップS8)。このステップS8の処理においてCPU1は、例えば、当該高画質に相当する予め設定された目標解像度を示すデータと、撮像対象物全体の大きさを示す予め入力されたサイズデータと、を用いて当該カレント画像の解像度を判定する。この場合、撮像対象物全体を高画質或いは広範囲にデジタル化するためには、目標解像度或いはサイズデータが大きいほど多くのカレント画像を撮像する必要があり、また目標解像度が高いほど各カレント画像に要求される解像度が高いことになる。ここで「カレント画像の解像度が高い」とは、通常は撮像対象物により近くなっていることを意味しており、解像度が高い反面、撮像範囲としては狭くなっている状況である。ステップS8の判定において、位置合わせ処理後のカレント画像の画質が十分な解像度を有していない場合(ステップS8;NO)、CPU1は後述するステップS12の処理に移行する。一方ステップS8の判定において、位置合わせ処理後のカレント画像の画質が十分な解像度を有している場合(ステップS8;YES)、CPU1は次に、位置合わせ済みカレント画像バッファ35内の画像データを合成画像バッファ32内の画像データに加算する(ステップS9)。このステップS9の処理により、高画質のカレント画像が、それまでに合成されていた合成画像に追加される。これにより、撮像対象物全体に占める合成画像の領域的な割合が拡大されることになる。   Next, the CPU 1 determines whether or not the image quality of the current image after the alignment processing has sufficient resolution as the high image quality desired as the image processing of the first embodiment (step S8). In the process of step S8, for example, the CPU 1 uses the data indicating the preset target resolution corresponding to the high image quality and the size data input in advance indicating the size of the entire imaging target, for example. Determine the resolution of the image. In this case, in order to digitize the entire object to be imaged with high image quality or in a wide range, it is necessary to capture more current images as the target resolution or size data is larger, and the higher the target resolution is, the more demanded each current image is. The resolution will be high. Here, “the resolution of the current image is high” usually means that the object is closer to the object to be imaged, and the resolution is high, but the imaging range is narrow. If it is determined in step S8 that the image quality of the current image after the alignment process does not have sufficient resolution (step S8; NO), the CPU 1 proceeds to the process of step S12 described later. On the other hand, if it is determined in step S8 that the image quality of the current image after the alignment process has a sufficient resolution (step S8; YES), the CPU 1 next stores the image data in the aligned current image buffer 35. It adds to the image data in the composite image buffer 32 (step S9). By the processing in step S9, the high-quality current image is added to the synthesized image that has been synthesized so far. As a result, the regional ratio of the composite image in the entire imaging target is enlarged.

次にCPU1は、ステップS5の位置合わせ処理及びステップS9の合成処理に伴い、当該カレント画像に含まれているいずれかの画素に対応する合成画像の各画素に対応するデータ量バッファ31の値(位置合わせ処理及び合成処理の対象となったカレント画像の数の値)を、当該位置合わせ処理及び合成処理に対応して「1」だけインクリメントする(ステップS10)。   Next, in accordance with the alignment process in step S5 and the composition process in step S9, the CPU 1 sets the value (in the data amount buffer 31 corresponding to each pixel of the composite image corresponding to any pixel included in the current image ( The value of the number of current images subjected to registration processing and composition processing is incremented by “1” corresponding to the registration processing and composition processing (step S10).

次にCPU1は、ステップS9の処理後の合成画像において、各画素に対応するデータ量バッファ31の値が撮像対象物の全ての領域について十分な値であるか否かを判定する(ステップS11)。このステップS11の処理においてCPU1は、例えば、第1実施形態に係る画像処理の結果としての合成画像において、当該画像処理として所望される高画質として十分な数のカレント画像が、撮像対象物の全領域に渡って第1実施形態に係る位置合わせ処理及び合成処理の対象となったか否かを、データ量バッファ31に記憶されている各画素ごとの値に基づいて判定する。ステップS11の判定において十分な値(カレント画像の数)を有している場合(ステップS11;YES)、撮像対象物を高画質にデジタル化できたことになる。そこでCPU1は、合成画像バッファ32に記憶されている合成画像の各画素の画素値を、その時のデータ量バッファ31に記憶されているその画素に対応する値で除算し(ステップS14)、その結果を図示しないメモリ等に記憶して、第1実施形態に係る画像処理を終了する。このステップS14の処理は、第1実施形態に係る画像処理として最終的に合成された高画質の合成画像における各画素の画素値を、その画像処理に必要となったカレント画像の数で除する処理であり、例えば爾後に撮像されるカレント画像との一貫性を担保するための処理である。   Next, the CPU 1 determines whether or not the value of the data amount buffer 31 corresponding to each pixel is a sufficient value for all the areas of the imaging target in the composite image after the process of step S9 (step S11). . In the process of step S11, for example, in the composite image obtained as a result of the image processing according to the first embodiment, the CPU 1 determines that a sufficient number of current images as a high image quality desired as the image processing have been obtained. It is determined based on the value for each pixel stored in the data amount buffer 31 whether or not it has been subjected to the alignment process and the synthesis process according to the first embodiment over the region. If the determination in step S11 has a sufficient value (number of current images) (step S11; YES), the imaging object has been digitized with high image quality. Therefore, the CPU 1 divides the pixel value of each pixel of the composite image stored in the composite image buffer 32 by the value corresponding to that pixel stored in the data amount buffer 31 at that time (step S14), and the result. Is stored in a memory (not shown) or the like, and the image processing according to the first embodiment is terminated. In the process of step S14, the pixel value of each pixel in the high-quality synthesized image finally synthesized as the image processing according to the first embodiment is divided by the number of current images necessary for the image processing. It is a process, for example, a process for ensuring consistency with the current image picked up after shooting.

一方、ステップS11の判定において、ステップS9の処理後の合成画像において十分な数のカレント画像が撮像対象物の全領域に渡って第1実施形態に係る位置合わせ処理及び合成処理の対象となっていない場合(ステップS11;NO)、CPU1は、追加のカレント画像を撮像すべく、現在のカレント画像を構成する各画素に対応する値をデータ量バッファ31から取得する(ステップS12)。この場合にCPU1は、既に第1実施形態に係る位置合わせ処理及び合成処理の対象となった画素をカレント画像内で特定すべく、位置合わせデータバッファ30に記憶されている座標データを取得し、これを用いて上記ステップS5に係る非剛体の位置合わせ処理とは逆の処理(逆変換処理)を行う。その後CPU1は、ステップS12の処理により取得した各画素に対応する値に対応する色を、第1実施形態に係る案内情報として、カレント画像に重畳してディスプレイ5上に表示させる(ステップS13)。これによりCPU1は、更なるカレント画像の撮像が必要な撮像対象物内の領域を、携帯者に告知する。その後CPU1は、上記ステップS4に戻り、新たに撮像されるカレント画像について上記ステップS4乃至S13の処理を繰り返す。これによりCPU1は、上記ステップS11の判定結果が「YES」となるまで、新たなカレント画像の撮像と、撮像されたカレント画像に相当する画像データを用いた位置合わせ処理(上記ステップS5参照)及びその後の合成処理(上記ステップS8乃至S11参照)を実行することを繰り返す。   On the other hand, in the determination in step S11, a sufficient number of current images in the composite image after the process in step S9 are the targets of the alignment process and the composite process according to the first embodiment over the entire area of the imaging target. If there is not (step S11; NO), the CPU 1 obtains a value corresponding to each pixel constituting the current current image from the data amount buffer 31 to capture an additional current image (step S12). In this case, the CPU 1 acquires the coordinate data stored in the alignment data buffer 30 in order to identify the pixel that has already been subjected to the alignment process and the synthesis process according to the first embodiment in the current image, Using this, a process (inverse transform process) opposite to the non-rigid positioning process according to step S5 is performed. After that, the CPU 1 causes the color corresponding to the value corresponding to each pixel acquired by the process of step S12 to be superimposed on the current image and displayed on the display 5 as guidance information according to the first embodiment (step S13). As a result, the CPU 1 notifies the wearer of the area within the imaging target that requires further current image capturing. Thereafter, the CPU 1 returns to step S4, and repeats the processes of steps S4 to S13 for the newly captured current image. As a result, the CPU 1 captures a new current image and performs alignment processing using the image data corresponding to the captured current image until the determination result in step S11 becomes “YES” (see step S5 above). The subsequent synthesis process (see steps S8 to S11 above) is repeated.

次に、上述した繰り返し処理の過程において、ステップS13の処理としてディスプレイ5上に表示される画像例を、図3を用いて説明する。   Next, an example of an image displayed on the display 5 as the process of step S13 in the process of the above-described repetition process will be described with reference to FIG.

図3において、撮像対象物は、例えば図3(a)に例示されるような文字が記載された書面Pであるとする。また図3(b)は、ディスプレイ5と、操作部4に属する操作ボタン4A乃至4Cと、を備えたスマートフォンSの正面図である。この書面Pを撮像対象物として第1実施形態に係る画像処理が実行される過程では、例えば図3(b)に例示するように、第1実施形態の画像処理として所望される高画質(解像度)の合成画像が合成できている領域(図2ステップS8;YES参照)については、例えば両方向ハッチングが掛かるように表示される(図2ステップS13参照)。一方、所望される高画質に到達していない領域(図2ステップS8;NO参照)については、それまでの画像処理にて到達している画質(解像度。換言すればデータ量バッファ31に記憶されている値)に応じて、段階的に異なる状態で表示される(図2ステップS13参照)。例えば図3(b)に例示する場合では、未だカレント画像が撮像されていない領域については元の書面Pの当該領域がそのまま表示される。これに対し、高画質に相当する解像度にまで到達していない第1の領域については、例えば右下方向ハッチングが掛かるように表示される。更に、第1の領域よりも更に解像度は低いが、カレント画像が一つ以上撮像されて第1実施形態に係る位置合わせ処理及び合成処理の対象とされている領域(第1実施形態に係る画像処理が開始済みの領域)については、例えば左下方向ハッチングが掛かるように表示される。なお図3(b)において、両方向ハッチングが掛けられている領域を例えば赤色に、右下方向ハッチングが掛けられている領域をオレンジ色に、左下方向ハッチングが掛けられている領域を黄色に、それぞれ色により到達している解像度を区別して表示するように構成してもよい。そして図3(b)に例示されるような表示を見た携帯者は、右下方向ハッチングが掛けられている領域又は左下方向ハッチングが掛けられている領域についてのカレント画像を追加して撮像すべく、スマートフォンSを移動させて必要なカレント画像を撮像する(二巡目以降の図2ステップS4参照)。   In FIG. 3, it is assumed that the imaging target is a document P on which characters such as those illustrated in FIG. FIG. 3B is a front view of the smartphone S including the display 5 and the operation buttons 4A to 4C belonging to the operation unit 4. In the process in which the image processing according to the first embodiment is performed using the document P as an imaging target, for example, as illustrated in FIG. 3B, the desired high image quality (resolution) as the image processing according to the first embodiment. ) Is displayed so as to be hatched in both directions (see step S13 in FIG. 2), for example (see step S8 in FIG. 2; see YES). On the other hand, for an area that has not reached the desired high image quality (see step S8 in FIG. 2; NO), the image quality (resolution that has been reached in the previous image processing (in other words, stored in the data amount buffer 31). Are displayed in a stepwise different state (see step S13 in FIG. 2). For example, in the case illustrated in FIG. 3B, the area of the original document P is displayed as it is for the area where the current image has not yet been captured. On the other hand, the first area that has not reached the resolution corresponding to the high image quality is displayed so as to be hatched in the lower right direction, for example. Furthermore, although the resolution is lower than that of the first area, one or more current images are captured and the areas to be subjected to the alignment process and the synthesis process according to the first embodiment (the image according to the first embodiment). The area where processing has been started is displayed so as to be hatched in the lower left direction, for example. In FIG. 3B, the area hatched in both directions is, for example, red, the area hatched in the lower right direction is orange, and the area hatched in the lower left direction is yellow, You may comprise so that the resolution which has reached | attained with a color may be distinguished and displayed. Then, the user who viewed the display as illustrated in FIG. 3B adds and captures a current image of the area that is hatched in the lower right direction or the area that is hatched in the lower left direction. Accordingly, the smartphone S is moved to capture a necessary current image (see step S4 in FIG. 2 after the second round).

次に、上記ステップS5に係る非剛体の位置合わせ処理について、具体的に図4乃至図6を用いて説明する。   Next, the non-rigid positioning process according to step S5 will be specifically described with reference to FIGS.

上記ステップ5に係る位置合わせ処理は、上述したように、カレント画像として撮像された撮像対象物の部分と、全体画像における当該部分と、を比較し、両者が画像として一致するようにカレント画像の位置合わせ(変形)を行う処理である。ここで、図4乃至図6に示す例では、図4(a)左に示す全体画像GAを基準画像とし、図4(a)右に示すカレント画像GTについて非剛体の位置合わせ処理を行うものとする。なお図4乃至図6に示す例では、カレント画像GTと全体画像GAとの撮像領域は一致している。   As described above, the alignment processing according to Step 5 compares the part of the imaging target imaged as the current image with the part in the entire image, and compares the current image so that the two match as the image. This is processing for performing alignment (deformation). Here, in the examples shown in FIGS. 4 to 6, the whole image GA shown on the left in FIG. 4A is used as a reference image, and the non-rigid body alignment processing is performed on the current image GT shown on the right in FIG. And In the examples shown in FIGS. 4 to 6, the imaging areas of the current image GT and the entire image GA are the same.

ステップS5に係る位置合わせ処理として先ずCPU1は、図4(b)に例示するように、カレント画像GTを所定数に分割する。図4(b)右に例示する場合では、カレント画像GTを四つの分割画像GTa乃至GTdに分割しているが、より高画質を得るためには分割数は多いほどよい。次にCPU1は、図4(c)に例示するように一つの分割画像に着目する。図4(c)に例示する場合、CPU1は分割画像GTaに着目している。   As the alignment processing according to step S5, first, the CPU 1 divides the current image GT into a predetermined number as illustrated in FIG. In the case illustrated on the right side of FIG. 4B, the current image GT is divided into four divided images GTa to GTd, but in order to obtain higher image quality, the larger the number of divisions, the better. Next, the CPU 1 pays attention to one divided image as illustrated in FIG. In the case illustrated in FIG. 4C, the CPU 1 focuses on the divided image GTa.

次にCPU1は、図5(a)に例示するように、着目している分割画像GTaを全体画像GAに重ねる。なお図5における座標軸は、全体画像GAにおける各分割画像に対応する領域の左上隅と、各分割画像の左上隅と、を原点(0,0)とし、図5において右方向がx座標軸の正方向、図5において下方向がy座標軸の正方向である。図5(a)において分割画像GTaを全体画像GAに最初に重ねる場合、そのオフセットは(0,0)とされる。   Next, as illustrated in FIG. 5A, the CPU 1 superimposes the divided image GTa of interest on the entire image GA. Note that the coordinate axes in FIG. 5 have the origin (0, 0) as the upper left corner of the area corresponding to each divided image in the entire image GA and the upper left corner of each divided image, and the right direction in FIG. The downward direction in FIG. 5 is the positive direction of the y coordinate axis. In FIG. 5A, when the divided image GTa is first superimposed on the entire image GA, the offset is (0, 0).

その後CPU1は、図5(b)に例示するように、全体画像GA内において、分割画像GTaとその内容が最もよく一致する位置(オフセット)を探索する。なお、画像同士の内容の一致を定量化するためには、例えば相互情報量(Mutual Information)を用いる手法や、対象となる領域(図5(b)に例示する場合は、分割画像GTaの領域)に対する輝度差の総和(SAD(Sum of Absolute Difference))を用いる手法などが好適である。図5(b)の例でCPU1は、当該オフセットとして座標データ(−2,+3)が得られている。   Thereafter, as illustrated in FIG. 5B, the CPU 1 searches the entire image GA for a position (offset) where the divided image GTa and the content best match. In addition, in order to quantify the coincidence between the contents of images, for example, a method using mutual information (Mutual Information) or a target region (in the case of FIG. 5B, the region of the divided image GTa). A method using a sum of luminance differences (SAD (Sum of Absolute Difference)) is suitable. In the example of FIG. 5B, the CPU 1 obtains coordinate data (−2, +3) as the offset.

その後CPU1は、図5に例示する分割画像GTa以外の他の分割画像GTb乃至分割画像GTdについても、同様にその内容が最もよく一致する位置(オフセット)を全体画像GA内において探索する。図5(c)に例示する場合、分割画像GTaの場合は当該オフセットとして座標データ(−2,+3)が、分割画像GTbの場合は当該オフセットとして座標データ(+2,+3)が、分割画像GTcの場合は当該オフセットとして座標データ(+4,−1)が、分割画像GTdの場合は当該オフセットとして座標データ(−3,−1)が、それぞれCPU1により得られている。   Thereafter, the CPU 1 similarly searches the entire image GA for the position (offset) where the contents of the divided images GTb to GTd other than the divided image GTa illustrated in FIG. In the case illustrated in FIG. 5C, coordinate data (−2, +3) is used as the offset in the case of the divided image GTa, and coordinate data (+2, +3) is used as the offset in the case of the divided image GTb. In this case, the coordinate data (+4, −1) is obtained by the CPU 1 as the offset, and in the case of the divided image GTd, the coordinate data (−3, −1) is obtained by the CPU 1 as the offset.

以上の一連の処理により、ステップS5に係る位置合わせ処理として各分割画像GTa乃至分割画像GTdそれぞれの中心点が移動されるべき量が、上記オフセットとして、例えば図5(d)右に例示するようにそれぞれ得られる。なおこの中心点は、一般に「アンカー」と称されることもある。そして、一つのカレント画像GTについて、全てのアンカーが移動されるべき量を加算して集めた座標データが、上記位置合わせデータバッファ30に逐次記憶される座標データである。   As a result of the series of processes described above, the amount by which the center point of each of the divided images GTa to GTd is to be moved as the alignment processing according to step S5 is exemplified as the offset on the right in FIG. Obtained respectively. This center point may be generally called “anchor”. The coordinate data collected by adding the amounts to which all anchors should be moved for one current image GT is the coordinate data sequentially stored in the alignment data buffer 30.

この他、各分割画像GTa乃至分割画像GTdそれぞれのアンカーの移動量に基づいたいわゆる内挿法又は外挿法により、図6(a)に例示するようにカレント画像GT全体を変形させるように位置合わせ処理を行うことも可能である。この場合には、カレント画像GTの内容と全体画像GAの内容とを、より一致させることができる。更には、カレント画像GT全体、或いは分割画像GTa乃至分割画像GTd全体の移動や変形(それらの回転、拡大/縮小又は台形変形等を含む)を用いることもできる。   In addition, the position of the entire current image GT is deformed as illustrated in FIG. 6A by so-called interpolation or extrapolation based on the amount of movement of the anchor of each of the divided images GTa to GTd. It is also possible to perform a matching process. In this case, the contents of the current image GT and the contents of the entire image GA can be matched more. Furthermore, movement or deformation (including rotation, enlargement / reduction, or trapezoid deformation) of the entire current image GT or the entire divided image GTa to the entire divided image GTd can be used.

また、変形後のカレント画像GT全体の形状又は位置と、元の全体画像GA全体の形状又は位置と、を比較することにより、図6(b)乃至図6(d)に例示するようにスマートフォンS全体の動きを推測して次のカレント画像GTの撮像範囲を携帯者に告知することもできる。例えば図6(b)に例示する場合はスマートフォンS全体が左下方向へ移動したことが推測され、また図6(c)に例示する場合はスマートフォンS全体が上向きに回転した(首を上に振った)ことが推測される。また図6(d)に例示する場合はスマートフォンS全体が後方に移動した(撮像対象物から離れた)ことが推測される。   Further, by comparing the shape or position of the entire current image GT after deformation with the shape or position of the original whole image GA as a whole, a smartphone as illustrated in FIGS. 6B to 6D is illustrated. It is also possible to notify the wearer of the imaging range of the next current image GT by estimating the movement of the entire S. For example, in the case illustrated in FIG. 6B, it is estimated that the entire smartphone S has moved in the lower left direction, and in the case illustrated in FIG. 6C, the entire smartphone S has been rotated upward (waving his head up). I guess). In the case illustrated in FIG. 6D, it is estimated that the entire smartphone S has moved backward (away from the imaging target).

以上説明したように、第1実施形態に係る画像処理によれば、携帯されたスマートフォンSの移動に伴って連続して撮像された複数の画像同士の位置合わせを当該連続撮像に対応して逐次行うと共に、位置合わせされた各画像にそれぞれ相当する複数の画像データを用いて高画質或いは広範囲の合成画像を合成するので(図2参照)、撮像対象物に対応する高画質或いは広範囲の合成画像を、携帯可能なスマートフォンSを用いて合成することができる。また、スマートフォンSの移動に伴う連続撮像によって得られる複数の画像データを用いて位置合わせ処理及び合成処理を行うので、撮像条件が異なる複数の画像データを用いることで、より高画質或いは広範囲の合成画像を合成することができる(図2参照)。なおこの作用効果を得るためには、図2ステップS11乃至S14の処理が実行されることは、必ずしも必要ではない。   As described above, according to the image processing according to the first embodiment, the alignment of a plurality of images that are continuously captured along with the movement of the mobile smartphone S is sequentially performed corresponding to the continuous imaging. In addition, a high-quality or wide-range composite image is synthesized using a plurality of image data corresponding to the aligned images (see FIG. 2), so a high-quality or wide-range composite image corresponding to the object to be imaged Can be synthesized using a portable smartphone S. In addition, since alignment processing and synthesis processing are performed using a plurality of image data obtained by continuous imaging accompanying the movement of the smartphone S, a higher image quality or a wider range of synthesis can be achieved by using a plurality of image data with different imaging conditions. Images can be synthesized (see FIG. 2). In order to obtain this effect, it is not always necessary to execute the processing of steps S11 to S14 in FIG.

またこの顕著な作用効果は、換言すれば、携帯者が携行するスマートフォンS以外の装置を別途用いることなく、高画質或いは広範囲の画像合成を行うことができることになる。即ち、スマートフォンS以外に画像等のデータが記録されることがないので、いつでも誰でもどこででも、個人ならそのプライバシーを、仕事なら関連する情報のセキュリティを、それぞれ最高レベルで確保しながら、手間を取らずに簡単に高画質或いは広範囲の画像合成を行うことができる。これは、今までの装置等にはなかった、画期的な価値である。   In other words, this remarkable effect can be achieved by combining high-quality images or a wide range of images without using a device other than the smartphone S carried by the wearer. That is, since data such as images is not recorded other than the smartphone S, anytime, anywhere, any person, the privacy for individuals, the security of related information for work, while ensuring the highest level, respectively It is possible to easily synthesize high-quality images or a wide range of images without taking them. This is an epoch-making value that was not available in previous devices.

更に、撮像対象物の一部にそれぞれ対応する複数のカレント画像と、全体画像と、を用いて、位置合わせ処理を連続撮像に対応して逐次行うので(図2参照)、画像ごとの位置合わせ処理をより正確に行うことができる。   Furthermore, since the alignment processing is sequentially performed corresponding to continuous imaging using a plurality of current images corresponding to a part of the imaging object and the entire image (see FIG. 2), the alignment for each image is performed. Processing can be performed more accurately.

更にまた、カメラ9から出力された複数の画像データを用いて非剛体の位置合わせ処理を逐次行うので(図2ステップS5参照)、汎用性が高く且つ高画質或いは広範囲の合成画像を合成することができる。   Furthermore, since the non-rigid body alignment processing is sequentially performed using a plurality of image data output from the camera 9 (see step S5 in FIG. 2), a highly versatile and high-quality or wide-range composite image is synthesized. Can do.

また、カレント画像を構成する各画素に対応するデータ量バッファ31の値に基づいて、スマートフォンSの移動案内用の案内情報を生成して外部に告知するので(図2ステップS12及びステップS13参照)、高画質或いは広範囲の合成画像の合成のために必要な位置へ、スマートフォンSを正確且つ迅速に移動させることができる。   Further, since guidance information for moving guidance of the smartphone S is generated and notified to the outside based on the value of the data amount buffer 31 corresponding to each pixel constituting the current image (see step S12 and step S13 in FIG. 2). The smartphone S can be accurately and quickly moved to a position necessary for synthesizing a high-quality image or a wide range of synthesized images.

更に、合成画像を合成するために用いられた各画像の数を合成画像の画素ごとにデータ量バッファ31を用いて積算し、その積算された数に基づいて、各画素に対応する案内情報を生成するので(図2ステップS12参照)、より高画質或いは広範囲な合成画像をその後に合成することが可能となる。   Furthermore, the number of each image used for synthesizing the synthesized image is accumulated using the data amount buffer 31 for each pixel of the synthesized image, and the guide information corresponding to each pixel is obtained based on the accumulated number. Since it is generated (see step S12 in FIG. 2), it becomes possible to synthesize a higher-quality or wider-range synthesized image thereafter.

更にまた、図2ステップS13の処理により告知される案内情報がスマートフォンSの携帯者により視認される案内情報であるので、高画質或いは広範囲の合成画像を合成するために必要なスマートフォンSの移動を、その携帯者が容易に行うことができる。   Furthermore, since the guidance information notified by the process of step S13 in FIG. 2 is guidance information visually recognized by the user of the smartphone S, the movement of the smartphone S necessary for synthesizing a high-quality or wide-range composite image is performed. That person can easily do.

また、図2ステップS13の処理により告知される案内情報を、解像度に応じた色別に表示する場合は(図3(b)参照)、高画質或いは広範囲の合成画像を合成するために必要なスマートフォンSの移動を、表示される色に応じて容易に行うことができる。   In addition, in the case where the guidance information notified by the processing in step S13 in FIG. 2 is displayed for each color according to the resolution (see FIG. 3B), a smartphone necessary for synthesizing a high-quality or wide-range composite image. The movement of S can be easily performed according to the displayed color.

更に、図3(b)に例示するように元の全体画像GAに重ねて案内情報を表示する場合には、映っている撮像対象物との関係で、案内情報を、その内容をより理解し易く表示することができる。この場合、スマートフォンS(カメラ9)を移動させると、ディスプレイ5に表示されている撮像対象物の部分がリアルタイムに変更されていくこととなる。これにより、案内情報の内容をより理解し易く表示することができる。   Further, when the guidance information is displayed over the original whole image GA as illustrated in FIG. 3B, the guidance information is understood in more detail with respect to the captured imaging object. It can be displayed easily. In this case, when the smartphone S (camera 9) is moved, the part of the imaging target displayed on the display 5 is changed in real time. Thereby, the content of guidance information can be displayed more easily.

更にまた、全体画像GAに俯瞰的に重ねて案内情報を表示する場合には、俯瞰的に全体画像GAと重ねて案内情報を表示することで、案内情報を、その内容をより理解し易く表示することができる。この場合、スマートフォンS(カメラ9)を移動させても撮像対象物全体は常にディスプレイ5に表示されている(撮像対象物全体として表示範囲に変更はない)。そして、スマートフォンS(カメラ9)を動かして画像を取得していくに従って、ディスプレイ5において画質を示すために撮像対象物に重ねて表示されている(例えば)着色部分(の模様)がリアルタイムに変わっていくこととなる。この場合でも、案内情報の内容をより理解し易く表示することができる。
(II)第2実施形態
次に、本発明に係る他の実施形態である第2実施形態について、図7を用いて説明する。なお図7は、第2実施形態に係る画像処理を示すフローチャートであり、図2に示す第1実施形態に係る画像処理と同一の処理については同一のステップ番号を付して、細部の説明は省略する。また第2実施形態に係るスマートフォンのハードウエア的な構成は、基本的には第1実施形態に係るスマートフォンSと同一である。よって以下の説明では、第1実施形態に係るスマートフォンSと同一の部材番号を用いて第2実施形態に係るスマートフォンを説明する。
Furthermore, when displaying guidance information overlaid on the overall image GA, the guidance information is displayed overlaid on the overall image GA, so that the content of the guidance information can be displayed more easily. can do. In this case, even if the smartphone S (camera 9) is moved, the entire imaging object is always displayed on the display 5 (the display range of the entire imaging object is not changed). Then, as the smartphone S (camera 9) is moved to acquire an image, the colored portion (pattern) displayed over the imaging object in order to show the image quality on the display 5 changes in real time. It will be followed. Even in this case, the contents of the guidance information can be displayed more easily.
(II) Second Embodiment Next, a second embodiment which is another embodiment according to the present invention will be described with reference to FIG. FIG. 7 is a flowchart showing image processing according to the second embodiment. The same processing as the image processing according to the first embodiment shown in FIG. Omitted. The hardware configuration of the smartphone according to the second embodiment is basically the same as that of the smartphone S according to the first embodiment. Therefore, in the following description, the smartphone according to the second embodiment will be described using the same member numbers as those of the smartphone S according to the first embodiment.

上述した第1実施形態に係る画像処理においては、カレント画像GTに対する位置合わせ処理及び合成処理と、携帯者に告知する案内情報の生成処理と、を一連の流れとして実行していた。これに対して以下に説明する第2実施形態に係る画像処理では、当該位置合わせ処理を行った後、合成処理を行う前に携帯者に告知する案内情報の生成処理を行う。   In the image processing according to the first embodiment described above, the alignment processing and synthesis processing for the current image GT and the generation processing of guidance information to be notified to the user are performed as a series of flows. On the other hand, in the image processing according to the second embodiment described below, after performing the alignment processing, guidance information generation processing for notifying the wearer is performed before performing the synthesis processing.

即ち図7(a)に示すように、第2実施形態に係る画像処理においてCPU1は、当該画像処理に係る上記位置合わせ処理及び合成処理として、第1実施形態に係る画像処理と同様のステップS1乃至ステップS8を実行した後、第1実施形態に係る画像処理と同様のステップS9を行わずに、第1実施形態に係る画像処理と同様のステップS10乃至ステップS13の動作を実行する。そして、当該ステップS11の判定において十分な値(カレント画像の数)を有している場合に(ステップS11;YES)、第1実施形態に係る画像処理と同様のステップS9の動作を行い、その後第1実施形態に係る画像処理と同様のステップS14の動作を実行する。   That is, as shown in FIG. 7A, in the image processing according to the second embodiment, the CPU 1 performs the same step S1 as the image processing according to the first embodiment as the alignment processing and composition processing according to the image processing. After performing Step S8, Step S10 to Step S13 similar to the image processing according to the first embodiment are performed without performing Step S9 similar to the image processing according to the first embodiment. Then, when it has a sufficient value (the number of current images) in the determination of step S11 (step S11; YES), the operation of step S9 similar to the image processing according to the first embodiment is performed, and thereafter The operation of step S14 similar to the image processing according to the first embodiment is executed.

以上説明した第2実施形態に係る画像処理によっても、上述した第1実施形態に係る画像処理と同様の作用効果を奏することができる。   The image processing according to the second embodiment described above can achieve the same effects as the image processing according to the first embodiment described above.

なお、第1実施形態に係る画像処理又は第2実施形態に係る画像処理において案内情報の生成処理を行う場合、その基礎となるデータとしては、上記解像度以外に、例えば以下のデータが挙げられる。
・上記ステップS4乃至S7に係る位置合わせ処理の精度を示すデータ(CPU1は、当該精度がより低い領域をより慎重に撮像するように案内情報を生成することができる。)
・上記ステップS4乃至S7に係る位置合わせ処理の結果に係るずれ量を示すデータ、又はそのずれが生じた原因を示すデータ(CPU1は、当該ずれ量が少なくなるように、当該原因を考慮して案内情報を生成することができる。)
・上記ステップS4乃至S7に係る位置合わせ処理において移動されたスマートフォンSの移動経路又は移動速度を示すデータ(CPU1は、移動経路が不規則すぎたり移動速度が速すぎたりした場合、より規則的な経路やより遅い動きを案内することができる。)
・上記ステップS4乃至S7に係る位置合わせ処理において直前までに撮像されたカレント画像GTの数及び当該数のカレント画像GTの撮像に要した時間(CPU1は、当該精度がより低い領域を、より長い時間をかけて撮像するように案内情報を生成することができる。)
・上記ステップS4乃至S7に係る位置合わせ処理において直前までに撮像されたカレント画像GTのうち、位置合わせ結果が良好であったカレント画像GTの撮像済み全カレント画像GTに対する比率(CPU1は、当該比率が高くなるように案内情報を生成することができる。)
(III)変形形態
なお、本発明は、上述してきた各実施形態以外にも様々な応用が可能である。
In addition, when performing guidance information generation processing in the image processing according to the first embodiment or the image processing according to the second embodiment, the following data may be cited as the basic data other than the resolution described above.
Data indicating the accuracy of the alignment processing according to steps S4 to S7 (the CPU 1 can generate guide information so that an area with lower accuracy is imaged more carefully)
Data indicating the amount of deviation related to the result of the alignment processing according to steps S4 to S7, or data indicating the cause of the deviation (the CPU 1 considers the cause so that the amount of deviation decreases). Guide information can be generated.)
Data indicating the movement path or movement speed of the smartphone S moved in the alignment process according to steps S4 to S7 (CPU 1 is more regular when the movement path is too irregular or the movement speed is too fast. Can guide route and slower movement.)
-The number of current images GT imaged immediately before in the alignment processing according to steps S4 to S7 and the time required to capture the number of current images GT (the CPU 1 sets a region with lower accuracy to a longer time (Guide information can be generated so as to capture images over time.)
Of the current images GT captured immediately before in the alignment processing according to the above steps S4 to S7, the ratio of the current image GT having a satisfactory alignment result to the entire captured current image GT (the CPU 1 determines the ratio Guide information can be generated so that the
(III) Modifications Note that the present invention can be applied in various ways other than the embodiments described above.

先ず第一の変形形態として、ディスプレイ5に表示させる案内情報(図2又は図7ステップS13参照)につき、領域ごとの解像度の違いを色別に表示するのではなく、爾後スマートフォンSに所望される動き方を、例えば「上へ」、「もっとゆっくり」、「静止する」といったようにディスプレイ5上に表示させるように構成してもよい。またこれらの案内を音声によりスピーカ7を介して放音するように構成してもよい。これらの場合にCPU1は、上記ステップS12の処理において取得したデータ量に基づき、より少ないデータ量の領域を撮像させるべく、スマートフォンSを移動させる内容の案内情報をディスプレイ5上に表示する。この第一の変形形態によれば、案内情報がスマートフォンSの移動の諸元(動かし方)を示す案内情報であるので、スマートフォンSの移動を容易に行うことができる。また案内情報の更なる変形として、領域ごとの解像度の違いを、例えば、視覚上のハッチングパターンの違い、(背景が存在していることを前提とした)透明度の違い、当該解像度の違いに対応した時間間隔の明滅(点滅)など、即ち、領域ごとの解像度の違いに異なる表示態様を対応付ける可視化の手法を用いて表示するように構成することもできる。   First, as a first modification, for the guidance information to be displayed on the display 5 (see FIG. 2 or step S13 in FIG. 7), the desired movement of the smartphone S is not displayed instead of displaying the difference in resolution for each area by color. The direction may be displayed on the display 5 such as “up”, “slower”, “still”. Moreover, you may comprise so that these guidance may be sounded through the speaker 7 with an audio | voice. In these cases, the CPU 1 displays guidance information on the content of moving the smartphone S on the display 5 in order to capture an area of a smaller data amount based on the data amount acquired in the process of step S12. According to this 1st modification, since guidance information is the guidance information which shows the item (how to move) of the movement of the smart phone S, the smart phone S can be moved easily. Furthermore, as a further modification of the guidance information, it corresponds to the difference in resolution for each area, for example, the difference in visual hatching pattern, the difference in transparency (assuming that the background exists), and the difference in the resolution. It is also possible to display by using a visualization method in which different display modes are associated with the blinking (flashing) of the time interval, that is, the difference in resolution for each region.

次に第二の変形形態として、各実施形態に係る位置合わせ処理又は合成処理の少なくともいずれか一方が終了した後にスマートフォンSにおける画像処理を中断させ、終了した位置合わせ処理又は合成処理の結果に対応する結果データを例えばRAM3や図示しないハードディスクに保存させるように構成することもできる。この場合にCPU1は、保存してある結果データを再度取得し、その結果データを用いて、中断された処理を再開するように構成するのが好適である。この第二の変形形態の場合、位置合わせ処理又は合成処理の少なくともいずれか一方が終了した後にスマートフォンSにおける画像処理を中断させる必要がある場合でも、保存されている結果データを用いて中断した画像処理を再開することができ、位置合わせ処理及び合成処理の実行の自由度を向上させることができる。更にこの第二の変形形態においてCPU1は、中断までの位置合わせ処理又は合成処理の結果に対応する画像データを上記結果データに含ませておき、その結果データを、スマートフォンSの外部の画像認識装置に出力するように構成することもできる。この場合、当該画像認識装置が例えばCPU1よりも高度な画像認識能力を備えるものであれば、その認識結果を再開時に用いる結果データとして取得することで、スマートフォンSとしての合成画像をより高画質或いは広範囲に合成することができる。即ち、例えば携帯者が画像処理をその意思で一旦中断する場合(例えば、携帯者が3分位スマートフォンSを移動させて画像処理を行い、その後一旦中断する場合)、上記外部の画像認識装置において中断までの画像処理結果を解析し、その解析結果を取得して更に細かい撮像が必要な部分を識別するような案内情報を生成する。そしてその案内情報により識別された部分についての撮像を携帯者が更に継続することにより、より高画質或いは広範囲な合成画像を合成することができる。   Next, as a second variation, image processing in the smartphone S is interrupted after completion of at least one of the alignment processing and the synthesis processing according to each embodiment, and corresponds to the result of the completed alignment processing or synthesis processing The result data can be stored in, for example, the RAM 3 or a hard disk (not shown). In this case, it is preferable that the CPU 1 obtains the stored result data again and uses the result data to restart the interrupted process. In the case of this second modification, even if it is necessary to interrupt the image processing in the smartphone S after at least one of the alignment process and the composition process is completed, the image is interrupted using the stored result data. The process can be resumed, and the degree of freedom in executing the alignment process and the synthesis process can be improved. Further, in the second modification, the CPU 1 includes image data corresponding to the result of the alignment process or the synthesis process up to the interruption in the result data, and the result data is stored in the image recognition device outside the smartphone S. It can also be configured to output to In this case, if the image recognition apparatus has an image recognition capability higher than that of the CPU 1, for example, the recognition result is acquired as result data used at the time of restart, so that the composite image as the smartphone S has higher image quality or It can be synthesized over a wide range. That is, for example, when the user temporarily interrupts the image processing with his / her intention (for example, when the user moves the tertile smartphone S to perform image processing and then temporarily stops), in the external image recognition device The image processing result up to the interruption is analyzed, and the analysis result is acquired to generate guidance information for identifying a portion that requires further fine imaging. Then, when the wearer further continues to capture the portion identified by the guidance information, a synthesized image having a higher image quality or a wider range can be synthesized.

また第三の変形形態として、第1実施形態又は第2実施形態に係るスマートフォンSにおいて、カメラ9による撮像時において撮像対象物の一部又は全部を照らす「照明手段」の一例としてのライトを設け、このライトの照度を少なくとも上記位置合わせ処理の結果に基づいてCPU1が制御するように構成することもできる。この第三の変形形態の場合には、少なくとも上記位置合わせ処理の結果を用いて撮像対象物の一部又は全部を照らすので、より高画質の合成画像を合成することができる。   As a third variation, the smartphone S according to the first embodiment or the second embodiment is provided with a light as an example of an “illuminating unit” that illuminates a part or all of the imaging object during imaging by the camera 9. The illuminance of the light may be controlled by the CPU 1 based on at least the result of the alignment process. In the case of the third modification, at least a part or the whole of the imaging object is illuminated using the result of the positioning process, so that a higher quality composite image can be synthesized.

更に第四の変形形態として、カメラ9以外の、撮像対象物との間の相対的な位置が異なる他の複数のカメラからそれぞれ出力された画像データを用いてCPU1が位置合わせ処理を行うように構成してもよい。この第四の変形形態の場合には、撮像対象物との間の相対的な位置が異なる他の複数のカメラからそれぞれ出力された画像データを用いて位置合わせ処理を行うので、複数のカメラを用いてより高画質或いは広範囲の合成画像を合成することができる。なおこの場合の他のカメラは、カメラ9以外にスマートフォンSに備えられた他のカメラであってもよいし、他の携帯型情報端末等に搭載されているカメラであってもよい。更には、三次元の物体に対しては、スマートフォンSに備えられた位置センサとRAM3内の複数のバッファを用いて、複数の視点に対応するカレント画像GTを撮像することにより、当該物体を高画質或いは広範囲でデジタル化できる。   Further, as a fourth modification, the CPU 1 performs the alignment process using image data output from a plurality of cameras other than the camera 9 and having different relative positions to the imaging target. It may be configured. In the case of the fourth modification, the alignment process is performed using image data output from each of a plurality of other cameras having different relative positions with respect to the imaging target. It is possible to synthesize a composite image having a higher image quality or a wider range. In addition, the other camera in this case may be another camera provided in the smartphone S other than the camera 9, or may be a camera mounted on another portable information terminal or the like. Furthermore, for a three-dimensional object, the current image GT corresponding to a plurality of viewpoints is captured by using a position sensor provided in the smartphone S and a plurality of buffers in the RAM 3, thereby increasing the height of the object. It can be digitized in image quality or in a wide range.

更にまた、第五の変形形態として、上記位置合わせ処理後の画像に含まれている撮像対象物の一部が占める撮像対象物内の位置又は範囲を示すデータ(即ち、撮像対象物全体の中のいずれの部分が撮像されたカレント画像GTなのか、を示すデータ)に基づき、CPU1が、上記画素値等を用いずに、案内情報を生成するように構成することもできる。この第五の変形形態の場合にも、高画質或いは広範囲の合成画像の合成のために必要な画像を撮像するために必要な位置へ、携帯するスマートフォンSを正確且つ迅速に移動させることができる。   Furthermore, as a fifth variation, data indicating the position or range in the imaging target occupied by a part of the imaging target included in the image after the alignment process (that is, in the entire imaging target) The CPU 1 can also be configured to generate guidance information without using the pixel values or the like based on data indicating which part of the current image GT is captured). Even in the case of the fifth modification, the smartphone S to be carried can be moved accurately and quickly to a position necessary for capturing an image necessary for synthesizing a high-quality image or a wide range of synthesized images. .

また、第六の変形形態として、CPU1が、合成された合成画像に相当する合成画像データを外部の画質評価装置(例えば外部のOCR(Optical Character Leader)装置に出力し、その読み取り結果を更に用いて案内情報を生成するように構成してもよい。この第六の変形形態の場合には、合成済みの合成画像の画質(即ち上記読み取り結果)に基づいて案内情報を生成することで、より高画質或いは広範囲な合成画像をその後に合成することができる。   Further, as a sixth modification, the CPU 1 outputs composite image data corresponding to the composite image synthesized to an external image quality evaluation device (for example, an external OCR (Optical Character Leader) device), and further uses the read result. In the case of the sixth modification, the guide information is generated based on the image quality of the combined image that has been combined (that is, the read result). A high-quality image or a wide range of synthesized images can be synthesized thereafter.

最後に第七の変形形態として、カメラ9における撮像諸元(シャッタースピード、絞り、焦点距離、光量)又はスマートフォンS自体の位置、速度及び加速度等の諸元をCPU1が取得し、これらに基づいてCPU1が、上記位置合わせ処理の対象とするカレント画像GT又は全体画像GAを取捨選択するように構成することもできる。具体的にCPU1は、上記諸元等に基づき、撮像条件として良好な(換言すれば、それ自体で既に画質が高い)カレント画像GT等を選んでその後の上記位置合わせ処理に供させるのである。この場合には、元々のカレント画像GT等が高画質であると考えられることから、所望される高画質或いは広範囲の合成画像を、少ないカレント画像GT等を使ってより迅速に合成することができることになる。   Finally, as a seventh modified form, the CPU 1 acquires specifications such as the imaging specifications (shutter speed, aperture, focal length, amount of light) in the camera 9 or the position, speed, and acceleration of the smartphone S itself, and based on these. The CPU 1 may be configured to select the current image GT or the entire image GA that is the object of the alignment process. Specifically, the CPU 1 selects a current image GT or the like that is favorable as an imaging condition (in other words, already has high image quality by itself) based on the above specifications and the like, and uses the current image GT for the subsequent alignment processing. In this case, since the original current image GT or the like is considered to have a high image quality, a desired high image quality or a wide range of synthesized images can be synthesized more quickly using a small number of current images GT or the like. become.

なお、図2又は図7に示すフローチャートに対応するプログラムを、インターネット等のネットワークを介して取得し、或いは光ディスク等の情報記録媒体に記録されているものを取得して、例えば汎用のマイクロコンピュータによりこれを読み出して実行するように構成することもできる。この場合のマイクロコンピュータは、各実施形態に係るCPU1と同様の処理を実行することになる。   The program corresponding to the flowchart shown in FIG. 2 or FIG. 7 is acquired via a network such as the Internet, or the program recorded on an information recording medium such as an optical disk is acquired, for example, by a general-purpose microcomputer. It can also be configured to read and execute this. The microcomputer in this case executes the same processing as the CPU 1 according to each embodiment.

以上夫々説明したように、本発明は情報処理装置の分野に利用することが可能であり、特に画像処理用の情報処理装置の分野に適用すれば特に顕著な効果が得られる。また上述したように、いつでも誰でもどこででも、個人ならそのプライバシーを、仕事なら関連する情報のセキュリティを、それぞれ最高レベルで確保しながら、手間を取らずに簡単に高画質或いは広範囲の画像合成を行うことができる。これは、今までの装置等にはなかった、画期的な価値である。   As described above, the present invention can be used in the field of information processing apparatuses, and particularly when applied to the field of information processing apparatuses for image processing, a particularly remarkable effect can be obtained. In addition, as described above, anytime, anywhere, anywhere, personal privacy and work-related information security at the highest level, and easy high-quality or wide-range image synthesis without the hassle. It can be carried out. This is an epoch-making value that was not available in previous devices.

1 CPU
2 ROM
3 RAM
4 操作部
5 ディスプレイ
6 通話制御部
7 スピーカ
8 マイク
9 カメラ
10 通信インターフェース
30 位置合わせデータバッファ
31 データ量バッファ
32 合成画像バッファ
33 広域画像バッファ
34 カレント画像バッファ
35 位置合わせ済みカレント画像バッファ
4A、4B、4C 操作ボタン
S スマートフォン
ANT アンテナ
GA 全体画像
GT カレント画像
GTa、GTb、GTc、GTd 分割画像
1 CPU
2 ROM
3 RAM
DESCRIPTION OF SYMBOLS 4 Operation part 5 Display 6 Call control part 7 Speaker 8 Microphone 9 Camera 10 Communication interface 30 Alignment data buffer 31 Data amount buffer 32 Composite image buffer 33 Wide area image buffer 34 Current image buffer 35 Aligned current image buffer 4A, 4B, 4C Operation button S Smartphone ANT Antenna GA Overall image GT Current image GTa, GTb, GTc, GTd Split image

Claims (21)

携帯可能な情報処理装置において、
撮像対象物の少なくとも一部を撮像し、当該撮像した少なくとも一部に対応するフレーム画像に相当するフレーム画像情報を出力する撮像手段と、
携帯された前記情報処理装置の移動に伴って前記撮像手段により連続して撮像された複数の前記フレーム画像同士の位置合わせを行う位置合わせ処理を、当該各フレーム画像にそれぞれ相当する複数の前記フレーム画像情報を用いて、前記フレーム画像の連続撮像に対応して逐次行う位置合わせ手段と、
位置合わせされた各前記フレーム画像にそれぞれ相当するフレーム画像情報を用いて、前記撮像対象物に対応する合成画像であって前記撮像手段により撮像された各前記フレーム画像よりも高画質或いは広範囲の合成画像を合成する合成処理を行う合成手段と、
を備えることを特徴とする情報処理装置。
In a portable information processing device,
Imaging means for imaging at least a part of the imaging object and outputting frame image information corresponding to a frame image corresponding to the captured at least part;
A plurality of the frames corresponding to the respective frame images are subjected to an alignment process for aligning a plurality of the frame images continuously captured by the imaging means as the portable information processing device moves. Using image information, positioning means that sequentially performs corresponding to continuous imaging of the frame image;
Using the frame image information corresponding to each of the aligned frame images, the composite image corresponding to the imaging target and having a higher image quality or a wider range of synthesis than each frame image captured by the imaging unit A combining means for performing a combining process for combining images;
An information processing apparatus comprising:
請求項1に記載の情報処理装置において、
前記位置合わせ手段は、前記撮像対象物の全体に対応する全体フレーム画像に相当する全体フレーム画像情報と、前記一部にそれぞれ対応する各前記フレーム画像に相当する複数の前記フレーム画像情報と、を用いて、前記位置合わせ処理を前記連続撮像に対応して逐次行うことを特徴とする情報処理装置。
The information processing apparatus according to claim 1,
The alignment means includes whole frame image information corresponding to a whole frame image corresponding to the whole of the imaging object, and a plurality of pieces of frame image information corresponding to the frame images respectively corresponding to the parts. And an information processing apparatus that sequentially performs the alignment processing corresponding to the continuous imaging.
請求項1又は請求項2に記載の情報処理装置において、
前記位置合わせ手段は、複数の前記フレーム画像情報を用いて、非剛体の前記位置合わせ処理を逐次行うことを特徴とする情報処理装置。
The information processing apparatus according to claim 1 or 2,
The information processing apparatus, wherein the alignment means sequentially performs the non-rigid alignment process using a plurality of pieces of frame image information.
請求項1から請求項3のいずれか一項に記載の情報処理装置において、
前記位置合わせ処理後の前記フレーム画像に対応する前記一部が占める前記撮像対象物内の位置又は範囲を示す撮像済位置範囲情報に基づいて、前記連続撮像されるべき前記一部の前記撮像対象物上における位置又は範囲を示す位置範囲情報を生成する位置範囲情報生成手段と、
前記生成された位置範囲情報に基づいて、前記位置範囲情報に対応する位置への前記情報処理装置の移動を案内するための案内情報を生成する案内情報生成手段と、
前記生成された案内情報を前記情報処理装置の外部に告知する告知手段と、
を備えることを特徴とする情報処理装置。
In the information processing apparatus according to any one of claims 1 to 3,
The part of the imaging target to be continuously captured based on the captured position range information indicating the position or range in the imaging target occupied by the part corresponding to the frame image after the alignment process Position range information generating means for generating position range information indicating a position or range on an object;
Guidance information generating means for generating guidance information for guiding the movement of the information processing apparatus to a position corresponding to the position range information based on the generated position range information;
Notification means for notifying the generated information to the outside of the information processing device;
An information processing apparatus comprising:
請求項1から請求項3のいずれか一項に記載の情報処理装置において、
前記連続撮像されるべき前記一部の前記撮像対象物上における位置又は範囲を示す位置範囲情報を、撮像済みの前記フレーム画像に基づいて生成する位置範囲情報生成手段と、
前記生成された位置範囲情報に基づいて、前記位置範囲情報に対応する位置への前記情報処理装置の移動を案内するための案内情報を生成する案内情報生成手段と、
前記生成された案内情報を前記情報処理装置の外部に告知する告知手段と、
を備えることを特徴とする情報処理装置。
In the information processing apparatus according to any one of claims 1 to 3,
Position range information generating means for generating position range information indicating the position or range of the part of the imaging target to be continuously captured based on the captured frame image;
Guidance information generating means for generating guidance information for guiding the movement of the information processing apparatus to a position corresponding to the position range information based on the generated position range information;
Notification means for notifying the generated information to the outside of the information processing device;
An information processing apparatus comprising:
請求項4又は請求項5に記載の情報処理装置において、
前記合成手段は、撮像済みの前記フレーム画像に相当する前記フレーム画像情報に基づいた前記合成処理を前記フレーム画像の連続撮像に対応して逐次行い、
前記位置範囲情報生成手段は、
前記合成された合成画像に相当する合成画像情報を外部の画質評価手段に出力する外部出力手段と、
前記出力された合成画像情報に対する前記画質評価手段による評価結果を示す評価結果情報を取得する取得手段と、
を備え、
前記取得された評価結果情報を更に用いて前記位置範囲情報を生成することを特徴とする情報処理装置。
In the information processing apparatus according to claim 4 or 5,
The synthesizing unit sequentially performs the synthesis process based on the frame image information corresponding to the captured frame image corresponding to continuous imaging of the frame image,
The position range information generating means includes
An external output means for outputting composite image information corresponding to the synthesized composite image to an external image quality evaluation means;
Acquisition means for acquiring evaluation result information indicating an evaluation result by the image quality evaluation means for the output composite image information;
With
An information processing apparatus that generates the position range information by further using the acquired evaluation result information.
請求項5に記載の情報処理装置において、
前記位置範囲情報生成手段は、前記位置合わせ処理後の前記フレーム画像に基づいて前記位置範囲情報を生成することを特徴とする情報処理装置。
The information processing apparatus according to claim 5,
The position range information generation unit generates the position range information based on the frame image after the alignment process.
請求項4又は請求項7に記載の情報処理装置において、
前記位置範囲情報生成手段は、少なくとも前記位置合わせ処理に用いられた前記フレーム画像の数を、当該位置合わせ処理後の前記フレーム画像の画素ごとに積算する積算手段を備え、
前記位置範囲情報生成手段は、前記積算された数に基づいて前記位置範囲情報を生成することを特徴とする情報処理装置。
In the information processing apparatus according to claim 4 or 7,
The position range information generation unit includes an accumulation unit that accumulates at least the number of the frame images used in the alignment process for each pixel of the frame image after the alignment process,
The information processing apparatus according to claim 1, wherein the position range information generation unit generates the position range information based on the accumulated number.
請求項4から請求項8のいずれか一項に記載の情報処理装置において、
前記案内情報は前記情報処理装置の携帯者により視認される案内情報であり、
前記案内情報を表示する表示手段を更に備えることを特徴とする情報処理装置。
In the information processing apparatus according to any one of claims 4 to 8,
The guidance information is guidance information visually recognized by a carrier of the information processing device,
An information processing apparatus further comprising display means for displaying the guidance information.
請求項9に記載の情報処理装置において、
前記案内情報は、前記合成処理後の前記合成画像における画質を、当該画質ごとに識別可能な態様により表示される案内情報であることを特徴とする情報処理装置。
The information processing apparatus according to claim 9,
The information processing apparatus according to claim 1, wherein the guidance information is guidance information displayed in an aspect in which the image quality of the synthesized image after the synthesis process can be identified for each image quality.
請求項9又は請求項10に記載の情報処理装置において、
前記案内情報は、前記合成処理後の前記合成画像における画質に対応した色により表示される案内情報であることを特徴とする情報処理装置。
In the information processing apparatus according to claim 9 or 10,
The information processing apparatus, wherein the guide information is guide information displayed in a color corresponding to an image quality in the composite image after the composite processing.
請求項9から請求項11のいずれか一項に記載の情報処理装置において、
前記表示手段は、前記フレーム画像を表示すると共に、表示されている当該フレーム画像に重ねて前記案内情報を表示することを特徴とする情報処理装置。
The information processing apparatus according to any one of claims 9 to 11,
The information processing apparatus characterized in that the display means displays the frame image and displays the guidance information so as to overlap the displayed frame image.
請求項9から請求項11のいずれか一項に記載の情報処理装置において、
前記表示手段は、前記撮像対象物の全体に対応する全体フレーム画像を表示すると共に、当該全体フレーム画像に重ねて前記案内情報を表示することを特徴とする情報処理装置。
The information processing apparatus according to any one of claims 9 to 11,
The information processing apparatus characterized in that the display means displays a whole frame image corresponding to the whole of the imaging object, and displays the guidance information superimposed on the whole frame image.
請求項9から請求項13のいずれか一項に記載の情報処理装置において、
前記案内情報は、携帯されている当該情報処理装置の移動の諸元を示す案内情報であることを特徴とする情報処理装置。
The information processing apparatus according to any one of claims 9 to 13,
The information processing apparatus is characterized in that the guide information is guide information indicating specifications of movement of the portable information processing apparatus.
請求項1から請求項14のいずれか一項に記載の情報処理装置において、
前記位置合わせ処理又は前記合成処理の少なくともいずれか一方の終了後に当該情報処理装置における処理を中断させる中断手段と、
終了した当該少なくともいずれか一つの処理結果に対応する結果情報を保存させる保存手段と、
保存された結果情報を取得する結果情報取得手段と、
取得された結果情報を用いて、前記中断された処理を再開する再開手段と、
を更に備えることを特徴とする情報処理装置。
The information processing apparatus according to any one of claims 1 to 14,
Interruption means for interrupting the processing in the information processing apparatus after the end of at least one of the alignment processing or the synthesis processing;
Storage means for storing result information corresponding to at least one of the completed processing results;
Result information acquisition means for acquiring stored result information;
Resuming means for resuming the suspended processing using the acquired result information;
An information processing apparatus further comprising:
請求項15に記載の情報処理装置において、
前記結果情報には、中断までの前記少なくともいずれか一方の結果に対応するフレーム画像情報が含まれており、
前記保存手段は、当該結果情報を外部の画像認識手段に出力する外部出力手段を備え、
前記結果情報取得手段は、前記画像認識手段により認識されたフレーム画像に相当するフレーム画像情報を含む前記結果情報を取得することを特徴とする情報処理装置。
The information processing apparatus according to claim 15,
The result information includes frame image information corresponding to the at least one result up to the interruption,
The storage means includes external output means for outputting the result information to an external image recognition means,
The information processing apparatus, wherein the result information acquisition unit acquires the result information including frame image information corresponding to a frame image recognized by the image recognition unit.
請求項1から請求項16のいずれか一項に記載の情報処理装置において、
前記撮像手段による撮像時において前記撮像対象物の一部又は全部を照らす照明手段と、
少なくとも前記位置合わせ処理の結果に基づいて、前記照明手段を制御する照明制御手段と、
を備えることを特徴とする情報処理装置。
The information processing apparatus according to any one of claims 1 to 16,
Illuminating means for illuminating a part or all of the imaging object during imaging by the imaging means;
Illumination control means for controlling the illumination means based at least on the result of the alignment process;
An information processing apparatus comprising:
請求項1から請求項17のいずれか一項に記載の情報処理装置において、
前記位置合わせ手段は、前記撮像対象物との間の相対的な位置が異なる複数の前記撮像手段からそれぞれ出力された前記フレーム画像情報を用いて前記位置合わせ処理を行うことを特徴とする情報処理装置。
The information processing apparatus according to any one of claims 1 to 17,
The positioning unit performs the positioning process using the frame image information respectively output from the plurality of imaging units having different relative positions with respect to the imaging object. apparatus.
携帯可能な情報処理装置であって、撮像対象物の少なくとも一部を撮像し、当該撮像した少なくとも一部に対応するフレーム画像に相当するフレーム画像情報を出力する撮像手段を備える情報処理装置において実行される情報処理方法において、
携帯された前記情報処理装置の移動に伴って前記撮像手段により連続して撮像された複数の前記フレーム画像同士の位置合わせを行う位置合わせ処理を、当該各フレーム画像にそれぞれ相当する複数の前記フレーム画像情報を用いて、前記フレーム画像の連続撮像に対応して逐次行う位置合わせ工程と、
位置合わせされた各前記フレーム画像にそれぞれ相当するフレーム画像情報を用いて、前記撮像対象物に対応する合成画像であって前記撮像手段により撮像された各前記フレーム画像よりも高画質或いは広範囲の合成画像を合成する合成処理を行う合成工程と、
を含むことを特徴とする情報処理方法。
Executed in an information processing apparatus that is portable and includes an imaging unit that captures at least a part of an imaging target and outputs frame image information corresponding to a frame image corresponding to the captured at least part Information processing method,
A plurality of the frames corresponding to the respective frame images are subjected to an alignment process for aligning a plurality of the frame images continuously captured by the imaging means as the portable information processing device moves. Using image information, an alignment step that is sequentially performed corresponding to continuous imaging of the frame image;
Using the frame image information corresponding to each of the aligned frame images, the composite image corresponding to the imaging target and having a higher image quality or a wider range of synthesis than each frame image captured by the imaging unit A compositing process for compositing an image;
An information processing method comprising:
携帯可能な情報処理装置であって、撮像対象物の少なくとも一部を撮像し、当該撮像した少なくとも一部に対応するフレーム画像に相当するフレーム画像情報を出力する撮像手段を備える情報処理装置に含まれるコンピュータを、
携帯された前記情報処理装置の移動に伴って前記撮像手段により連続して撮像された複数の前記フレーム画像同士の位置合わせを行う位置合わせ処理を、当該各フレーム画像にそれぞれ相当する複数の前記フレーム画像情報を用いて、前記フレーム画像の連続撮像に対応して逐次行う位置合わせ手段、及び、
位置合わせされた各前記フレーム画像にそれぞれ相当するフレーム画像情報を用いて、前記撮像対象物に対応する合成画像であって前記撮像手段により撮像された各前記フレーム画像よりも高画質或いは広範囲の合成画像を合成する合成処理を行う合成手段、
として機能させることを特徴とする情報処理用プログラム。
Included in an information processing apparatus that is portable and includes an imaging unit that captures at least a part of an imaging target and outputs frame image information corresponding to a frame image corresponding to the captured at least part Computer
A plurality of the frames corresponding to the respective frame images are subjected to an alignment process for aligning a plurality of the frame images continuously captured by the imaging means as the portable information processing device moves. Using the image information, alignment means that sequentially performs corresponding to continuous imaging of the frame image, and
Using the frame image information corresponding to each of the aligned frame images, the composite image corresponding to the imaging target and having a higher image quality or a wider range of synthesis than each frame image captured by the imaging unit A combining means for performing a combining process for combining images;
An information processing program characterized by functioning as
携帯可能な情報処理装置であって、撮像対象物の少なくとも一部を撮像し、当該撮像した少なくとも一部に対応するフレーム画像に相当するフレーム画像情報を出力する撮像手段を備える情報処理装置に含まれるコンピュータを、
携帯された前記情報処理装置の移動に伴って前記撮像手段により連続して撮像された複数の前記フレーム画像同士の位置合わせを行う位置合わせ処理を、当該各フレーム画像にそれぞれ相当する複数の前記フレーム画像情報を用いて、前記フレーム画像の連続撮像に対応して逐次行う位置合わせ手段、及び、
位置合わせされた各前記フレーム画像にそれぞれ相当するフレーム画像情報を用いて、前記撮像対象物に対応する合成画像であって前記撮像手段により撮像された各前記フレーム画像よりも高画質或いは広範囲の合成画像を合成する合成処理を行う合成手段、
として機能させる情報処理用プログラムが前記コンピュータにより読み出し可能に記録されていることを特徴とする情報記録媒体。
Included in an information processing apparatus that is portable and includes an imaging unit that captures at least a part of an imaging target and outputs frame image information corresponding to a frame image corresponding to the captured at least part Computer
A plurality of the frames corresponding to the respective frame images are subjected to an alignment process for aligning a plurality of the frame images continuously captured by the imaging means as the portable information processing device moves. Using the image information, alignment means that sequentially performs corresponding to continuous imaging of the frame image, and
Using the frame image information corresponding to each of the aligned frame images, the composite image corresponding to the imaging target and having a higher image quality or a wider range of synthesis than each frame image captured by the imaging unit A combining means for performing a combining process for combining images;
An information recording medium on which an information processing program that functions as a computer is recorded so as to be readable by the computer.
JP2013551157A 2011-12-28 2011-12-28 Information processing apparatus, information processing method, information processing program, and information recording medium Pending JPWO2013099025A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013551157A JPWO2013099025A1 (en) 2011-12-28 2011-12-28 Information processing apparatus, information processing method, information processing program, and information recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013551157A JPWO2013099025A1 (en) 2011-12-28 2011-12-28 Information processing apparatus, information processing method, information processing program, and information recording medium

Publications (1)

Publication Number Publication Date
JPWO2013099025A1 true JPWO2013099025A1 (en) 2015-04-30

Family

ID=53048034

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013551157A Pending JPWO2013099025A1 (en) 2011-12-28 2011-12-28 Information processing apparatus, information processing method, information processing program, and information recording medium

Country Status (1)

Country Link
JP (1) JPWO2013099025A1 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0865457A (en) * 1994-08-24 1996-03-08 Hitachi Ltd Image input device
JPH11196299A (en) * 1997-12-26 1999-07-21 Minolta Co Ltd Image pickup device
JP2000262478A (en) * 1999-03-16 2000-09-26 Topcon Corp Ophthalmological photographic device
JP2004072533A (en) * 2002-08-07 2004-03-04 Ricoh Co Ltd Device and method for inputting image
WO2008032392A1 (en) * 2006-09-14 2008-03-20 Fujitsu Limited Image processing method and device, and its program
JP2008301043A (en) * 2007-05-30 2008-12-11 Fujitsu Ltd Image compositing device, image compositing method, and image compositing program
JP2009194700A (en) * 2008-02-15 2009-08-27 Olympus Corp Image processor and image processing program
JP2011199565A (en) * 2010-03-19 2011-10-06 Casio Computer Co Ltd Imaging device and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0865457A (en) * 1994-08-24 1996-03-08 Hitachi Ltd Image input device
JPH11196299A (en) * 1997-12-26 1999-07-21 Minolta Co Ltd Image pickup device
JP2000262478A (en) * 1999-03-16 2000-09-26 Topcon Corp Ophthalmological photographic device
JP2004072533A (en) * 2002-08-07 2004-03-04 Ricoh Co Ltd Device and method for inputting image
WO2008032392A1 (en) * 2006-09-14 2008-03-20 Fujitsu Limited Image processing method and device, and its program
JP2008301043A (en) * 2007-05-30 2008-12-11 Fujitsu Ltd Image compositing device, image compositing method, and image compositing program
JP2009194700A (en) * 2008-02-15 2009-08-27 Olympus Corp Image processor and image processing program
JP2011199565A (en) * 2010-03-19 2011-10-06 Casio Computer Co Ltd Imaging device and program

Similar Documents

Publication Publication Date Title
US10789671B2 (en) Apparatus, system, and method of controlling display, and recording medium
JP6011470B2 (en) Apparatus, method and program for analyzing preliminary image
US20090227283A1 (en) Electronic device
US9171351B2 (en) Image processing device that synthesizes image
JPWO2008012905A1 (en) Authentication apparatus and authentication image display method
KR20140104753A (en) Image preview using detection of body parts
JP2014157557A (en) Image generation device, image generation method and program
JP2013200735A (en) Image generation device, image generation method, and program
JP2007336411A (en) Imaging apparatus, auto-bracketing photographing method, and program
CN108810326B (en) Photographing method and device and mobile terminal
JP2015032883A (en) Imaging apparatus and image display method
JP6497030B2 (en) Imaging system, information processing apparatus, imaging method, program, storage medium
US9600735B2 (en) Image processing device, image processing method, program recording medium
WO2013099025A1 (en) Information processing device, information processing method, information processing program, and information recording medium
JP2017188787A (en) Imaging apparatus, image synthesizing method, and image synthesizing program
JP2005316958A (en) Red eye detection device, method, and program
JP5423131B2 (en) Captured image processing apparatus, captured image processing program, and captured image processing method
JPWO2013099025A1 (en) Information processing apparatus, information processing method, information processing program, and information recording medium
KR20140130887A (en) Method for generating thumbnail image and an electronic device thereof
JP2018067851A (en) Imaging control program, imaging control method, and information processing device
JP6614500B2 (en) Image reading apparatus, portable terminal, image reading method, and image reading program
JP2006270488A (en) Imaging apparatus and image processing method
JP2019041188A (en) Image processing apparatus, imaging apparatus, control method of image processing apparatus, and program
JP2011228913A (en) Image processing apparatus, reply image generation system and program
WO2013099021A1 (en) Information processing device, information processing method, information processing program, information recording medium, and imaging system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160405

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161108