JP2008102961A - Image processing system and method therefor - Google Patents

Image processing system and method therefor Download PDF

Info

Publication number
JP2008102961A
JP2008102961A JP2007331708A JP2007331708A JP2008102961A JP 2008102961 A JP2008102961 A JP 2008102961A JP 2007331708 A JP2007331708 A JP 2007331708A JP 2007331708 A JP2007331708 A JP 2007331708A JP 2008102961 A JP2008102961 A JP 2008102961A
Authority
JP
Japan
Prior art keywords
image
subject
simulation
captured
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007331708A
Other languages
Japanese (ja)
Inventor
Naoto Kaneshiro
金城  直人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2007331708A priority Critical patent/JP2008102961A/en
Publication of JP2008102961A publication Critical patent/JP2008102961A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing system processing various photographed images according to user's demands by synthesizing simulation images corresponding to the photographed images with digital image data. <P>SOLUTION: The image processing system in moving images comprised of frames of a plurality of photographed images comprise: an acquisition means for acquiring photography information regarding the photographed images with the photographed images obtained by photographing a subject; an identification means for specifying and identifying the subject in the photographed images using the photography information; a database which stores three-dimensional structure data of the subject; a reading means for reading the three-dimensional structure data of the subject identified by the identification means from the database; an image creation means for creating simulation images of the identified subject based on the read three-dimensional structure data of the subject and an editing means for editing the moving images using the simulation images and the photographed images. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像処理システムおよびその方法に関し、さらに詳しくは従来型カメラによって写真フィルムに被写体が撮影された画像を光電的に読み取りデジタル画像データを取得し、あるいはデジタルカメラによって被写体が撮影された画像のデジタル画像データを取得し、所定の画像処理を施したあと、可視画像として再生した写真プリントや表示装置に出力する際の画像処理に関する。   The present invention relates to an image processing system and method, and more particularly, an image obtained by photoelectrically reading an image of a subject photographed on a photographic film by a conventional camera to obtain digital image data, or an image photographed by a digital camera. The present invention relates to image processing when the digital image data is acquired and subjected to predetermined image processing and then output to a photographic print or display device reproduced as a visible image.

現在、ネガフィルム、リバーサルフィルム等の写真フィルム(以下、フィルムとする)に撮影された画像の感光材料(印画紙)への焼き付けは、フィルムの画像を感光材料に投影して感光材料を面露光する、いわゆる直接露光(アナログ露光)によって行われている。   Currently, printing of images taken on photographic films (hereinafter referred to as films) such as negative films and reversal films onto photosensitive materials (printing paper) is performed by projecting the film images onto photosensitive materials and exposing the photosensitive materials to surface exposure. The so-called direct exposure (analog exposure) is performed.

これに対して、近年では、デジタル露光を利用する焼付装置、すなわち従来型カメラによって撮影され、写真フィルムに記録された撮影コマの画像を光電的に読み取り、読み取った画像をデジタル画像データとして得た後、あるいはデジタルカメラによって撮影された撮影コマの画像のデジタル画像データを得た後、種々の画像処理を施して記録用画像データとし、この画像データに応じて変調した記録光によって感光材料を走査露光して画像(潜像)を記録し、(仕上がり)写真プリントとするデジタルフォトプリンタが実用化されている。   On the other hand, in recent years, an image of a shooting frame photographed by a printing apparatus using digital exposure, that is, a conventional camera and recorded on a photographic film is photoelectrically read, and the read image is obtained as digital image data. Later, or after obtaining digital image data of an image of a shot frame taken by a digital camera, various image processing is performed to obtain image data for recording, and the photosensitive material is scanned with recording light modulated in accordance with the image data. Digital photo printers that have been exposed to record images (latent images) to produce (finished) photographic prints have been put into practical use.

デジタルフォトプリンタでは、画像をデジタル画像データとして、画像データ処理によって焼付時の露光条件を決定することができるので、逆光やストロボ撮影等に起因する画像の飛びやツブレの補正、シャープネス(鮮鋭化)処理、カラーフェリアや濃度フェリアの補正、アンダー露光やオーバー露光の補正、周辺光量不足の補正等を好適に行って、従来の直接露光では得られなかった高品位な写真プリントを得ることができる。
また、複数画像の合成や画像分割、さらには文字の合成等も画像データ処理によって行うことができ、用途に応じて自由に編集/処理した写真プリントも出力可能である。
さらに、デジタルフォトプリンタによれば、画像を写真プリントとして出力するのみならず、画像データをコンピュータ等に供給したり、フロッピー(登録商標)ディスク等の画像記録媒体に保存しておくこともできるので、画像データを、写真以外の様々な用途に利用することができる。
In digital photo printers, images can be converted into digital image data, and the exposure conditions during printing can be determined by image data processing. Therefore, correction of image skipping and blurring caused by backlighting, flash photography, etc., and sharpness (sharpening) Processing, color feria and density feria correction, underexposure and overexposure correction, peripheral light insufficiency correction, and the like can be suitably performed to obtain a high-quality photographic print that cannot be obtained by conventional direct exposure.
In addition, composition of a plurality of images, image division, and composition of characters can be performed by image data processing, and a photo print that is freely edited / processed according to the application can be output.
Furthermore, according to the digital photo printer, not only can an image be output as a photographic print, but also image data can be supplied to a computer or the like, or stored in an image recording medium such as a floppy (registered trademark) disk. The image data can be used for various purposes other than photography.

このようなデジタルフォトプリンタは、基本的に、フィルムに記録された画像を光電的に読み取るスキャナ(画像読取装置)、読み取った画像を画像処理して記録画像データ(露光条件)とする画像処理装置、および、この記録(出力)画像データに応じて感光材料を走査露光して現像処理を施して写真プリントとするプリンタ(画像記録装置)より構成される。   Such a digital photo printer basically includes a scanner (image reading device) that photoelectrically reads an image recorded on a film, and an image processing device that processes the read image to record image data (exposure conditions). And a printer (image recording apparatus) that scans and exposes a photosensitive material in accordance with the recorded (output) image data, develops it, and produces a photographic print.

スキャナでは、光源から射出された読取光をフィルムに入射して、フィルムに撮影された画像を担持する投影光を得て、この投影光を結像レンズによってCCDセンサ等のイメージセンサに結像して光電変換することにより画像を読み取り、必要に応じて各種の画像処理を施した後に、フィルムの入力画像データ(画像データ信号)として画像処理装置に送る。画像処理装置は、スキャナによって読み取られて、または画像記録媒体から読み出されて、画像処理装置に送られてきた入力画像データから画像処理条件を設定し、設定した条件に応じた画像処理を入力画像データに施し、画像記録のための出力画像データ(露光条件)としてプリンタに送る。
プリンタでは、例えば、光ビーム走査露光を利用する装置であれば、画像処理装置から送られた出力画像データに応じて光ビームを変調して、感光材料を二次元的に走査露光(焼付け)して潜像を形成し、次いで、所定の現像処理等を施して、フィルムに撮影された画像が可視再生画像として再生された写真プリントを出力する。
In a scanner, reading light emitted from a light source is incident on a film to obtain projection light carrying an image photographed on the film, and this projection light is imaged on an image sensor such as a CCD sensor by an imaging lens. Then, the image is read by photoelectric conversion, subjected to various image processing as required, and then sent to the image processing apparatus as film input image data (image data signal). The image processing device sets image processing conditions from input image data read by a scanner or read from an image recording medium and sent to the image processing device, and inputs image processing according to the set conditions. It is applied to the image data and sent to the printer as output image data (exposure conditions) for image recording.
In a printer, for example, if the apparatus uses light beam scanning exposure, the light beam is modulated in accordance with output image data sent from the image processing apparatus, and the photosensitive material is scanned and exposed (baked) two-dimensionally. Then, a latent image is formed, and then a predetermined development process or the like is performed to output a photographic print in which an image photographed on the film is reproduced as a visible reproduction image.

また、撮影された画像をスキャナで読み取りデジタル画像データを得る方法以外に、例えば、デジタルカメラ等で撮影され、フロッピー(登録商標)ディスクやMOやZip等の画像記録媒体に記録されたデジタル画像の画像データを得、またネットワークを介してデジタル画像データを得て、入力画像データとすることができ、この入力画像データから画像処理条件を設定し、設定した条件に応じた画像処理を入力画像データに施し、画像記録のための出力画像データ(露光条件)としてプリンタに送り可視再生画像としてプリント出力することができる。   In addition to a method of reading a photographed image with a scanner and obtaining digital image data, for example, a digital image photographed with a digital camera or the like and recorded on a floppy (registered trademark) disk or an image recording medium such as MO or Zip. Image data can be obtained, and digital image data can be obtained via a network to be input image data. Image processing conditions are set from the input image data, and image processing according to the set conditions is performed. And output to the printer as output image data (exposure conditions) for image recording, and can be printed out as a visible reproduction image.

このようなデジタルカメラではCCD等の撮像素子の解像度に限界があるため、これらカメラで撮影された画像を大伸ばしするには限界があり、また、銀塩写真方式カメラでは撮影用フイルムの粒状性に限界があった。
そこで、カメラを大型化することなく、高精細なプリントが得られるように、高精細撮影モードで撮影された複数枚の画像データを、撮影制御情報に基づき画像合成する技術が提案されている(例えば、特許文献1参照。)。
In such a digital camera, there is a limit to the resolution of an image sensor such as a CCD, so there is a limit in enlarging an image captured by these cameras, and in the case of a silver halide photographic camera, the graininess of the film for shooting is limited. There was a limit.
In view of this, a technique has been proposed in which a plurality of image data shot in the high-definition shooting mode is combined based on shooting control information so that a high-definition print can be obtained without increasing the size of the camera ( For example, see Patent Document 1.)

また、デジタルフォトプリンタによれば、従来型のカメラによってフィルムに撮影した画像やデジタルカメラによって撮影されたデジタル画像を単に写真プリントとして出力するだけでなく、撮影時の不適切な撮影条件によって画像の再現性の良くないものについても、デジタル画像処理を施して、逆光シーン、ハイコントラストシーン、アンダー露光ネガ、シャープネス、周辺光量不足等の補正を行うことで、高品位で美しい画像を容易に写真プリントとして出力することができる特徴を有している。   In addition, according to the digital photo printer, not only the image photographed on the film by the conventional camera or the digital image photographed by the digital camera is output as a photographic print, but the image can be captured by inappropriate photographing conditions at the time of photographing. Even those with poor reproducibility can be digitally imaged to correct backlit scenes, high-contrast scenes, underexposure negatives, sharpness, lack of ambient light, etc., and easily print high-quality and beautiful images. As a feature that can be output as

現状のデジタルフォトプリントのデジタル処理による写真プリントサービスにおいて、撮影日時がフィルムに光学的に記録された場合や、撮影日時が磁気記録されている新写真システムAPSの場合に、仕上がりプリント上に撮影された日付や撮影時刻が表示されるサービスを受けることができる。
そして、そのサービスは、プリントされた画像と撮影日付や撮影時刻を見て撮影時の状況を振り返る場合に役立つ。
しかし、撮影日付や撮影時刻の情報のみからでは、撮影当時の種々の状況を十分に振り返ることが難しい場合もある。すなわち、これらの写真プリントの画像を後日鑑賞する場合、撮影日時を手がかりとしてプリントされた画像を振り返るが、何を目的とし、どうゆう状況下で撮影したのか十分思い出せない場合も多い。
また、例えば、人物を撮影した画像の背景に山が撮影されている場合、その背景の山の名前や標高や歴史を知りたい場合もある。
これに対し、撮影日付や撮影時刻だけでなく、これらに関する付帯的情報や撮影場所やその付帯情報があれば撮影当時を容易に振り返ることができる場合が多い。
In the current photo print service by digital processing of digital photo print, when the shooting date and time is optically recorded on the film, or in the case of the new photo system APS in which the shooting date and time is magnetically recorded, it is shot on the finished print. You can receive a service that displays the date and shooting time.
The service is useful for looking back at the state of shooting by looking at the printed image and the shooting date and time.
However, there are cases where it is difficult to sufficiently look back on various situations at the time of shooting only from information on the shooting date and shooting time. In other words, when viewing images of these photographic prints at a later date, the printed images are looked back at the shooting date and time, but it is often impossible to fully remember what the purpose was and how the image was taken under the circumstances.
Further, for example, when a mountain is photographed in the background of an image of a person, there are cases where it is desired to know the name, altitude, and history of the mountain in the background.
On the other hand, in addition to the shooting date and shooting time, it is often possible to easily look back at the time of shooting if there is incidental information, shooting location, and incidental information related thereto.

一方、近年のパーソナルコンピュータの普及によって、パーソナルコンピュータでデジタル画像処理を行うことが容易となり、スキャナやデジタルカメラで取り込んで画像を合成したり、またフォトレタッチソフトを使って画像を修正することも個人的に可能となり、デジタル処理による写真プリントを含むデジタル画像は、画像合成や、画像修正により、画像を好みによって変化させる娯楽性の強いものとなっている。   On the other hand, with the spread of personal computers in recent years, it has become easier to perform digital image processing with personal computers, and it is also possible for individuals to combine images by using a scanner or digital camera, or to modify images using photo retouching software. Digital images including photographic prints by digital processing are highly entertaining, in which images are changed according to preference by image composition and image correction.

そこで、フィルムに記録された画像から光電的によみとられたデジタル画像データやデジタルカメラ等で撮影して取得されたデジタル画像データに所定の画像処理を施して出力画像データを取得し、この出力画像データに応じた可視再生画像を写真プリントとして出力したり、モニタなどの表示装置に表示する際に、ユーザの希望にあわせて、撮影日時や撮影位置等に基づいた撮影画像の撮影状況や撮影画像の被写体に関連する付加情報などの、撮影画像に付随した付加情報を写真プリントや表示画像に付加し、ユーザが可視再生画像をみて容易に撮影当時を振り返ることができるとともに、写真プリントや表示画像の機能を高め、またユーザの好みに応じた娯楽性に富んだ写真プリントや表示画像をユーザに提供する技術が提案されている(例えば、特許文献2参照。)。
特開平10−136298号公報 特開2000−66312号公報
Therefore, the digital image data photoelectrically taken from the image recorded on the film and the digital image data obtained by photographing with a digital camera or the like are subjected to predetermined image processing to obtain output image data, and this output When outputting a visible playback image according to the image data as a photo print or displaying it on a display device such as a monitor, the shooting status and shooting of the shot image based on the shooting date and time, shooting position, etc. according to the user's wish Additional information associated with the captured image, such as additional information related to the subject of the image, can be added to the photo print or display image, allowing the user to easily look back at the time of shooting by looking at the visible playback image, and to print or display the photo. Techniques have been proposed for enhancing the functions of images and providing users with photo prints and display images that are rich in entertainment according to user preferences. For example, see Patent Document 2.).
JP-A-10-136298 JP 2000-66312 A

しかしながら、特許文献1に記載の発明は、画像の作成に複数回の撮影が必要であり、手間がかかり、カメラにも特殊な撮影モード機能が必要であった。
また、特許文献2に記載の発明は、ユーザの好みに応じた娯楽性に富んだ写真プリントや表示画像を提供するに際して、雲に隠れて被写体が見えない画像や、被写体がピンボケで不鮮明な場合に、CG画像を作成し、CG画像と実際に撮影された画像とをパターンマッチングしたり、合成したりしているが、この発明は、撮影画像における欠損部分等について、本来であれば撮影されている画像を参照して合成しており、出力画像を高画質にするものではない。
本発明は、かかる問題点に鑑みてなされたものであり、フィルムに記録された画像から光電的に読み取られたデジタル画像データ、あるいはデジタルカメラ等で撮影して得られたデジタル画像データに、その撮影画像に対応するシミュレーション画像を合成することで、ユーザの希望に合わせて、様々な撮影画像の加工を行なうことができる画像処理システムを提供することを目的とする。
However, the invention described in Patent Document 1 requires a plurality of times of shooting to create an image, which is troublesome and requires a special shooting mode function for the camera.
In addition, the invention described in Patent Document 2 provides an image in which a subject cannot be seen because it is hidden in a cloud or a subject is out of focus when providing a photo print or a display image that is rich in entertainment according to user's preference. In addition, a CG image is created, and the CG image and the actually captured image are pattern-matched or synthesized. Therefore, the output image is not made to have high image quality.
The present invention has been made in view of such problems, and digital image data photoelectrically read from an image recorded on a film, or digital image data obtained by photographing with a digital camera or the like, It is an object of the present invention to provide an image processing system capable of processing various photographed images according to a user's desire by synthesizing simulation images corresponding to the photographed images.

前記課題を解決するために、本発明は、被写体を撮影した撮影画像とともに、前記撮影画像に関する撮影情報を取得する取得手段と、前記撮影情報を用いて、前記撮影画像内の被写体を特定し同定する同定手段と、同定した前記被写体の3次元構造データまたは前記被写体の2次元データに基づいて、前記撮影画像に対応するシミュレーション画像を作成する画像作成手段と、前記シミュレーション画像に基づいて、前記撮影画像の欠陥部分を補正する、または撮影画像の濃度・色味を修正する処理手段とを備えることを特徴とする画像処理システムを提供する。
また、前記処理手段は、前記撮影画像と前記シミュレーション画像とを比較し、前記撮影画像における影エリアを抽出し、前記シミュレーション画像における前記影エリアの輝度を増加して濃度を補正し、補正された前記シミュレーション画像を前記撮影画像に合成してもよい。
また、前記課題を解決するために、本発明は、被写体を撮影した撮影画像とともに、前記撮影画像に関する撮影情報を取得する取得手段と、前記撮影情報を用いて、前記撮影画像内の被写体を特定し同定する同定手段と、前記被写体の3次元構造データを記憶しているデータベースと、前記同定手段により同定した被写体の3次元構造データをデータベースから読み出す読出手段と、読み出した前記被写体の3次元構造データに基づいて、前記撮影画像に対応する前記被写体のシミュレーション画像を作成する画像作成手段と、前記被写体のシミュレーション画像に基づいて、前記撮影画像の前記被写体の欠陥部分を補正する、または撮影画像の前記被写体の濃度・色味を修正する処理手段とを備え、前記画像作成手段は、前記被写体の3次元構造データに基づいて、前記被写体及び前記被写体の影エリアのシミュレーション画像を作成し、前記処理手段は、前記撮影画像と前記シミュレーション画像とを比較し、前記撮影画像における影エリアを抽出し、前記シミュレーション画像における前記影エリアの輝度を増加させるように濃度を補正し、補正された前記シミュレーション画像を前記撮影画像に合成することを特徴とする画像処理システムを提供する。
また、前記処理手段は、前記撮影画像と前記シミュレーション画像とを比較し、前記撮影画像における高輝度エリアを抽出し、前記シミュレーション画像における前記高輝度エリアの輝度を低下させるように濃度を補正し、補正された前記シミュレーション画像を前記撮影画像に合成してもよい。
また、前記読出手段は、前記撮影情報及びユーザにより入力された条件に基づいて撮影条件を読み出し、前記画像作成手段は、読み出された前記撮影条件に応じた平均的光線状況を反映してシミュレーション画像を作成し、前記処理手段は、前記撮影画像の色味を前記シミュレーション画像の色味に合わせて補正し、補正された前記撮影画像と前記シミュレーション画像を合成してもよい。
また、画像作成手段は、撮影画像に比して高解像度である所定の解像度でシミュレーション画像を作成し、前記処理手段は、前記撮影画像と前記シミュレーション画像とを比較し、前記シミュレーション画像の濃度および色味の少なくとも一つを前記撮影画像に合わせて補正し、補正された前記シミュレーション画像を前記撮影画像に合成してもよい。
また、前記画像作成手段は、前記撮影画像の解像度よりも高い解像度で前記シミュレーション画像を作成し、前記処理手段は、前記撮影画像を拡大して拡大画像を作成し、前記撮影画像の拡大比率が大きくなるにつれて前記シミュレーション画像の比率が大きくなるように設定されている比率から前記拡大比率に基づいて比率を決定し、決定した比率に基づいて、前記拡大画像の画素値と前記シミュレーション画像の画素値とを加重平均して、前記拡大画像と前記シミュレーション画像とを合成してもよい。
また、前記画像作成手段は、前記撮影画像における背景部と主要被写体とで、サイズ、鮮鋭度及びコントラストの少なくとも1つを別々に設定し、個別に前記背景部のシミュレーション画像と前記主要被写体のシミュレーション画像とを作成してもよい。
また、前記画像作成手段は、撮影画像の主要被写体を中心に視野を拡大した、前記撮影画像には撮影されていない領域も含むシミュレーション画像を作成してもよい。
また、前記画像作成手段は撮影画像の背景のみをシミュレーション画像で作成し、前記処理手段は、前記撮影画像と前記シミュレーション画像とを比較し、濃度、色味、ぼけ具合およびカメラ露出のうち少なくとも一つの差分を検出し、その差分に応じて前記シミュレーション画像を補正し、補正した前記シミュレーション画像と前記撮影画像とを合成してもよい。
また、前記画像作成手段は、撮影画像の背景のシミュレーション画像を作成し、前記処理手段は、前記撮影画像に基づいて前記シミュレーション画像を補正し、補正した前記シミュレーション画像を前記撮影画像の背景に合成してもよい。
In order to solve the above-mentioned problem, the present invention specifies and identifies a subject in the photographed image using an acquisition unit that obtains photographing information regarding the photographed image together with a photographed image obtained by photographing the subject. Identification means for performing, image creation means for creating a simulation image corresponding to the photographed image based on the identified three-dimensional structure data of the subject or the two-dimensional data of the subject, and photographing based on the simulation image Provided is an image processing system comprising processing means for correcting a defective portion of an image or correcting the density and color of a photographed image.
Further, the processing means compares the captured image with the simulation image, extracts a shadow area in the captured image, corrects the density by increasing the luminance of the shadow area in the simulation image, and is corrected. The simulation image may be combined with the captured image.
In order to solve the above-described problem, the present invention specifies an object in the captured image by using an acquired unit that acquires captured information related to the captured image together with a captured image of the captured object, and the captured information. Identifying means for identifying, a database storing the three-dimensional structure data of the subject, a reading means for reading out the three-dimensional structure data of the subject identified by the identifying means from the database, and the three-dimensional structure of the read subject Based on the data, image creating means for creating a simulation image of the subject corresponding to the photographed image, and correcting a defective portion of the subject in the photographed image based on the simulation image of the subject, or of the photographed image Processing means for correcting the density and color of the subject, and the image creating means Based on the structure data, a simulation image of the subject and the shadow area of the subject is created, the processing means compares the captured image with the simulation image, extracts a shadow area in the captured image, and performs the simulation An image processing system is provided, wherein density is corrected so as to increase luminance of the shadow area in an image, and the corrected simulation image is synthesized with the captured image.
Further, the processing means compares the captured image with the simulation image, extracts a high brightness area in the captured image, corrects the density so as to reduce the brightness of the high brightness area in the simulation image, The corrected simulation image may be combined with the captured image.
In addition, the reading unit reads a shooting condition based on the shooting information and a condition input by a user, and the image creating unit reflects a mean light state according to the read shooting condition. The image may be created, and the processing unit may correct the color of the captured image in accordance with the color of the simulation image, and synthesize the corrected captured image and the simulation image.
The image creating means creates a simulation image at a predetermined resolution which is higher than that of the photographed image, and the processing means compares the photographed image with the simulation image, and compares the density of the simulation image and At least one of the colors may be corrected according to the captured image, and the corrected simulation image may be combined with the captured image.
Further, the image creation means creates the simulation image at a resolution higher than the resolution of the photographed image, and the processing means creates a magnified image by enlarging the photographed image, and the magnification ratio of the photographed image is A ratio is determined based on the enlargement ratio from a ratio that is set so that the ratio of the simulation image increases as it increases, and based on the determined ratio, the pixel value of the enlarged image and the pixel value of the simulation image And the enlarged image and the simulation image may be combined.
Further, the image creation means sets at least one of size, sharpness, and contrast separately for the background portion and the main subject in the captured image, and individually simulates the simulation image of the background portion and the main subject. Images and images may be created.
Further, the image creating means may create a simulation image including a region that is not photographed in the photographed image, the field of view being enlarged around the main subject of the photographed image.
Further, the image creating means creates only the background of the photographed image as a simulation image, and the processing means compares the photographed image with the simulation image, and at least one of density, color, blur condition, and camera exposure. One difference may be detected, the simulation image may be corrected according to the difference, and the corrected simulation image and the captured image may be combined.
The image creating means creates a simulation image of the background of the photographed image, and the processing means corrects the simulation image based on the photographed image, and synthesizes the corrected simulation image with the background of the photographed image. May be.

また、本発明は、複数の撮影画像のコマからなる動画における画像処理システムであって、被写体を撮影した撮影画像とともに、前記撮影画像に関する撮影情報を取得する取得手段と、前記撮影情報を用いて、前記撮影画像内の被写体を特定し同定する同定手段と、前記被写体の3次元構造データを記憶しているデータベースと、前記同定手段により同定した被写体の3次元構造データを前記データベースから読み出す読み出し手段と、読み出した前記被写体の3次元構造データに基づいて、同定した前記被写体のシミュレーション画像を生成する画像作成手段と、前記シミュレーション画像と前記撮影画像を用いて動画を編集する編集手段とを備えることを特徴とする画像処理システムを提供する。
前記画像作成手段は、それぞれの撮影画像のコマとコマの間の撮影画像に対応する前記被写体のシミュレーション画像を作成し、前記編集手段は、前記シミュレーション画像をコマとコマの間に前記撮影画像として挿入してもよい。
前記画像作成手段は、撮影されていない動画の前後の撮影画像に対応するシミュレーション画像を作成し、前記編集手段は、前記シミュレーション画像を動画の前後に挿入してもよい。
また、前記編集手段は、前記シミュレーション画像内の特定の被写体を補正し、補正した前記シミュレーション画像を前記撮影画像と置換して、動画を編集してもよい。
また、前記編集手段は、前記シミュレーション画像内の前記特定の被写体付近の背景を補正してもよい。
また、前記データベースは、通信手段を有し、通信手段を介して外部から提供された情報に基づいて、記憶されている被写体の3次元構造データを更新してもよい。
また、本発明は、複数の撮影画像のコマからなる動画における画像処理方法であって、被写体を撮影した撮影画像とともに、前記撮影画像に関する撮影情報を取得する取得ステップと、前記撮影情報を用いて、前記撮影画像内の被写体を特定し同定する同定ステップと、同定した被写体の3次元構造データをデータベースから読み出す読出ステップと、読み出した前記被写体の3次元構造データに基づいて、シミュレーション画像を生成する画像作成ステップと、前記シミュレーション画像と前記撮影画像を用いて動画を編集する編集ステップとを有することを特徴とする画像処理方法を提供する。
ここで、前記画像作成ステップは、それぞれの撮影画像のコマとコマの間の撮影画像に対応する前記被写体のシミュレーション画像を作成し、前記編集ステップは、前記シミュレーション画像をコマとコマの間に前記撮影画像として挿入してもよい。
また、前記画像作成ステップは、撮影されていない動画の前後の撮影画像に対応するシミュレーション画像を作成し、前記編集ステップは、前記シミュレーション画像を動画の前後に挿入してもよい。
また、前記編集ステップは、前記シミュレーション画像内の特定の被写体を補正し、補正した前記シミュレーション画像を前記撮影画像と置換して、動画を編集してもよい。
また、前記編集ステップは、前記シミュレーション画像内の前記特定の被写体付近の背景を補正してもよい。
In addition, the present invention is an image processing system for a moving image including a plurality of frames of captured images, and using the captured information, an acquisition unit that acquires captured information about the captured image together with a captured image of the subject. Identifying means for identifying and identifying a subject in the photographed image, a database storing the three-dimensional structure data of the subject, and a reading means for reading out the three-dimensional structure data of the subject identified by the identifying means from the database And an image creating means for generating a simulation image of the identified subject based on the read three-dimensional structure data of the subject, and an editing means for editing a moving image using the simulation image and the captured image. An image processing system is provided.
The image creating means creates a simulation image of the subject corresponding to the photographed image between the frames of the respective photographed images, and the editing means uses the simulation image as the photographed image between the frames. It may be inserted.
The image creating unit may create simulation images corresponding to the captured images before and after the moving image that has not been captured, and the editing unit may insert the simulation image before and after the moving image.
The editing means may edit a moving image by correcting a specific subject in the simulation image, replacing the corrected simulation image with the captured image.
The editing unit may correct a background near the specific subject in the simulation image.
Further, the database may include communication means, and the stored three-dimensional structure data of the subject may be updated based on information provided from outside via the communication means.
The present invention is also an image processing method for a moving image including a plurality of frames of captured images, the acquisition step of acquiring shooting information about the captured image together with the captured image of the subject, and using the shooting information. An identification step for identifying and identifying a subject in the captured image, a reading step for reading out the three-dimensional structure data of the identified subject from a database, and generating a simulation image based on the read-out three-dimensional structure data of the subject An image processing method comprising: an image creation step; and an editing step for editing a moving image using the simulation image and the captured image.
Here, the image creating step creates a simulation image of the subject corresponding to a photographed image between the frames of the respective photographed images, and the editing step includes the simulation image between the frames and the frames. You may insert as a picked-up image.
Further, the image creation step may create simulation images corresponding to the captured images before and after the unmoved moving image, and the editing step may insert the simulation image before and after the moving image.
Further, the editing step may correct a specific subject in the simulation image, replace the corrected simulation image with the captured image, and edit the moving image.
The editing step may correct a background near the specific subject in the simulation image.

本発明によれば、ユーザの希望に合わせて、フィルムに記録された画像から光電的に読み取られたデジタル画像データ、あるいはデジタルカメラ等で撮影して得られたデジタル画像データに、様々な撮影画像の加工を行なうことができる画像処理システムを提供することができる。   According to the present invention, various photographed images can be added to digital image data photoelectrically read from an image recorded on a film or digital image data obtained by photographing with a digital camera or the like according to a user's request. It is possible to provide an image processing system capable of performing the above processing.

本発明に係る画像処理システムを、添付の図面に示す好適実施形態に基づいて、以下に詳細に説明する。まず、図1〜図8を参照して、本発明に係る画像処理システムについて説明する。   An image processing system according to the present invention will be described below in detail based on a preferred embodiment shown in the accompanying drawings. First, an image processing system according to the present invention will be described with reference to FIGS.

図1は、本発明の第1実施形態に係る画像処理システムを構成するデジタルフォトプリンタの概略を示すブロック図である。
図1に示されるデジタルフォトプリンタ10は、基本的に、フィルムFに撮影された画像を光電的に読み取るスキャナ(画像入力手段)12と、読み取られた画像データを処理して出力用の画像データとし、また、デジタルフォトプリンタ10全体の操作および制御等を行う画像処理装置14と、画像処理装置14から出力された画像データに応じて変調した光ビームで感光材料(印画紙)を画像露光し、現像処理して(仕上がり)プリントとして出力するプリンタ16等(画像出力手段)とを有する。
FIG. 1 is a block diagram showing an outline of a digital photo printer constituting the image processing system according to the first embodiment of the present invention.
A digital photo printer 10 shown in FIG. 1 basically includes a scanner (image input means) 12 that photoelectrically reads an image photographed on a film F, and image data for output by processing the read image data. In addition, the image processing device 14 that performs operation and control of the entire digital photo printer 10 and the light exposure material (printing paper) that has been modulated in accordance with the image data output from the image processing device 14 are subjected to image exposure. And a printer 16 (image output means) for performing development processing (finished) and outputting as a print.

画像処理装置14は、様々な条件の入力や設定、処理の選択や指示、色/濃度補正などの指示等を入力するためのキーボード18aおよびマウス18bを有する操作系18と、スキャナ12で読み取られた画像、各種の操作指示、様々な条件の設定/登録画面等を表示するディスプレイ(画像表示装置)20と接続されている。   The image processing apparatus 14 is read by the scanner 12 and an operation system 18 having a keyboard 18a and a mouse 18b for inputting various conditions input and settings, process selection and instructions, color / density correction instructions, and the like. Connected to a display (image display device) 20 for displaying images, various operation instructions, setting / registration screens for various conditions, and the like.

スキャナ12は、フィルムFに撮影された画像を光電的に読み取る装置で、光源22と、可変絞り24と、フィルムFに入射する読取光をフィルムFの面方向で均一にする拡散ボックス28と、結像レンズユニット32と、フィルムの撮影画像を読み取るフォトセンサであるCCDセンサ34と、アンプ(増幅器)36と、A/D(アナログ/デジタル)変換器38とを有し、さらに、スキャナ12の本体に装着自在な専用のキャリア30から構成される。   The scanner 12 is a device that photoelectrically reads an image photographed on the film F, and includes a light source 22, a variable aperture 24, a diffusion box 28 that makes reading light incident on the film F uniform in the surface direction of the film F, The image forming lens unit 32, a CCD sensor 34 that is a photo sensor that reads a photographed image of the film, an amplifier 36, and an A / D (analog / digital) converter 38, It is composed of a dedicated carrier 30 that can be attached to the main body.

キャリア30は、例えば24枚取りの135サイズのフィルムや新写真システムフィルム(APSのカートリッジ)等の、長尺なフィルムに対応する各種専用のキャリアが用意されており、所定の読み取り位置にフィルムFを保持しつつ、CCDセンサ34のラインCCDセンサの延在方向(主走査方向)と直行する副走査方向に、フィルムFの長手方向を一致して搬送する、読み取り位置を副走査方向に挟んで配置される搬送ローラ対30aおよび30bと、フィルムFの投影光を所定のスリット状に規制する、読み取り位置に対応して位置する主走査方向に延在するスリット29aを有するマスク29、更に、磁気読取書込装置31とを有する。
フィルムFはこのキャリア30によって保持されて副走査方向に搬送されつつこのフィルムFには読み取り光が入射される。これにより、フィルムFが主走査方向に延在するスリット29aによって2次元的にスリット走査され、フィルムFに撮影された各コマの画像が読み取られる。
For the carrier 30, for example, a special carrier corresponding to a long film such as a 24-size 135-size film or a new photographic system film (APS cartridge) is prepared, and the film F is placed at a predetermined reading position. While the image sensor is being held, the longitudinal direction of the film F is conveyed in the sub-scanning direction perpendicular to the extending direction (main scanning direction) of the line CCD sensor of the CCD sensor 34, and the reading position is sandwiched in the sub-scanning direction. A pair of transport rollers 30a and 30b, a mask 29 having a slit 29a extending in the main scanning direction, which corresponds to the reading position, restricts the projection light of the film F into a predetermined slit shape, and further magnetically And a reading / writing device 31.
The film F is held by the carrier 30 and conveyed in the sub-scanning direction, and reading light is incident on the film F. Accordingly, the film F is two-dimensionally slit-scanned by the slits 29a extending in the main scanning direction, and the images of the frames shot on the film F are read.

CCDセンサ34は、R画像の読み取りを行うラインCCDセンサ34R、G画像の読み取りを行うラインCCDセンサ34G、B画像の読み取りを行うラインCCDセンサ34Bを有するラインセンサで、ラインセンサは主走査方向に延在している。
フィルムFの投影光は、このCCDセンサによってR、GおよびBの3原色に分解されて光電的に読み取られる。光源22から射出され、可変絞り24によって光量調整され拡散ボックス28を通して均一にされた読み取り光が、キャリア30によって所定の読み取り位置に保持されつつ搬送されるフィルムFに入射して、透過することにより、フィルムFに撮影された画像を担持する投影光を得る。
フィルムFの投影光は、結像レンズユニット32によってCCDセンサ34の受光面に結像され、CCDセンサ34によって光電的に読み取られ、その出力信号は、アンプ36で増幅されて、A/D変換器38でデジタル画像データに変換され、入力画像データとして画像処理装置14に送られる。
The CCD sensor 34 includes a line CCD sensor 34R that reads an R image, a line CCD sensor 34G that reads a G image, and a line CCD sensor 34B that reads a B image. The line sensor is in the main scanning direction. It is extended.
The projection light of the film F is separated into the three primary colors R, G and B by this CCD sensor and is read photoelectrically. Reading light emitted from the light source 22, adjusted in light quantity by the variable aperture 24 and made uniform through the diffusion box 28 is incident on the film F being conveyed while being held at a predetermined reading position by the carrier 30 and is transmitted therethrough. The projection light carrying the image photographed on the film F is obtained.
The projection light of the film F is imaged on the light receiving surface of the CCD sensor 34 by the imaging lens unit 32, is read photoelectrically by the CCD sensor 34, and the output signal is amplified by the amplifier 36 and A / D converted. The digital image data is converted by the device 38 and sent to the image processing apparatus 14 as input image data.

なお、デジタルフォトプリンタ10を構成するスキャナ12は、上述のスリット走査によるものに限定されず、1コマの画像の全面を一度に読み取る面露光を利用したCCDエリアセンサであってもよい。
その場合、図1に示す可変絞り24と拡散ボックス28との間にR、GおよびBの色フィルタを設け、そこを通過してR、GおよびBに色調整された光を、フィルムFの1コマに入射して、透過することにより、フィルムFに撮影されたこのコマの画像を担持する投影光を得てもよい。この場合、色フィルタを順次R、GおよびBについて3回行う必要がある。
The scanner 12 constituting the digital photo printer 10 is not limited to the one using the above-described slit scanning, and may be a CCD area sensor using surface exposure that reads the entire surface of one frame image at a time.
In that case, R, G, and B color filters are provided between the variable aperture 24 and the diffusion box 28 shown in FIG. Projection light carrying an image of this frame photographed on the film F may be obtained by entering and transmitting one frame. In this case, it is necessary to sequentially perform the color filter for R, G, and B three times.

また、スキャナ12における画像のCCDセンサでの読み取りは、写真プリントを出力するために画像を読み取る本スキャンに先立ち、画像処理条件等を決定するために、画像を低解像度で読み取るプレスキャンを行ない画像処理条件を決定し、オペレータ(またはユーザ)がディスプレイ20で確認し調整した後、高解像度で画像を読み取る本スキャンを行うため、スキャンはプレスキャンと本スキャンの2回行われる。
そのため、R、GおよびBの色フィルタを設け、面露光を利用したCCDエリアセンサを用いた場合、R、GおよびBの色フィルタを用いて3回スキャンする必要があるため、計6回のスキャンを行うことになる。
ラインCCDセンサを用いる場合は、2回で済むことになるので、迅速な処理にとっては有利である。また、プレスキャンは、フィルムFのすべての画像を一気にプレスキャンで取り込んで、画像処理条件を設定した後、本スキャンを行っているが、フィルムFを一コマごとにプレスキャンと本スキャンを逐次行ってもよい。
Further, reading of an image by the CCD sensor in the scanner 12 is performed by performing a pre-scan for reading an image at a low resolution in order to determine image processing conditions and the like prior to a main scan for reading an image to output a photographic print. After the processing conditions are determined and the operator (or user) confirms and adjusts on the display 20, a main scan for reading an image at a high resolution is performed. Therefore, the scan is performed twice: a pre-scan and a main scan.
Therefore, when a CCD area sensor using surface exposure is provided with R, G, and B color filters, it is necessary to scan three times using the R, G, and B color filters. A scan will be performed.
In the case of using a line CCD sensor, since only two times are required, it is advantageous for rapid processing. In pre-scanning, all images on film F are captured by pre-scanning at once, and after setting the image processing conditions, main scanning is performed. However, pre-scanning and main scanning are sequentially performed on film F frame by frame. You may go.

なお、本発明において、スキャナ12は、このようなスリット走査によるものに限定はされず、1コマの画像の全面を一度に読み取る、面露光を利用するものであってもよい。
この場合には、例えばエリアCCDセンサを用い、光源とフィルムFとの間に、R、GおよびBの各色フィルタを順次挿入してエリアCCDセンサで画像を読み取ることにより、フィルムに撮影された画像を3原色に分解して順次読み取ればよい。
In the present invention, the scanner 12 is not limited to the one using such slit scanning, and may use a surface exposure that reads the entire image of one frame at a time.
In this case, for example, an area CCD sensor is used, and each color filter of R, G, and B is sequentially inserted between the light source and the film F, and an image taken on the film is read by the area CCD sensor. May be separated into three primary colors and sequentially read.

前述のように、スキャナ12からの出力信号(画像データ)は、画像処理装置14に出力される。
また、画像処理装置14には、デジタルカメラ等で撮影して得られたデジタル画像データを記録するスマートメディア等の画像データの記録媒体から、画像データや被写体情報等を読み出し、あるいはFD、CD−R、MO、DVDやZip等の汎用の画像データの記録媒体に処理後の画像データを出力するためのドライブ装置42が接続されている。
As described above, the output signal (image data) from the scanner 12 is output to the image processing device 14.
The image processing device 14 reads image data, subject information, and the like from an image data recording medium such as smart media for recording digital image data obtained by photographing with a digital camera or the like, or FD, CD- A drive device 42 for outputting processed image data is connected to a general-purpose image data recording medium such as R, MO, DVD or Zip.

さらに、本実施形態の画像処理装置14には、パソコンやデジタルカメラ等の種々の画像データ供給源や、各被写体人物の付属情報を一括して管理する機器等と、直接ケーブルを介して接続し、あるいは、通信ネットワークを介して接続して、デジタル画像データやその撮影情報、被写体の付属情報等を取得するためのスロット44等も接続されている。   Furthermore, the image processing apparatus 14 according to the present embodiment is directly connected to various image data supply sources such as a personal computer and a digital camera, and devices that collectively manage attached information of each subject person via a cable. Alternatively, a slot 44 for acquiring digital image data, shooting information thereof, attached information of a subject, and the like are also connected through a communication network.

したがって、本発明では、ネガやリバーサル等のフィルムに撮影された画像を光電的に読み取るスキャナ12以外にも、反射原稿の画像を読み取る画像読取装置、コンピュータ通信等の通信手段(モデムを介するものも含む)、デジタルカメラやデジタルビデオカメラ等の撮像デバイスや内蔵メモリ、PCカードやスマートメディア等のデジタルカメラ用の画像記録媒体、FD(フロッピー(登録商標)ディスク)やMO(光磁気記録媒体)等の汎用の画像記録媒体などの各種の画像データ供給源を利用することができる。
さらに、これらを直接またはその駆動装置を介して画像処理装置14に接続することができ、画像処理装置14は、これらの画像データ供給源からデジタル画像データやその撮影情報や被写体情報を受け取ることができる。
Therefore, in the present invention, in addition to the scanner 12 that photoelectrically reads an image photographed on a film such as a negative or a reversal, an image reading apparatus that reads an image of a reflected original, or communication means such as computer communication (something via a modem) Imaging devices such as digital cameras and digital video cameras, built-in memory, image recording media for digital cameras such as PC cards and smart media, FD (floppy (registered trademark) disk), MO (magneto-optical recording media), etc. Various image data supply sources such as general-purpose image recording media can be used.
Furthermore, these can be connected to the image processing device 14 directly or via the driving device, and the image processing device 14 can receive digital image data, its photographing information, and subject information from these image data supply sources. it can.

なお、図示例では、入力信号(デジタル画像データ、撮影情報、付加情報)は、スキャナ12やドライブ装置42等の種々の画像データ供給源から画像処理装置14に入力されるが、以下の説明では、主としてスキャナ12から画像処理装置14にデジタル画像データなどが供給される場合を代表例として説明する。   In the illustrated example, input signals (digital image data, photographing information, additional information) are input to the image processing device 14 from various image data supply sources such as the scanner 12 and the drive device 42. A case where digital image data or the like is mainly supplied from the scanner 12 to the image processing apparatus 14 will be described as a representative example.

図2は、本発明に係る画像処理装置14の概略構成を示すブロック図である。
画像処理装置14は、スキャナ12で読み取られ、デジタルデータとして画像処理装置14に送られてきた画像データ(入力画像)に所定の画像処理を施し、プリンタ16やディスプレイ20等に出力するものであり、主にデータ処理部38、プレスキャンメモリ40、本スキャンメモリ42、プレスキャン画像処理部44、本スキャン画像処理部46、条件設定部48、および被写体情報取得手段62から構成される。
また、本実施形態においては、画像処理装置14は、この他に入力画像から被写体人物に関する情報を取得する被写体情報取得手段62、撮影時にカメラによって取得され、または情報を一括管理する機器から取得された、人物や風景などの被写体情報と前記被写体情報との整合性に基づいて被写体を同定する被写体同定手段48a、CG画像作成手段48b、および画像処理部54の中に配置され、前記付属情報を、対応する撮影画像中の被写体人物に関連付けて画像合成する画像合成手段48cとを有している。
FIG. 2 is a block diagram showing a schematic configuration of the image processing apparatus 14 according to the present invention.
The image processing device 14 performs predetermined image processing on the image data (input image) read by the scanner 12 and sent to the image processing device 14 as digital data, and outputs the image data to the printer 16 or the display 20. , Mainly composed of a data processing unit 38, a pre-scan memory 40, a main scan memory 42, a pre-scan image processing unit 44, a main scan image processing unit 46, a condition setting unit 48, and a subject information acquisition means 62.
In the present embodiment, the image processing apparatus 14 is also acquired from a subject information acquisition unit 62 that acquires information about a subject person from an input image, acquired by a camera at the time of shooting, or acquired from a device that collectively manages information. The auxiliary information is arranged in a subject identification unit 48a, a CG image creation unit 48b, and an image processing unit 54 for identifying a subject based on the consistency between subject information such as a person or landscape and the subject information. And image synthesizing means 48c for synthesizing images in association with the subject person in the corresponding photographed image.

データ処理部38では、スキャナ12から出力されたR、G、Bのデジタル画像データ(入力画像データ信号)に、Log変換、DCオフセット補正、暗時補正、シェーディング補正等を行い、処理済のプレスキャン(画像)データはプレスキャンメモリ40に、同じく本スキャン(画像)データは本スキャンメモリ42に、それぞれ記憶(格納)される。
プレスキャンメモリ40および本スキャンメモリ42に格納された各画像データは、必要に応じて、画像処理を施し出力するために、それぞれプレスキャン画像処理部44および本スキャン画像処理部46に呼び出される。
In the data processing unit 38, R, G, B digital image data (input image data signal) output from the scanner 12 is subjected to log conversion, DC offset correction, dark correction, shading correction, and the like. The can (image) data is stored (stored) in the pre-scan memory 40, and the main scan (image) data is also stored (stored) in the main scan memory 42, respectively.
Each image data stored in the pre-scan memory 40 and the main scan memory 42 is called by the pre-scan image processing unit 44 and the main scan image processing unit 46, respectively, in order to perform image processing and output as necessary.

プレスキャン画像処理部44は、プレスキャン画像処理部50とデータ変換部52とからなり、プレスキャン画像処理部50は、色バランス調整、コントラスト調整、コントラスト補正、明るさ補正、さらにシャープネス処理や覆い焼き処理等その他の画像処理を実施する。
また、データ変換部52は、プレスキャン画像処理部50で画像処理の施された画像データを、3DLUT等を用いて、ディスプレイ20による表示に対応する画像データに変換する。
The prescan image processing unit 44 includes a prescan image processing unit 50 and a data conversion unit 52. The prescan image processing unit 50 includes color balance adjustment, contrast adjustment, contrast correction, brightness correction, sharpness processing and covering. Other image processing such as baking processing is performed.
In addition, the data conversion unit 52 converts the image data that has been subjected to the image processing by the pre-scan image processing unit 50 into image data corresponding to display on the display 20 using a 3DLUT or the like.

本スキャン画像処理部46は、画像処理部54とデータ変換部66とから構成される。本スキャン画像処理部62では、本スキャンデータに対して、以下述べるように条件設定部56で設定された画像処理条件に従って各種の画像処理、例えば、色バランス調整、コントラスト補正(階調処理)、明るさ補正、彩度補正、シャープネス処理や覆い焼き処理等の処理が行われる。
データ変換部58は、画像処理後の画像データを、それぞれプリンタ16、ドライブ装置42、スロット44という各画像出力手段に応じた形式に変換するものである。
The main scan image processing unit 46 includes an image processing unit 54 and a data conversion unit 66. The main scan image processing unit 62 performs various types of image processing on the main scan data according to the image processing conditions set by the condition setting unit 56 as described below, for example, color balance adjustment, contrast correction (gradation processing), Processing such as brightness correction, saturation correction, sharpness processing, and dodging processing is performed.
The data conversion unit 58 converts the image data after the image processing into a format corresponding to each image output means such as the printer 16, the drive device 42, and the slot 44.

被写体情報取得手段62は、被写体情報選択手段62a、データベース62bとから構成され、スキャナ12から得られる被写体情報と、データベース62b内の地図情報とを利用して撮影された画像の被写体を特定し、特定した被写体に関するデータを条件設定部48内の被写体同定手段48aに送る。   The subject information acquisition unit 62 includes a subject information selection unit 62a and a database 62b. The subject information acquisition unit 62 specifies a subject of an image captured using subject information obtained from the scanner 12 and map information in the database 62b. Data relating to the identified subject is sent to the subject identifying means 48a in the condition setting unit 48.

被写体を特定する方法としては、新写真システムAPSの場合、新写真システムAPS対応フィルムFに磁気記録層が形成されており、撮影情報を記録することができるため、人工衛星を用いたGPS(Global Positioning System)を利用し、さらに方向探知機用方位指示器を付加した新写真システムAPS対応カメラで撮影すると、撮影した緯度、経度および高度さらには、水平面および垂直面に関する撮影方位角が記録される他、撮影時の撮影倍率も記録することができる。
この記録された情報は、スキャナ12のキャリア30に設けられている磁気読取書込装置31で読み込まれ、スキャナ12から画像データと別の経路で、被写体情報として被写体情報選択手段62aへ送られる。この被写体情報は、撮影位置からなる第1のデータ構成、撮影位置と撮影方位からなる第2のデータ構成、撮影位置と撮影倍率からなる第3のデータ構成、および撮影位置と撮影方位と撮影倍率からなる第4のデータ構成等のいずれか一つの構成のデータよりなり、被写体情報選択手段62aは撮影画像に関連づけられる被写体情報を取得する。
As a method for specifying the subject, in the case of the new photographic system APS, a magnetic recording layer is formed on the film F corresponding to the new photographic system APS, and photographing information can be recorded. When taking a picture with a new APS compatible camera using the Positioning System and adding a direction indicator for a direction finder, the taken latitude, longitude and altitude, as well as the shooting azimuth for the horizontal and vertical planes are recorded. In addition, the shooting magnification at the time of shooting can also be recorded.
The recorded information is read by a magnetic reading / writing device 31 provided on the carrier 30 of the scanner 12, and sent from the scanner 12 to the subject information selection means 62a as subject information through a different route from the image data. The subject information includes a first data configuration including a shooting position, a second data configuration including a shooting position and a shooting direction, a third data configuration including a shooting position and a shooting magnification, and a shooting position, a shooting direction, and a shooting magnification. The subject information selection unit 62a acquires subject information associated with a captured image.

被写体情報選択手段62aは、取得した被写体情報である撮影位置、撮影方位、および撮影倍率などからなる第1〜第4のデータ構成のいずれか1つの構成のデータを用いて、データベース62b内の地図情報を参照して、撮影された画像の被写体や撮影地点を特定する。   The subject information selection means 62a uses the data in any one of the first to fourth data configurations, which are the acquired subject information, including the shooting position, shooting direction, shooting magnification, and the like, in the map 62b in the database 62b. With reference to the information, the subject and shooting point of the shot image are specified.

GPSを利用して得られる、経度、緯度および高度の位置に関する測位精度は100m以内であり実用上問題はなく、方位角についても方向探知機用方位指示器を用いることで方位を精度よく測定できる。   The positioning accuracy for the position of longitude, latitude, and altitude obtained using GPS is within 100 m, and there is no practical problem. With regard to the azimuth angle, the azimuth can be accurately measured by using the direction indicator for the direction detector. .

このようにして、被写体情報選択手段62aは、撮影被写体や撮影地点を地図情報上の対象物として特定することができる。
なお、撮影地点としては、撮影画像内の被写体の位置、すなわち撮影された地点(位置)のみならず、撮影者またはカメラの位置などの撮影する位置、すなわち撮影位置を含めてもよい。撮影位置に関する情報は、動画撮影において、撮影された動画のコマに基づいて、被写体の中間位置にあたる移動状態を推定して、CG画像を作成しようとしたとき等に利用できる。
In this way, the subject information selection unit 62a can specify the subject to be photographed and the photographing point as an object on the map information.
The shooting point may include not only the position of the subject in the shot image, that is, the shooting point (position), but also a shooting position such as the position of the photographer or the camera, that is, the shooting position. Information relating to the shooting position can be used in moving image shooting, for example, when a moving state corresponding to an intermediate position of a subject is estimated based on the frame of the shot moving image and an attempt is made to create a CG image.

また、被写体情報選択手段62aが、撮影された画像の被写体を特定する方法はこれに限定されず、ICタグなどの無線通信(例えば、特開2002−305714号公報参照)を利用することにより、スロット44を介して被写体情報を取得し、画像被写体を特定してもよい。   In addition, the method by which the subject information selection unit 62a identifies the subject of the photographed image is not limited to this, and by using wireless communication such as an IC tag (see, for example, JP-A-2002-305714), Subject information may be acquired via the slot 44 to specify an image subject.

条件設定部48は、被写体同定手段48a、CG画像作成手段48b、および画像合成手段48cから構成され、被写体同定手段48aにおいて撮影被写体を同定し、CG画像作成手段48bによりCG画像を作成し、撮影画像に補正を行なったCG画像を合成する。合成画像はプリンタ16やディスプレイ20などの出力装置に送られ、プリンタ16で印刷されたり、ディスプレイ20に表示されたりする。
なお、合成前のCG画像についてはユーザの要求に応じた様々な補正を施すことができる。そのような補正としては、撮影画像の欠陥部分の補正や撮影画像の濃度・色味の修正や撮影エリアに応じた輝度の調整、撮影画像に比して擬似的に高解像としたり、視野を拡大したりする補正、または撮影画像内の特定被写体を強調する補正がある。
The condition setting unit 48 includes a subject identification unit 48a, a CG image creation unit 48b, and an image synthesis unit 48c. The subject identification unit 48a identifies a photographed subject, creates a CG image using the CG image creation unit 48b, and captures the image. The corrected CG image is synthesized with the image. The composite image is sent to an output device such as the printer 16 or the display 20 and is printed by the printer 16 or displayed on the display 20.
Note that various corrections can be applied to the CG image before synthesis in accordance with the user's request. Such corrections include correction of defective portions of the captured image, correction of the density and color of the captured image, adjustment of the luminance according to the captured area, pseudo-high resolution compared to the captured image, Correction for enlarging the image, or correction for emphasizing a specific subject in the captured image.

被写体同定手段48aは、プレスキャン画像処理部44で処理された撮影画像と、被写体情報選択手段62aで特定される撮影被写体とを取得し照合することで、撮影された画像内の被写体を同定する。
被写体同定手段48aは、プレスキャン画像処理部44内のプレスキャン画像処理部50からプレスキャンデータを受け取り、被写体情報選択手段62aから被写体同定に用いるための情報および被写体の位置情報などの被写体情報を取得する。例えば、人物である被写体の同定に用いられる情報として、被写体人物の顔画像が好適に例示され、この場合被写体同定手段48aはプレスキャンデータから画像中の被写体人物の顔画像を抽出する。
このとき被写体人物の被写体情報は顔画像データを含んでおり、被写体同定手段48aは、この抽出された顔画像と被写体情報中の顔画像とをパターンマッチングして人物同定を行う。
The subject identifying unit 48a identifies the subject in the photographed image by acquiring and collating the photographed image processed by the pre-scan image processing unit 44 with the photographed subject specified by the subject information selecting unit 62a. .
The subject identification unit 48a receives prescan data from the prescan image processing unit 50 in the prescan image processing unit 44, and uses subject information such as information for subject identification and subject position information from the subject information selection unit 62a. get. For example, a face image of a subject person is preferably exemplified as information used for identifying a subject that is a person. In this case, the subject identification unit 48a extracts the face image of the subject person in the image from the prescan data.
At this time, the subject information of the subject person includes face image data, and the subject identifying unit 48a performs person identification by pattern matching the extracted face image and the face image in the subject information.

CG画像作成手段48bにおいて、被写体同定手段48aを介して得られる被写体情報や特定被写体の3次元構造データに基づいて、シミュレーション画像としてCG画像が作成され、ユーザの指示に従って、このCG画像に所定の補正が施される。
建物などの構造物に関する3次元構造データは、例えばヘリコプターからのレーザ計測と、HD(High Definition)カメラ及び高精細カメラによる空中撮影により獲得される。3次元構造データとしては、レーザ計測によって獲得される、ある一定の領域の高さ情報を示すDEM(Digital Elevation Map)や、高精細カメラによる空中撮影において獲得される、建物の航空写真などがある。
このような3次元構造物データはデータベース62bに記憶され、CG画像作成手段48bは、被写体情報選択手段62aを介してデータベース62bから特定被写体の3次元構造物データを取得し、3次元構造物データに基づいて、公知のCG画像作成技術により特定被写体のCG画像を作成する。このようなCG画像として作成されるものとしては、自然の構造物、人工的構造物、人体などがある。
In the CG image creation means 48b, a CG image is created as a simulation image based on the subject information obtained through the subject identification means 48a and the three-dimensional structure data of the specific subject, and a predetermined CG image is added to the CG image according to a user instruction. Correction is applied.
The three-dimensional structure data relating to a structure such as a building is acquired by, for example, laser measurement from a helicopter and aerial photography using an HD (High Definition) camera and a high-definition camera. The three-dimensional structure data includes DEM (Digital Elevation Map) indicating the height information of a certain area acquired by laser measurement, and aerial photographs of buildings acquired by aerial photography with a high-definition camera. .
Such three-dimensional structure data is stored in the database 62b, and the CG image creation means 48b acquires the three-dimensional structure data of the specific subject from the database 62b via the subject information selection means 62a, and obtains the three-dimensional structure data. Based on the above, a CG image of a specific subject is created by a known CG image creation technique. Examples of such a CG image created include natural structures, artificial structures, and human bodies.

また、物品に関する3次元構造データについては、物品に付属するICタグなどの記憶媒体に3次元構造データを記憶し、そこから3次元構造データを取得することができる。
また、CG画像を作成するために利用されるデータは、3次元構造データに限定されず、2次元画像データであってもよい。このようなデータから得られるCG画像としては雲や水面、樹木などが挙げられる。
As for the three-dimensional structure data related to the article, the three-dimensional structure data can be obtained from the three-dimensional structure data stored in a storage medium such as an IC tag attached to the article.
Further, the data used for creating the CG image is not limited to the three-dimensional structure data, and may be two-dimensional image data. Examples of CG images obtained from such data include clouds, water surfaces, and trees.

図3は画像合成手段の概略構成を示すブロック図であり、撮影画像データにCG画像データを合成して、合成画像を生成する処理を示す。
画像合成手段48cは、平滑化フィルタと、高周波成分処理手段と、低周波成分処理手段とから構成され、被写体同定手段48aから得られる撮影画像データと、CG画像作成手段48bから得られるCG画像データとを加算し、合成画像を出力装置16,20に送る。
FIG. 3 is a block diagram showing a schematic configuration of the image synthesizing means, and shows processing for synthesizing CG image data with captured image data to generate a synthesized image.
The image synthesizing unit 48c includes a smoothing filter, a high-frequency component processing unit, and a low-frequency component processing unit. The captured image data obtained from the subject identifying unit 48a and the CG image data obtained from the CG image creating unit 48b. And the combined image is sent to the output devices 16 and 20.

画像合成手段48cでは、被写体同定手段48aから得られる撮影画像は分岐し、一方の撮影画像を平滑化フィルタ49aに通すことで撮影画像の低周波成分が得られ、他方の撮影画像から低周波成分を除去することで高周波成分が得られる。
このように撮影画像は画像低周波成分と画像高周波成分に分離されて、画像低周波処理手段51bと画像高周波処理手段51aに送られ、以下に説明する補正処理が行なわれる。
一方、CG画像作成手段48bから得られるCG画像も同様に分岐し、一方のCG画像を平滑化フィルタ49bに通すことで低周波成分が得られ、他方のCG画像から低周波成分を除去することで高周波成分が得られ、CG画像は画像低周波成分と画像高周波成分に分離されて、画像低周波処理手段51bと画像高周波処理手段51aに送られ、以下に説明する補正処理が行なわれる。
また、CG画像作成手段48bから得られる情報として、CG画像以外にエリア情報があり、エリア情報は補正処理を行なうエリア(影エリアや高輝度エリア)を特定するための情報であり、高周波成分処理手段51a、および低周波処理手段51bに送られる。
In the image synthesizing unit 48c, the captured image obtained from the subject identifying unit 48a is branched, and the low frequency component of the captured image is obtained by passing one captured image through the smoothing filter 49a, and the low frequency component is obtained from the other captured image. A high frequency component can be obtained by removing.
In this way, the captured image is separated into the image low frequency component and the image high frequency component and sent to the image low frequency processing means 51b and the image high frequency processing means 51a, and the correction processing described below is performed.
On the other hand, the CG image obtained from the CG image creating means 48b is also branched in the same manner, and a low frequency component is obtained by passing one CG image through the smoothing filter 49b, and a low frequency component is removed from the other CG image. A high frequency component is obtained, and the CG image is separated into an image low frequency component and an image high frequency component and sent to the image low frequency processing means 51b and the image high frequency processing means 51a, and correction processing described below is performed.
Further, as information obtained from the CG image creation means 48b, there is area information other than the CG image, and the area information is information for specifying an area (a shadow area or a high luminance area) to be corrected, and a high frequency component process It is sent to the means 51a and the low frequency processing means 51b.

低周波成分処理手段は51b、撮影画像の低周波成分と、影エリアまたは高輝度エリアなどのエリア情報とを取得し、所定の画像エリアの低周波成分に対して所定の補正を行なう一方で、画像高周波成分処理手段51aは、撮影画像の高周波成分に関する情報を取得し、所定の画像エリアの高周波成分に対して所定の補正を行ない、両画像成分を合成することで、撮影画像に対してユーザが所望する補正を施した合成画像を生成する。合成画像はプリンタ16やディスプレイ20などの画像出力手段により出力画像として出力される。   The low frequency component processing means 51b acquires the low frequency component of the captured image and area information such as a shadow area or a high luminance area, and performs a predetermined correction on the low frequency component of the predetermined image area, The image high-frequency component processing means 51a acquires information on the high-frequency component of the photographed image, performs a predetermined correction on the high-frequency component in a predetermined image area, and synthesizes both image components so that the user can Generates a composite image with the desired correction. The composite image is output as an output image by image output means such as the printer 16 or the display 20.

図4(a)に示すように撮影画像の影エリア41の濃度が濃く、図4(b)に示すようなCG画像のような階調濃度の影エリア41の合成画像が所望される場合を例に挙げると、低周波成分処理手段51bで、画像エリア情報から補正すべきエリア(影エリア)を判定し、そのエリアに対して撮影画像の低周波成分の濃度階調をCG画像の低周波成分に合わせる補正を行い、高周波成分処理手段では高周波成分に補正を行なわずに、両画像成分を加算することにより、ユーザが所望する合成画像を生成することができる。
また、高周波成分処理部で、画像エリア情報から補正すべきエリア(例えば、撮影画像とCG画像との高周波成分の比率に所定値以上の差があるエリア)を判定し、撮影画像の高周波成分の振幅をCG画像の高周波成分に合わせる補正を行ない、低周波成分処理手段では低周波成分に対して補正を行わずに、画像成分を加算すると、階調濃度以外にも鮮鋭度を補正することもできる。
なお、合成画像は、撮影画像の影エリアまたは高輝度エリアだけの補正に限られず、両エリアを同時に補正することもでき、撮影画像にさまざまな補正を施した合成画像を生成することができる。
As shown in FIG. 4A, the density of the shadow area 41 of the photographed image is high, and a composite image of the shadow area 41 having the gradation density like the CG image as shown in FIG. 4B is desired. For example, the low frequency component processing means 51b determines an area (shadow area) to be corrected from the image area information, and the density gradation of the low frequency component of the photographed image is determined for the area. The composite image desired by the user can be generated by performing correction according to the components and adding both image components without correcting the high frequency components by the high frequency component processing means.
Further, the high frequency component processing unit determines an area to be corrected from the image area information (for example, an area where the ratio of the high frequency component between the captured image and the CG image has a difference of a predetermined value or more), and the high frequency component of the captured image is determined. If the amplitude is adjusted to the high frequency component of the CG image, and the low frequency component processing means does not correct the low frequency component but adds the image component, the sharpness can be corrected in addition to the gradation density. it can.
Note that the composite image is not limited to the correction of only the shadow area or the high-luminance area of the captured image, and both areas can be corrected simultaneously, and a composite image in which various corrections are performed on the captured image can be generated.

上記実施形態では画像エリア情報を抽出し、画像エリアに応じてCG画像を作成したが、平均的な光線状況を考慮してCG画像を作成してもよい。平均的な光線状況とは、季節、時間帯、または天候などの撮影条件によって異なる光の具合をいい、撮影情報を参照して、データベースから撮影条件に関する情報を取得し、その撮影条件に関する情報に基づいてCG画像を作成する。
このようにして生成されたCG画像の色味に合うように、撮影画像を補正して合成画像を生成することにより、撮影画像にユーザが所望する補正を施した合成画像を生成することができる。
例えば、撮影した画像が旅先で撮影したものであり、そのときの天候が雨であった場合には、その撮影場所における晴れの背景をCG画像で作成し、そのCG画像の背景に合わせて撮影画像を補正することができる。このようなCG画像は、データベース62bやスロット44を介して取得される2次元データに基づいて、CG画像作成手段48bが生成する。
In the above embodiment, image area information is extracted and a CG image is generated according to the image area. However, a CG image may be generated in consideration of an average light beam state. The average light condition refers to the condition of light that varies depending on the shooting conditions such as season, time of day, or weather, and refers to the shooting information, obtains information on shooting conditions from the database, and includes information on the shooting conditions. Based on this, a CG image is created.
By correcting the captured image to generate a composite image so as to match the color of the CG image generated in this way, a composite image in which the user has made corrections desired can be generated. .
For example, if the photographed image was taken on a trip and the weather at that time was raining, a clear background at the photographing location was created as a CG image and photographed according to the background of the CG image. The image can be corrected. Such a CG image is generated by the CG image creating means 48b based on the two-dimensional data acquired via the database 62b or the slot 44.

また、撮影画像より高解像度な所定の解像度でCG画像を作成し、さらにCG画像の濃度や色味を撮影画像に合うように補正してもよい。こうすることにより、より高解像度で、濃度や色味の調和のとれるように撮影画像を補正することができる。
また、撮影画像を公知の手法により任意の比率で拡大し、同様な比率のCG画像を参照して補正を施した合成画像を生成してもよい。
さらに、撮影画像とCG画像を合成する際に、下記式(1)に示すように撮影画像の画素値AとCG画像の画素値Bとを用いて、合成画像の画素値Cを合成してもよい。また、重み付け係数Kは、拡大率が大きい程、大きくなるように制御することが好ましい。
Alternatively, a CG image may be created with a predetermined resolution higher than that of the captured image, and the density and color of the CG image may be corrected to match the captured image. By doing so, it is possible to correct the captured image so that the density and the color can be harmonized with higher resolution.
Alternatively, the captured image may be enlarged by a known method at an arbitrary ratio, and a composite image corrected by referring to a CG image having a similar ratio may be generated.
Further, when the captured image and the CG image are combined, the pixel value C of the combined image is combined using the pixel value A of the captured image and the pixel value B of the CG image as shown in the following formula (1). Also good. Further, it is preferable that the weighting coefficient K is controlled so as to increase as the enlargement ratio increases.

(数1)
C = A×(1−K) + B×K・・・(1)
K:重み付け係数
K=0.0〜1.0
(Equation 1)
C = A × (1-K) + B × K (1)
K: Weighting coefficient K = 0.0 to 1.0

一般に撮影画像を拡大すると画像がぼやけてしまうが、上述のような構成をとることにより、撮影画像の拡大比率が大きくなるに連れて、合成画像に占めるCGの比率が徐々に大きくなり、従来に比して鮮明かつ細密な拡大画像を作成することができる。   In general, when a captured image is enlarged, the image becomes blurred. However, with the above-described configuration, as the magnification ratio of the captured image increases, the ratio of CG in the composite image gradually increases. Compared with this, it is possible to create a clearer and more detailed enlarged image.

また、撮影画像の背景部と主要被写体のCG画像を個別に作成してもよい。すなわち、複数の主要被写体が撮影画像内に存在し、特定の被写体を強調したい場合には、その特定の被写体だけを近距離で撮影したCG画像を作成する。
例えば、サムネール画像のように撮影画像を縮小した場合、主要被写体も縮小されるが、主要被写体の縮小率を抑え、サイズ強調を行なうことで、従来に比して画像の内容が把握し易くなる。また、撮影画像において背景の山が印象よりも小さく感じる場合には、背景の山を拡大することができる。
このように撮影画像の背景部と主要被写体のCG画像を個別に作成することにより、サイズに限らず鮮鋭度やコントラストを個別に強調することができる。
Further, the background portion of the photographed image and the CG image of the main subject may be created separately. That is, when there are a plurality of main subjects in the captured image and it is desired to emphasize a specific subject, a CG image is created in which only the specific subject is captured at a short distance.
For example, when the captured image is reduced like a thumbnail image, the main subject is also reduced. However, by reducing the reduction rate of the main subject and performing size enhancement, it becomes easier to grasp the contents of the image than in the past. . Also, if the background image feels smaller than the impression in the captured image, the background image can be enlarged.
Thus, by separately creating the background portion of the captured image and the CG image of the main subject, it is possible to individually enhance sharpness and contrast, not limited to size.

また、撮影画像の主要被写体を中心に、視野を拡大したCG画像を作成してもよい。撮影画像には撮影されていない周囲の背景をCG画像で作成し、撮影画像の濃度や色味に合うように補正し、撮影画像と合成することで主要被写体を中心として背景全体を把握することができる。   Also, a CG image with an enlarged field of view may be created around the main subject of the captured image. Create a CG image of the surrounding background that is not photographed in the photographed image, correct it to match the density and color of the photographed image, and combine it with the photographed image to grasp the entire background centered on the main subject. Can do.

さらに、撮影画像中に他人や不要物が撮影されていた場合には、撮影画像の背景部分をCG画像で作成してもよい。CG画像と撮影画像の共通部分での違いに基づいて、撮影画像と比較したCG画像のカメラの露出、ぼけ具合、階調濃度、または色味などの差分を検出し、その差分に応じてCG画像を補正することができる。
他人や不要物など障害を除去したCG画像を用いて撮影画像に合成することにより、撮影画像との差分に応じた補正がCG画像に対して行なわれるため、CG画像と撮影画像とのつながりをよくすることができる。
Furthermore, when other people or unnecessary objects are photographed in the photographed image, the background portion of the photographed image may be created as a CG image. Based on the difference in the common part between the CG image and the photographed image, a difference in the camera exposure, blur condition, gradation density or color of the CG image compared with the photographed image is detected, and the CG is detected according to the difference. The image can be corrected.
By combining the CG image with a captured image using a CG image from which obstacles such as other people and unnecessary objects are removed, correction according to the difference from the captured image is performed on the CG image. Can do well.

図5は動画撮影における画像処理を説明するための図であり、移動する被写体をユーザが撮影した様子を示す。
実線はユーザが撮影した撮影画像のコマ(フレーム)に対応する位置での被写体を表し、点線は撮影画像のコマとコマの間であって、挿入するコマに対応する位置での被写体を表す。また、一点鎖線は被写体の移動経路を表す。
被写体の移動経路、速度、向きは、被写体付属のナビゲータ装置やセンサ類を用いた公知の技術により推定することができる。
なお、被写体の移動経路などを推定するには、ユーザのカメラ位置を認識することが必要であるが、ユーザのカメラ位置は、被写体情報に含まれるGPSやその他の情報から取得することができる。
FIG. 5 is a diagram for explaining image processing in moving image shooting, and shows a state where a user has shot a moving subject.
The solid line represents the subject at a position corresponding to the frame (frame) of the photographed image taken by the user, and the dotted line represents the subject at the position corresponding to the frame to be inserted between the frames of the photographed image. The alternate long and short dash line represents the movement path of the subject.
The moving path, speed, and direction of the subject can be estimated by a known technique using a navigator device or sensors attached to the subject.
In order to estimate the moving path of the subject, it is necessary to recognize the user's camera position, but the user's camera position can be obtained from GPS or other information included in the subject information.

本実施形態では、動画における撮影画像のコマ間の中間タイミングの画像をCG画像で作成するため、中間タイミングの被写体の状態を公知の技術を用いて推定し、CG画像を作成し、中間タイミングの画像としてコマ間に挿入する。
例えば、ユーザが1秒間に30コマの画像で構成される動画を撮影した場合には、コマとコマの間に1画像ずつCG画像で作成した画像を挿入して動画を生成することで、1秒間に60コマの画像を含む動画に編集することができる。
In this embodiment, since an intermediate timing image between frames of a captured image in a moving image is created as a CG image, the state of a subject at an intermediate timing is estimated using a known technique, a CG image is created, and an intermediate timing image is created. Insert between images as an image.
For example, when a user shoots a moving image composed of 30 frames per second, a moving image is generated by inserting an image created with CG images one by one between the frames. The video can be edited to include 60 frames per second.

また、動画撮影において被写体の動作が所定の速度を超えると、流れた映像が映し出される。このような流れた映像に対応する部分の被写体をCG画像で作成し、そのCG画像を流れた映像に対応する部分の画像に合成することにより、流れのないスムーズな映像が映し出される。
このように流れた映像に対応する部分に、CG画像で作成した被写体の画像を合成することは、静止画において適用すれば、手ぶれ補正として機能する。
また、逆にCG画像で流れた画像を作成して、撮影画像に合成することで、映像にスピード感を与えてもよい。
In addition, when the motion of the subject exceeds a predetermined speed in moving image shooting, the flowed image is displayed. A portion of the subject corresponding to the flowed video is created as a CG image, and the CG image is combined with the portion of the image corresponding to the flowed video, thereby displaying a smooth video with no flow.
Combining the image of the subject created with the CG image with the portion corresponding to the video that has flowed in this way functions as camera shake correction when applied to a still image.
Conversely, an image that flows as a CG image may be created and combined with a captured image to give a sense of speed to the video.

他の実施例
図6において、ネットワーク96を通じて、サーバ(ホームサーバ)92と接続されている。また、ホームサーバ92はデータベース94を有する。本実施形態では、データベース94はホームサーバ92と別体として示すが、ホームサーバと92一体であってもよい。
ユーザの所有するカメラ90にネットワーク96を介して接続されるDB管理業者が、ユーザに対して撮影依頼情報として様々なデータを提供する。DB管理業者が提供する撮影依頼情報としては、特定被写体の位置、方向、倍率や撮影画像の予測見本などがある。
例えば、図7に示す地図データ中のXから撮影した山の画像を、ユーザに撮影依頼する場合には、DB管理業者はユーザに図8に示すような撮影画像の予測見本となるサンプル画像を送信する。
DB管理業者のデータベース94には、複数の特定被写体データが登録されている。例えば、特定被写体が山である場合には、特定被写体データは、複数の方向から撮影された山のデータである。また、登録されているデータは、方向別の特定被写体データに限らず、季節、時間帯、撮影距離、解像度、または天候などの条件別の特定被写体データであってもよい。
Other Embodiments In FIG. 6, a server (home server) 92 is connected through a network 96. The home server 92 has a database 94. In the present embodiment, the database 94 is shown as a separate body from the home server 92, but may be integrated with the home server 92.
A DB manager connected to the camera 90 owned by the user via the network 96 provides the user with various data as photographing request information. The shooting request information provided by the DB manager includes the position, direction, magnification, and sampled image prediction sample of a specific subject.
For example, when requesting the user to take an image of a mountain imaged from X in the map data shown in FIG. 7, the DB manager provides the user with a sample image that is a predicted sample image as shown in FIG. Send.
A plurality of specific subject data is registered in the database manager database 94. For example, when the specific subject is a mountain, the specific subject data is mountain data taken from a plurality of directions. The registered data is not limited to specific subject data by direction, but may be specific subject data by conditions such as season, time zone, shooting distance, resolution, or weather.

このような特定被写体データを取得する方法は特に限定されないが、例えば、登録制の一定の会員ユーザを募り、その会員ユーザにデータ取得の依頼を行い、特定被写体データを業者に対して送信してもらい、業者は特定被写体データを登録することができる。なお、このような場合には、特定被写体データとして登録されるデータを送信した会員にはプリント料や会費割引など何らかの利益を提供してもよい。
また、特定被写体データのアクセスが高い特定被写体データを人気の撮影スポットとみなして、画像マップに表示したり、会員ユーザなどに公開したりすることができる。
The method for acquiring such specific subject data is not particularly limited, but for example, recruiting a certain member user of the registration system, requesting the member user to acquire data, and transmitting the specific subject data to the supplier The trader can register the specific subject data. In such a case, the member who transmitted the data registered as the specific subject data may be provided with some benefit such as a print fee or a membership fee discount.
Also, specific subject data with high access to specific subject data can be regarded as a popular shooting spot and displayed on an image map or disclosed to member users.

また、特定被写体データを取得する際に、特定被写体データがデータベース94上に登録されていない場合には、会員ユーザに依頼して特定被写体データを送信させることもできる。
データベース管理業者は、画像データベース94の内容を充実することができ、CG画像を作成する際に最新の特定被写体データに基づいてCG画像を作成することができる。
また、会員ユーザには撮影に関して娯楽性がアップするとともに、利益も還元することができる。
In addition, when acquiring the specific subject data, if the specific subject data is not registered in the database 94, the specific subject data can be transmitted by requesting a member user.
The database manager can enrich the contents of the image database 94 and can create a CG image based on the latest specific subject data when creating the CG image.
In addition, the member user can be more entertaining with respect to shooting and can also return profits.

ネットワーク96を利用した他の実施形態を説明する。このような実施形態では、カメラ90はホームサーバ92と常時接続されており、リアルタイムで通信することができる。
カメラ90は、ネットワーク96を介して、認識した画像データと被写体情報(位置、方位、倍率データなど)をホームサーバ92に送信する。なお、カメラ90は、低解像度化した画像データや、画像特徴量(濃度ヒストグラウムなど)を送信してもよい。
送信された画像データと被写体情報を受信したホームサーバ92は、カメラ90で認識された被写体のCG画像が作成できるか否かを判定し、判定結果をカメラ90に対して送信する。
Another embodiment using the network 96 will be described. In such an embodiment, the camera 90 is always connected to the home server 92 and can communicate in real time.
The camera 90 transmits the recognized image data and subject information (position, orientation, magnification data, etc.) to the home server 92 via the network 96. Note that the camera 90 may transmit image data with reduced resolution and image feature amounts (such as density histogram).
The home server 92 that has received the transmitted image data and subject information determines whether a CG image of the subject recognized by the camera 90 can be created, and transmits the determination result to the camera 90.

判定結果を受信したカメラ90は、ホームサーバ92がCG画像を作成することができると判定した場合には、そのままオートで撮影を実行する。
一方、ホームサーバがCG画像を作成することができないと判定した場合には、カメラ90は、多重撮影モード、またはマニュアル撮影モードに設定するようにメッセージをカメラ90の表示画面に表示し、ユーザに促す。
When the home server 92 determines that the home server 92 can create a CG image, the camera 90 that has received the determination result automatically performs shooting.
On the other hand, when the home server determines that the CG image cannot be created, the camera 90 displays a message on the display screen of the camera 90 so as to set the multiple shooting mode or the manual shooting mode to the user. Prompt.

さらに、画像データに応じて、お勧めモードを判定し、カメラ90の表示画面に表示してもよい。このような例としては、ヒストグラムの分布が低輝度側、または高輝度側に偏っていることや、濃度域が広いことを挙げることができ、オートでは白飛びや低輝度エリアにおいて黒つぶれの虞がある場合に、また多重露出撮影を薦めることや、マニュアルにおいて露出をアップまたはダウンさせることを挙げることもできる。   Furthermore, the recommended mode may be determined according to the image data and displayed on the display screen of the camera 90. Examples of this include the fact that the histogram distribution is biased toward the low or high luminance side and that the density range is wide. With auto, there is a risk of overexposure or blackout in low luminance areas. If there is, you can also recommend multiple exposure shooting or increase or decrease the exposure in the manual.

また、ホームサーバ92から判定結果を受信したカメラ90は、ホームサーバ92がCG画像を作成することができると判定した場合には、目的シーンを通常撮影、主要被写体にズーム、主要被写体にピントで撮影し、ホームサーバ92に撮影データを送信してもよい。
撮影データを受信したホームサーバ92は、所定の設定にしたがってCG画像を作成し、高解像度化、広角画像化、被写体別にピントを調節するなどの処理を撮影データに施す。
一方、ホームサーバ92がCG画像を作成することができないと判定した場合には、カメラ90は、分割撮影、多重ズーム撮影、多重フォーカスなどの特殊撮影モードに設定するようにメッセージをカメラ90の表示画面に表示し、ユーザに促してもよい。
When the camera 90 that has received the determination result from the home server 92 determines that the home server 92 can create a CG image, the camera 90 captures the target scene normally, zooms to the main subject, and focuses on the main subject. It is also possible to take a picture and send the photography data to the home server 92.
The home server 92 that has received the photographic data creates a CG image according to a predetermined setting, and performs processing such as high resolution, wide-angle image adjustment, and focusing for each subject on the photographic data.
On the other hand, if the home server 92 determines that a CG image cannot be created, the camera 90 displays a message to the camera 90 so as to set a special shooting mode such as divided shooting, multiple zoom shooting, or multiple focus. It may be displayed on the screen to prompt the user.

また、ホームサーバ92から判定結果を受信したカメラ90は、ホームサーバ92がCG画像を作成することができると判定した場合には、上述のように撮影を行なうとともに撮影時の圧縮率を高めに制御して撮影データを記録してもよい。
圧縮率が高いと通常では画質が劣化するが、上述した画像処理によって高解像度画像を作成することができる。
In addition, when the camera 90 that has received the determination result from the home server 92 determines that the home server 92 can create a CG image, it performs shooting as described above and increases the compression ratio at the time of shooting. The photographing data may be recorded under control.
If the compression rate is high, the image quality usually deteriorates, but a high-resolution image can be created by the image processing described above.

また、上述の実施形態では、ホームサーバ92によるCG画像の作成の可否は、カメラ90で認識された被写体に対して判定されたが、必ずしもこれに限定されず、被写体別に判定してもよい。
そうすることにより、ホームサーバ92がCG画像を作成することができると判定した場合における記録する撮影データを、エリア別に圧縮率を制御して記録することができる。したがって、エリア別に圧縮率を制御しないで撮影データを記憶する場合に比べて記憶するデータ量を低減することができる。
In the above-described embodiment, whether or not the home server 92 can create a CG image is determined for a subject recognized by the camera 90. However, the present invention is not limited to this, and may be determined for each subject.
By doing so, shooting data to be recorded when the home server 92 determines that a CG image can be created can be recorded by controlling the compression rate for each area. Therefore, it is possible to reduce the amount of data to be stored as compared with the case where shooting data is stored without controlling the compression rate for each area.

また、動画撮影において、カメラ90は映像データをホームサーバ92に送信し、ホームサーバ92は映像データから動画のコマ(フレーム)をCG画像で再現することができるか否かを判定し、判定結果をカメラ90に送信する。
ホームサーバ92が動画のコマをCG画像で再現することができると判定した場合には、カメラ90は通常撮影時に比して単位時間当たりのフレーム数を削減してフレームを記録する。なお、削除されたフレームはホームサーバ92によってCG画像として再現できるため、動画のコマ落ちするおそれはない。
そうすることにより、カメラ90に記録されるデータ量を通常時と比べて減少させることができる。
Further, in moving image shooting, the camera 90 transmits video data to the home server 92, and the home server 92 determines whether or not a moving image frame (frame) can be reproduced as a CG image from the video data. Is transmitted to the camera 90.
When the home server 92 determines that a moving image frame can be reproduced as a CG image, the camera 90 records frames by reducing the number of frames per unit time as compared to normal shooting. Since the deleted frame can be reproduced as a CG image by the home server 92, there is no possibility of dropping frames of the moving image.
By doing so, the amount of data recorded in the camera 90 can be reduced as compared to the normal time.

以上、本発明に係る画像処理システムについて詳細に説明したが、本発明は、以上の実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において、各種の改良や変更を行ってもよい。   As described above, the image processing system according to the present invention has been described in detail. However, the present invention is not limited to the above embodiment, and various improvements and modifications are made without departing from the gist of the present invention. Also good.

デジタルフォトプリントの概略を示すブロック図である。It is a block diagram which shows the outline of a digital photo print. 画像処理装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of an image processing apparatus. 画像合成手段の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of an image synthetic | combination means. 撮影画像データにCG画像データを合成して、合成画像を生成する処理を説明するための図である。It is a figure for demonstrating the process which synthesize | combines CG image data with picked-up image data, and produces | generates a synthesized image. 動画撮影における画像処理を説明するための図である。It is a figure for demonstrating the image process in video recording. ネットワークを利用した一実施形態の概略構成を示す図である。It is a figure which shows schematic structure of one Embodiment using a network. 地図データの一例を示す図である。It is a figure which shows an example of map data. サンプル画像の一例を示す図である。It is a figure which shows an example of a sample image.

符号の説明Explanation of symbols

10 デジタルフォトプリンタ
12 スキャナ
14 画像処理装置
16 プリンタ
18a キーボード
18b マウス
20 ディスプレイ
22 光源
28 拡散ボックス
29a スリット
30 キャリア
31 磁気読取書込装置
32 結像レンズユニット
38 データ処理部
40 プレスキャンメモリ
42 本スキャンメモリ
44 プレスキャン画像処理部
46 本スキャン画像処理部
56 条件設定部
62 被写体情報取得手段
DESCRIPTION OF SYMBOLS 10 Digital photo printer 12 Scanner 14 Image processing apparatus 16 Printer 18a Keyboard 18b Mouse 20 Display 22 Light source 28 Diffusion box 29a Slit 30 Carrier 31 Magnetic reading / writing apparatus 32 Imaging lens unit 38 Data processing part 40 Prescan memory 42 Main scan memory 44 Pre-scan image processing unit 46 Main scan image processing unit 56 Condition setting unit 62 Subject information acquisition means

Claims (11)

複数の撮影画像のコマからなる動画における画像処理システムであって、
被写体を撮影した撮影画像とともに、前記撮影画像に関する撮影情報を取得する取得手段と、
前記撮影情報を用いて、前記撮影画像内の被写体を特定し同定する同定手段と、
前記被写体の3次元構造データを記憶しているデータベースと、
前記同定手段により同定した被写体の3次元構造データを前記データベースから読み出す読み出し手段と、
読み出した前記被写体の3次元構造データに基づいて、同定した前記被写体のシミュレーション画像を生成する画像作成手段と、
前記シミュレーション画像と前記撮影画像を用いて動画を編集する編集手段とを備えることを特徴とする画像処理システム。
An image processing system for moving images consisting of a plurality of shot images,
An acquisition means for acquiring shooting information related to the shot image together with a shot image obtained by shooting the subject;
Identifying means for identifying and identifying a subject in the photographed image using the photographing information;
A database storing the three-dimensional structure data of the subject;
Reading means for reading out the three-dimensional structure data of the subject identified by the identification means from the database;
Image generating means for generating a simulation image of the identified subject based on the read three-dimensional structure data of the subject;
An image processing system, comprising: an editing unit that edits a moving image using the simulation image and the captured image.
前記画像作成手段は、それぞれの撮影画像のコマとコマの間の撮影画像に対応する前記被写体のシミュレーション画像を作成し、
前記編集手段は、前記シミュレーション画像をコマとコマの間に前記撮影画像として挿入する請求項1に記載の画像処理システム。
The image creating means creates a simulation image of the subject corresponding to a shot image between frames of each shot image,
The image processing system according to claim 1, wherein the editing unit inserts the simulation image as a captured image between frames.
前記画像作成手段は、撮影されていない動画の前後の撮影画像に対応するシミュレーション画像を作成し、
前記編集手段は、前記シミュレーション画像を動画の前後に挿入する請求項1または2に記載の画像処理システム。
The image creating means creates simulation images corresponding to the captured images before and after the unmoved video,
The image processing system according to claim 1, wherein the editing unit inserts the simulation image before and after a moving image.
前記編集手段は、前記シミュレーション画像内の特定の被写体を補正し、補正した前記シミュレーション画像を前記撮影画像と置換して、動画を編集する請求項1に記載の画像処理システム。   The image processing system according to claim 1, wherein the editing unit corrects a specific subject in the simulation image, replaces the corrected simulation image with the captured image, and edits a moving image. 前記編集手段は、前記シミュレーション画像内の前記特定の被写体付近の背景を補正する請求項4に記載の画像処理システム。   The image processing system according to claim 4, wherein the editing unit corrects a background near the specific subject in the simulation image. 前記データベースは、通信手段を有し、通信手段を介して外部から提供された情報に基づいて、記憶されている被写体の3次元構造データを更新する請求項1〜5のいずれかに記載の画像処理システム。   The image according to claim 1, wherein the database includes a communication unit, and updates the stored three-dimensional structure data of the subject based on information provided from outside through the communication unit. Processing system. 複数の撮影画像のコマからなる動画における画像処理方法であって、
被写体を撮影した撮影画像とともに、前記撮影画像に関する撮影情報を取得する取得ステップと、
前記撮影情報を用いて、前記撮影画像内の被写体を特定し同定する同定ステップと、
同定した被写体の3次元構造データをデータベースから読み出す読出ステップと、
読み出した前記被写体の3次元構造データに基づいて、シミュレーション画像を生成する画像作成ステップと、
前記シミュレーション画像と前記撮影画像を用いて動画を編集する編集ステップとを有することを特徴とする画像処理方法。
An image processing method for a moving image composed of a plurality of shot images,
An acquisition step of acquiring shooting information related to the shot image together with a shot image obtained by shooting the subject;
An identifying step for identifying and identifying a subject in the captured image using the captured information;
A step of reading out the three-dimensional structure data of the identified subject from the database;
An image creating step for generating a simulation image based on the read three-dimensional structure data of the subject;
An image processing method comprising: an editing step of editing a moving image using the simulation image and the captured image.
前記画像作成ステップは、それぞれの撮影画像のコマとコマの間の撮影画像に対応する前記被写体のシミュレーション画像を作成し、
前記編集ステップは、前記シミュレーション画像をコマとコマの間に前記撮影画像として挿入する請求項7に記載の画像処理方法。
The image creation step creates a simulation image of the subject corresponding to the shot image between frames of each shot image,
The image processing method according to claim 7, wherein the editing step inserts the simulation image as the captured image between frames.
前記画像作成ステップは、撮影されていない動画の前後の撮影画像に対応するシミュレーション画像を作成し、
前記編集ステップは、前記シミュレーション画像を動画の前後に挿入する請求項7または8に記載の画像処理方法。
The image creation step creates a simulation image corresponding to the captured images before and after the unmoved video,
The image processing method according to claim 7, wherein the editing step inserts the simulation image before and after a moving image.
前記編集ステップは、前記シミュレーション画像内の特定の被写体を補正し、補正した前記シミュレーション画像を前記撮影画像と置換して、動画を編集する請求項7に記載の画像処理方法。   The image processing method according to claim 7, wherein the editing step corrects a specific subject in the simulation image, replaces the corrected simulation image with the captured image, and edits a moving image. 前記編集ステップは、前記シミュレーション画像内の前記特定の被写体付近の背景を補正する請求項10に記載の画像処理方法。   The image processing method according to claim 10, wherein the editing step corrects a background in the vicinity of the specific subject in the simulation image.
JP2007331708A 2007-12-25 2007-12-25 Image processing system and method therefor Pending JP2008102961A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007331708A JP2008102961A (en) 2007-12-25 2007-12-25 Image processing system and method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007331708A JP2008102961A (en) 2007-12-25 2007-12-25 Image processing system and method therefor

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2004093223A Division JP4152340B2 (en) 2004-03-26 2004-03-26 Image processing system and method

Publications (1)

Publication Number Publication Date
JP2008102961A true JP2008102961A (en) 2008-05-01

Family

ID=39437192

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007331708A Pending JP2008102961A (en) 2007-12-25 2007-12-25 Image processing system and method therefor

Country Status (1)

Country Link
JP (1) JP2008102961A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000066312A (en) * 1998-05-20 2000-03-03 Fuji Photo Film Co Ltd Method and device for reproducing picture
JP2001238177A (en) * 1999-10-28 2001-08-31 Fuji Photo Film Co Ltd Image processing method and image processing apparatus
JP2001266162A (en) * 2000-03-22 2001-09-28 Toshiba Corp Satellite picture processor
JP2002189412A (en) * 2000-12-19 2002-07-05 Toshiba Corp Mapping system and mapping method
JP2004078431A (en) * 2002-08-13 2004-03-11 Monolith Co Ltd Image generating method and device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000066312A (en) * 1998-05-20 2000-03-03 Fuji Photo Film Co Ltd Method and device for reproducing picture
JP2001238177A (en) * 1999-10-28 2001-08-31 Fuji Photo Film Co Ltd Image processing method and image processing apparatus
JP2001266162A (en) * 2000-03-22 2001-09-28 Toshiba Corp Satellite picture processor
JP2002189412A (en) * 2000-12-19 2002-07-05 Toshiba Corp Mapping system and mapping method
JP2004078431A (en) * 2002-08-13 2004-03-11 Monolith Co Ltd Image generating method and device

Similar Documents

Publication Publication Date Title
JP4152340B2 (en) Image processing system and method
US7221395B2 (en) Digital camera and method for compositing images
JP3786242B2 (en) Image processing method and apparatus, image reproduction method and apparatus, and image confirmation apparatus used in the method
US7170632B1 (en) Image reproducing method and apparatus, image processing method and apparatus, and photographing support system
JPH09181913A (en) Camera system
JP2001238177A (en) Image processing method and image processing apparatus
JP2002207242A (en) Camera and image forming system
JPH11284837A (en) Image processor
JPH11261797A (en) Image processing method
JP3808662B2 (en) Image reproduction method and apparatus
JP4268612B2 (en) Image playback device
US7277598B2 (en) Image processing apparatus, certification photograph taking apparatus, and certification photograph creation system
JP4829269B2 (en) Image processing system and method
JP4339730B2 (en) Image processing method and apparatus
JP3549413B2 (en) Image processing method and image processing apparatus
JP4399495B2 (en) Image photographing system and image photographing method
JP3386373B2 (en) Method for determining similarity of captured images, image processing method and image processing apparatus using the same
JP2008102961A (en) Image processing system and method therefor
JP2002182299A (en) Pseudo zoom camera and image processing system
JP4159766B2 (en) Image processing method
JP2008141771A (en) Image confirmation system
JP4067555B2 (en) Image confirmation device
JP2005304023A (en) Image processing apparatus
JP2007074373A (en) Image processing apparatus and image processing method
JP2006020335A (en) Image processing system

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080730

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100525

A02 Decision of refusal

Effective date: 20101005

Free format text: JAPANESE INTERMEDIATE CODE: A02