JP2018060549A - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP2018060549A JP2018060549A JP2017212981A JP2017212981A JP2018060549A JP 2018060549 A JP2018060549 A JP 2018060549A JP 2017212981 A JP2017212981 A JP 2017212981A JP 2017212981 A JP2017212981 A JP 2017212981A JP 2018060549 A JP2018060549 A JP 2018060549A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- image
- images
- region
- cpu
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像処理装置に関する。 The present invention relates to an image processing apparatus.
静止画像中の一部を動的に表現する技術が知られている(特許文献1参照)。同技術は、ノイズが時間的に変化しない、あるいは本来動くべきものが動かない静止画という時間の止まった世界の中で、一部領域だけ時間が進行しているという異質な世界を表現したものであり、注目を集めている。 A technique for dynamically expressing a part of a still image is known (see Patent Document 1). This technology expresses a heterogeneous world where time is progressing only in some areas in a still-timed world of still images in which noise does not change over time or things that should move originally do not move It is attracting attention.
従来技術では、静止画像中の一部を動的に表現する場合において、静止画のどの領域を動的に表現させるかを適切に選択することができなかった。 In the related art, when a part of a still image is dynamically expressed, it is not possible to appropriately select which region of the still image is dynamically expressed.
本発明の第1の態様による画像処理装置は、撮影された複数の画像のうちの少なくとも一つの画像上で時間と共に変化させる第1変化領域を指示する指示部と、前記複数の画像に基づいて、前記第1変化領域の変化に同期して変化する第2変化領域を特定する特定部と、前記指示部で指示された前記第1変化領域と前記特定部によって特定された第2変化領域とに対応する、前記複数の画像上の位置情報を取得する位置情報取得部と、前記位置情報取得部で取得された前記位置情報に基づいて、前記複数の画像内の前記第1変化領域に対応する画像と前記第2変化領域に対応する画像とを取得する画像取得部と、前記複数の画像のうちの基準画像に対し、前記画像取得部で取得された画像を合成する画像合成部と、を備える。
本発明の第2の態様による画像処理装置は、撮影された複数の画像のうちの少なくとも一つの画像上で時間と共に変化させる第1変化領域を指示する指示部と、前記複数の画像に基づいて、前記第1変化領域の変化に伴って変化する第2変化領域を特定する特定部と、前記指示部で指示された前記第1変化領域と前記特定部によって特定された第2変化領域とに対応する、前記複数の画像上の位置情報を取得する位置情報取得部と、前記位置情報取得部で取得された前記位置情報に基づいて、前記複数の画像内の前記第1変化領域に対応する画像と前記第2変化領域に対応する画像とを取得する画像取得部と、前記複数の画像のうちの基準画像に対し、前記画像取得部で取得された画像を合成する画像合成部と、を備える。
本発明の第3の態様による画像処理装置は、撮影された複数の画像のうちの少なくとも一つの画像上で時間と共に変化させる第1変化領域を指示する指示部と、前記指示部で指示された前記第1変化領域に対応する、前記複数の画像上の位置情報を取得する位置情報取得部と、前記位置情報取得部で取得された前記位置情報と前記複数の画像とに基づいて、前記第1変化領域に対応する位置の画像を取得する画像取得部と、前記複数の画像のうちの基準画像に対し、前記画像取得部で取得された画像を合成する画像合成部と、を備え、前記位置情報取得部はさらに、前記第1変化領域の位置情報を前記基準画像の生成に用いられる画像を基準とする位置情報に変換し、前記画像取得部は、前記変換後の位置情報と前記複数の画像とに基づいて前記第1変化領域に対応する画像を取得し、前記画像合成部は、前記変換後の位置情報をもとに、前記基準画像に対し、前記画像取得部で取得された前記画像を合成する。
本発明の第4の態様による画像処理装置は、撮影された複数の画像のうちの少なくとも一つの画像上で時間と共に変化させる第1変化領域を指示する指示部と、前記指示部で指示された前記第1変化領域に対応する、前記複数の画像上の位置情報を取得する位置情報取得部と、前記位置情報取得部で取得された前記位置情報と前記複数の画像とに基づいて、前記第1変化領域に対応する位置の画像を取得する画像取得部と、前記複数の画像の各々において、前記指示部で指示された前記第1変化領域の大きさ情報を取得する大きさ情報取得部と、前記大きさ情報取得部で取得された前記第1変化領域の大きさ情報により決定された、前記複数の画像のうちの一つの画像に対し、前記画像取得部で取得された画像を合成する画像合成部と、を備える。
本発明の第5の態様による画像処理装置は、撮影された複数の画像のうちの少なくとも一つの画像上で時間と共に変化させる第1変化領域を指示する指示部と、前記指示部で指示された前記第1変化領域に対応する、前記複数の画像上の位置情報を取得する位置情報取得部と、前記位置情報取得部で取得された前記位置情報と前記複数の画像とに基づいて、前記第1変化領域に対応する位置の画像を取得する画像取得部と、前記複数の画像のうちの基準画像に対し、前記画像取得部で取得された画像を合成する画像合成部と、前記基準画像の前記第1変化領域以外の背景領域を基準として前記複数の画像の位置を合わせ、前記第1変化領域の移動範囲を包含する領域を、前記複数の画像における第1変化領域として設定する設定部とを備え、前記画像合成部は、前記設定部で設定された前記複数の画像における第1変化領域に対応する画像を、前記画像取得部で取得された前記第1変化領域についての画像として合成する。
本発明の第6の態様による画像処理プログラムは、撮影された複数の画像のうちの少なくとも一つの画像上で時間と共に変化させる第1変化領域を指示する指示処理と、前記複数の画像に基づいて、前記第1変化領域の変化に同期して変化する第2変化領域を特定する特定処理と、前記指示処理で指示された前記第1変化領域と前記特定処理によって特定された第2変化領域とに対応する、前記複数の画像上の位置情報を取得する位置情報取得処理と、前記位置情報取得処理で取得された前記位置情報に基づいて、前記複数の画像内の前記第1変化領域に対応する画像と前記第2変化領域に対応する画像とを取得する画像取得処理と、前記複数の画像のうちの基準画像に対し、前記画像取得処理で取得された画像を合成する画像合成処理と、をコンピュータに実行させる。
An image processing apparatus according to a first aspect of the present invention is based on an instruction unit that indicates a first change area that changes with time on at least one of a plurality of captured images, and the plurality of images. A specifying unit that specifies a second change region that changes in synchronization with a change in the first change region, the first change region specified by the instruction unit, and the second change region specified by the specifying unit; Corresponding to the first change area in the plurality of images based on the position information acquired by the position information acquisition unit that acquires the position information on the plurality of images and the position information acquisition unit. An image acquisition unit that acquires an image to be acquired and an image corresponding to the second change area, and an image synthesis unit that combines the image acquired by the image acquisition unit with a reference image of the plurality of images, Is provided.
An image processing apparatus according to a second aspect of the present invention is based on an instruction unit that indicates a first change area that changes with time on at least one of a plurality of captured images, and the plurality of images. A specifying unit that specifies a second change region that changes in accordance with a change in the first change region, a first change region that is specified by the instruction unit, and a second change region that is specified by the specifying unit. Corresponding to the first change region in the plurality of images based on the position information acquisition unit that acquires the position information on the plurality of images and the position information acquired by the position information acquisition unit An image acquisition unit that acquires an image and an image corresponding to the second change area; and an image combination unit that combines the image acquired by the image acquisition unit with a reference image of the plurality of images. Prepare.
An image processing apparatus according to a third aspect of the present invention is directed by an instruction unit that indicates a first change area that changes with time on at least one of a plurality of captured images, and the instruction unit Based on the position information acquisition unit that acquires position information on the plurality of images corresponding to the first change area, the position information acquired by the position information acquisition unit, and the plurality of images, An image acquisition unit that acquires an image at a position corresponding to one change area; and an image combination unit that combines an image acquired by the image acquisition unit with a reference image of the plurality of images, The position information acquisition unit further converts the position information of the first change region into position information based on an image used for generating the reference image, and the image acquisition unit includes the converted position information and the plurality of position information. Based on the image and Acquires an image corresponding to the serial first change area, the image synthesizing unit, based on the position information of the converted relative to the reference image, to synthesize the image acquired by the image acquisition unit.
An image processing apparatus according to a fourth aspect of the present invention is instructed by an instruction unit that indicates a first change area that changes with time on at least one of a plurality of captured images, and the instruction unit. Based on the position information acquisition unit that acquires position information on the plurality of images corresponding to the first change area, the position information acquired by the position information acquisition unit, and the plurality of images, An image acquisition unit that acquires an image at a position corresponding to one change region; and a size information acquisition unit that acquires size information of the first change region instructed by the instruction unit in each of the plurality of images. The image acquired by the image acquisition unit is combined with one of the plurality of images determined by the size information of the first change area acquired by the size information acquisition unit. An image composition unit That.
An image processing apparatus according to a fifth aspect of the present invention is directed by an instruction unit that indicates a first change area that changes with time on at least one of a plurality of captured images, and by the instruction unit. Based on the position information acquisition unit that acquires position information on the plurality of images corresponding to the first change area, the position information acquired by the position information acquisition unit, and the plurality of images, An image acquisition unit that acquires an image at a position corresponding to one change area; an image synthesis unit that combines the image acquired by the image acquisition unit with a reference image of the plurality of images; A setting unit that aligns the positions of the plurality of images with reference to a background region other than the first change region, and sets a region including a moving range of the first change region as a first change region in the plurality of images; With Serial image combining unit an image corresponding to the first change area in the plurality of images set by the setting unit, synthesized as an image for the first change area that is acquired by the image acquisition unit.
An image processing program according to a sixth aspect of the present invention is based on an instruction process for instructing a first change area that changes with time on at least one of a plurality of captured images, and the plurality of images. A specifying process for specifying a second changing area that changes in synchronization with a change in the first changing area, the first changing area specified in the instruction process, and a second changing area specified by the specifying process; Corresponding to the first change region in the plurality of images based on the position information acquisition processing for acquiring the position information on the plurality of images and the position information acquired in the position information acquisition processing. An image acquisition process for acquiring an image to be acquired and an image corresponding to the second change area; and an image synthesis process for combining the image acquired in the image acquisition process with a reference image among the plurality of images; To be executed by a computer.
本発明によれば、静止画像中の一部を動的に表現する場合において、静止画のどの領域を動的に表現させるかを適切に選択できる。 According to the present invention, when a part of a still image is dynamically expressed, it is possible to appropriately select which region of the still image is dynamically expressed.
以下、図面を参照して本発明を実施するための形態について説明する。
(第一の実施形態)
図1は、本発明の第一の実施形態によるデジタルカメラ1の構成を例示するブロック図である。デジタルカメラ1は、複数フレームの静止画像に基づいて、静止画像の一部領域を動的に表現する「動き表現」に用いる領域を適切に選ぶ。「動き表現」は、静止画という時間の止まった世界の中で、一部領域だけ時間が進行しているかのような異質な世界を表現するものである。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram illustrating the configuration of a
以下、デジタルカメラ1の詳細について説明する。図1において、撮影レンズ11は、撮像素子12の撮像面に被写体像を結像させる。なお、図1では、撮影レンズ11がカメラと一体的に形成された(撮影レンズが着脱不能な)デジタルカメラ1を例示したが、カメラボディと、そのカメラボディに着脱可能な交換レンズからなるカメラシステムによって構成してもよい。その場合は、図1の符号11および21からなる構成が交換レンズ側に含まれ、その他の符号からなる構成がカメラボディ側に含まれる。
Details of the
CPU16は、図示しないシャッターボタンの半押し操作に連動して半押しスイッチ20aがオンすると、AE(自動露出)演算およびオートフォーカス(AF)処理を行わせて、撮影レンズ11を構成するフォーカシングレンズ(不図示)を光軸方向(図1において矢印方向)に進退移動させる。これにより、撮影レンズ11の焦点位置が自動調節される。フォーカシングレンズ(不図示)の駆動は、CPU16から指示を受けたレンズ駆動部21が行う。
When the half-
撮像素子12は、CMOSイメージセンサなどによって構成される。撮像素子12は、撮像面上に結像された被写体像を撮像する。撮像素子12から出力された撮像信号は、A/D変換部13においてアナログ信号からデジタル信号に変換される。画像処理部14は、デジタル画像信号に対して所定の画像処理を行う。
The
液晶モニタ15は、撮像素子12で撮像された画像、後述するバッファメモリ18、あるいはメモリカード50に記憶される画像を表示すると共に、CPU16からの指示に応じて、画像やアイコン、操作メニューなどを表示する。液晶モニタ15の表示面にはタッチ操作部材15aが積層されている。タッチ操作部材15aは、表示画面上のタッチ位置を示す信号をCPU16へ送出する。音響処理回路23は、マイク22で集音された音響信号を増幅し、増幅後の信号をA/D変換回路(不図示)によってデジタル音響データに変換する。
The
フラッシュメモリ17は、CPU16が実行するプログラムや、実行処理に必要なデータなどを格納する。フラッシュメモリ17が格納するプログラムやデータの内容は、CPU16からの指示によって追加、変更が可能に構成されている。
The
CPU16は、例えばバッファメモリ18を作業領域として制御プログラムを実行し、カメラ各部に対する種々の制御を行う。バッファメモリ18は、画像データを一時的に記憶する場合にも使用される。本実施形態によるデジタルカメラ1では、撮影指示(シャッターボタンの全押し操作)前に撮像素子12によって所定のフレームレートで取得される複数フレームの画像(先撮り画像と呼ぶ)や、撮影指示後に撮像素子12によって所定のフレームレートで取得される複数フレームの画像(後撮り画像と呼ぶ)を一時的に記憶する場合にも使用される。
The
画像処理部14は、デジタル画像信号に対する画像処理以外に、画像信号を格納した所定形式の画像ファイル(例えば Exif ファイル)を生成する。記録再生部19は、CPU16からの指示に基づいて画像ファイルをメモリカード50に記録(保存)し、また、メモリカード50に記録(保存)されている画像ファイルを読み出す。記録再生部19はさらに、音響データを格納した音響ファイルをメモリカード50に記録(保存)し、メモリカード50に記録(保存)されている音響ファイルを読み出す。
In addition to the image processing on the digital image signal, the
メモリカード50は、図示しないカードスロットに着脱自在に取り付けられる記録媒体である。CPU16は、記録再生部19によってメモリカード50から読み出された画像ファイル、または撮影後バッファメモリ18に記憶されている画像データに基づいて、液晶モニタ15に撮影画像を再生表示させる。また、CPU16は、記録再生部19によってメモリカード50から読み出された音響ファイルに基づいて、不図示のスピーカによって音声を再生することもできる。
The
操作部材20は、上記半押しスイッチ20aや、シャッターボタンの全押し操作に伴ってオンする全押しスイッチ20b、およびモード切替えスイッチなどを含み、各部材の操作に伴う操作信号をCPU16へ送出する。
The
半押しスイッチ20aからのオン信号(半押し操作信号)は、シャッターボタンが通常ストロークの半分程度まで押し下げ操作されると出力され、半ストロークの押し下げ操作解除で出力が解除される。全押しスイッチ20bからのオン信号(全押し操作信号)は、シャッターボタンが通常ストロークまで押し下げ操作されると出力され、通常ストロークの押し下げ操作が解除されると出力が解除される。
The ON signal (half-press operation signal) from the half-
<撮影モード>
上記デジタルカメラ1は、「通常の撮影モード」と、「先撮り撮影モード」とを有する。「通常の撮影モード」は、上記全押し操作信号に応じて1フレームずつ撮影画像を取得してメモリカード50へ記録する撮影モードである。「先撮り撮影モード」は、静止画像を所定のフレームレート(例えば毎秒120フレーム)で取得し、上記全押し操作信号を受けると当該全押し操作信号を受けた時点の前後において取得した複数フレームの画像(上記先撮り画像と後撮り画像)のうち、所定の画像をメモリカード50へ記録する撮影モードである。各撮影モードは、操作部材20またはタッチ操作部材15aからの操作信号に応じて切替え可能に構成されている。
<Shooting mode>
The
<再生モード>
再生モードのデジタルカメラ1は、「通常の撮影モード」または「先撮り撮影モード」において記録された画像をフレームごとに、あるいは所定数のフレームごとに、液晶モニタ15に再生表示する。また、「動き表現」する場合は、「先撮り撮影モード」で取得された複数フレームの画像に基づいて、静止画像の中で変化する対象物を動的に表現するように、液晶モニタ15に再生表示を行う。
<Playback mode>
The
<動き表現>
本実施形態によるデジタルカメラ1は、上記「動き表現」処理に特徴を有するので、以降はこの点を中心に説明する。「動き表現」処理のオン/オフは、操作部材20またはタッチ操作部材15aからの操作信号に応じて切替え可能に構成されている。再生モードであって、かつ「動き表現」処理がオンされたデジタルカメラ1は、「先撮り撮影モード」で取得された複数フレームの画像に基づいて、「動き表現」に適したフレームを選び、選んだフレームの画像を用いて液晶モニタ15に再生表示する。以下、複数フレーム画像の取得、「動き表現」に適したフレームの選択、および「動き表現」のための画像生成について順に説明する。
<Motion expression>
Since the
−複数フレーム画像の取得−
ユーザーは、例えばデジタルカメラ1を手持ちして、または三脚に固定して、複数フレームの画像を取得する。図2は、「先撮り撮影モード」における画像の取得タイミングを説明する図である。図2において、時刻t0に「先撮り撮影モード」が起動されると、CPU16は撮影待機処理を開始させる。撮影待機処理では、上記所定のフレームレートで被写体像を撮像して露出演算やフォーカス調節を行うとともに、取得した画像データを逐次バッファメモリ18へ記憶する。
-Acquisition of multiple frame images-
The user obtains a plurality of frames of images, for example, by holding the
「先撮り撮影モード」において先撮り画像と後撮り画像の記憶に使用するバッファメモリ18のメモリ容量は、あらかじめ十分な容量が確保されている。CPU16は、時刻t0以降にバッファメモリ18内に記憶したフレーム画像のフレーム枚数が所定枚数(例えばA枚)に達した場合には、古いフレーム画像から順に上書き消去する。これにより、「先撮り撮影モード」において先撮り画像と後撮り画像の記憶に使用するバッファメモリ18のメモリ容量を制限できる。
In the “pre-shooting shooting mode”, a sufficient memory capacity of the
時刻t1に全押し操作信号が入力されると、CPU16は撮影処理を開始させる。撮影処理では、時刻t1以前に先撮りしたA枚のフレーム画像と、時刻t1以降に後撮りされるB枚のフレーム画像とを合わせた(A+B)枚のフレーム画像をメモリカード50への記録候補画像とする。図2における黒い帯は、記録候補画像である(A+B)枚のフレーム画像が取得される区間を表す。斜線の帯は、バッファメモリ18に一旦は記憶されたものの、上書き消去されたフレーム画像が取得された区間を表す。
When a full-press operation signal is input at time t1, the
CPU16は、設定されている記録方式に基づいて、記録候補画像のうち所定のフレーム画像をメモリカード50に記録する。本実施形態によるデジタルカメラ1では、(A+B)枚全てのフレーム画像をメモリカード50に記録するものとする。
The
―「動き表現」に適したフレームの選択―
CPU16は、メモリカード50に記録された複数フレームの画像に基づいて、「動き表現」に適したフレームを選ぶ。具体的には、静止領域(背景)として用いるフレームSと、フレームSより時間的に前に取得されたフレームPと、フレームSより時間的に後に取得されたフレームQとを、(A+B)枚のフレーム画像の中から選ぶ。
―Selecting frames suitable for motion expression―
The
―フレームS―
本実施形態によるデジタルカメラ1のCPU16は、ユーザー操作によって指示されたフレーム画像をフレームSとする。具体的には、CPU16が記録再生部19へ指示を送り、メモリカード50に記録されている(A+B)枚のフレーム画像に基づいて、各フレームのサムネイル画像を図3に例示するように液晶モニタ15の画面に並べて表示させる。(A+B)枚のサムネイル画像が一画面に収まらない場合のCPU16は、ユーザー操作に応じて画面をスクロールさせることにより、ユーザーが意図するサムネイル画像を液晶モニタ15に表示させる。
―Frame S―
The
また、(A+B)枚のフレーム画像の組がメモリカード50に複数記録されている場合、CPU16は、タッチ操作部材15aからの操作信号が示す組のサムネイル画像を液晶モニタ15に表示させる。
When a plurality of sets of (A + B) frame images are recorded on the
ユーザーは、図3に例示した液晶モニタ15の画面上で、「動き表現」の際に静止領域(背景)として用いたいフレームをタッチ操作で選ぶ。CPU16は、タッチ操作部材15aからの操作信号が示すサムネイル画像Xに対応するフレーム画像をフレームSとする。CPU16は、フレームSを決定すると記録再生部19へ指示を送り、メモリカード50から読み出したフレームSの画像を図4に例示するように液晶モニタ15の画面上に表示させる。
On the screen of the liquid crystal monitor 15 illustrated in FIG. 3, the user selects a frame to be used as a still area (background) for “motion expression” by a touch operation. The
ユーザーは、「動き表現」の際に静止領域(背景)上で動かしたい対象物を、液晶モニタ15の画面上においてタッチ操作で選ぶ、CPU16は、フレームSにおいてタッチ操作部材15aからの操作信号に応じた矩形領域を示すマークmをフレームSの画像上に重ね表示させ、マークmで囲まれる範囲を動体領域とする。
The user selects an object to be moved on the stationary region (background) during “motion expression” by touch operation on the screen of the
―フレームP、フレームQ―
CPU16は、上記フレームSより時間的に前に取得されたフレーム画像からフレームPを選ぶ。また、CPU16は、上記フレームSより時間的に後に取得されたフレーム画像からフレームQを選ぶ。図5(a)は、航空機を対象物とし、この航空機が画面左から右へ移動する場面を撮影したフレームf1、フレームf2、…フレームfA、フレームf(A+1)、フレームf(A+2)…、フレームf(A+B)の画像を例示する図である。本例では、フレームf(A+1)が上記フレームSに対応する。このため、フレームf1からフレームfAまでがフレームPの候補に対応し、フレームf(A+2)からフレームf(A+B)までがフレームQの候補に対応する。
-Frame P, Frame Q-
The
図5(a)のフレームf(A+1)(すなわちフレームS)における動体領域m(A+1)は、図4において決定した動体領域に対応する。CPU16は、例えば動体領域m(A+1)をテンプレートとして、図5(a)のフレームf(A+1)(すなわちフレームS)以外の他のフレーム画像から、テンプレートマッチング手法によって動体領域を抽出する。図5(a)のm1、m2、…mA、m(A+1)、…、m(A+B)は、各フレームにおける動体領域を表す。 The moving object region m (A + 1) in the frame f (A + 1) (that is, the frame S) in FIG. 5A corresponds to the moving object region determined in FIG. CPU16 extracts a moving body area | region by a template matching method from other frame images other than the frame f (A + 1) (namely, frame S) of Fig.5 (a), for example using the moving body area | region m (A + 1) as a template. In FIG. 5A, m1, m2,... MA, m (A + 1),..., M (A + B) represent moving object regions in each frame.
図5(b)は、フレームf(A+1)(すなわちフレームS)における動体領域m(A+1)、および非動体領域(すなわち静止領域)を例示する図である。斜線を引いた領域が非動体領域を表す。次に、CPU16は、図5(a)の各フレーム画像からそれぞれの動体領域を除外した非動体領域において2以上の特徴点を抽出する。
FIG. 5B is a diagram illustrating a moving object area m (A + 1) and a non-moving object area (that is, a stationary area) in the frame f (A + 1) (that is, the frame S). A hatched area represents a non-moving object area. Next, the
図5において、複数の黒点は特徴点を表す。画像間の位置合わせに適した特徴点の抽出は、例えば、Lowe, David G. (1999). "Object recognition from local scale-invariant features". Proceedings of the International Conference on Computer Vision. 2. pp.1150-1157.などに開示される公知の技術を用いることができる。 In FIG. 5, a plurality of black dots represent feature points. For example, Lowe, David G. (1999). "Object recognition from local scale-invariant features". Proceedings of the International Conference on Computer Vision. 2. pp.1150 Known techniques disclosed in -1157. And the like can be used.
CPU16は、フレームf1、フレームf2、…フレームfA、フレームf(A+1)、フレームf(A+2)…、フレームf(A+B)間でそれぞれ特徴点の対応付けを行い、非動体領域(すなわち静止領域)を基準にフレーム間の画像の位置合わせを行う。CPU16はさらに、動体領域においても2以上の特徴点を抽出する。そして、各フレームにおける非動体領域の特徴点と動体領域の特徴点の位置関係に基づいて、各フレームにおける動体領域の位置を、フレームf(A+1)(すなわちフレームS)における非動体領域の例えば特徴点を基準に表す。
The
図5(a)の場合、フレームPの候補となるフレームでは、隣接フレームとの間でそれぞれ差分が生じている。CPU16は、対象物と背景の特徴点との相対的な距離が所定範囲内であるフレームfAをフレームPとして選ぶ。なお、フレームPは複数選んでもよい。例えば、フレームf2における対象物と背景の特徴点との相対的な距離が所定範囲内である場合には、フレームf2とフレームfAを、それぞれフレームPとして選ぶ。一般に、フレームPを構成するフレーム数を多くすると、「動き表現」を滑らかにできる。なお、対象物と背景の特徴点との相対的な距離が所定範囲を超える場合は、その対象物がフレームSの画面外に外れるおそれがあるので、フレームPとして適さない。この点について以下に説明する。
In the case of FIG. 5 (a), in the frame that is a candidate for the frame P, a difference is generated between each adjacent frame. The
例えば、図5(a)において、フレームSとして用いられるフレームf(A+1)の背景(山の頂上の左)の特徴点の画面内のX座標をXA1、これに対応するフレームf1の特徴点の画面内のX座標をX1とする。ここで、X座標の基準(原点)を各フレームの画面左端として、ここでは仮に、X1の座標値が座標値XA1よりも大きいものとする。フレームf1における対象物をフレームf(A+1)の背景に合成する際には、合成しようとする対象物とフレームf(A+1)の背景の特徴点との相対的な位置関係が、フレームf1における対象物とフレームf1における背景の特徴点との相対的位置関係と等しくなるように合成処理が施される。従って、例えば、X1の座標値が座標値XA1よりも大きいものとし、フレームf1における対象物の画面内のX座標が小さい場合(画面左端近傍に存在している場合)には、フレームf(A+1)における対象物(m1)は、フレームf(A+1)からはみだすこととなる。対象物をフレームSに合成した際に、このようなはみ出しが発生するか否かは、フレームf1における背景の特徴点と対象物とのX座標値の差分が、座標値XA1に比較して大きいか否かによって判断することができる。すなわち、フレームf1における背景の特徴点と対象物とのX座標値の差分が、フレームf(Al+1)上の対応する特徴点の座標値XA1より大きい場合には、フレームf(A+1)において、対象物が画面からはみだしてしまうこととなる。上記の例では、画面の左方向のはみだしについて説明したが、後述する画面右方向、あるいは画面の縦方向など左方向以外の方向についても同様である。 For example, in FIG. 5 (a), the X coordinate in the screen of the feature point of the background (left of the top of the mountain) of the frame f (A + 1) used as the frame S is XA1, and the corresponding feature point of the frame f1 Let the X coordinate in the screen be X1. Here, assuming that the X coordinate reference (origin) is the left edge of the screen of each frame, it is assumed here that the coordinate value of X1 is larger than the coordinate value XA1. When the object in the frame f1 is combined with the background of the frame f (A + 1), the relative positional relationship between the object to be combined and the feature point of the background of the frame f (A + 1) is the object in the frame f1. The composition processing is performed so as to be equal to the relative positional relationship between the object and the background feature point in the frame f1. Therefore, for example, when the coordinate value of X1 is larger than the coordinate value XA1, and the X coordinate in the screen of the object in the frame f1 is small (when it is present near the left end of the screen), the frame f (A + 1) The object (m1) in () protrudes from the frame f (A + 1). Whether or not such a protrusion occurs when the object is combined with the frame S is that the difference between the X coordinate values of the background feature point and the object in the frame f1 is larger than the coordinate value XA1. It can be judged by whether or not. That is, when the difference between the X coordinate values of the background feature point and the object in the frame f1 is larger than the coordinate value XA1 of the corresponding feature point on the frame f (Al + 1), the object in the frame f (A + 1) Things will protrude from the screen. In the above example, the protrusion of the left direction of the screen has been described.
また、図5(a)の場合、フレームQの候補となるフレームでも、隣接フレームとの間でそれぞれ差分が生じている。また、静止領域(背景)として用いるフレームS以外のフレームにおける対象物は、いずれも同じ航空機であって形状は等しく、大きさも変化がないので、対象物間の類似度は高く所定値以上となる。CPU16は、対象物と背景の特徴点との相対的な距離が所定範囲内であるフレームf(A+2)およびf(A+3)をフレームQとして選ぶ。フレームPの場合と同様に、フレームQを構成するフレーム数を多くすると、「動き表現」を滑らかにできる。なお、上述のフレームPの説明と同様に、対象物と背景の特徴点との相対的な距離が所定範囲を超える場合は、その対象物がフレームSの画面外に外れるおそれがあるので、フレームQとして適さない。このようなフレームが、フレームQ、あるいは前述のフレームPとして選択された場合には、操作者に対して警告を行う構成とすることができる。また、フレームS、及び対象物が指定された後に、上記のフレームP、フレームQとしての適否を自動的に判断した上で、CPU16が、フレームP、フレームQを自動的に選択する構成としてもよい。
In the case of FIG. 5 (a), even in a frame that is a candidate for the frame Q, a difference is generated between adjacent frames. In addition, since the objects in the frames other than the frame S used as the still region (background) are the same aircraft and have the same shape and the same size, the degree of similarity between the objects is high and becomes a predetermined value or more. . The
CPU16は、上述するように選んだフレームS、フレームP(フレームfA)、およびフレームQ(フレームf(A+2)とフレームf(A+3))を合成して静止画像(フレームS)上において動体領域を動的に表現する。具体的には、フレームSの一部を構成する動体領域に代えて、他のフレームの動体領域を、フレームSにおいて対応する位置へ所定時間ごとに順次置き換えながらはめ込み合成する(以下、順次置換合成と呼ぶ)。このためにCPU16は、先ず、フレームSの画像、および選んだ複数のフレーム画像からテンプレートマッチング手法によってそれぞれ動体領域を抽出する。図5(c)は、抽出した動体領域を例示する図である。これらの動体領域は、上述した「動き表現」に適したフレーム選択を行う際に抽出済みであるので、この情報を使用できる。
The
―「動き表現」のための画像生成―
CPU16は、図5(b)に例示したフレームS(f(A+1))における動体領域m(A+1)に代えて、図5(c)に例示したフレームPの動体領域mA、上記フレームQの動体領域m(A+2)、動体領域m(A+3)を、フレームSにおいて対応する位置へ所定の時間ごとに、順次置換合成する。フレームSにおいて対応する位置は、「動き表現」に適したフレーム選択の際に求めた動体領域の位置であって、フレームSにおける非動体領域を基準に表した位置である。この結果、図5(a)のフレームfA、フレームf(A+1)、フレームf(A+2)、およびフレームf(A+3)相当の画像が順番に得られる。これらの画像を液晶モニタ15に順番に再生表示させると、静止画(=f(A+1))という時間の止まった世界の中で、動体領域(航空機)だけ時間が進行しているかのような、異質な世界を表現し得る。
-Image generation for "motion expression"-
The
ここで、対象物が画面内で移動する場合において、フレームS(f(A+1))に、順次置換合成する動体領域の位置が、該フレームSの動体領域m(A+1)の位置と異なる場合は、該フレームSにおいて2箇所で順次置換合成を行う。1つめの合成は、フレームSにおいて上記フレームPまたはフレームQの動体領域に対応する位置へ、フレームPまたはフレームQの動体領域の画像を、順次置換合成する。 Here, when the object moves within the screen, the position of the moving object region that is sequentially replaced and synthesized with the frame S (f (A + 1)) is different from the position of the moving object region m (A + 1) of the frame S. In the frame S, replacement synthesis is sequentially performed at two locations. In the first synthesis, an image of the moving body region of the frame P or the frame Q is sequentially replaced and synthesized at a position corresponding to the moving body region of the frame P or the frame Q in the frame S.
2つめの合成は、フレームSにおいて動体領域m(A+1)の位置へ、非動体領域(背景)の画像を順次置換合成する。例えば、上記フレームS以外のフレーム(例えばフレームf1またはフレームf(A+B))の画像から、フレームSの動体領域m(A+1)の位置に対応する背景画像を抽出し、抽出した背景画像をフレームSの動体領域m(A+1)があった位置へ順次置換合成する。CPU16は、以上説明した順次置換合成により、「動き表現」のための画像を生成する。
In the second synthesis, the non-moving object region (background) image is sequentially replaced and synthesized at the position of the moving object region m (A + 1) in the frame S. For example, a background image corresponding to the position of the moving object area m (A + 1) of the frame S is extracted from an image of a frame other than the frame S (for example, the frame f1 or the frame f (A + B)). Are sequentially replaced and synthesized at the position where the moving object region m (A + 1) is present. The
CPU16は、生成した「動き表現」のための画像を所定時間ごとに液晶モニタ15に再生表示させることにより、静止画像(フレームS)上で動体領域を動的に表現する。なお、動体領域の位置をmA→m(A+1)→m(A+2)→m(A+3)→mA→m(A+1)…へ切替える時間の間隔を短くすると速い「動き表現」になり、切替える間隔を長くすると遅い「動き表現」になる。
The
―「動き表現」に必要なデータの記録―
CPU16は、記録指示に応じて「動き表現」に必要なデータをメモリカード50へ記録する。記録するデータは、例えば、フレームS、フレームPおよびフレームQの各画像、これらの画像における動体領域の範囲、座標位置、フレームPおよびフレームQからフレームSへ位置合わせするための制御(シフト)値、ループ再生(繰り返し再生)の要否などの情報である。
―Recording data necessary for motion expression―
The
―フローチャートの説明―
図6は、上述した「動き表現」時にCPU16が実行する処理の流れを説明するフローチャートである。CPU16は、「先撮り撮影モード」に設定、かつ「動き表現」処理がオンにされると図6による処理を起動する。図6のステップS1において、CPU16は先撮り画像の取得(すなわち撮影待機処理)を開始させてステップS2へ進む。これにより、先撮りされたフレーム画像がバッファメモリ18に蓄積されるとともに、液晶モニタ15に逐次表示される。
―Explanation of flowchart―
FIG. 6 is a flowchart for explaining the flow of processing executed by the
ステップS2において、CPU16は、先撮り画像データに基づいてAE(自動露出)演算およびAF(自動焦点調節)処理を行わせてステップS3へ進む。ステップS3において、CPU16は、レリーズボタンの全押し操作が行われたか否かを判定する。CPU16は、全押しスイッチ20bからのオン信号が入力された場合にステップS3を肯定判定してステップS4へ進み、全押しスイッチ20bからのオン信号が入力されない場合には、ステップS3を否定判定してステップS2へ戻る。ステップS2へ戻る場合は、上述した処理を繰り返す。
In step S2, the
ステップS4において、CPU16は、後撮り画像の取得を開始させてステップS5へ進む。後撮り画像は、全押し操作に応じて取得する1枚と、その後に取得する(B−1)枚である。ステップS5において、CPU16は、バッファメモリ18に記憶している(A+B)枚のフレーム画像をメモリカード50に記録してステップS6へ進む。
In step S4, the
ステップS6において、CPU16は、終了指示が行われたか否かを判定する。CPU16は、操作部材20またはタッチ操作部材15aから「通常撮影モード」へ切り替える操作信号が入力されると、ステップS6を肯定判定して図6による処理を終了する。CPU16は、操作部材20またはタッチ操作部材15aから「通常撮影モード」への切り替え操作信号が入力されない場合は、ステップS6を否定判定してステップS1へ戻る。ステップS1へ戻る場合は、上述した処理を繰り返す。
In step S6, the
「動き表現」するCPU16が実行する処理の流れについて、図7に例示するフローチャートを参照して説明する。CPU16は、再生モードであって、かつ「動き表現」処理がオンされると図7による処理を起動する。
A flow of processing executed by the
図7のステップS51において、CPU16は、(A+B)枚のフレーム画像の中から静止画用フレーム(フレームS)を決めてステップS52へ進む。ステップS52において、CPU16は、再生時に静止画像(フレームS)上で動的に表現する動体領域を決定してステップS53へ進む。
In step S51 of FIG. 7, the
ステップS53において、CPU16は、図5(a)の各フレーム画像の位置合わせを行ってステップS54へ進む。位置合わせは、フレーム画像から動体領域を除外した非動体領域において抽出した2以上の特徴点の位置に基づいて行う。
In step S53, the
ステップS54において、CPU16は、各フレーム画像から上記テンプレートマッチング手法によって動体領域を抽出し、ステップS55へ進む。ステップS55において、CPU16は、静止画像(フレームS)における非動体領域(背景)の位置を基準に、各フレームの動体領域の位置を求めてステップS56へ進む。
In step S54, the
ステップS56において、CPU16は、静止画像(フレームS)より時間的に前に取得されたフレーム画像であって、当該フレームにおける対象物と背景の特徴点との相対的な距離が所定範囲内であるフレームPを抽出してステップS57へ進む。
In step S56, the
ステップS57において、CPU16は、静止画像(フレームS)より時間的に後に取得されたフレーム画像であって、当該フレームにおける対象物と背景の特徴点との相対的な距離が所定範囲内であり、かつ、当該フレームにおける対象物と上記フレームPにおける対象物との類似度が所定値以上であるフレームQを抽出してステップS58へ進む。
In step S57, the
ステップS58において、CPU16は、所定の条件を満たすか否かを判定する。CPU16は、例えば、フレームP、フレームQがフレームSと略同一であって変化がなく、再生表示しても動体領域を動的に表現できない場合は、ステップS58を否定判定してステップS56へ戻ってフレームPおよびフレームQの抽出をやり直す。CPU16は、フレームP、フレームQがフレームSと適度に相違し、フレームP、フレームQにおける対象物がフレームSにおける対象物との間で所定の相対距離を有する場合は、ステップS58を肯定判定してステップS59へ進む。
In step S58, the
ステップS59において、CPU16は、所定の時間ごとに、図5(c)に例示した動体領域を、フレームSにおいて対応する位置へ順次置換合成し、ステップS60へ進む。
In step S59, the
ステップS60において、CPU16は、終了指示されたか否かを判定する。CPU16は、終了操作が行われた場合にステップS60を肯定判定して図7による処理を終了する。CPU16は、終了操作が行われない場合には、ステップS60を否定判定してステップS51へ戻る。
In step S60, the
以上説明した第一の実施形態によれば、次の作用効果が得られる。
(1)デジタルカメラ1は、時系列に撮影された複数フレームの画像f1〜f(A+B)のうちの1フレームf(A+1)の画像上で、時間と共に変化させる第1動体領域m(A+1)を指示するCPU16と、複数フレームの画像f1〜f(A+B)の各々において、CPU16で指示された第1動体領域m(A+1)に対応する領域の位置情報を取得するCPU16と、CPU16で取得された位置情報と複数フレームの画像f1〜f(A+B)とに基づいて、第1動体領域m(A+1)についての時系列画像mA〜m(A+3)を取得するCPU16と、複数フレームの画像f1〜f(A+B)のうちの1フレームの画像f(A+1)に基づいて生成された静止画像(図5(b)の斜線領域)に対し、CPU16で取得された第1動体領域m(A+1)についての時系列画像mA〜m(A+3)を順次置換して合成するCPU16と、を備える。これにより、静止画像中の一部を動的に表現する場合において、静止画のどの領域で表現させるかを適切に選択できる。
According to the first embodiment described above, the following operational effects can be obtained.
(1) The
(2)上記(1)のデジタルカメラ1において、CPU16において第1動体領域m(A+1)の指示に用いられる1フレームの画像f(A+1)と、CPU16が合成に用いる静止画像(図5(b)の斜線領域)の生成に用いられる1フレームの画像f(A+1)とは同一であるので、同一でない場合に比べて、静止画像中の一部を動的に表現する処理を簡単にできる。
(2) In the
(3)上記(1)のデジタルカメラ1において、CPU16はさらに、各フレームにおける第1動体領域mA〜m(A+3)の位置情報を静止画像(図5(b)の斜線領域)の生成に用いられる1フレームの画像f(A+1)を基準とする位置情報に変換し、CPU16は、変換後の位置情報と複数フレームの画像fA〜f(A+3)とに基づいて第1動体領域mについての時系列画像mA〜m(A+3)を取得し、CPU16は、変換後の位置情報をもとに、静止画像(図5(b)の斜線領域)に対し、CPU16で取得された時系列画像mA〜m(A+3)を順次置換合成する。これにより、静止画像中の一部を動的に表現する処理時間を短縮できる。
(3) In the
(4)上記(1)のデジタルカメラ1において、CPU16はさらに、静止画像(図5(b)の斜線領域)の生成に用いられる1フレームの画像f(A+1)上の第1動体領域m(A+1)を除いた領域を基準として、複数フレームの画像f1〜f(A+B)の各々について位置合わせを行った上で、複数フレームの画像f1〜f(A+B)の各々において第1動体領域mの位置情報を取得し、CPU16は、複数フレームの画像f1〜f(A+B)のうち位置合わせ後に第1動体領域m(A+1)を含むフレームの画像から、位置情報に基づいて第1動体領域mについての時系列画像mA〜m(A+3)を取得し、CPU16は、位置情報をもとに、静止画像(図5(b)の斜線領域)に対し、CPU16で取得された時系列画像mA〜m(A+3)を順次置換合成する。これにより、静止画像中の一部を動的に表現する処理時間を短縮できる。
(4) In the
(変形例1)
上述した説明では、デジタルカメラ1のCPU16が、「動き表現」のために静止領域(背景)上で動的に表現する領域(対象物)をユーザーのタッチ操作に基づいて決定する例を説明した。仮に、ユーザーが誤って対象物が存在しない領域をタッチ操作した場合には、CPU16がその旨を知らせるメッセージを液晶モニタ15の画面上に表示させてもよい。この場合において、液晶モニタ15の画面上においてタッチ操作に基づく矩形領域(動体領域m)に対象物(航空機)が含まれるか否かは、フレームSと、時系列に並ぶいずれかのフレーム画像との間で、当該矩形領域について差分が生じているか否かで判定する。すなわち、時系列に並ぶフレーム画像間で背景領域の位置合わせを行った上で、両フレーム間の差分をとることにより、差分が生じていれば対象物が含まれると判定し、差分が生じていなければ対象物が含まれないと判定する。
(Modification 1)
In the above description, an example has been described in which the
(変形例2)
上述した説明では、デジタルカメラ1のCPU16が、「動き表現」のために静止領域(背景)上で動的に表現する領域(対象物)をユーザーのタッチ操作に基づいて決定する際、ユーザーにより液晶モニタ15の画面上がタッチ操作されると、該タッチ操作に基づく矩形領域をマークmで表示するようにした。この代わりに、ユーザーによるタッチ操作前に、「動き表現」のために静止領域(背景)上で動的に表現する領域(対象物)の候補をCPU16が提示するようにしてもよい。
(Modification 2)
In the above description, when the
変形例2のCPU16は、液晶モニタ15にフレームSの再生画像を表示させている状態で自動的にフレームSにおける対象物(航空機)を探し、検出した対象物を含む領域をマークmで表示する。ユーザーは、提示された候補(マークm)でよい場合に、該マークmをタッチ操作する。CPU16は、マークmの位置がタッチ操作されると、マークmで囲まれる領域を「動き表現」のために静止領域(背景)上で動的に表現する領域(対象物)に決定する。
The
フレームSにおける対象物(航空機)の探索は、フレームSと時系列に並ぶフレーム画像との間で、差分が生じている領域を探せばよい。すなわち、時系列に並ぶフレーム画像間で背景領域の位置合わせを行った上で、両フレーム間の差分をとることにより、差分が生じている領域に対象物が含まれると判定し、差分が生じていない場合は対象物が含まれないと判定する。 The search for the target object (aircraft) in the frame S may be performed by searching for an area where a difference occurs between the frame S and the frame images arranged in time series. In other words, after aligning the background area between time-series frame images and taking the difference between the two frames, it is determined that the object is included in the area where the difference occurs, and the difference occurs. If not, it is determined that the object is not included.
(変形例3)
上述した変形例2において、ユーザーによるタッチ操作がなくても、CPU16が自動的に検出した対象物を含む領域を、「動き表現」のために静止領域(背景)上で動的に表現する領域(対象物)に決定してもよい。変形例3のCPU16は、例えば、画像データ等を用いた認識処理により、液晶モニタ15にフレームSの再生画像を表示させている状態で自動的にフレームSにおける対象物(航空機)を探し、検出した対象物を含む領域をマークmで表示する。CPU16は、そのマークmで囲まれる領域を「動き表現」のために静止領域(背景)上で動的に表現する領域(対象物)に決定する。
(Modification 3)
In the above-described second modification, an area including an object automatically detected by the
(変形例4)
上述した説明では、デジタルカメラ1のCPU16が、「動き表現」のために静止領域(背景)上で動的に表現する領域(対象物)をユーザーのタッチ操作に基づいて決定する例を説明した。この動的に表現する領域(対象物)を、CPU16が自動的に抽出する構成としてもよい。例えば、フレームSの画面端近傍の4つの特徴点が背景領域に含まれるものとみなして、各フレームの画像を、フレームSの画面端近傍の4つの特徴点を基準に位置合わせを行った上で、各フレーム画像における移動する対象物の領域(対象物の移動領域)を包含する領域(例えば矩形領域)を、各フレーム画像から抽出する。ここで、この移動する対象物の領域は、上記の位置合わせを行った隣接するフレーム画像間で差分演算を行って、その和の領域を求めることにより抽出できる。当該領域を包含する領域は、背景領域を含むものであってもよい。すなわち、このような構成とすれば、フレームS上で、順次置換合成する領域の大きさが同じとなり、さらに、順次置換合成する領域のフレームS上の位置を同一の位置とすることができる。また、フレームS上で、順次置換合成する領域の、各フレーム上での位置も、フレームSを基準とした座標系で考えれば同一の位置とすることができ、「動き表現」のための画像の生成処理が容易となる。
(Modification 4)
In the above description, an example has been described in which the
この場合、移動する対象物の領域を包含する領域に、対象物以外の動領域があると、対象物の変化と共に、その動領域も時間と共に変化することとなる。このようなことを避けるために、各フレームにおける、上記の移動する対象物を包含する領域間で差分演算を行い、対象物以外の領域に所定値以上の差分が発生しているか否かを判断する。所定値以上の差分が発生している場合には、移動する対象物の領域を包含する領域から、所定値以上の差分が発生している領域を除外する、あるいは操作者に報知する構成とすることもできる。なお、上記の移動する対象物を包含する、各フレーム領域間での差分演算においては、位置合わせは不要となる。 In this case, if there is a moving area other than the object in the area including the area of the moving object, the moving area also changes with time as the object changes. In order to avoid such a situation, a difference calculation is performed between areas including the moving object in each frame, and it is determined whether or not a difference of a predetermined value or more is generated in an area other than the object. To do. When a difference of a predetermined value or more has occurred, a region in which a difference of a predetermined value or more is excluded from the region including the region of the moving object, or notified to the operator. You can also. In addition, in the difference calculation between each frame area including the above moving object, alignment is not necessary.
(変形例5)
上述した説明では、対象物と背景中の所定位置との相対的な距離が所定範囲を超える場合には、その対象物がフレームSの画面外に外れるおそれがあるので、フレームP、あるいはフレームQとして適さないとして説明した。このような構成とすれば、「動き表現」のために生成された画像では、常に対象物が存在することとなる。しかしながら、例えば「動き表現」のために生成された画像を繰り返し再生する際にこの手法を用いた場合、図5のフレームf(A+3)における対象物の位置から、フレームfAにおける対象物の位置まで、対象物の位置が急激に変化することとなる。すなわち、例えば上記の繰り返し再生を行う場合には、「動き表現」のために生成された画像のうち、最初の画像と最後の画像とが、類似していることが好ましい。このような構成とすることによって、繰り返し再生の際の違和感を低減することができる。
(Modification 5)
In the above description, if the relative distance between the target object and the predetermined position in the background exceeds the predetermined range, the target object may come off the screen of the frame S, so the frame P or the frame Q As explained as not suitable. With such a configuration, an object is always present in an image generated for “motion expression”. However, for example, when this method is used to repeatedly reproduce an image generated for “motion expression”, from the position of the object in frame f (A + 3) in FIG. 5 to the position of the object in frame fA. The position of the object will change abruptly. That is, for example, when the above-described repeated reproduction is performed, it is preferable that the first image and the last image among images generated for “motion expression” are similar. By adopting such a configuration, it is possible to reduce a sense of discomfort during repeated reproduction.
ここで、対象物と背景中の所定位置との相対的な距離が所定範囲を超えるフレームを特定し、当該フレームをフレームPの最初のフレーム、フレームQの最後のフレームとすることで、「動き表現」のために生成された画像において、フレームS上で対象物が存在しない画像を得ることができる。このようにして生成された「動き表現」のための画像を繰り返し再生した場合には、例えば、対象物が存在しないフレームから「動き表現」が開始され、画面内に対象物が現れてから再び対象物が存在しないフレームとなった時点で、1回目の「動き表現」による再生が終了する。その後、再び対象物が存在しないフレームから、2回目の「動き表現」が開始されることとなり、視聴者が感じる違和感を低減することができる。 Here, a frame in which the relative distance between the target object and a predetermined position in the background exceeds a predetermined range is identified, and the frame is set as the first frame of the frame P and the last frame of the frame Q. In the image generated for “expression”, an image in which no object exists on the frame S can be obtained. When the image for “motion expression” generated in this way is repeatedly reproduced, for example, “motion expression” is started from a frame in which the object does not exist, and again after the object appears in the screen. When the frame in which the object does not exist is reached, the first reproduction by “motion expression” ends. Thereafter, the second “motion expression” is started again from the frame in which the target object does not exist, and it is possible to reduce a sense of discomfort felt by the viewer.
(変形例6)
変形例2において、ユーザーによるタッチ操作の代わりに、音声指示に基づいて「動き表現」のために静止領域(背景)上で動的に表現する領域(対象物)を決定してもよい。変形例4のCPU16は、マイク22で集音され、音響処理回路23で変換された音響データに基づいて音声認識を行う。CPU16は、例えば、対象物の候補を、操作部材によって順次変更していった際に、音声認識によって、操作者の「OK」の発話を認識した場合に、マークmで囲まれる領域を「動き表現」のために静止領域(背景)上で動的に表現する領域(対象物)に決定する。また、例えば、いずれかのフレーム、あるいはフレームSとしてフレームf(A+1)を液晶モニタ15に表示している状態で、操作者の「航空機」の発話を認識した場合に、画像データ等を用いて航空機の領域を認識し、当該領域を「動き表現」のために静止領域(背景)上で動的に表現する領域(対象物)に決定する構成としてもよい。
(Modification 6)
In the second modification, instead of the touch operation by the user, an area (object) to be dynamically expressed on the stationary area (background) may be determined for “motion expression” based on a voice instruction. The
(変形例7)
上記実施形態においては、フレームSを、液晶モニタ15の画面に並べて表示されたサムネイル画像の中からタッチ操作によって選択する例について説明したが、図2で説明したように、シャッターボタンの全押し操作のタイミングで取得されたフレーム画像をフレームSとして設定する構成としてもよい。このような構成とすれば、撮影者が撮影を意図したタイミングにおいて取得された画像をもとに、「動き表現」の画像が生成されるので、撮影者が撮影を意図したタイミングのフレーム画像が、「動き表現」の画像に必ず含まれる構成とすることができる。
(Modification 7)
In the above embodiment, the example in which the frame S is selected by the touch operation from the thumbnail images displayed side by side on the screen of the liquid crystal monitor 15 has been described. However, as described with reference to FIG. The frame image acquired at the timing may be set as the frame S. With such a configuration, an image of “motion expression” is generated based on an image acquired at a timing when the photographer intends to shoot, so a frame image at a timing when the photographer intends to shoot is generated. It is possible to adopt a configuration that is always included in the “motion expression” image.
また、複数のフレーム画像の中から、フレームSとして、特徴的なハイライトのフレーム画像を選択する構成としてもよい。ハイライトのフレーム画像としては、例えば、マイク22で集音した音量のレベルが最大のときに取得されたフレーム画像、あるいは対象物の動き量、姿勢などをもとに検出されたクライマックスのフレーム画像を自動的に選択することができる。
Alternatively, a frame image with a characteristic highlight may be selected as the frame S from a plurality of frame images. As a highlight frame image, for example, a frame image acquired when the volume level of sound collected by the
さらには、フレームSとして、対象物の大きさが一番小さいフレーム画像をフレームSとして選択する構成としてもよい。例えば、フレームSとして、対象物の大きさが大きいフレーム画像を選択した場合には、対象物が移動した場合、あるいは対象物の大きさが小さくなった場合などにおいては、対象物のみならず、順次置換合成する領域内の背景部分も、フレームSとは異なる時刻に撮影された他のフレーム画像から、対応する領域の画像データを用いて置き換えることとなる。すなわち、このようにして、フレームSの静止領域と合成された画像においては、異なる時刻に撮影された背景が混在することとなる。上記のような場合、あるいは上述の変形例4のような場合には、特に異なる時刻に撮影された背景の領域が多くなり、最終的に生成された「動き表現」の画像上で、対象物以外の本来は動いてほしくない背景領域にも動きが発生してしまう可能性が高くなる。そこで、対象物の大きさが一番小さいフレーム画像をフレームSとして選択する構成とすれば、異なる時刻に撮影された背景が混在する可能性を低減することができる。 Furthermore, as the frame S, a frame image having the smallest object size may be selected as the frame S. For example, when a frame image having a large object size is selected as the frame S, when the object moves or when the object size decreases, not only the object, The background portion in the area to be sequentially replaced and synthesized is also replaced using the image data of the corresponding area from another frame image taken at a time different from that of the frame S. That is, in the image synthesized with the still area of the frame S in this way, backgrounds photographed at different times are mixed. In the above case, or in the case of the above-described modification example 4, the background area photographed particularly at different times increases, and the object generated on the finally generated “motion expression” image is displayed. There is a high possibility that movement will occur in the background area that is not desired to move. Therefore, if the frame image having the smallest size of the object is selected as the frame S, the possibility that backgrounds photographed at different times are mixed is reduced.
(第二の実施形態)
第二の実施形態では、「動き表現」のために静止領域(背景)上で動的に表現する領域(対象物)を2つ設ける。図8は、野球のバッターによる打撃の場面を撮影した時系列のフレーム画像に基づいて、CPU16が第一の実施形態と同様にして選んだフレームS、フレームPおよびフレームQを構成する画像を例示する図である。本例では、画面内で変化する第1の対象物はボールである。
(Second embodiment)
In the second embodiment, two regions (objects) that are dynamically expressed on a static region (background) are provided for “motion expression”. FIG. 8 exemplifies images constituting the frames S, P, and Q selected by the
図8において、フレームf(A+1)は、ユーザー操作に基づいてCPU16が決定したフレームSに対応する。マークm(A+1)は、ユーザーによるタッチ操作により、タッチ操作部材15aから出力された操作信号に基づいてCPU16が決定した第1の動体領域を表す。
In FIG. 8, a frame f (A + 1) corresponds to the frame S determined by the
フレームf(A−1)およびフレームfAは、フレームSより時間的に前に取得されたフレーム画像の中からフレームPとしてCPU16が選んだ画像である。フレームf(A+2)およびフレームf(A+3)は、フレームSより時間的に後に取得されたフレーム画像の中からフレームQとしてCPU16が選んだ画像である。
The frame f (A-1) and the frame fA are images selected by the
CPU16は、時系列に並ぶ図8のフレーム画像について、フレームf(A+1)(すなわちフレームS)以外の他のフレーム画像から、第1の動体領域を抽出する。CPU16は、例えばフレームSの動体領域m(A+1)をテンプレートとして、テンプレートマッチング手法によって第1の動体領域を抽出する。図8のm(A−1)、mA、m(A+1)、m(A+2)、およびm(A+3)は、各フレームにおける第1の動体領域を表す。
The
第二の実施形態によるデジタルカメラ1のCPU16はさらに、上記第1の動体領域に含まれる第1の対象物(ボール)と関連して変化する領域をフレーム画像から抽出し、この抽出領域を第2の動体領域とする。図8において、ボールはフレームf(A+1)(すなわちフレームS)を境に移動方向を変えている。そして、フレームf(A+1)ではボールがバットと接触している。CPU16は、バットの動きに起因してボールの動きが変化していることから、バットの動きとボールの動きは関連すると判定し、バットを含む領域を第2の動体領域とする。なお、CPU16は、上記移動方向が変化するまでに至らなくても、移動中の加速度が変化した場合には両者の動きが関連すると判定する。
The
CPU16は、時系列に並ぶ図8のフレーム画像について、フレームf(A+1)(すなわちフレームS)以外の他のフレーム画像から第2の動体領域(バット)を抽出する。本例の場合、バットはフレームごとに形状と画面内の位置が変化しているので、差分検出手法を用いる。
The
CPU16は、時系列に並ぶ図8のフレーム画像について、各フレームの第1の動体領域m(A−1)、mA、m(A+1)、m(A+2)、m(A+3)を除いた背景領域で位置合わせを行った上で、隣接するフレーム間で差分をとることにより、フレーム画像におけるバットを抽出する。具体的には、時間的に隣接する、所定の閾値で2値化された差分画像間で、論理積をとることにより、バットを含む領域を抽出する。そしてCPU16は、抽出した領域において公知の物体認識処理を行うことにより、バットを特定する。
For the frame images of FIG. 8 arranged in chronological order, the
ここで、フレーム間で所定値以上の差分が生じた領域がバットを含む領域に対応し、フレーム間の差分が所定値未満の領域はバットを含まない領域に対応する。図8の場合、バットまたはバッターの腕を含む領域において、フレーム間で所定値以上の差分が検出される。CPU16は、バットまたはバッターの腕を含む領域から、物体認識処理によってバットを抽出する。
Here, a region where a difference between frames exceeds a predetermined value corresponds to a region including a bat, and a region where the difference between frames is less than a predetermined value corresponds to a region not including a bat. In the case of FIG. 8, in the region including the bat or batter's arm, a difference of a predetermined value or more is detected between frames. The
次にCPU16は、図8の各フレーム画像からそれぞれ第1の動体領域および第2の動体領域を除外した非動体領域において、第一の実施形態と同様に2以上の特徴点を抽出し、フレーム間でそれぞれ特徴点の対応付けを行う。
Next, the
CPU16はさらに、第1動体領域および第2動体領域においても、それぞれ2以上の特徴点を抽出する。そして、各フレームにおける非動体領域の特徴点と各動体領域の特徴点の位置関係に基づいて、各フレームにおける第1動体領域および第2動体領域の位置を、フレームf(A+1)(すなわちフレームS)における非動体領域を基準に表す。
The
CPU16は、上記フレームS(フレームf(A+1))、フレームP(フレームf(A−1)とフレームfA)、およびフレームQ(フレームf(A+2)とフレームf(A+3))を合成して静止画像(フレームS)上において第1動体領域および第2動体領域を動的に表現する。具体的には、フレームSにおける第1動体領域、第2動体領域に代えて、他のフレームの第1動体領域、第2動体領域を、フレームSにおいて対応するそれぞれの位置へ所定時間ごとに順次置換合成する。
The
以上説明したように、「動き表現」のための画像生成において、「動き表現」のために静止領域(背景)上で動的に表現する領域(対象物)を2つ設ける場合でも、2つの動体領域をフレームSにおいて対応するそれぞれの位置へ所定時間ごとに順次置換合成する手法は、第一の実施形態と同様に行う。また、「動き表現」に必要なデータの記録についても第一の実施形態と同様に行う。 As described above, in the case of generating an image for “motion expression”, two areas (objects) that are dynamically expressed on a stationary area (background) for “motion expression” are provided. A technique for sequentially replacing and synthesizing the moving object region at each corresponding position in the frame S every predetermined time is performed in the same manner as in the first embodiment. The recording of data necessary for “motion expression” is performed in the same manner as in the first embodiment.
図9は、図8のフレームS、フレームPおよびフレームQに基づいて、第1の動体領域(ボール)および第2の動体領域(バット)をフレームS(=f(A+1))において対応するそれぞれの位置へ所定時間ごとに、順次置換合成した合成画像c(A−1)、cA、c(A+1)、c(A+2)、およびc(A+3)を例示する図である。 9 corresponds to the first moving body region (ball) and the second moving body region (bat) in the frame S (= f (A + 1)) based on the frame S, the frame P, and the frame Q in FIG. FIG. 6 is a diagram illustrating composite images c (A−1), cA, c (A + 1), c (A + 2), and c (A + 3) that are sequentially replaced and synthesized at a predetermined position.
合成画像c(A−1)は、フレームS(=f(A+1))の第1の動体領域(ボール)および第2の動体領域(バット)の代わりに、フレームf(A−1)の第1の動体領域(ボール)および第2の動体領域(バット)を合成した画像である。合成画像cAは、フレームS(=f(A+1))の第1の動体領域(ボール)および第2の動体領域(バット)の代わりに、フレームfAの第1の動体領域(ボール)および第2の動体領域(バット)を合成した画像である。フレームSに対応する合成画像c(A+1)は、フレームf(A+1)と同一である。 The composite image c (A-1) is obtained by replacing the first moving object region (ball) and the second moving object region (bat) of the frame S (= f (A + 1)) with the first image of the frame f (A-1). It is the image which combined 1 moving body area | region (ball) and 2nd moving body area | region (bat). The composite image cA includes the first moving body region (ball) and the second moving body region (ball) and the second moving body region (ball) and the second moving body region (ball) of the frame S (= f (A + 1)). It is the image which synthesize | combined the moving body area | region (bat). The composite image c (A + 1) corresponding to the frame S is the same as the frame f (A + 1).
また、合成画像c(A+2)は、フレームS(=f(A+1))の第1の動体領域(ボール)および第2の動体領域(バット)の代わりに、フレームf(A+2)の第1の動体領域(ボール)および第2の動体領域(バット)を合成した画像である。合成画像c(A+3)は、フレームS(=f(A+1))の第1の動体領域(ボール)および第2の動体領域(バット)の代わりに、フレームf(A+3)の第1の動体領域(ボール)および第2の動体領域(バット)を合成した画像である。 In addition, the composite image c (A + 2) is the first image of the frame f (A + 2) instead of the first moving object region (ball) and the second moving object region (bat) of the frame S (= f (A + 1)). It is the image which synthesize | combined the moving body area | region (ball | bowl) and the 2nd moving body area | region (bat). The composite image c (A + 3) is the first moving body region of the frame f (A + 3) instead of the first moving body region (ball) and the second moving body region (bat) of the frame S (= f (A + 1)). It is the image which synthesize | combined (ball) and the 2nd moving body area | region (bat).
これらの合成画像c(A−1)、cA、c(A+1)、c(A+2)、およびc(A+3)を液晶モニタ15に順番に再生表示させると、静止画(=f(A+1))という時間の止まった世界の中で、第1の動体領域(ボール)および第2の動体領域(バット)だけ時間が進行しているかのような、異質な世界を表現し得る。
When these composite images c (A-1), cA, c (A + 1), c (A + 2), and c (A + 3) are reproduced and displayed in order on the
以上説明した第二の実施形態によれば、以下の作用効果が得られる。
(1)デジタルカメラ1は、時系列に撮影された複数フレームの画像のうちの1フレームf(A+1)の画像上で、時間と共に変化させる第1動体領域(ボール)を指示するCPU16と、複数フレームの画像の各々において、CPU16で指示された第1動体領域(ボール)の位置情報を取得するCPU16と、CPU16で取得された位置情報と複数フレームの画像とに基づいて、第1動体領域(ボール)についての時系列画像m(A−1)A〜m(A+3)を取得するCPU16と、複数フレームの画像のうちの1フレームの画像f(A+1)に基づいて生成された静止画像に対し、CPU16で取得された第1動体領域(ボール)についての時系列画像m(A−1)〜m(A+3)を順次置換して合成するCPU16と、を備える。これにより、静止画像中の一部を動的に表現する場合において、静止画のどの領域で表現させるかを適切に選択できる。
According to the second embodiment described above, the following operational effects can be obtained.
(1) The
(2)上記(1)のデジタルカメラ1において、CPU16はさらに、複数フレームの画像に基づいて第1動体領域(ボール)の変化に応じて変化する領域を抽出し、抽出した領域を第2動体領域(バット)として指示し、CPU16は、複数フレームの画像の各々において、CPU16で指示された第2動体領域(バット)の位置情報をさらに取得し、CPU16は、CPU16で取得された位置情報と複数フレームの画像とに基づいて、第2動体領域(バット)についての時系列画像をさらに取得し、CPU16はさらに、複数フレームの画像のうちの1フレームの画像f(A+1)に基づいて生成された静止画像に対しCPU16で取得された第2動体領域(バット)についての時系列画像を、順次置換して合成する。これにより、静止画の中で、ボールの動きと因果関係を有するバットの動きを適切に表現し得る。
(2) In the
(3)上記(1)、(2)のデジタルカメラ1において、CPU16は、複数フレームの画像のうちの1フレームf(A+1)で第1動体領域(ボール)と接する領域を第2動体領域(バット)とするので、静止画の中で、ボールの動きと因果関係を有するバットの動きを適切に表現し得る。
(3) In the
(変形例8)
「動き表現」のための画像生成において、図9に例示したものと異なる順次置換合成を行ってもよい。図10は、図8のフレームS、フレームPおよびフレームQに基づいて、第1の動体領域(ボール)および第2の動体領域(バット)をフレームS(=f(A+1))において対応するそれぞれの位置へ所定時間ごとに順次置換合成した合成画像c(A−1)’、cA’、c(A+1)、c(A+2)’、およびc(A+3)’を例示する図である。
(Modification 8)
In image generation for “motion expression”, sequential replacement synthesis different from that illustrated in FIG. 9 may be performed. 10 corresponds to the first moving body region (ball) and the second moving body region (bat) in the frame S (= f (A + 1)) based on the frame S, the frame P, and the frame Q in FIG. FIG. 6 is a diagram illustrating composite images c (A−1) ′, cA ′, c (A + 1), c (A + 2) ′, and c (A + 3) ′ that are sequentially replaced and synthesized at a predetermined position.
合成画像c(A−1)’は、フレームS(=f(A+1))の第2の動体領域(バット)の代わりに、フレームf(A−1)の第2の動体領域(バット)を合成した画像である。合成画像cA’は、フレームS(=f(A+1))の第2の動体領域(バット)の代わりに、フレームfAの第2の動体領域(バット)を合成した画像である。フレームSに対応する合成画像c(A+1)は、フレームf(A+1)と同一である。 The composite image c (A-1) ′ includes the second moving object region (bat) of the frame f (A-1) instead of the second moving object region (butt) of the frame S (= f (A + 1)). This is a composite image. The synthesized image cA ′ is an image obtained by synthesizing the second moving object region (bat) of the frame fA instead of the second moving object region (bat) of the frame S (= f (A + 1)). The composite image c (A + 1) corresponding to the frame S is the same as the frame f (A + 1).
また、合成画像c(A+2)’は、フレームS(=f(A+1))の第1の動体領域(ボール)の代わりに、フレームf(A+2)の第1の動体領域(ボール)を合成した画像である。合成画像c(A+3)’は、フレームS(=f(A+1))の第1の動体領域(ボール)の代わりに、フレームf(A+3)の第1の動体領域(ボール)を合成した画像である。 The composite image c (A + 2) ′ is a composite of the first moving body region (ball) of the frame f (A + 2) instead of the first moving body region (ball) of the frame S (= f (A + 1)). It is an image. The synthesized image c (A + 3) ′ is an image obtained by synthesizing the first moving body region (ball) of the frame f (A + 3) instead of the first moving body region (ball) of the frame S (= f (A + 1)). is there.
これらの画像c(A−1)’、cA’、c(A+1)、c(A+2)’、およびc(A+3)’を液晶モニタ15に順番に再生表示させると、静止画(=f(A+1))という時間の止まった世界の中で、バットとボールが接触する前は第2の動体領域(バット)だけ時間が進行し、バットとボールが接触した後は第1の動体領域(ボール)だけ時間が進行するかのような、異質な世界を表現し得る。
When these images c (A-1) ′, cA ′, c (A + 1), c (A + 2) ′, and c (A + 3) ′ are sequentially reproduced and displayed on the
(変形例9)
「動き表現」のための画像生成において、変形例8と異なる順次置換合成を行ってもよい。図11は、図8のフレームS、フレームPおよびフレームQに基づいて、第1の動体領域(ボール)および第2の動体領域(バット)をフレームS(=f(A+1))において対応するそれぞれの位置へ所定時間ごとに順次置換合成した合成画像c(A−1)’、cA’、c(A+1)、c(A+2)、およびc(A+3)を例示する図である。
(Modification 9)
In image generation for “motion expression”, sequential replacement synthesis different from that of the modification 8 may be performed. 11 corresponds to the first moving body region (ball) and the second moving body region (bat) in the frame S (= f (A + 1)) based on the frame S, the frame P, and the frame Q in FIG. FIG. 6 is a diagram illustrating composite images c (A−1) ′, cA ′, c (A + 1), c (A + 2), and c (A + 3) that are sequentially replaced and synthesized at a predetermined position.
合成画像c(A−1)’は、フレームS(=f(A+1))の第2の動体領域(バット)の代わりに、フレームf(A−1)の第2の動体領域(バット)を合成した画像である。合成画像cA’は、フレームS(=f(A+1))の第2の動体領域(バット)の代わりに、フレームfAの第2の動体領域(バット)を合成した画像である。フレームSに対応する合成画像c(A+1)は、フレームf(A+1)と同一である。 The composite image c (A-1) ′ includes the second moving object region (bat) of the frame f (A-1) instead of the second moving object region (butt) of the frame S (= f (A + 1)). This is a composite image. The synthesized image cA ′ is an image obtained by synthesizing the second moving object region (bat) of the frame fA instead of the second moving object region (bat) of the frame S (= f (A + 1)). The composite image c (A + 1) corresponding to the frame S is the same as the frame f (A + 1).
また、合成画像c(A+2)は、フレームS(=f(A+1))の第1の動体領域(ボール)および第2の動体領域(バット)の代わりに、フレームf(A+2)の第1の動体領域(ボール)および第2の動体領域(バット)を合成した画像である。合成画像c(A+3)は、フレームS(=f(A+1))の第1の動体領域(ボール)および第2の動体領域(バット)の代わりに、フレームf(A+3)の第1の動体領域(ボール)および第2の動体領域(バット)を合成した画像である。 In addition, the composite image c (A + 2) is the first image of the frame f (A + 2) instead of the first moving object region (ball) and the second moving object region (bat) of the frame S (= f (A + 1)). It is the image which synthesize | combined the moving body area | region (ball | bowl) and the 2nd moving body area | region (bat). The composite image c (A + 3) is the first moving body region of the frame f (A + 3) instead of the first moving body region (ball) and the second moving body region (bat) of the frame S (= f (A + 1)). It is the image which synthesize | combined (ball) and the 2nd moving body area | region (bat).
これらの画像c(A−1)’、cA’、c(A+1)、c(A+2)、およびc(A+3)を液晶モニタ15に順番に再生表示させると、静止画(=f(A+1))という時間の止まった世界の中で、バットとボールが接触する前は第2の動体領域(バット)だけ時間が進行し、バットとボールが接触した後は第1の動体領域(ボール)および第2の動体領域(バット)だけ時間が進行するかのような、異質な世界を表現し得る。
When these images c (A-1) ′, cA ′, c (A + 1), c (A + 2), and c (A + 3) are sequentially reproduced and displayed on the
(変形例10)
上述した第二の実施形態では、フレームf(A+1)におけるボールとバットの接触に基づいてバットの動きとボールの動きが関連すると判定した。このような2つの対象物の接触判定に加えて、または接触判定に代えて、音響データが示す音響レベルに基づいて2つの動体領域の動きが関連するか否かの判定をしてもよい。
(Modification 10)
In the second embodiment described above, it is determined that the movement of the bat and the movement of the ball are related based on the contact between the ball and the bat in the frame f (A + 1). In addition to or instead of such contact determination of two objects, it may be determined whether or not the movements of the two moving object regions are related based on the sound level indicated by the sound data.
上述した第1の動体領域(ボール)と第2の動体領域(バット)の場合、両者の接触時に打撃音が発生する。変形例7のCPU16は、マイク22で集音され、音響処理回路23で変換された音響データに基づいて音圧レベルの判定を行う。CPU16は、上記接触時に所定値以上の音圧レベルを判定した場合に、ボールとバットの接触に基づいてバットの動きとボールの動きが関連すると判定する。
In the case of the first moving body region (ball) and the second moving body region (bat) described above, a striking sound is generated when the two contact each other. The
(変形例11)
「動き表現」のために静止領域(背景)上で動的に表現する領域(対象物)を2つ設ける例として、第1の対象物(ボール)と、第1の対象物と接触する第2の対象物(バット)を例示した。この他にも、第1の対象物(例えばボール)の影を第2の対象物としてもよい。影は、ボールの移動に伴って移動し、ボールの輪郭形状に依拠した輪郭形状を有する。CPU16は、このことからボールの動きとその影の動きは同期すると判定し、影を含む領域を第2の動体領域とする。
(Modification 11)
As an example of providing two regions (objects) that are dynamically expressed on a stationary region (background) for “motion expression”, a first object (ball) and a first object that contacts the first object Two objects (bats) were illustrated. In addition, the shadow of the first object (for example, a ball) may be used as the second object. The shadow moves along with the movement of the ball and has a contour shape that depends on the contour shape of the ball. From this, the
(変形例12)
「動き表現」のために静止領域(背景)上で動的に表現する領域(対象物)を2つ設ける例として、変化する第1の対象物を含む第1の動体領域と、変化する第2の対象物を含む第2の動体領域とが隣接する場合があってもよい。例えば、鍋の中で煮えた特定具材が揺れている場合に特定具材を第1の対象物とし、この特定具材から舞い上がる湯気を第2の対象物とする。CPU16は、特定具材の向きが変わることによって立ち上る湯気の方向が変化した場合に、両者(第1の対象物と第2の対象物)の動きが関連すると判定する。変形例9の場合は、静止画という時間の止まった世界の中で、特定具材と、この特定具材から舞い上がる湯気だけ時間が進行するかのような、異質な世界を表現し得る。
(Modification 12)
As an example of providing two areas (objects) that are dynamically expressed on a stationary area (background) for “motion expression”, a first moving object area that includes a first object that changes and a first area that changes. The second moving object region including the two objects may be adjacent to each other. For example, when a specific ingredient boiled in a pan is shaking, the specific ingredient is set as a first object, and steam rising from the specific ingredient is set as a second object. CPU16 determines with the movement of both (a 1st target object and a 2nd target object) related, when the direction of the steam which stands | starts up by the direction of a specific material changing changes. In the case of the modified example 9, it is possible to express a heterogeneous world as if the time progressed only by the specific ingredient and the steam rising from the specific ingredient in the still-time world of still images.
(変形例13)
以上の説明では、「先撮り撮影モード」において取得した時系列に並ぶ複数フレームの画像群に基づいて「動き表現」する例を説明したが、複数の画像群は、必ずしも「先撮り撮影モード」で撮影した画像群でなくてもよい。例えば、連写によって取得した時系列に並ぶ複数フレームの画像群に基づいて「動き表現」してもよい。
(Modification 13)
In the above description, an example in which “motion expression” is performed based on a group of images of a plurality of frames arranged in time series acquired in the “pre-shooting shooting mode” has been described. However, a plurality of image groups are not necessarily in the “pre-shooting shooting mode”. It does not have to be a group of images taken in. For example, “motion expression” may be performed based on a group of images of a plurality of frames arranged in time series obtained by continuous shooting.
(変形例14)
複数フレームの画像群を取得する際のフレームレートは、上述した毎秒120フレームでなくてもよく、毎秒30フレームや、毎秒5フレームであってもよい。このフレームレートは、移動する被写体(対象物)の移動速度に応じて適宜設定してよい。なお、取得時のフレームレートより再生表示時のフレームレートを低くすると、いわゆるスロー再生を行える。
(Modification 14)
The frame rate for acquiring a group of images of a plurality of frames may not be 120 frames per second as described above, but may be 30 frames per second or 5 frames per second. This frame rate may be appropriately set according to the moving speed of the moving subject (target object). It should be noted that so-called slow playback can be performed by lowering the frame rate at the time of playback display than the frame rate at the time of acquisition.
(変形例15)
「動き表現」に必要なデータを、動画ファイルとして記録してもよい。当該動画ファイルの中で、「動き表現」のために合成された映像が繰り返し再生可能である旨も記録する。具体的には、動画ファイルとして、動体領域の動画圧縮データと、非動体領域(背景となる静止領域)の圧縮画像データと、その他必要なデータ(静止領域に順次置換合成する動体領域データの座標位置、繰り返し再生の要否)を含める。
(Modification 15)
Data necessary for “motion expression” may be recorded as a moving image file. In the moving image file, the fact that the video synthesized for “motion expression” can be repeatedly reproduced is also recorded. Specifically, as a moving image file, moving image compressed data of a moving object region, compressed image data of a non-moving object region (a still region as a background), and other necessary data (coordinates of moving region data to be sequentially replaced and synthesized into a stationary region) Position, necessity of repeated playback).
(変形例16)
以上の説明では、電子機器としてデジタルカメラ1を用いる例を説明したが、多機能携帯電話機やタブレット型コンピュータを用いて構成してもよい。
(Modification 16)
In the above description, an example in which the
(変形例17)
上述した実施形態では、時系列に並ぶ複数フレームの画像群に基づいて、デジタルカメラ1で「動き表現」処理を行う例を説明したが、パーソナルコンピュータや、タブレット型コンピュータなどを用いて、事後的に「動き表現」処理を行う画像処理装置を構成してもよい。この場合、デジタルカメラ1で取得した画像データとして、時系列に並ぶ複数フレームの画像群を保存しておく。
(Modification 17)
In the above-described embodiment, the example in which the “motion expression” process is performed by the
そして、図12に示すコンピュータ200に図7に例示したフローチャートの処理を行うプログラムを実行させることにより、静止画像の中で変化する被写体(対象物)を動的に表現する画像処理装置を構成する。プログラムをコンピュータ200に取込んで使用する場合には、コンピュータ200のデータストレージ装置にプログラムをローディングした上で、当該プログラムを実行させることによって画像処理装置として使用する。
Then, by causing the
コンピュータ200に対するプログラムのローディングは、プログラムを格納したCD−ROMなどの記憶媒体204をコンピュータ200にセットして行ってもよいし、ネットワークなどの通信回線201を経由する方法でコンピュータ200へローディングしてもよい。通信回線201を経由する場合は、通信回線201に接続されたサーバー(コンピュータ)202のハードディスク装置203などにプログラムを格納しておく。プログラムは、記憶媒体204や通信回線201を介する提供など、種々の形態のコンピュータプログラム製品として供給することができる。
The loading of the program to the
以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。 The above description is merely an example, and is not limited to the configuration of the above embodiment.
1…デジタルカメラ
12…撮像素子
14…画像処理部
15…液晶モニタ
15a…タッチ操作部材
16…CPU
17…フラッシュメモリ
18…バッファメモリ
19…記録再生部
20…操作部材
50…メモリカード
200…コンピュータ
204…記憶媒体
DESCRIPTION OF
17 ...
Claims (1)
前記複数の画像に基づいて、前記第1変化領域の変化に同期して変化する第2変化領域を特定する特定部と、
前記指示部で指示された前記第1変化領域と前記特定部によって特定された第2変化領域とに対応する、前記複数の画像上の位置情報を取得する位置情報取得部と、
前記位置情報取得部で取得された前記位置情報に基づいて、前記複数の画像内の前記第1変化領域に対応する画像と前記第2変化領域に対応する画像とを取得する画像取得部と、
前記複数の画像のうちの基準画像に対し、前記画像取得部で取得された画像を合成する画像合成部と、
を備える画像処理装置。 An instruction unit for instructing a first change area to be changed with time on at least one of a plurality of captured images;
A specifying unit that specifies a second change region that changes in synchronization with a change in the first change region based on the plurality of images;
A position information acquisition unit that acquires position information on the plurality of images corresponding to the first change region specified by the instruction unit and the second change region specified by the specifying unit;
An image acquisition unit that acquires an image corresponding to the first change region and an image corresponding to the second change region in the plurality of images based on the position information acquired by the position information acquisition unit;
An image synthesis unit that synthesizes an image acquired by the image acquisition unit with respect to a reference image of the plurality of images;
An image processing apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017212981A JP2018060549A (en) | 2017-11-02 | 2017-11-02 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017212981A JP2018060549A (en) | 2017-11-02 | 2017-11-02 | Image processing device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013095634A Division JP6236856B2 (en) | 2013-04-30 | 2013-04-30 | Image processing apparatus and image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018060549A true JP2018060549A (en) | 2018-04-12 |
Family
ID=61909944
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017212981A Pending JP2018060549A (en) | 2017-11-02 | 2017-11-02 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018060549A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020059029A1 (en) * | 2018-09-18 | 2020-03-26 | マクセル株式会社 | Distance measurement device, imaging device, distance measurement system, distance measurement method, and imaging method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004186994A (en) * | 2002-12-03 | 2004-07-02 | Toshiba Corp | Method, device, and program for compositing object image |
JP2012093931A (en) * | 2010-10-27 | 2012-05-17 | Sony Corp | Image processing apparatus, image processing method, and program |
-
2017
- 2017-11-02 JP JP2017212981A patent/JP2018060549A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004186994A (en) * | 2002-12-03 | 2004-07-02 | Toshiba Corp | Method, device, and program for compositing object image |
JP2012093931A (en) * | 2010-10-27 | 2012-05-17 | Sony Corp | Image processing apparatus, image processing method, and program |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020059029A1 (en) * | 2018-09-18 | 2020-03-26 | マクセル株式会社 | Distance measurement device, imaging device, distance measurement system, distance measurement method, and imaging method |
JPWO2020059029A1 (en) * | 2018-09-18 | 2021-08-30 | マクセル株式会社 | Distance measuring device, imaging device, distance measuring system, distance measuring method, and imaging method |
JP7112504B2 (en) | 2018-09-18 | 2022-08-03 | マクセル株式会社 | Distance measuring device, imaging device, distance measuring system, distance measuring method, and imaging method |
US11740468B2 (en) | 2018-09-18 | 2023-08-29 | Maxell, Ltd. | Distance measuring apparatus, imaging device, distance measuring system, distance measuring method, and imaging method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5028225B2 (en) | Image composition apparatus, image composition method, and program | |
JP5516662B2 (en) | Imaging device | |
US8428121B2 (en) | Image pick-up apparatus for shooting and reproducing a moving image | |
JP2011049952A (en) | Image generating apparatus and electronic camera | |
JP2012015830A (en) | Camera | |
KR102172114B1 (en) | Moving image selection apparatus for selecting moving image to be combined, moving image selection method, and storage medium | |
JP2015053741A (en) | Image reproduction device | |
JP2017175319A (en) | Image processing apparatus, image processing method, and program | |
JP6056551B2 (en) | Image processing program and digital camera | |
JP6031670B2 (en) | Imaging device | |
JP2013251724A (en) | Photographing instrument | |
JP2018060549A (en) | Image processing device | |
JP6236856B2 (en) | Image processing apparatus and image processing program | |
JP2010273268A (en) | Image reproducing device, imaging apparatus, image reproducing method, and image reproducing program | |
JP2011119934A (en) | Image shooting device and image shooting method | |
JP5424827B2 (en) | Image processing device | |
WO2013065642A1 (en) | Image processing device | |
JP2014217008A (en) | Image processing device, imaging device, and image processing program | |
JP5412560B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2010193106A (en) | Imaging device | |
JP2015192336A (en) | Image processing device and digital camera | |
JP5613285B2 (en) | IMAGING DEVICE, IMAGING METHOD, DISPLAY DEVICE, AND DISPLAY METHOD | |
JP5915009B2 (en) | Image processing apparatus, electronic camera, image processing method, program, and recording medium | |
JP5347624B2 (en) | Imaging device, image processing method of imaging device, and image processing program | |
JP5715179B2 (en) | Reproduction display device and reproduction display method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181108 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181120 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190118 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190521 |