JP2015035687A - Data processor - Google Patents

Data processor Download PDF

Info

Publication number
JP2015035687A
JP2015035687A JP2013165008A JP2013165008A JP2015035687A JP 2015035687 A JP2015035687 A JP 2015035687A JP 2013165008 A JP2013165008 A JP 2013165008A JP 2013165008 A JP2013165008 A JP 2013165008A JP 2015035687 A JP2015035687 A JP 2015035687A
Authority
JP
Japan
Prior art keywords
image
frame
data
time
character information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013165008A
Other languages
Japanese (ja)
Inventor
啓一 新田
Keiichi Nitta
啓一 新田
麻理 杉原
Mari Sugihara
麻理 杉原
幸智子 大古場
Sachiko Okoba
幸智子 大古場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2013165008A priority Critical patent/JP2015035687A/en
Publication of JP2015035687A publication Critical patent/JP2015035687A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To dynamically represent a part of a still image so as to deepen understanding about a scene.SOLUTION: A data processor includes: an image display data generation unit which generates image display data for displaying an image in which a prescribed area changes with time, on an image of one frame out of images of a plurality of frames photographed in time series; a character reproduction data generation unit which generates character reproduction data for displaying prescribed character information besides the image changing with time; and an area determination unit which determines a prescribed area on the basis of contents included in the character information. The image display data generation unit acquires time-series images in the area determined by the area determination unit, in respective images of the plurality of frames and generates image display data by sequentially combining the acquired time-series images with a still image generated on the basis of the image of one frame out of the images of the plurality of frames.

Description

本発明は、データ処理装置に関する。   The present invention relates to a data processing apparatus.

静止画像中の一部を動的に表現する技術が知られている(特許文献1参照)。同技術は、ノイズが時間的に変化しない、あるいは本来動くべきものが動かない静止画という時間の止まった世界の中で、一部領域だけ時間が進行しているという異質な世界を表現したものであり、注目を集めている。   A technique for dynamically expressing a part of a still image is known (see Patent Document 1). This technology expresses a heterogeneous world where time is progressing only in some areas in a still-timed world of still images in which noise does not change over time or things that should move originally do not move It is attracting attention.

特開2010−212781号公報JP 2010-212781 A

静止画像中の一部の動的表現に対し、さらに情景の理解を深めることが望まれる。   It is desirable to deepen the understanding of the scene for some dynamic expressions in still images.

請求項1の発明によるデータ処理装置は、時系列に撮影された複数フレームの画像のうちの1フレームの画像上で、所定の領域が時間とともに変化する画像を表示するための画像表示データを生成する画像表示データ生成部と、時間とともに変化する画像に加えて、所定の文字情報を表示するための文字再生データを生成する文字再生データ生成部と、文字情報に含まれる内容に基づいて、所定の領域を決定する領域決定部と、を備え、画像表示データ生成部は、複数フレームの画像の各々において、領域決定部で決定された領域の時系列画像を取得し、複数フレームの画像のうちの1フレームの画像に基づいて生成された静止画像に対し、取得した時系列画像を順次合成することによって画像表示データを生成することを特徴とする。
請求項3の発明によるデータ処理装置は、時系列に撮影された複数フレームの画像のうちの1フレームの画像上で、所定の領域が時間とともに変化する画像を表示するための画像表示データを生成する画像表示データ生成部と、時間とともに変化する画像に加えて、所定の文字情報を表示するための文字再生データを生成する文字再生データ生成部と、画像表示データに基づいて所定の領域で変化する物体を特定し、それぞれが物体の名称を含む複数の文字情報の中から、特定した物体の名称を含む文字情報を決定する文字情報決定部と、を備え、文字再生データ生成部は、文字情報決定部で決定された文字情報を表示するための文字再生データを生成することを特徴とする。
The data processing device according to claim 1 generates image display data for displaying an image in which a predetermined region changes with time on one frame image of a plurality of frames taken in time series. In addition to the image display data generation unit that performs the change, the character reproduction data generation unit that generates the character reproduction data for displaying the predetermined character information in addition to the image that changes with time, and the predetermined content based on the content included in the character information And an image display data generation unit acquires a time-series image of the region determined by the region determination unit in each of the plurality of frame images, The image display data is generated by sequentially synthesizing the acquired time-series images with the still image generated based on the one frame image.
A data processing device according to a third aspect of the present invention generates image display data for displaying an image in which a predetermined region changes with time on one frame image of a plurality of frames taken in time series. An image display data generating unit for generating, character reproduction data generating unit for generating character reproduction data for displaying predetermined character information in addition to an image changing with time, and a change in a predetermined region based on the image display data A character information determination unit for determining character information including the specified object name from among a plurality of character information each including the name of the object. Character reproduction data for displaying the character information determined by the information determination unit is generated.

本発明によれば、静止画像中の一部を動的に表現する際の情景理解を深められる。   According to the present invention, it is possible to deepen understanding of a scene when a part of a still image is dynamically expressed.

図1(a),(b)は動的に表現する領域を有する静止画像と、静止画像に重ね表示された文字情報を例示する図である。FIGS. 1A and 1B are diagrams illustrating still images having dynamically expressing areas and character information superimposed on the still images. デジタルカメラの構成を例示するブロック図である。It is a block diagram which illustrates the composition of a digital camera. 「先撮り撮影モード」における画像の取得タイミングを説明する図である。It is a figure explaining the acquisition timing of the image in "pre-shooting photography mode". サムネイル画像を液晶モニタの画面に並べて表示させた図である。It is the figure which displayed the thumbnail image side by side on the screen of a liquid crystal monitor. フレームSの画像を液晶モニタの画面に表示させた図である。It is the figure which displayed the image of the flame | frame S on the screen of the liquid crystal monitor. 「池」を対象物とし、この「池」の水面に広がる波紋を撮影した画像を例示する図である。It is a figure which illustrates the image which imaged the ripple which spreads on the water surface of this "pond" by making "pond" into a target object. フレームSにおける動体領域および非動体領域を例示する図である。It is a figure which illustrates the moving body area | region and non-moving body area | region in the flame | frame S. FIG. はめ込み合成後の画像を例示する図である。It is a figure which illustrates the image after an embedding composition. 「動き表現」のためにCPUが実行する処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the process which CPU performs for "motion expression". 「動き表現」のためにCPUが実行する処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the process which CPU performs for "motion expression". 変形例8を説明する図である。It is a figure explaining the modification 8. FIG. コンピュータを例示する図である。It is a figure which illustrates a computer.

本発明の一実施の形態によるデジタルカメラは、複数フレームの静止画像に基づいて、静止画像の一部の領域を動的に表現する「動き表現」を行うとともに、上記静止画像に文字情報を組合せて、この文字情報の表示態様を時間経過とともに変化させる。   A digital camera according to an embodiment of the present invention performs “motion expression” that dynamically expresses a partial region of a still image based on a plurality of frames of still images, and combines character information with the still images. Thus, the display mode of the character information is changed over time.

図1(a)は、動的に表現する領域mを有する静止画像と、この静止画像に重ね表示された文字情報Tを例示する図である。「動き表現」は、静止画像という時間の止まった世界の中で、一部の領域mだけ時間が進行しているかのような異質な世界を表現するものである。文字情報Tの表示態様の変化は、例えば文字の表示色、表示輝度、文字の太さ、文字の大きさまたは書体などを、時間の経過とともに変化させるものである。本実施形態では、文字情報Tを構成する文字の先頭から徐々に表示態様を変化させ、図1(b)に例示するように、文字情報Tを構成する全ての文字の表示態様を変化させた後に所定時間が経過すると、静止画像の領域mにおいて「動き表現」を開始させる。   FIG. 1A is a diagram illustrating a still image having an area m to be dynamically expressed and character information T displayed to be superimposed on the still image. The “motion expression” expresses a heterogeneous world as if time has progressed by a part of the area m in a still image-stopped world. The change in the display mode of the character information T is to change, for example, the display color, display brightness, character thickness, character size, or typeface of the character over time. In this embodiment, the display mode is gradually changed from the beginning of the characters constituting the character information T, and the display modes of all the characters constituting the character information T are changed as illustrated in FIG. When a predetermined time elapses later, “motion expression” is started in the still image area m.

図2は、デジタルカメラ1の構成を例示するブロック図である。図2において、撮影レンズ11は、撮像素子12の撮像面に被写体像を結像させる。なお、図2では、撮影レンズ11がカメラと一体的に形成された(撮影レンズが着脱不能な)デジタルカメラ1を例示したが、カメラボディと、そのカメラボディに着脱可能な交換レンズからなるカメラシステムによって構成してもよい。その場合は、図2の撮影レンズ11および後述するレンズ駆動部21からなる構成が交換レンズ側に含まれ、その他の符号からなる構成がカメラボディ側に含まれる。   FIG. 2 is a block diagram illustrating the configuration of the digital camera 1. In FIG. 2, the photographic lens 11 forms a subject image on the imaging surface of the imaging element 12. 2 illustrates the digital camera 1 in which the photographing lens 11 is formed integrally with the camera (the photographing lens cannot be attached / detached). However, the camera includes a camera body and an interchangeable lens that can be attached to and detached from the camera body. You may comprise by a system. In this case, a configuration including the photographing lens 11 of FIG. 2 and a lens driving unit 21 described later is included on the interchangeable lens side, and a configuration including other reference numerals is included on the camera body side.

CPU16は、図示しないシャッターボタンの半押し操作に連動して半押しスイッチ20aがオンすると、AE(自動露出)演算およびオートフォーカス(AF)処理を行わせて、撮影レンズ11を構成するフォーカシングレンズ(不図示)を光軸方向(図2において矢印方向)に進退移動させる。これにより、撮影レンズ11の焦点位置が自動調節される。フォーカシングレンズ(不図示)の駆動は、CPU16から指示を受けたレンズ駆動部21が行う。   When the half-press switch 20a is turned on in conjunction with a half-press operation of a shutter button (not shown), the CPU 16 performs an AE (automatic exposure) calculation and an autofocus (AF) process to form a focusing lens (a focusing lens constituting the photographing lens 11). (Not shown) is moved forward and backward in the optical axis direction (arrow direction in FIG. 2). Thereby, the focal position of the photographic lens 11 is automatically adjusted. The driving of the focusing lens (not shown) is performed by the lens driving unit 21 that receives an instruction from the CPU 16.

撮像素子12は、CMOSイメージセンサなどによって構成される。撮像素子12は、撮像面上に結像された被写体像を撮像する。撮像素子12から出力された撮像信号は、A/D変換部13においてアナログ信号からデジタル信号に変換される。画像処理部14は、デジタル画像信号に対して所定の画像処理を行う。   The image sensor 12 is configured by a CMOS image sensor or the like. The image sensor 12 captures a subject image formed on the imaging surface. The image signal output from the image sensor 12 is converted from an analog signal to a digital signal by the A / D converter 13. The image processing unit 14 performs predetermined image processing on the digital image signal.

液晶モニタ15は、撮像素子12で撮像された画像、後述するバッファメモリ18、あるいはメモリカード50に記憶される画像を表示すると共に、CPU16からの指示に応じて、画像やアイコン、操作メニューなどを表示する。液晶モニタ15の表示面にはタッチ操作部材15aが積層されている。タッチ操作部材15aは、表示画面上のタッチ位置を示す信号をCPU16へ送出する。音響処理回路23は、ステレオマイク22で集音された音響信号を増幅し、増幅後の信号をA/D変換回路(不図示)によってデジタル音響データに変換する。また、音響処理回路23は、デジタル音響データに基づいてD/A変換回路(不図示)によってスピーカ駆動信号を生成し、スピーカ24から音響再生させる。   The liquid crystal monitor 15 displays an image captured by the image sensor 12 and an image stored in a buffer memory 18 or a memory card 50 described later, and displays an image, an icon, an operation menu, and the like according to an instruction from the CPU 16. indicate. A touch operation member 15 a is laminated on the display surface of the liquid crystal monitor 15. The touch operation member 15a sends a signal indicating the touch position on the display screen to the CPU 16. The sound processing circuit 23 amplifies the sound signal collected by the stereo microphone 22 and converts the amplified signal into digital sound data by an A / D conversion circuit (not shown). Further, the sound processing circuit 23 generates a speaker drive signal by a D / A conversion circuit (not shown) based on the digital sound data and reproduces sound from the speaker 24.

フラッシュメモリ17は、CPU16が実行するプログラムや、実行処理に必要なデータ、後述する画像データベース(以降画像DB17Aとする)、文字情報データベース(以降文字情報DB17Bとする)、音響データベース(以降音響DB17Cとする)、対象物データベース(以降対象物DB17Dとする)などを格納する。プログラム、データ、DB17A〜DB17Dの内容は、CPU16からの指示によって追加、変更が可能に構成されている。   The flash memory 17 includes a program executed by the CPU 16, data necessary for execution processing, an image database (hereinafter referred to as an image DB 17A), a character information database (hereinafter referred to as a character information DB 17B), an acoustic database (hereinafter referred to as an acoustic DB 17C). ), An object database (hereinafter referred to as an object DB 17D) and the like are stored. Programs, data, and the contents of DB17A to DB17D can be added or changed by instructions from the CPU 16.

CPU16は、例えばバッファメモリ18を作業領域として制御プログラムを実行し、カメラ各部に対する種々の制御を行う。バッファメモリ18は、画像データに対して各種処理を行うに際し、当該処理の前、あるいは後の画像データを一時的に記憶する場合にも使用される。本実施形態によるデジタルカメラ1では、撮影指示(シャッターボタンの全押し操作)前に撮像素子12によって所定のフレームレートで取得される複数フレームの画像(先撮り画像と呼ぶ)や、撮影指示後に撮像素子12によって所定のフレームレートで取得される複数フレームの画像(後撮り画像と呼ぶ)を一時的に記憶する場合にも使用される。   The CPU 16 executes a control program using the buffer memory 18 as a work area, for example, and performs various controls on each part of the camera. The buffer memory 18 is also used for temporarily storing image data before or after the processing when performing various processing on the image data. In the digital camera 1 according to the present embodiment, images of a plurality of frames (referred to as pre-taken images) acquired at a predetermined frame rate by the image sensor 12 before a shooting instruction (full pressing operation of the shutter button), or after a shooting instruction is taken. It is also used for temporarily storing a plurality of frames of images (referred to as post-taken images) acquired by the element 12 at a predetermined frame rate.

画像処理部14は、デジタル画像信号に対する画像処理以外に、画像信号を格納した所定形式の画像ファイル(例えば Exif ファイル)を生成する。記録再生部19は、CPU16からの指示に基づいて画像ファイルをメモリカード50に記録(保存)し、また、メモリカード50に記録(保存)されている画像ファイルを読み出す。記録再生部19はさらに、音響データを格納した音響ファイルをメモリカード50に記録(保存)し、メモリカード50に記録(保存)されている音響ファイルを読み出す。   In addition to the image processing on the digital image signal, the image processing unit 14 generates an image file (for example, an Exif file) in a predetermined format storing the image signal. The recording / reproducing unit 19 records (saves) the image file on the memory card 50 based on an instruction from the CPU 16 and reads out the image file recorded (saved) on the memory card 50. The recording / playback unit 19 further records (saves) the sound file storing the sound data in the memory card 50 and reads out the sound file recorded (saved) in the memory card 50.

メモリカード50は、図示しないカードスロットに着脱自在に取り付けられる記録媒体である。CPU16は、記録再生部19によってメモリカード50から読み出された画像ファイル、または撮影後バッファメモリ18に記憶されている画像データに基づいて、液晶モニタ15に撮影画像を再生表示させる。   The memory card 50 is a recording medium that is detachably attached to a card slot (not shown). The CPU 16 reproduces and displays the captured image on the liquid crystal monitor 15 based on the image file read from the memory card 50 by the recording / reproducing unit 19 or the image data stored in the post-capture buffer memory 18.

操作部材20は、上記半押しスイッチ20aや、シャッターボタンの全押し操作に伴ってオンする全押しスイッチ20b、およびモード切替えスイッチなどを含み、各部材の操作に伴う操作信号をCPU16へ送出する。   The operation member 20 includes the half-press switch 20a, a full-press switch 20b that is turned on in response to a full-press operation of the shutter button, a mode switching switch, and the like, and sends an operation signal associated with the operation of each member to the CPU 16.

半押しスイッチ20aからのオン信号(半押し操作信号)は、シャッターボタンが通常ストロークの半分程度まで押し下げ操作されると出力され、半ストロークの押し下げ操作解除で出力が解除される。また、全押しスイッチ20bからのオン信号(全押し操作信号)は、シャッターボタンが通常ストロークまで押し下げ操作されると出力され、通常ストロークの押し下げ操作が解除されると出力が解除される。   The ON signal (half-press operation signal) from the half-press switch 20a is output when the shutter button is pressed down to about half of the normal stroke, and the output is canceled when the half-stroke press operation is canceled. The ON signal (full push operation signal) from the full push switch 20b is output when the shutter button is pushed down to the normal stroke, and the output is released when the normal stroke push down operation is released.

<撮影モード>
上記デジタルカメラ1は、「通常の撮影モード」と、「先撮り撮影モード」とを有する。「通常の撮影モード」は、上記全押し操作信号に応じて1フレームずつ撮影画像を取得してメモリカード50へ記録する撮影モードである。「先撮り撮影モード」は、静止画像を所定のフレームレート(例えば毎秒120フレーム)で取得し、上記全押し操作信号を受けると、当該全押し操作信号を受けた時点の前後において取得した複数フレームの画像(上記先撮り画像と後撮り画像)のうち、所定の画像をメモリカード50へ記録する撮影モードである。各撮影モードは、操作部材20またはタッチ操作部材15aからの操作信号に応じて切替え可能に構成されている。
<Shooting mode>
The digital camera 1 has a “normal shooting mode” and a “first shooting mode”. The “normal shooting mode” is a shooting mode in which a shot image is acquired frame by frame in response to the full-press operation signal and recorded in the memory card 50. In the “pre-shooting shooting mode”, a still image is acquired at a predetermined frame rate (for example, 120 frames per second), and when the full-press operation signal is received, a plurality of frames acquired before and after the time when the full-press operation signal is received. This is a shooting mode in which a predetermined image is recorded in the memory card 50 among the images (the above-mentioned pre-taken image and post-taken image). Each photographing mode is configured to be switchable according to an operation signal from the operation member 20 or the touch operation member 15a.

<再生モード>
再生モードのデジタルカメラ1は、「通常の撮影モード」または「先撮り撮影モード」において記録された画像をフレームごとに、あるいは所定数のフレームごとに、液晶モニタ15に再生表示する。また、「動き表現」する場合は、「先撮り撮影モード」で取得された複数フレームの画像に基づいて、静止画像の中で変化する対象物を動的に表現するように、液晶モニタ15に再生表示を行う。
<Playback mode>
The digital camera 1 in the reproduction mode reproduces and displays the image recorded in the “normal photographing mode” or the “pre-shooting photographing mode” on the liquid crystal monitor 15 for each frame or every predetermined number of frames. In addition, in the case of “motion expression”, the liquid crystal monitor 15 is configured to dynamically express an object that changes in a still image based on a plurality of frames of images acquired in the “first shooting mode”. Perform playback display.

<動き表現と文字情報の組合せ>
本実施形態によるデジタルカメラ1は、図1のように「動き表現」に文字情報を組合せる処理に特徴を有するので、以降はこの点を中心に説明する。「動き表現」に文字情報を組合せる処理のオン/オフは、操作部材20またはタッチ操作部材15aからの操作信号に応じて切替え可能に構成されている。
<Combination of motion expression and character information>
Since the digital camera 1 according to the present embodiment is characterized in the process of combining character information with “motion expression” as shown in FIG. 1, the following description will be focused on this point. On / off of the process of combining character information with “motion expression” can be switched according to an operation signal from the operation member 20 or the touch operation member 15a.

再生モードであって、かつ「動き表現」に文字情報を組合せる処理がオンされたデジタルカメラ1は、操作部材20またはタッチ操作部材15aからの操作信号によって指示された複数フレームの画像に基づいて、「動き表現」に適したフレームを選び、選んだフレームの画像を用いて液晶モニタ15に再生表示する。また、再生表示画像に重ねて、操作部材20またはタッチ操作部材15aからの操作に基づいて選択された文字情報を液晶モニタ15に表示する(図1(a)、図1(b))。以下、組合せる文字情報の決定、「動き表現」する画像コンテンツの決定、画像DB17Aに格納されている画像の組の説明、「動き表現」に適したフレームの選択、および「動き表現」において動的に表現する対象物の決定、および「動き表現」のための画像生成について説明する。   The digital camera 1 that is in the playback mode and has the process of combining character information with “motion expression” turned on is based on images of a plurality of frames instructed by an operation signal from the operation member 20 or the touch operation member 15a. Then, a frame suitable for “motion expression” is selected and reproduced and displayed on the liquid crystal monitor 15 using the image of the selected frame. Further, the character information selected based on the operation from the operation member 20 or the touch operation member 15a is displayed on the liquid crystal monitor 15 so as to be superimposed on the reproduction display image (FIGS. 1A and 1B). Hereinafter, determination of character information to be combined, determination of image contents to be “motion expressed”, description of a set of images stored in the image DB 17A, selection of a frame suitable for “motion expression”, and movement in “motion expression” A description will be given of the determination of an object to be expressed and image generation for “motion expression”.

―「動き表現」と組合せる文字情報の決定−
文字情報DB17Bには、あらかじめ俳句や詩、文章などの複数のコンテンツが格納されている。CPU16は、文字情報DB17Bに格納されているコンテンツの中から、「動き表現」と組合せる文字情報を決定する。CPU16は、文字情報DB17Bに格納されている複数のコンテンツのそれぞれについて、先頭から所定数の文字(例えば最大20文字)を読み出し、読み出した内容を液晶モニタ15の画面上にリスト表示させる。CPU16は、リスト表示させた状態で、タッチ操作部材15aを用いたコンテンツの選択操作を受け付ける。
-Determination of character information combined with "motion expression"-
The character information DB 17B stores a plurality of contents such as haiku, poetry, and sentences in advance. The CPU 16 determines the character information to be combined with the “motion expression” from the contents stored in the character information DB 17B. The CPU 16 reads a predetermined number of characters (for example, a maximum of 20 characters) from the top for each of the plurality of contents stored in the character information DB 17B, and displays the read contents in a list on the screen of the liquid crystal monitor 15. The CPU 16 accepts a content selection operation using the touch operation member 15a in a list display state.

ユーザーは、液晶モニタ15の画面上で任意の文字列の表示位置をタッチ操作する。CPU16は、タッチ操作部材15aからの操作信号を受けると、タッチ位置に対応するコンテンツの全文を文字情報DB17Bから読み出し、上記リスト表示に代えて液晶モニタ15の画面上に表示させる。ユーザーは、液晶モニタ15の画面上で不図示の「決定」アイコンの表示位置をタッチ操作する。CPU16は、タッチ操作部材15aから決定操作信号を受けると、全文表示しているコンテンツを「動き表現」と組合せる文字情報に決定する。なお、CPU16は、液晶モニタ15の画面上で不図示の「戻る」アイコンの表示位置がタッチ操作された場合は、液晶モニタ15の画面上に再度リスト表示させる。   The user touches the display position of an arbitrary character string on the screen of the liquid crystal monitor 15. When receiving an operation signal from the touch operation member 15a, the CPU 16 reads out the entire text of the content corresponding to the touch position from the character information DB 17B and displays it on the screen of the liquid crystal monitor 15 instead of the list display. The user touches the display position of a “determine” icon (not shown) on the screen of the liquid crystal monitor 15. When the CPU 16 receives the determination operation signal from the touch operation member 15a, the CPU 16 determines the content displayed in the full text as character information to be combined with “motion expression”. When the display position of the “return” icon (not shown) is touched on the screen of the liquid crystal monitor 15, the CPU 16 displays the list again on the screen of the liquid crystal monitor 15.

−「動き表現」する画像の決定−
画像DB17Aには、1組につき複数のフレーム画像を有する画像の組が、あらかじめ複数組格納されている。CPU16は、画像DB17Aに格納されている複数の画像の組の中から1つの画像の組を、「動き表現」するコンテンツ画像として決定する。画像DB17Aに格納されている画像の組が、どのように撮影された画像群であるかについては後述する。
-Determining the image for "motion expression"-
In the image DB 17A, a plurality of sets of images each having a plurality of frame images are stored in advance. The CPU 16 determines one image set from among a plurality of image sets stored in the image DB 17A as a content image to be “moved”. How the set of images stored in the image DB 17A is a captured image group will be described later.

CPU16は、画像DB17Aに格納されている画像の各組から、代表としてサムネイル画像を1つずつ読み出し、読み出したサムネイル画像を液晶モニタ15の画面上に並べて表示させる。CPU16は、サムネイル画像を並べて表示した状態で、タッチ操作部材15aを用いたコンテンツ画像の選択操作を受け付ける。   The CPU 16 reads one thumbnail image as a representative from each set of images stored in the image DB 17 </ b> A, and displays the read thumbnail images side by side on the screen of the liquid crystal monitor 15. The CPU 16 accepts a content image selection operation using the touch operation member 15a in a state where thumbnail images are displayed side by side.

ユーザーは、液晶モニタ15の画面上で任意のサムネイル画像の表示位置をタッチ操作する。CPU16は、タッチ操作部材15aからの操作信号を受けると、タッチ位置のサムネイル画像を代表とする画像の組に含まれるフレーム画像の全てを画像DB17Aから読み出し、これらのサムネイル画像を液晶モニタ15の画面上に並べて表示させる。ユーザーは、液晶モニタ15の画面上で不図示の「決定」アイコンの表示位置をタッチ操作する。CPU16は、タッチ操作部材15aから決定操作信号を受けると、並べて表示中の画像の組を、「動き表現」するコンテンツ画像として決定する。なお、CPU16は、液晶モニタ15の画面上で不図示の「戻る」アイコンの表示位置がタッチ操作された場合は、液晶モニタ15の画面上に再度各画像の組を代表するサムネイル画像を並べて表示させる。   The user touches the display position of an arbitrary thumbnail image on the screen of the liquid crystal monitor 15. When the CPU 16 receives the operation signal from the touch operation member 15a, the CPU 16 reads all the frame images included in the set of images represented by the thumbnail image at the touch position from the image DB 17A, and these thumbnail images are displayed on the screen of the liquid crystal monitor 15. Display them side by side. The user touches the display position of a “determine” icon (not shown) on the screen of the liquid crystal monitor 15. When receiving the determination operation signal from the touch operation member 15a, the CPU 16 determines a set of images displayed side by side as a content image to be “moved”. When the display position of a “return” icon (not shown) is touch-operated on the screen of the liquid crystal monitor 15, the CPU 16 displays thumbnail images representative of each set of images again on the screen of the liquid crystal monitor 15. Let

―画像DB17Aに格納されている画像の組について―
画像DB17Aに格納されている画像の組が、どのように撮影された画像群であるかについて説明する。ユーザーは、例えばデジタルカメラ1を手持ちして、または三脚に固定して、複数フレームの画像を取得する。図3は、「先撮り撮影モード」における画像の取得タイミングを説明する図である。図3において、時刻t0に「先撮り撮影モード」が起動されると、CPU16は撮影待機処理を開始させる。撮影待機処理では、上記所定のフレームレートで被写体像を撮像して露出演算やフォーカス調節を行うとともに、取得した画像データを逐次バッファメモリ18へ記憶する。
-About the set of images stored in the image DB 17A-
How the set of images stored in the image DB 17A is a captured image group will be described. The user obtains a plurality of frames of images, for example, by holding the digital camera 1 or fixing the digital camera 1 to a tripod. FIG. 3 is a diagram for explaining the image acquisition timing in the “pre-shooting shooting mode”. In FIG. 3, when the “pre-shooting shooting mode” is activated at time t0, the CPU 16 starts shooting standby processing. In the shooting standby process, the subject image is captured at the predetermined frame rate, exposure calculation and focus adjustment are performed, and the acquired image data is sequentially stored in the buffer memory 18.

「先撮り撮影モード」において先撮り画像と後撮り画像の記憶に使用するバッファメモリ18のメモリ容量は、あらかじめ十分な容量が確保されている。CPU16は、時刻t0以降にバッファメモリ18内に記憶したフレーム画像のフレーム枚数が所定枚数(例えばC枚)に達した場合には、古いフレーム画像から順に上書き消去する。これにより、「先撮り撮影モード」において先撮り画像と後撮り画像の記憶に使用するバッファメモリ18のメモリ容量を制限できる。   In the “pre-shooting shooting mode”, a sufficient memory capacity of the buffer memory 18 used for storing the pre-shooting image and the post-shooting image is secured in advance. When the number of frame images stored in the buffer memory 18 after time t0 reaches a predetermined number (for example, C), the CPU 16 overwrites and erases the oldest frame images in order. Thereby, the memory capacity of the buffer memory 18 used for storing the pre-taken image and the post-taken image in the “pre-photographing shooting mode” can be limited.

時刻t1に全押し操作信号が入力されると、CPU16は撮影処理を開始させる。撮影処理では、時刻t1以前に先撮りしたA枚のフレーム画像と、時刻t1より後に後撮りされるB枚のフレーム画像とを合わせた(A+B)枚のフレーム画像をメモリカード50への記録候補画像とする。図3における黒い帯は、記録候補画像である(A+B)枚のフレーム画像が取得される区間を表す。斜線の帯は、バッファメモリ18に一旦は記憶されたものの、上書き消去されたフレーム画像が取得された区間を表す。   When a full-press operation signal is input at time t1, the CPU 16 starts shooting processing. In the photographing process, (A + B) frame images obtained by combining A frame images pre-taken before time t1 and B frame images taken after time t1 are recorded on the memory card 50. An image. A black band in FIG. 3 represents a section in which (A + B) frame images that are recording candidate images are acquired. The hatched band represents a section in which a frame image that has been temporarily stored in the buffer memory 18 but has been overwritten and erased is acquired.

CPU16は、設定されている記録方式に基づいて、記録候補画像のうち所定のフレーム画像をメモリカード50に記録する。本実施形態によるデジタルカメラ1では、(A+B)枚全てのフレーム画像を1組として、メモリカード50に記録するものとする。フレーム画像の組は、時間軸上で順番に並ぶので時系列画像と呼ぶ。   The CPU 16 records a predetermined frame image among the recording candidate images on the memory card 50 based on the set recording method. In the digital camera 1 according to the present embodiment, it is assumed that all (A + B) frame images are recorded on the memory card 50 as one set. Since the set of frame images is arranged in order on the time axis, it is called a time-series image.

CPU16はさらに、メモリカード50に記録された複数の組の時系列画像の中から、画像DB17Aへ格納する時系列画像の組を決定する。CPU16は、操作部材20またはタッチ操作部材15aからの操作信号によって指示された組の時系列画像を、画像DB17A内に「複製」する。なお、複製元の組の時系列画像をメモリカード50から削除する「移動」を行ってもよい。   The CPU 16 further determines a set of time series images to be stored in the image DB 17A from among a plurality of sets of time series images recorded on the memory card 50. The CPU 16 “duplicates” a set of time-series images instructed by an operation signal from the operation member 20 or the touch operation member 15a in the image DB 17A. Note that “move” may be performed to delete the time-series images of the copy source set from the memory card 50.

―「動き表現」に適したフレームの選択―
CPU16は、「動き表現」するコンテンツ画像として上述したように決定した時系列画像の組に基づいて、「動き表現」に適したフレームを選ぶ。具体的には、静止領域(背景)として用いるフレームSと、フレームSより時間的に前に取得されたフレームPと、フレームSより時間的に後に取得されたフレームQとを、(A+B)枚のフレーム画像の中から選ぶ。
―Selecting frames suitable for motion expression―
The CPU 16 selects a frame suitable for “motion expression” based on the set of time-series images determined as described above as the content image to be “motion expression”. Specifically, a frame S used as a still region (background), a frame P acquired before the frame S, and a frame Q acquired after the frame S are (A + B) frames. Select from the frame images.

―フレームS―
本実施形態によるデジタルカメラ1のCPU16は、ユーザー操作によって指示されたフレーム画像をフレームSとする。具体的には、(A+B)枚のフレーム画像に基づいて、各フレームのサムネイル画像を図4に例示するように、液晶モニタ15の画面に並べて表示させる。(A+B)枚のサムネイル画像が一画面に収まらない場合には、CPU16は、ユーザー操作に応じて画面をスクロールさせることにより、ユーザーが意図するサムネイル画像を液晶モニタ15に表示させる。
-Frame S-
The CPU 16 of the digital camera 1 according to the present embodiment uses the frame image designated by the user operation as the frame S. Specifically, based on (A + B) frame images, thumbnail images of each frame are displayed side by side on the screen of the liquid crystal monitor 15 as illustrated in FIG. When (A + B) thumbnail images do not fit on one screen, the CPU 16 causes the liquid crystal monitor 15 to display a thumbnail image intended by the user by scrolling the screen in accordance with a user operation.

ユーザーは、図4に例示した液晶モニタ15の画面上で、「動き表現」の際に静止領域(背景)として用いたいフレームをタッチ操作で選ぶ。CPU16は、タッチ操作部材15aからの操作信号を受けると、タッチ位置のサムネイル画像Xに対応するフレーム画像をフレームSとする。CPU16は、フレームSを決定すると画像DB17AからフレームSの画像をから読み出し、図5に例示するように液晶モニタ15の画面上に表示させる。   On the screen of the liquid crystal monitor 15 illustrated in FIG. 4, the user selects a frame to be used as a still area (background) by “touch operation” in “motion expression”. When the CPU 16 receives the operation signal from the touch operation member 15a, the CPU 16 sets the frame image corresponding to the thumbnail image X at the touch position as the frame S. When determining the frame S, the CPU 16 reads out the image of the frame S from the image DB 17A and displays it on the screen of the liquid crystal monitor 15 as illustrated in FIG.

なお、全押し操作信号が入力された時刻t1に最も近いタイミングで撮像された画像を、自動的にフレームSとして設定するようにしてもよい。この場合、バッファメモリ18内に記憶されたA+B枚のフレーム画像のうち、どのフレームが全押し操作タイミングに最も近いタイミングで撮像された画像であるかを示す情報についても、バッファメモリ18に記憶しておく。   Note that an image captured at the timing closest to the time t1 when the full-press operation signal is input may be automatically set as the frame S. In this case, information indicating which of the A + B frame images stored in the buffer memory 18 is an image captured at the timing closest to the full-press operation timing is also stored in the buffer memory 18. Keep it.

―「動き表現」において動的に表現する対象物の決定―
CPU16は、「動き表現」において静止画像の中で動的に表現する対象物を以下のように決定する。CPU16は、上述したように決定した文字情報の全文から、所定の品詞(例えば名詞)を検出する。CPU16は、検出した名詞が表す対象物を、「動き表現」において静止画像の中で動的に表現する。このためにCPU16は、静止画像において公知の物体認識処理を行うことにより、対象物を特定する。ここで、品詞検出に必要な情報と、物体検出に必要な情報(例えば、物体検出に用いる画像特徴量など)とが、対象物データベース17Dにあらかじめ記録されている。
-Determination of objects to be dynamically expressed in "motion expression"-
The CPU 16 determines an object to be dynamically expressed in a still image in “motion expression” as follows. CPU16 detects a predetermined part of speech (for example, noun) from the whole sentence of the character information determined as mentioned above. The CPU 16 dynamically expresses the object represented by the detected noun in the “motion expression” in the still image. For this purpose, the CPU 16 specifies a target object by performing a known object recognition process on a still image. Here, information necessary for part-of-speech detection and information necessary for object detection (for example, an image feature amount used for object detection) are recorded in advance in the object database 17D.

例えば、図1(a)および図1(b)に例示した文字情報Tの場合を例に説明すると、CPU16は、「古池や蛙飛び込む水の音」の中の名詞「池」、「蛙」、「水」、「音」を検出する。CPU16はさらに、静止画像(フレームS)の中から上記名詞に対応する物体を物体認識処理によって検出する。一般に、輪郭を有していない物体の検出は困難であるところ、「水」や「音」そのものは輪郭を有していないため、これらの検出は困難である。本例の場合、CPU16は、図5に例示したフレームSから、例えば「蛙」より画像に占める割合が大きい「池」を検出する。そしてCPU16は、検出した「池」を囲む矩形領域のマークmをフレームSの画像上に重ね表示させ、マークmで囲まれる範囲を動体領域とする。   For example, the case of the character information T illustrated in FIG. 1A and FIG. 1B will be described as an example. The CPU 16 determines the nouns “pond” and “蛙” in “the sound of water from old ponds and frogs”. , “Water” and “Sound” are detected. The CPU 16 further detects an object corresponding to the noun from the still image (frame S) by object recognition processing. In general, it is difficult to detect an object having no outline, but “water” or “sound” itself does not have an outline, and therefore it is difficult to detect them. In the case of this example, the CPU 16 detects, from the frame S illustrated in FIG. 5, for example, “pond” having a larger proportion of the image than “蛙”. Then, the CPU 16 displays the mark m in the rectangular area surrounding the detected “pond” on the image of the frame S, and sets the range surrounded by the mark m as the moving object area.

―フレームP、フレームQ―
CPU16は、上記フレームSより時間的に前に取得されたフレーム画像からフレームPを選ぶ。また、CPU16は、上記フレームSより時間的に後に取得されたフレーム画像からフレームQを選ぶ。図6は、「池」を対象物とし、この「池」の水面に広がる波紋を撮影したフレームf1、フレームf2、…フレームf(A−1)、フレームfA、フレームf(A+1)、…フレームf(A+5)、…フレームf(A+10)、…フレームf(A+B)の画像を例示する図である。草の上から「蛙」が池へ飛び込み、「池」の水面に波紋が広がる場面である。本説明では、フレームf(A+1)を上記フレームSに対応させる。このため、フレームf1からフレームfAまでがフレームPの候補に対応し、フレームf(A+2)からフレームf(A+B)までがフレームQの候補に対応する。
-Frame P, Frame Q-
The CPU 16 selects the frame P from the frame image acquired before the frame S in time. Further, the CPU 16 selects the frame Q from the frame image acquired after the frame S in terms of time. 6 shows a frame f1, a frame f2,... Frame f (A-1), a frame fA, a frame f (A + 1),. It is a figure which illustrates the image of f (A + 5), ... frame f (A + 10), ... frame f (A + B). This is a scene in which “Rin” jumps into the pond from the top of the grass and ripples spread on the surface of the “pond”. In this description, the frame f (A + 1) is made to correspond to the frame S. Therefore, the frame f1 to the frame fA correspond to the frame P candidates, and the frame f (A + 2) to the frame f (A + B) correspond to the frame Q candidates.

図6のフレームf(A+1)(すなわちフレームS)における動体領域m(A+1)は、図5において決定した動体領域に対応する。CPU16は、例えば、動体領域m(A+1)をテンプレートとして、図6のフレームf(A+1)(すなわちフレームS)以外の他のフレーム画像からテンプレートマッチング手法によって動体領域を抽出する。図6のm1、m2、…m(A−1)、m(A)、m(A+1)、…m(A+5)、…m(A+10)、…m(A+B)は、各フレームにおける動体領域を表す。なお、上記の各フレーム画像における動体領域の抽出は、上記のテンプレートマッチングの手法に代えて(あるいは加えて)、各フレーム間の差分等の演算、あるいはテクスチャ等の画像特徴量を用いて行うものであっても構わない。動体領域は、時間変化を伴うものである為、単純なテンプレートマッチングでは抽出できない場合も想定される。このような場合には、フレーム間の差分等の演算や、テクスチャ等の画像特徴量を用いる手法が有効である。   The moving object region m (A + 1) in the frame f (A + 1) (that is, the frame S) in FIG. 6 corresponds to the moving object region determined in FIG. For example, the CPU 16 extracts the moving body region from the frame image other than the frame f (A + 1) (that is, the frame S) in FIG. 6 by using the template matching method with the moving body region m (A + 1) as a template. 6, m (A-1), m (A), m (A + 1), ... m (A + 5), ... m (A + 10), ... m (A + B) are moving object regions in each frame. Represent. In addition, the extraction of the moving object region in each frame image described above is performed by using the calculation of the difference between the frames or the image feature amount such as the texture instead of (or in addition to) the template matching method described above. It does not matter. Since the moving object region is accompanied by a change in time, it may be assumed that the moving object region cannot be extracted by simple template matching. In such a case, a method using a calculation such as a difference between frames or an image feature amount such as a texture is effective.

図7は、フレームf(A+1)(すなわちフレームS)における動体領域m(A+1)、および非動体領域(すなわち静止領域)を例示する図である。斜線を引いた領域が非動体領域を表す。CPU16は、図6の各フレーム画像からそれぞれの動体領域において2以上の特徴点を抽出する。   FIG. 7 is a diagram illustrating a moving object area m (A + 1) and a non-moving object area (that is, a stationary area) in the frame f (A + 1) (that is, the frame S). A hatched area represents a non-moving object area. The CPU 16 extracts two or more feature points in each moving object region from each frame image in FIG.

図6において、複数の黒点は特徴点を表す。画像間の位置合わせに適した特徴点の抽出は、例えば、Lowe, David G. (1999). "Object recognition from local scale-invariant features". Proceedings of the International Conference on Computer Vision. 2. pp.1150-1157.などに開示される公知の技術を用いることができる。   In FIG. 6, a plurality of black dots represent feature points. For example, Lowe, David G. (1999). "Object recognition from local scale-invariant features". Proceedings of the International Conference on Computer Vision. 2. pp.1150 Known techniques disclosed in -1157. And the like can be used.

CPU16は、フレームf1、フレームf2、…フレームf(A−1)、フレームfA、フレームf(A+1)、…フレームf(A+5)、…フレーム(A+10)、…フレームf(A+B)間でそれぞれ特徴点の対応付けを行い、フレーム間の画像の位置合わせを行う。CPU16は、各フレームにおける動体領域の位置を、フレームf(A+1)(すなわちフレームS)を基準に表す。   The CPU 16 is characterized by a frame f1, a frame f2,... Frame f (A-1), a frame fA, a frame f (A + 1), a frame f (A + 5), a frame (A + 10), a frame f (A + B). Points are associated and images are aligned between frames. The CPU 16 represents the position of the moving object area in each frame with reference to the frame f (A + 1) (that is, the frame S).

図6の場合、フレームPの候補となるフレームでは、動体領域において隣接フレームとの間でそれぞれ差分が生じていない。この場合のCPU16は、例えばフレームSとの間で時間的に隣接するフレームfAをフレームPとして選ぶ。なお、フレームPは複数選んでもよい。   In the case of FIG. 6, in the frames that are candidates for the frame P, no difference is generated between adjacent frames in the moving object region. In this case, the CPU 16 selects, for example, the frame fA that is temporally adjacent to the frame S as the frame P. A plurality of frames P may be selected.

また、図6の場合、フレームQの候補となるフレームでは、動体領域において隣接フレームとの間でそれぞれ差分が生じている。対象物である「池」の輪郭の形状は、フレーム間で等しく、「池」の輪郭の大きさも変化がないが、「池」の水面の波紋の形状はフレーム間で異なる。CPU16は、フレームSとの間でそれぞれの波紋間の相対距離が所定範囲内であるフレームf(A+5)、フレームf(A+10),およびf(A+B)をフレームQとして選ぶ。フレームQを構成するフレーム数を多くすると、「動き表現」を滑らかにできる。   In the case of FIG. 6, in the frame that is a candidate for the frame Q, a difference is generated between each adjacent frame in the moving object region. The shape of the contour of the “pond” that is the object is the same between the frames, and the size of the contour of the “pond” does not change, but the shape of the ripples on the water surface of the “pond” varies from frame to frame. The CPU 16 selects a frame f (A + 5), a frame f (A + 10), and f (A + B) whose relative distances between the ripples are within a predetermined range from the frame S as the frame Q. When the number of frames constituting the frame Q is increased, the “motion expression” can be smoothed.

CPU16は、上述するように選んだフレームS、フレームP(フレームfA)、およびフレームQ(フレームf(A+5)、フレームf(A+10)、フレームf(A+B))を合成して静止画像(フレームS)上において動体領域を動的に表現する。具体的には、フレームSの一部を構成する動体領域m(A+1)に代えて、他のフレームの動体領域を、フレームSにおいて対応する位置へ所定時間ごとに順次はめ込み合成する。このためにCPU16は、先ず、フレームSの画像、および選んだ複数のフレーム画像からテンプレートマッチング手法によってそれぞれ動体領域を抽出する。図7において、m(A)、m(A+5)、m(A+10)、m(A+B)は、抽出した動体領域を例示する図である。CPU16は、このようにして対象物についての時系列画像を生成する。図7の動体領域は、上述した「動き表現」に適したフレーム選択を行う際に抽出済みであるので、この情報を使用できる。   The CPU 16 combines the frame S, the frame P (frame fA), and the frame Q (frame f (A + 5), frame f (A + 10), and frame f (A + B)) selected as described above to generate a still image (frame S). ) Dynamically represent the moving object region above. Specifically, instead of the moving object region m (A + 1) constituting a part of the frame S, the moving object regions of other frames are sequentially fitted and synthesized at corresponding positions in the frame S every predetermined time. For this purpose, the CPU 16 first extracts a moving object region from the image of the frame S and the selected plurality of frame images by a template matching method. In FIG. 7, m (A), m (A + 5), m (A + 10), and m (A + B) are diagrams illustrating extracted moving body regions. In this way, the CPU 16 generates a time-series image for the object. Since the moving object region in FIG. 7 has already been extracted when performing frame selection suitable for the “motion expression” described above, this information can be used.

―「動き表現」のための画像生成―
CPU16は、図7に例示したフレームS(f(A+1))における動体領域m(A+1)に代えて、対象物についての時系列画像、すなわち、フレームPの動体領域m(A)、フレームSの動体領域m(A+1)、上記フレームQの動体領域m(A+5)、動体領域m(A+10)、動体領域m(A+B)を、フレームSにおいて対応する位置へ所定の時間ごとに、順番にはめ込み合成する。フレームSにおいて対応する位置は、「動き表現」に適したフレーム選択の際に求めた動体領域の位置であって、フレームSを基準に表した位置である。
-Image generation for "motion expression"-
The CPU 16 replaces the moving object area m (A + 1) in the frame S (f (A + 1)) illustrated in FIG. 7 with respect to the time series image of the object, that is, the moving object area m (A) of the frame P, the frame S The moving object area m (A + 1), the moving object area m (A + 5), the moving object area m (A + 10), and the moving object area m (A + B) of the frame Q are sequentially inserted into the corresponding positions in the frame S at predetermined time intervals. To do. The corresponding position in the frame S is the position of the moving object region obtained when selecting a frame suitable for “motion expression”, and is a position represented with reference to the frame S.

例えば、三脚で撮影方向を変更しないで撮影した場合には、各フレームで池の座標位置は変化しない。これに対し、画面上の位置が各フレームで変化する蛙を撮影する場合や、手持ちで撮影した場合には(手ぶれにより)、順次はめこみ合成するフレームS上の動体領域の位置が、フレームによって異なる。このように動体領域の位置がフレームごとに異なる場合のはめこみ合成の位置は、フレームSの背景領域を基準にして、各フレームを位置合わせした上で、各フレームの動体領域の座標を、フレームS上の座標に変換した上で、各フレームの動体領域を、順次、フレームS上の変換座標上にはめこみ合成する。   For example, when shooting without changing the shooting direction with a tripod, the coordinate position of the pond does not change in each frame. On the other hand, when shooting a wrinkle whose position on the screen changes in each frame, or when shooting by hand (by camera shake), the position of the moving object region on the frame S to be sequentially fitted and synthesized differs depending on the frame. . In this way, when the position of the moving object region is different for each frame, the position of the inset composition is obtained by aligning each frame with reference to the background region of the frame S, and then setting the coordinates of the moving object region of each frame as the frame S. After converting to the upper coordinates, the moving object region of each frame is sequentially embedded and synthesized on the converted coordinates on the frame S.

また、各フレーム画像を、フレームSの背景領域の特徴点を基準に位置合わせをした上で、対象物(例えば蛙)の「移動範囲を包含する範囲」を動体領域として設定し(この場合、動体領域を含む被写体の範囲(撮影範囲)は各フレームで同じになるので、動体領域の中に対象物と静止領域とが含まれる)、各フレーム画像における動体領域を、フレームS上の変換座標上に、順次はめこみ合成する構成としてもよい。   In addition, after aligning each frame image with reference to the feature point of the background region of the frame S, the “range including the moving range” of the object (for example, 蛙) is set as the moving object region (in this case, Since the range (shooting range) of the subject including the moving object region is the same in each frame, the moving object region includes the object and the stationary region), and the moving object region in each frame image is converted to the converted coordinates on the frame S. It is also possible to employ a configuration in which the fitting is sequentially performed.

図8は、はめ込み合成後のフレームcA、フレームc(A+1)、フレームc(A+5)、c(A+10)およびフレームc(A+B)を例示する図である。各フレームの「動体領域の画像」は、それぞれ図6のフレームfA、フレームf(A+1)、フレームf(A+5)、f(A+10)およびフレームf(A+B)を撮影した時点の「動体領域の画像」に対応する。なお、フレームc(A+1)は、フレームf(A+1)に等しい。   FIG. 8 is a diagram illustrating the frame cA, the frame c (A + 1), the frame c (A + 5), c (A + 10), and the frame c (A + B) after the inset synthesis. The “moving body region image” of each frame is the “moving body region image” at the time when the frames fA, f (A + 1), f (A + 5), f (A + 10), and f (A + B) of FIG. ". Note that the frame c (A + 1) is equal to the frame f (A + 1).

図8に例示した画像を液晶モニタ15に順番に再生表示させると、静止画像(フレームS=f(A+1))という時間の止まった世界の中で、動体領域(「池」の波紋)だけ時間が進行しているかのような、異質な世界を表現し得る。   When the images illustrated in FIG. 8 are sequentially reproduced and displayed on the liquid crystal monitor 15, the time of the moving object region (the ripples of the “pond”) is reduced in the still image (frame S = f (A + 1)). It can express a heterogeneous world as if is progressing.

なお、静止画像(フレームS)上において動体領域の位置をm(A)→m(A+1)→m(A+5)→m(A+10)→m(A+B)→m(A)…へ切替える時間の間隔を短くすると速い「動き表現」になり、切替える間隔を長くすると遅い「動き表現」になる。   It should be noted that the time interval for switching the position of the moving object region on the still image (frame S) from m (A) → m (A + 1) → m (A + 5) → m (A + 10) → m (A + B) → m (A). If the is shortened, it becomes a fast “motion expression”, and if the switching interval is lengthened, it becomes a slow “motion expression”.

<「動き表現」と文字情報の表示態様の変化のタイミング>
CPU16は、「動き表現」において静止画像の中で動体領域(対象物)を動的に動かすタイミングと、文字情報の表示態様を変化させるタイミングとを、例えば以下のように関連づける(同期させる)。まず、はめ込み合成後のフレームcAを液晶モニタ15に表示した状態で文字情報Tを重ね表示させる。
<"Motion expression" and the timing of changes in the display mode of character information>
The CPU 16 associates (synchronizes) the timing of dynamically moving the moving object region (object) in the still image with the timing of changing the display mode of the character information as follows, for example, in “motion expression”. First, the character information T is displayed in a superimposed manner in a state where the frame cA after the inset composition is displayed on the liquid crystal monitor 15.

次にCPU16は、図1(a)に例示したように、文字情報Tの表示態様を時間経過とともに変化させる。CPU16はさらに、図1(b)に例示するように、文字情報Tを構成する全ての文字の表示態様の変化が終了した後、所定時間(例えば0.5秒)が経過すると「動き表現」を開始させる。上記説明では、f(A)〜f(A+B)のうちから、動き表現に用いるフレーム画像を選択する構成としたが、例えば、f(A)〜f(A+B)の全てのフレーム画像を用いて、動き表現に用いる画像を生成してもよい。   Next, as illustrated in FIG. 1A, the CPU 16 changes the display mode of the character information T over time. Further, as illustrated in FIG. 1B, the CPU 16 further performs “motion expression” when a predetermined time (for example, 0.5 seconds) elapses after the change of the display mode of all the characters constituting the character information T is completed. To start. In the above description, the frame image used for motion expression is selected from f (A) to f (A + B). For example, all the frame images f (A) to f (A + B) are used. An image used for motion expression may be generated.

<「動き表現」に必要なデータの記録>
CPU16は記録再生部19へ指示を送り、「動き表現」に必要なデータと、文字情報の表示態様の変化に必要なデータとをメモリカード50に記録させる。記録するデータは、例えば、フレームS、フレームPおよびフレームQの各画像、これらの画像における動体領域の範囲、座標位置、フレームPおよびフレームQからフレームSへ位置合わせするための制御(シフト)値、ループ再生の要否などの情報、文字情報T、文字情報の表示位置、表示態様の変化開始のタイミング、表示態様の変化速度などである。
<Recording of data necessary for "motion expression">
The CPU 16 sends an instruction to the recording / playback unit 19 to cause the memory card 50 to record data necessary for “motion expression” and data necessary for changing the display mode of the character information. The data to be recorded includes, for example, each image of frame S, frame P, and frame Q, the range of the moving object region in these images, the coordinate position, and the control (shift) value for aligning from frame P and frame Q to frame S , Information such as necessity of loop reproduction, character information T, display position of character information, display mode change start timing, display mode change speed, and the like.

―フローチャートの説明―
図9は、上述した「動き表現」のためにCPU16が実行する処理の流れを説明するフローチャートである。CPU16は、「先撮り撮影モード」に設定されると図9による処理を起動する。図9のステップS1において、CPU16は先撮り画像の取得(すなわち撮影待機処理)を開始させてステップS2へ進む。これにより、先撮りされたフレーム画像がバッファメモリ18に蓄積されるとともに、液晶モニタ15に逐次表示される。
―Explanation of flowchart―
FIG. 9 is a flowchart for explaining the flow of processing executed by the CPU 16 for the above-described “motion expression”. When the CPU 16 is set to the “pre-shooting shooting mode”, the CPU 16 activates the process shown in FIG. In step S1 of FIG. 9, the CPU 16 starts acquiring a pre-taken image (that is, shooting standby processing) and proceeds to step S2. As a result, the pre-taken frame image is accumulated in the buffer memory 18 and is sequentially displayed on the liquid crystal monitor 15.

ステップS2において、CPU16は、先撮り画像データに基づいてAE(自動露出)演算およびAF(自動焦点調節)処理を行わせてステップS3へ進む。ステップS3において、CPU16は、レリーズボタンの全押し操作が行われたか否かを判定する。CPU16は、全押しスイッチ20bからのオン信号が入力された場合にステップS3を肯定判定してステップS4へ進み、全押しスイッチ20bからのオン信号が入力されない場合には、ステップS3を否定判定してステップS2へ戻る。ステップS2へ戻る場合は、上述した処理を繰り返す。   In step S2, the CPU 16 performs AE (automatic exposure) calculation and AF (automatic focus adjustment) processing based on the pre-captured image data, and proceeds to step S3. In step S3, the CPU 16 determines whether or not the release button has been fully pressed. The CPU 16 makes an affirmative decision in step S3 when an on signal from the full push switch 20b is input, and proceeds to step S4. If an on signal from the full push switch 20b is not inputted, the CPU 16 makes a negative decision in step S3. To return to step S2. When returning to step S2, the above-described processing is repeated.

ステップS4において、CPU16は、後撮り画像の取得を開始させてステップS5へ進む。後撮り画像は、全押し操作に応じて取得する1枚と、その後に取得する(B−1)枚である。ステップS5において、CPU16は、バッファメモリ18に記憶している(A+B)枚のフレーム画像をメモリカード50に記録してステップS6へ進む。   In step S4, the CPU 16 starts acquisition of a later shot image and proceeds to step S5. The post-taken images are one sheet acquired in response to the full press operation and (B-1) sheets acquired thereafter. In step S5, the CPU 16 records (A + B) frame images stored in the buffer memory 18 on the memory card 50, and then proceeds to step S6.

ステップS6において、CPU16は、終了指示が行われたか否かを判定する。CPU16は、操作部材20またはタッチ操作部材15aから「通常撮影モード」へ切り替える操作信号が入力されると、ステップS6を肯定判定して図9による処理を終了する。CPU16は、操作部材20またはタッチ操作部材15aから「通常撮影モード」への切り替え操作信号が入力されない場合は、ステップS6を否定判定してステップS1へ戻る。ステップS1へ戻る場合は、上述した処理を繰り返す。   In step S6, the CPU 16 determines whether or not an end instruction has been issued. When an operation signal for switching to the “normal photographing mode” is input from the operation member 20 or the touch operation member 15a, the CPU 16 makes a positive determination in step S6 and ends the process of FIG. If the switching operation signal for switching to the “normal shooting mode” is not input from the operation member 20 or the touch operation member 15a, the CPU 16 makes a negative determination in step S6 and returns to step S1. When returning to step S1, the above-described processing is repeated.

「動き表現」に文字情報を組合せるCPU16が実行する処理の流れについて、図10に例示するフローチャートを参照して説明する。ここで、「動き表現」する画像は、上述したユーザー操作によって決定した画像であり、「動き表現」に組合せる文字情報は、上述したユーザー操作によって決定した文字情報である。CPU16は、再生モードであって、かつ「動き表現」に文字情報を組合せる処理がオンされると図10による処理を起動する。   A flow of processing executed by the CPU 16 that combines character information with “motion expression” will be described with reference to a flowchart illustrated in FIG. 10. Here, the “motion expression” image is an image determined by the user operation described above, and the character information combined with the “motion expression” is the character information determined by the user operation described above. When the CPU 16 is in the playback mode and the process of combining character information with “motion expression” is turned on, the CPU 16 starts the process of FIG.

図10のステップS51において、CPU16は、(A+B)枚のフレーム画像の中から静止画用フレーム(フレームS)を決めてステップS52へ進む。ステップS52において、CPU16は、再生時に静止画像(フレームS)上で動的に表現する動体領域を決定してステップS53へ進む。   In step S51 of FIG. 10, the CPU 16 determines a still image frame (frame S) from the (A + B) frame images, and proceeds to step S52. In step S52, the CPU 16 determines a moving object region to be dynamically expressed on a still image (frame S) during reproduction, and proceeds to step S53.

ステップS53において、CPU16は、図6の各フレーム画像の位置合わせを行ってステップS54へ進む。位置合わせは、フレーム画像から抽出した2以上の特徴点の位置に基づいて行う。   In step S53, the CPU 16 aligns the frame images in FIG. 6 and proceeds to step S54. The alignment is performed based on the positions of two or more feature points extracted from the frame image.

ステップS54において、CPU16は、各フレーム画像から上記テンプレートマッチング手法によって動体領域を抽出し、ステップS55へ進む。ステップS55において、CPU16は、静止画像(フレームS)を基準として各フレームの動体領域の位置を求めて、ステップS56へ進む。   In step S54, the CPU 16 extracts a moving object region from each frame image by the template matching method, and proceeds to step S55. In step S55, the CPU 16 obtains the position of the moving object region of each frame with reference to the still image (frame S), and proceeds to step S56.

ステップS56において、CPU16は、静止画像(フレームS)より時間的に前に取得されたフレーム画像であって、当該フレームにおける対象物とフレームSにおける対象物との相対距離が所定範囲内であるフレームPを抽出してステップS57へ進む。   In step S56, the CPU 16 is a frame image that is acquired temporally before the still image (frame S), and in which the relative distance between the object in the frame and the object in the frame S is within a predetermined range. P is extracted and it progresses to step S57.

ステップS57において、CPU16は、静止画像(フレームS)より時間的に後に取得されたフレーム画像であって、当該フレームにおける対象物とフレームSにおける対象物との相対距離が所定範囲内であり、かつ、当該フレームにおける対象物と上記フレームPにおける対象物との類似度が所定値以上であるフレームQを抽出してステップS58へ進む。   In step S57, the CPU 16 is a frame image acquired temporally after the still image (frame S), the relative distance between the object in the frame and the object in the frame S is within a predetermined range, and The frame Q in which the similarity between the object in the frame and the object in the frame P is equal to or greater than a predetermined value is extracted, and the process proceeds to step S58.

ステップS58において、CPU16は、条件を満たすか否かを判定する。CPU16は、例えば、フレームP、フレームQがフレームSと略同一であって変化がなく、再生表示しても動体領域を動的に表現できない場合は、ステップS58を否定判定してステップS56へ戻ってフレームPおよびフレームQの抽出をやり直す。CPU16は、フレームP、及び(または)フレームQがフレームSと適度に相違する場合(例えば、フレームP、フレームQにおける対象物がフレームSにおける対象物との間で所定の相対距離を有する場合)は、ステップS58を肯定判定してステップS59へ進む。   In step S58, the CPU 16 determines whether or not a condition is satisfied. For example, if the frame P and the frame Q are substantially the same as the frame S and there is no change, and the moving object area cannot be expressed dynamically even if reproduced and displayed, the CPU 16 makes a negative determination in step S58 and returns to step S56. The frame P and the frame Q are extracted again. The CPU 16 determines that the frame P and / or the frame Q is appropriately different from the frame S (for example, the object in the frame P and the frame Q has a predetermined relative distance between the object in the frame S). Advances from step S58 to step S59.

ステップS59において、CPU16は、所定の時間ごとに、フレームSにおける動体領域に代えて図7に例示した動体領域を、フレームSにおいて対応する位置へはめ込み合成してステップS60へ進む。   In step S59, the CPU 16 inserts and synthesizes the moving object region illustrated in FIG. 7 instead of the moving object region in the frame S into the corresponding position in the frame S and proceeds to step S60 every predetermined time.

ステップS60において、CPU16は、静止画用フレームの背景領域に文字情報Tを表示し、文字情報Tの表示態様を時間経過とともに変化させるフレーム画像を生成してステップS61へ進む。   In step S60, the CPU 16 displays the character information T in the background area of the still image frame, generates a frame image that changes the display mode of the character information T over time, and proceeds to step S61.

ステップS61において、CPU16は、終了指示されたか否かを判定する。CPU16は、終了操作が行われた場合にステップS60を肯定判定して図10による処理を終了する。CPU16は、終了操作が行われない場合には、ステップS60を否定判定してステップS51へ戻る。   In step S61, the CPU 16 determines whether an end instruction has been issued. When the end operation is performed, the CPU 16 makes an affirmative determination in step S60 and ends the process of FIG. If the end operation is not performed, the CPU 16 makes a negative determination in step S60 and returns to step S51.

以上説明した実施形態によれば、以下の作用効果が得られる。
(1)デジタルカメラ1は、時系列に撮影された複数フレームの画像f1〜f(A+B)のうちの1フレームf(A+1)の画像上で、所定の領域mが時間とともに変化する画像を表示するための画像表示データを生成するCPU16と、時間とともに変化する画像に加えて、所定の文字情報Tを表示するための文字再生データを生成するCPU16と、文字情報Tに含まれる内容に基づいて、所定の領域mを決定するCPU16と、を備え、CPU16は、複数フレームの画像f1〜f(A+B)の各々において、CPU16で決定された領域mの位置情報を取得し、取得した位置情報と複数フレームの画像f1〜f(A+B)とに基づいて、CPU16で決定された領域mについての時系列画像m1〜m(A+B)を取得し、複数フレームの画像f1〜f(A+B)のうちの1フレームの画像f(A+1)に基づいて生成された静止画像(図7の斜線領域)に対し、取得した時系列画像m1〜m(A+B)を順次合成することによって画像表示データを生成する。静止画像において「動き表現」する領域mは文字情報Tと関連を持たせることができるので、文字情報Tを表示しない場合に比べて、静止画像中の一部を動的に表現する際の情景理解を深められる。
According to the embodiment described above, the following effects can be obtained.
(1) The digital camera 1 displays an image in which a predetermined area m changes with time on an image of one frame f (A + 1) among the images f1 to f (A + B) of a plurality of frames taken in time series. CPU 16 that generates image display data to be used, CPU 16 that generates character reproduction data for displaying predetermined character information T in addition to an image that changes with time, and the content included in character information T A CPU 16 for determining a predetermined area m. The CPU 16 acquires position information of the area m determined by the CPU 16 in each of the images f1 to f (A + B) of a plurality of frames, and the acquired position information Based on the images f1 to f (A + B) of a plurality of frames, time series images m1 to m (A + B) for the area m determined by the CPU 16 are acquired, and images f1 to f of the plurality of frames are obtained. By sequentially synthesizing the acquired time-series images m1 to m (A + B) with a still image (shaded area in FIG. 7) generated based on one frame image f (A + 1) of f (A + B). Generate image display data. Since the area “m” representing “motion” in the still image can be associated with the character information T, a scene when dynamically expressing a part of the still image compared to the case where the character information T is not displayed. Deepen understanding.

(2)上記(1)のデジタルカメラ1において、CPU16は、文字情報Tの表示態様を時間とともに表示するための文字再生データを生成し、CPU16は、時系列に撮影された複数フレームの画像f1〜f(A+B)のうちの1フレームの画像f(A+1)上で、所定の領域mの変化が文字情報Tの表示態様の変化と同期するように画像表示データを生成する。これにより、「動き表現」する領域mの変化と文字情報Tの内容とをさらに細かく関連させることができるので、静止画像中の一部を動的に表現する際の情景理解をさらに深められる。 (2) In the digital camera 1 of (1) above, the CPU 16 generates character reproduction data for displaying the display mode of the character information T with time, and the CPU 16 captures a plurality of frames of images f1 taken in time series. Image display data is generated so that the change in the predetermined area m is synchronized with the change in the display mode of the character information T on one frame of the image f (A + 1) of .about.f (A + B). As a result, the change in the area m to be “motion-represented” and the content of the character information T can be associated more finely, so that the understanding of the scene when dynamically expressing a part of a still image can be further deepened.

(変形例1)
上述した実施形態では、文字情報Tを構成する全ての文字の表示態様を変化させた後に所定時間が経過すると、静止画像の領域mにおいて「動き表現」を開始させる例を説明した。この代わりに、静止画像の領域mにおいて「動き表現」が終了してから文字の表示態様の変化を開始させたり、静止画像の領域mにおいて行う「動き表現」の開始タイミングと文字の表示態様の変化の開始タイミングとを揃えたり、種々の手法を適宜採用してよい。これにより、「動き表現」する領域mの変化と、文字情報Tの内容とをさらに細かく関連させることができるので、静止画像中の一部を動的に表現する際の情景理解をさらに深められる。
(Modification 1)
In the above-described embodiment, the example in which “motion expression” is started in the area m of the still image after a predetermined time has elapsed after changing the display mode of all the characters constituting the character information T has been described. Instead, the change of the character display mode is started after the “motion expression” is completed in the still image region m, or the start timing of the “motion expression” performed in the still image region m and the character display mode are changed. You may align with the start timing of a change, and may employ | adopt various methods suitably. As a result, the change in the area “m” for “motion expression” and the content of the character information T can be related more finely, so that understanding of the scene when dynamically expressing a part of a still image can be further deepened. .

(変形例2)
上記実施形態では、ユーザーによるタッチ操作部材15aのタッチ操作に基づいて、CPU16が「動き表現」する画像の組を決定した。この代わりに、文字情報Tに含まれる所定の品詞に基づいて、CPU16が「動き表現」する画像の組を決定するようにしてもよい。例えば、図1(a)および図1(b)に例示した文字情報Tの場合を例に説明すると、CPU16は、「古池や蛙飛び込む水の音」の中の名詞「池」、「蛙」、「水」、「音」を検出する。
(Modification 2)
In the above-described embodiment, the CPU 16 determines a set of images to be “moved” based on the touch operation of the touch operation member 15a by the user. Instead, based on a predetermined part of speech included in the character information T, the CPU 16 may determine a set of images to be “moved”. For example, the case of the character information T illustrated in FIG. 1A and FIG. 1B will be described as an example. The CPU 16 determines the nouns “pond” and “蛙” in “the sound of water from old ponds and frogs”. , “Water” and “Sound” are detected.

変形例2のCPU16はさらに、画像DB17Aに格納されている画像の組ごとに、各組を構成するフレーム画像から上記名詞に対応する物体を物体認識処理によって検出する。CPU16は、物体認識処理によって「池」や「蛙」が最も多く検出された画像の組を、「動き表現」する画像の組として決定する。   The CPU 16 of the modification 2 further detects, for each set of images stored in the image DB 17A, an object corresponding to the noun from the frame images constituting each set by object recognition processing. The CPU 16 determines a set of images in which “pond” and “蛙” are detected most frequently by the object recognition process as a set of images to be “moved”.

変形例2によれば、文字情報Tと関連性が高い画像の組を画像DB17Aの中から自動で見つけることができる。なお、品詞は名詞に限らず、形容詞、あるいは動詞等の他の品詞であってもよい。これらの名詞以外の品詞を用いた場合であっても、画像認識処理により、これら品詞を含む文字情報Tと関連性が高い画像の組を画像DB17Aの中から自動的に見つけることができる。
また、ユーザーによるタッチ操作に基づいて、「動き表現」に組合せる文字情報を決定する代わりに、決定されている画像の組に基づいて、CPU16が「動き表現」に組合せる文字情報を決定するようにしてもよい。例えば、CPU16は、決定されている画像に対して画像認識処理を行い、認識した対象物を示す名詞を含む文字情報を文字情報DB17Bから選んで「動き表現」に組合せる文字情報として決定する。
According to the second modification, a set of images that are highly relevant to the character information T can be automatically found from the image DB 17A. The part of speech is not limited to a noun, but may be an adjective or another part of speech such as a verb. Even when parts of speech other than these nouns are used, a set of images having high relevance to the character information T including these parts of speech can be automatically found from the image DB 17A by image recognition processing.
Further, instead of determining the character information to be combined with “motion expression” based on the touch operation by the user, the CPU 16 determines the character information to be combined with “motion expression” based on the determined set of images. You may do it. For example, the CPU 16 performs image recognition processing on the determined image, selects character information including a noun indicating the recognized object from the character information DB 17B, and determines the character information to be combined with “motion expression”.

(変形例3)
上述した実施形態では、文字情報Tを先に決定しておき、文字情報Tに含まれる所定の品詞(上記実施形態では名詞)に基づいて、「動き表現」において静止画像の中で動的に表現する対象物「池」を決定する例を説明した。この代わりに、静止画像の中で動的に「動き表現」する対象物の時系列画像が先に生成されている場合において、この対象物を示す名詞を含む文字情報を、文字情報DB17Bから検出するように構成してもよい。
(Modification 3)
In the embodiment described above, the character information T is determined first, and based on a predetermined part of speech (noun in the above embodiment) included in the character information T, the “motion expression” is dynamically changed in the still image. The example which determines the target object "pond" to represent was demonstrated. Instead, when a time-series image of an object to be dynamically “moved” is generated in a still image, character information including a noun indicating the object is detected from the character information DB 17B. You may comprise.

変形例3のCPU16は、「動き表現」において静止画像の中で動的に表現する「池」についての時系列画像が生成されている場合に、文字情報DB17Bを検索し、動的な表現の対象物を示す名詞「池」を含む文字情報(「古池や蛙飛び込む水の音」)を検出する。   When the time series image about the “pond” that is dynamically expressed in the still image is generated in the “motion expression” in the “motion expression”, the CPU 16 of the modified example 3 searches the character information DB 17B and performs the dynamic expression. Character information including the noun “pond” indicating the object (“the sound of water that rushes into the old pond and pond”) is detected.

変形例3によれば、「動き表現」において静止画像の中で所定の対象物を動的に表現する時系列画像と関連性が高い文字情報Tを、文字情報DB17Bの中から自動で見つけることができる。対象物の時系列画像は、自動認識処理(物体抽出処理+各フレームで当該物体領域の関連付け)により抽出してよい。そして、抽出された物体の名前、形状、動作、状態等に基づいて、文字情報DBから文字情報を自動的に抽出する構成としてもよい。   According to the third modification, character information T that is highly relevant to a time-series image that dynamically represents a predetermined object in a still image in “motion expression” is automatically found from the character information DB 17B. Can do. A time-series image of an object may be extracted by automatic recognition processing (object extraction processing + association of the object region in each frame). And it is good also as a structure which extracts character information automatically from character information DB based on the name, shape, operation | movement, state, etc. of the extracted object.

(変形例4)
変形例3に加えて、あらかじめ音響DB17Cに効果音の音響データを格納しておき、音響DB17Cの中から、静止画像の中で動的に「動き表現」する時系列画像と関連性が高い効果音の音響データを検出してもよい。
(Modification 4)
In addition to the third modification, the sound data of the sound effect is stored in the sound DB 17C in advance, and the effect highly relevant to the time series image that dynamically “moves” in the still image from the sound DB 17C. Sound acoustic data may be detected.

変形例4の音響DB17Cには、例えば、「池」の水面に物が落ちた場合の効果音「ポチャーン」や、「蛙」の鳴き声「ゲコゲコ」などの音響データがあらかじめ格納される。「ポチャーン」を表す音響データは名詞「池」に関連付けられ、「ゲコゲコ」を表す音響データは名詞「蛙」に関連付けられる。   In the acoustic DB 17C of the fourth modification, for example, acoustic data such as a sound effect “pocharn” when an object falls on the water surface of “pond” and a cry “gekogeko” of “の” are stored in advance. The acoustic data representing “Pocharn” is associated with the noun “pond”, and the acoustic data representing “Gekogeko” is associated with the noun “蛙”.

変形例4のCPU16は、「動き表現」において静止画像の中で動的に表現する「池」についての時系列画像が生成されている場合に、動的な表現の対象物を示す名詞「池」に関連付けられている効果音「ポチャーン」の音響データを検出する。CPU16は、音響DB17Cを検索し、「ポチャーン」を表す音響データを検出する。CPU16はさらに、検出した音響データを音響DB17Cから読み出し、「動き表現」と同期してスピーカ24から音響再生させる。   When the time series image about the “pond” that is dynamically expressed in the still image is generated in the “motion expression” in the “motion expression”, the CPU 16 of the modified example 4 generates the noun “pond” indicating the object of the dynamic expression. The sound data of the sound effect “POCHANN” associated with “” is detected. The CPU 16 searches the sound DB 17C and detects sound data representing “Pochurn”. Further, the CPU 16 reads the detected acoustic data from the acoustic DB 17C and reproduces the sound from the speaker 24 in synchronization with the “motion expression”.

このとき、CPU16は、「動き表現」において静止画像の中で対象物「池」を動的に動かし始めるタイミングと、スピーカ24から「ポチャーン」を音響再生するタイミングとを同期させる。変形例4のCPU16は、スピーカ24から「ポチャーン」を音響再生した後、所定時間(例えば0.5秒)が経過すると「動き表現」を開始させる。   At this time, the CPU 16 synchronizes the timing of starting to dynamically move the object “pond” in the still image in “motion expression” with the timing of sound reproduction of “Pochurn” from the speaker 24. The CPU 16 of the modification 4 starts “motion expression” when a predetermined time (for example, 0.5 seconds) elapses after sound reproduction of “POCHEAN” from the speaker 24.

なお、変形例4のCPU16は、「動き表現」に必要なデータをメモリカード50へ記録する際、「ポチャーン」を表す音響データも関連づけて記録する。そして、「動き表現」において静止画像の中で対象物「池」を動的に動かし始めるタイミングと、「ポチャーン」を音響再生するタイミングを示す情報も含める。   In addition, when recording the data necessary for “motion expression” on the memory card 50, the CPU 16 of the fourth modification also records acoustic data representing “Pochurn” in association with each other. Then, in “motion expression”, information indicating the timing at which the object “pond” starts to move dynamically in the still image and the timing at which “Pochurn” is acoustically reproduced is also included.

変形例4によれば、「動き表現」において静止画像の中で所定の対象物「池」を動的に表現するための時系列画像と関連性が高い効果音「ポチャーン」を表す音響データを音響DB17Cの中から自動で見つけることができる。また、「動き表現」に合わせて適切なタイミングで効果音を音響再生できる。   According to the modified example 4, in the “motion expression”, the acoustic data representing the sound effect “pocharn” having high relevance to the time-series image for dynamically expressing the predetermined object “pond” in the still image is obtained. It can be automatically found in the acoustic DB 17C. Also, sound effects can be played back at appropriate timing in accordance with “motion expression”.

(変形例5)
変形例4において音響再生に用いた効果音「ポチャーン」を表す音響データに対し、強調処理を施すようにしてもよい。変形例5のCPU16は音響処理回路23へ指示を送り、水がはねる音である「ポチャーン」を表す音響データに含まれる周波数成分に対する増幅利得を初期値より高く設定し、「ポチャーン」を表す音響データに含まれない周波数成分に対する増幅利得を初期値より低く設定することにより、水がはねる音以外の他の音を抑圧するフィルタ処理を施す。これにより、水がはねる音を強調できる。CPU16は記録再生部19へ指示を送り、強調処理後の音響データをメモリカード50へ記録させる。
(Modification 5)
An enhancement process may be performed on the sound data representing the sound effect “pocharn” used for sound reproduction in the modified example 4. The CPU 16 of the modified example 5 sends an instruction to the sound processing circuit 23, sets the amplification gain for the frequency component included in the sound data representing “pocharn” that is the sound of water splashing higher than the initial value, and sets the sound representing “pocharn”. By setting the amplification gain for frequency components not included in the data to be lower than the initial value, filter processing is performed to suppress sounds other than the water splashing sound. Thereby, the sound which water splashes can be emphasized. The CPU 16 sends an instruction to the recording / reproducing unit 19 to record the enhanced acoustic data in the memory card 50.

音響データは、音響DBに格納されているデータに限らず、撮影時にマイクで取得された音響データを用いてもよい、この音響データの再生のタイミングは、実際に画像を撮影したタイミングでもよいし、画像を撮影したタイミングからずらしたタイミングであっても構わない。実際にマイクで集音された音響データを用いる場合には、邪魔な音も記録されている可能性もある。このような場合は、特に、後述する変形例6の手法を用いることが有効になる。   The sound data is not limited to the data stored in the sound DB, and sound data acquired by a microphone at the time of shooting may be used. The timing of reproducing the sound data may be the timing at which an image is actually shot. The timing may be shifted from the timing at which the image was taken. When acoustic data actually collected by a microphone is used, there is a possibility that a disturbing sound is also recorded. In such a case, it is particularly effective to use the method of Modification 6 described later.

(変形例6)
変形例4において音響再生に用いた効果音「ポチャーン」を表す音響データに対し、他の手法による強調処理を施すようにしてもよい。変形例6のCPU16は音響処理回路23へ指示を送り、音響データを構成する左右の音響信号間で位相を制御する。音響データが非等方の指向性を有するステレオマイク22を介して集音されている場合、左右の音響信号間の位相差を揃えるように位相を調節することにより、水がはねる音を強調できる。
(Modification 6)
You may make it perform the emphasis process by another method with respect to the sound data showing the sound effect "pocharn" used for sound reproduction in the modification 4. The CPU 16 of the modified example 6 sends an instruction to the acoustic processing circuit 23 and controls the phase between the left and right acoustic signals constituting the acoustic data. When the acoustic data is collected through the stereo microphone 22 having anisotropic directivity, the water splashing sound can be emphasized by adjusting the phase so that the phase difference between the left and right acoustic signals is aligned. .

例えば、ステレオマイク22のうち右マイクの指向性が、「蛙」が「池」に落ちた地点に向いている場合、当該地点に指向性が向いていない左マイクで集音された音響信号の位相は、右マイクで集音された音響信号の位相より遅れる。そこで、左マイクで集音された音響信号の位相を進めて左右の位相を揃えることにより、効果音「ポチャーン」を強調する。   For example, when the directivity of the right microphone of the stereo microphone 22 is directed to the point where “蛙” falls on the “pond”, the sound signal collected by the left microphone that does not direct the directivity to the point. The phase is delayed from the phase of the acoustic signal collected by the right microphone. Therefore, the sound effect “Pocharn” is emphasized by advancing the phase of the sound signal collected by the left microphone and aligning the left and right phases.

CPU16は、上述したフレームSにおいて動体領域である「池」の水面の波紋が画面の右側で生じていることから、「蛙」が「池」に落ちた地点(画面右方向)からの音をひろう右マイクで集音された音響信号の位相が進んでいると判断し、強調処理のために左マイクで集音された音響信号の位相を進めるように決定する。これにより、水がはねる音を強調できる。CPU16は記録再生部19へ指示を送り、強調処理後の音響データをメモリカード50へ記録させる。   Since the ripple on the water surface of the “pond”, which is the moving object area, is generated on the right side of the screen in the frame S described above, the CPU 16 receives the sound from the point where the “basket” fell on the “pond” (right direction of the screen). It is determined that the phase of the acoustic signal collected by the right microphone is advanced, and the phase of the acoustic signal collected by the left microphone is determined to be advanced for enhancement processing. Thereby, the sound which water splashes can be emphasized. The CPU 16 sends an instruction to the recording / reproducing unit 19 to record the enhanced acoustic data in the memory card 50.

(変形例7)
上述した実施形態では、「動き表現」のために静止画像の中で動的に表現する領域(対象物)を1つ設けた例を説明したが、動的に表現する領域(対象物)を複数設けるようにしてもよい。例えば、画面内で変化する第1の対象物を「池」とし、画面内で変化する第2の対象物を「蛙」とする。
(Modification 7)
In the embodiment described above, an example has been described in which one region (object) that is dynamically expressed in a still image for “motion expression” is provided. However, a region (object) that is dynamically expressed is described. A plurality of them may be provided. For example, a first object that changes in the screen is “pond”, and a second object that changes in the screen is “蛙”.

CPU16は、時系列に並ぶ図6のフレーム画像について、第2の対象物「蛙」を有する第2の動体領域o1〜oAを抽出する。変形例7の場合、池に飛び込む「蛙」はフレーム間で形状と画面内の位置が変化するので、差分検出手法を用いる。   The CPU 16 extracts the second moving object regions o1 to oA having the second object “蛙” from the frame images of FIG. 6 arranged in time series. In the case of the modification example 7, since the shape of “蛙” jumping into the pond changes between frames and the position in the screen, a difference detection method is used.

CPU16は、時系列に並ぶ図6のフレーム画像について、第1の対象物「池」を有する第1の動体領域m1〜m(A+B)を除いた背景領域(例えば「草」)で位置合わせを行った上で、隣接するフレーム間で差分をとることにより、フレーム画像における「蛙」を抽出する。具体的には、時間的に隣接する、所定の閾値で2値化された差分画像間で、論理積をとることにより、「蛙」を含む領域を抽出する。そしてCPU16は、抽出した領域において公知の物体認識処理を行うことにより、「蛙」を特定する。フレーム画像について背景領域で位置合わせを行うのは、フレーム間差分が変化しない大きい面積の部分で位置合わせするのであって、「蛙」で位置合わせするのではないからである。   The CPU 16 aligns the frame images in FIG. 6 arranged in time series in the background area (for example, “grass”) excluding the first moving object areas m1 to m (A + B) having the first object “pond”. Then, the difference between adjacent frames is taken to extract “蛙” in the frame image. Specifically, a region including “蛙” is extracted by performing a logical product between the temporally adjacent difference images binarized with a predetermined threshold. Then, the CPU 16 specifies “蛙” by performing a known object recognition process in the extracted area. The reason why the frame image is aligned in the background region is that alignment is performed in a large area portion where the inter-frame difference does not change, and not in “蛙”.

ここで、フレーム間で所定値以上の差分が生じた領域が「蛙」を含む領域に対応し、フレーム間の差分が所定値未満の領域は「蛙」を含まない領域に対応する。次にCPU16は、図6の各フレーム画像からそれぞれ第1の動体領域m1〜m(A+B)および第2の動体領域o1〜oAを除外した非動体領域において、第一の実施形態と同様に2以上の特徴点を抽出し、フレーム間でそれぞれ特徴点の対応付けを行うことによって、各フレームにおける非動体領域の位置を、フレームf(A+1)(すなわちフレームS)における非動体領域を基準に表す。この基準に表したフレームS上の位置に、順次動体領域をはめこみ合成する。   Here, an area where a difference between frames exceeds a predetermined value corresponds to an area including “蛙”, and an area where the difference between frames is less than a predetermined value corresponds to an area not including “蛙”. Next, the CPU 16 removes the first moving object areas m1 to m (A + B) and the second moving object areas o1 to oA from the frame images of FIG. By extracting the above feature points and associating the feature points between the frames, the position of the non-moving object region in each frame is represented with reference to the non-moving object region in the frame f (A + 1) (ie, frame S). . The moving object region is sequentially inserted and synthesized at the position on the frame S represented by the reference.

CPU16はさらに、第1動体領域m1〜m(A+B)および第2動体領域o1〜oAにおいても、それぞれ2以上の特徴点を抽出する。そして、各フレームにおける非動体領域の特徴点と各動体領域の特徴点の位置関係に基づいて、各フレームにおける第1動体領域m1〜m(A+B)および第2動体領域o1〜oAの位置を、フレームf(A+1)(すなわちフレームS)における非動体領域を基準に表す。   The CPU 16 further extracts two or more feature points in each of the first moving body areas m1 to m (A + B) and the second moving body areas o1 to oA. And based on the positional relationship between the feature points of the non-moving object region and the feature points of each moving object region in each frame, the positions of the first moving object regions m1 to m (A + B) and the second moving object regions o1 to oA in each frame are The non-moving object region in the frame f (A + 1) (that is, the frame S) is expressed as a reference.

CPU16は、「動き表現」において静止画像の中で「蛙」を動的に表現する場合は、フレームSにおける第2動体領域に代えて、例えば、フレームf2、フレームf(A−1)、およびフレームfAの第2動体領域を、フレームSにおいて対応するそれぞれの位置へ所定時間ごとに順番にはめ込み合成する。   When the CPU 16 dynamically expresses “蛙” in the still image in the “motion expression”, for example, instead of the second moving object region in the frame S, for example, the frame f2, the frame f (A-1), and The second moving body region of the frame fA is inserted into each corresponding position in the frame S in order every predetermined time and synthesized.

以上説明したように、「動き表現」のための画像生成において、「動き表現」のために静止画像(背景)上で動的に表現する領域(対象物)を2つ設ける場合でも、2つの動体領域をフレームSにおいて対応するそれぞれの位置へ所定時間ごとにはめ込み合成する手法は、上述した実施形態と同様である。また、メモリカード50に対する必要なデータの記録についても、上述した場合と同様である。   As described above, in the image generation for “motion expression”, even when two regions (objects) that are dynamically expressed on a still image (background) for “motion expression” are provided, The method of fitting the moving object region to each corresponding position in the frame S every predetermined time is the same as in the above-described embodiment. The recording of necessary data on the memory card 50 is the same as that described above.

上記のように「蛙」についての時系列画像をはめ込み合成した画像を液晶モニタ15に順番に再生表示させると、静止画像(フレームS=f(A+1))という時間の止まった世界の中で、第2の動体領域「蛙」だけ時間が進行しているかのような、異質な世界を表現し得る。なお、「蛙」と池を統合して1つの動体領域としてもよい。   As described above, when the images obtained by inserting and synthesizing the time-series images of “蛙” are sequentially reproduced and displayed on the liquid crystal monitor 15, a still image (frame S = f (A + 1)) in a world where time has stopped, It is possible to express a heterogeneous world as if the time has progressed by the second moving object region “蛙”. In addition, it is good also as a single moving body area | region by integrating a pond and a pond.

(変形例8)
本発明は、電子絵本へ適用することもできる。電子絵本の場合には、ストーリーを表す文字情報のうち、どこまでを液晶モニタ15の画面上に表示するかを決定する必要がある。CPU16は、電子絵本のように、あらかじめ文字情報として文章が定められている場合には、原則1つの文章に1つの静止画像を対応させて、この静止画像上で対象物を動的に表現する。このため、CPU16は、ストーリーを表す文字情報を1文章ずつ液晶モニタ15の画面上に表示させる。
(Modification 8)
The present invention can also be applied to electronic picture books. In the case of an electronic picture book, it is necessary to determine how much of the character information representing the story is to be displayed on the screen of the liquid crystal monitor 15. When a sentence is previously defined as character information as in an electronic picture book, the CPU 16 dynamically associates one still image with one sentence and dynamically expresses an object on the still image. . For this reason, the CPU 16 displays character information representing a story on the screen of the liquid crystal monitor 15 one sentence at a time.

ここで、連続する2以上の文章であっても、それぞれの文章で表現される対象物が1つの静止画像に含まれている場合がある。この場合のCPU16は、複数の文章を液晶モニタ15の1画面内に表示させ、1つの静止画像上で複数の対象物を動的に表現する。   Here, even if there are two or more consecutive sentences, the object represented by each sentence may be included in one still image. In this case, the CPU 16 displays a plurality of sentences on one screen of the liquid crystal monitor 15 and dynamically expresses a plurality of objects on one still image.

CPU16は、時間経過にともなう文字情報(複数の文章)の表示態様の変化に同期させて、それぞれの文章で表される対象物を動的に表現する。例えば、図11に例示した静止画像に重ねて、以下の文章を表示する。「なおちゃんは、ウィンクしました。夕焼け空をカラスが飛んでいきます。静かな夏の夕方でした。」   The CPU 16 dynamically expresses the object represented by each sentence in synchronization with the change in the display mode of the character information (a plurality of sentences) with the passage of time. For example, the following text is displayed over the still image illustrated in FIG. “Nao-chan winked. The crows flew through the sunset sky. It was a quiet summer evening.”

CPU16は、例えば、「なおちゃんは、ウィンクしました。」を構成する全ての文字の表示態様の変化が終了した後、所定時間(例えば0.5秒)が経過すると、静止画像において人物の目を対象に「動き表現」を開始させる。そして、「夕焼け空をカラスが飛んでいきます。静かな夏の夕方でした。」を構成する全ての文字の表示態様の変化が終了した後、所定時間(例えば0.5秒)が経過すると、静止画像においてカラスを対象に「動き表現」を開始させる。このような表示形態を、電子絵本の全てのページに適用することで、より情景理解を深められる電子絵本を構成することができる。   For example, when the predetermined time (for example, 0.5 seconds) elapses after the change in the display mode of all the characters that constitute “Nano-chan has winked”, the CPU 16 determines whether the human eye in the still image has passed. Start "motion expression" for. Then, after a predetermined time (for example, 0.5 seconds) has elapsed after the change in the display mode of all the characters that make up “the crow flies through the sunset sky. It was a quiet summer evening.” Then, “motion expression” is started for a crow in a still image. By applying such a display form to all pages of the electronic picture book, an electronic picture book that can deepen the understanding of the scene can be configured.

(変形例9)
上述した説明では、液晶モニタ15に文字情報を表示し、その表示態様を時間経過とともに変化させるようにした。この代わりに、あるいはこれに加えて、文字情報の内容を読み上げるようにスピーカ24から音声再生させてもよい。この場合には、「なおちゃんは、ウィンクしました。」を構成する全ての文字の読み上げ再生が終了した後、所定時間(例えば0.5秒)が経過すると、静止画像において人物の目を対象に「動き表現」を開始させる。そして、「夕焼け空をカラスが飛んでいきます。静かな夏の夕方でした。」を構成する全ての文字の読み上げ再生が終了した後、所定時間(例えば0.5秒)が経過すると、静止画像においてカラスを対象に「動き表現」を開始させる。
(Modification 9)
In the above description, the character information is displayed on the liquid crystal monitor 15, and the display mode is changed with time. Instead of this, or in addition to this, sound may be reproduced from the speaker 24 so as to read out the contents of the character information. In this case, after reading aloud all the characters that make up “Nao-chan has winked”, when a predetermined time (for example, 0.5 seconds) elapses, the human eye is targeted in the still image. To start “motion expression”. Then, after a specified time (for example, 0.5 seconds) has elapsed after reading out all the characters that make up “The crow flies through the sunset sky. It was a quiet summer evening.” Start “motion expression” for crows in the image.

(変形例10)
以上の説明では、電子機器としてデジタルカメラ1を用いる例を説明したが、多機能携帯電話機やタブレット型コンピュータを用いて構成してもよい。
(Modification 10)
In the above description, an example in which the digital camera 1 is used as an electronic device has been described. However, a multi-function mobile phone or a tablet computer may be used.

(変形例11)
上述した実施形態では、時系列に並ぶ複数フレームの画像群に基づいて、デジタルカメラ1で「動き表現」処理を行う例を説明したが、パーソナルコンピュータや、タブレット型コンピュータなどを用いて、事後的に「動き表現」処理を行う画像処理装置を構成してもよい。この場合、デジタルカメラ1で取得した画像データであって、時系列に並ぶ複数フレームの画像群を保存しておく。
(Modification 11)
In the above-described embodiment, the example in which the “motion expression” process is performed by the digital camera 1 based on the image group of a plurality of frames arranged in time series has been described. However, the posterior can be performed using a personal computer, a tablet computer, or the like. An image processing apparatus that performs “motion expression” processing may be configured. In this case, image data acquired by the digital camera 1 and a group of images of a plurality of frames arranged in time series are stored.

そして、図12に示すコンピュータ200に図10に例示したフローチャートの処理を行うプログラムを実行させることにより、静止画像の中で変化する被写体(対象物)を動的に表現するデータ処理装置を構成する。プログラムをパーソナルコンピュータ200に取込んで使用する場合には、パーソナルコンピュータ200のデータストレージ装置にプログラムをローディングした上で、当該プログラムを実行させることによってデータ処理装置として使用する。   Then, by causing the computer 200 shown in FIG. 12 to execute a program that performs the processing of the flowchart illustrated in FIG. 10, a data processing device that dynamically expresses a subject (object) that changes in a still image is configured. . When the program is used by being loaded into the personal computer 200, the program is loaded into the data storage device of the personal computer 200 and then used as a data processing device by executing the program.

パーソナルコンピュータ200に対するプログラムのローディングは、プログラムを格納したCD−ROMなどの記憶媒体204をパーソナルコンピュータ200にセットして行ってもよいし、ネットワークなどの通信回線201を経由する方法でパーソナルコンピュータ200へローディングしてもよい。通信回線201を経由する場合は、通信回線201に接続されたサーバー(コンピュータ)202のハードディスク装置203などにプログラムを格納しておく。プログラムは、記憶媒体204や通信回線201を介する提供など、種々の形態のコンピュータプログラム製品として供給することができる。   The loading of the program to the personal computer 200 may be performed by setting a storage medium 204 such as a CD-ROM storing the program in the personal computer 200, or to the personal computer 200 by a method via the communication line 201 such as a network. You may load. When passing through the communication line 201, the program is stored in the hard disk device 203 of the server (computer) 202 connected to the communication line 201. The program can be supplied as various forms of computer program products such as provision via the storage medium 204 or the communication line 201.

以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。上記実施形態および各変形例は、適宜組み合わせて構わない。   The above description is merely an example, and is not limited to the configuration of the above embodiment. You may combine the said embodiment and each modification suitably.

1…デジタルカメラ
12…撮像素子
14…画像処理部
15…液晶モニタ
15a…タッチ操作部材
16…CPU
17…フラッシュメモリ
17A…画像DB
17B…文字情報DB
17C…音響DB
17D…対象物DB
18…バッファメモリ
19…記録再生部
20…操作部材
50…メモリカード
200…コンピュータ
204…記憶媒体
DESCRIPTION OF SYMBOLS 1 ... Digital camera 12 ... Image pick-up element 14 ... Image processing part 15 ... Liquid crystal monitor 15a ... Touch operation member 16 ... CPU
17 ... Flash memory 17A ... Image DB
17B ... Character information DB
17C ... Acoustic DB
17D ... Object DB
18 ... Buffer memory 19 ... Recording / reproducing unit 20 ... Operation member 50 ... Memory card 200 ... Computer 204 ... Storage medium

Claims (9)

時系列に撮影された複数フレームの画像のうちの1フレームの画像上で、所定の領域が時間とともに変化する画像を表示するための画像表示データを生成する画像表示データ生成部と、
前記時間とともに変化する画像に加えて、所定の文字情報を表示するための文字再生データを生成する文字再生データ生成部と、
前記文字情報に含まれる内容に基づいて、前記所定の領域を決定する領域決定部と、
を備え、
前記画像表示データ生成部は、前記複数フレームの画像の各々において、前記領域決定部で決定された領域の時系列画像を取得し、前記複数フレームの画像のうちの1フレームの画像に基づいて生成された静止画像に対し、前記取得した時系列画像を順次合成することによって前記画像表示データを生成することを特徴とするデータ処理装置。
An image display data generating unit that generates image display data for displaying an image in which a predetermined region changes with time on an image of one frame among a plurality of frames taken in time series;
A character reproduction data generation unit for generating character reproduction data for displaying predetermined character information in addition to the image that changes with time;
An area determining unit that determines the predetermined area based on content included in the character information;
With
The image display data generation unit acquires a time-series image of the region determined by the region determination unit in each of the plurality of frame images, and generates based on one frame image of the plurality of frame images. A data processing apparatus, wherein the image display data is generated by sequentially synthesizing the acquired time-series images with the still image thus obtained.
請求項1に記載のデータ処理装置において、
前記時系列に撮影された複数フレームの画像の組が複数組存在し、
前記文字情報に含まれる内容に基づいて、前記複数組の画像の組の中から所定の画像の組を決定する画像の組決定部をさらに備え、
前記画像表示データ生成部は、前記組決定部で決定された画像の組において、時系列に撮影された複数フレームの画像のうちの1フレームの画像上で、前記領域決定部で決定された領域が時間とともに変化する画像を表示するための画像表示データを生成することを特徴とするデータ処理装置。
The data processing apparatus according to claim 1,
There are multiple sets of images of multiple frames taken in time series,
An image set determining unit that determines a predetermined set of images from the plurality of sets of images based on content included in the character information;
The image display data generation unit is a region determined by the region determination unit on one frame image of a plurality of frames taken in time series in the image group determined by the group determination unit. A data processing apparatus for generating image display data for displaying an image whose time changes with time.
時系列に撮影された複数フレームの画像のうちの1フレームの画像上で、所定の領域が時間とともに変化する画像を表示するための画像表示データを生成する画像表示データ生成部と、
前記時間とともに変化する画像に加えて、所定の文字情報を表示するための文字再生データを生成する文字再生データ生成部と、
前記画像表示データに基づいて前記所定の領域で変化する物体を特定し、それぞれが物体の名称を含む複数の文字情報の中から、前記特定した物体の名称を含む文字情報を決定する文字情報決定部と、
を備え、
前記文字再生データ生成部は、前記文字情報決定部で決定された文字情報を表示するための文字再生データを生成することを特徴とするデータ処理装置。
An image display data generating unit that generates image display data for displaying an image in which a predetermined region changes with time on an image of one frame among a plurality of frames taken in time series;
A character reproduction data generation unit for generating character reproduction data for displaying predetermined character information in addition to the image that changes with time;
Character information determination that identifies an object that changes in the predetermined area based on the image display data, and that determines character information that includes the specified object name from among a plurality of character information that each includes the name of the object And
With
The data processing device, wherein the character reproduction data generation unit generates character reproduction data for displaying the character information determined by the character information determination unit.
請求項1〜3のいずれか一項に記載のデータ処理装置において、
前記文字再生データ生成部は、前記文字情報の表示態様を前記時間とともに表示するための文字再生データを生成し、
前記画像表示データ生成部は、時系列に撮影された複数フレームの画像のうちの1フレームの画像上で、前記所定の領域の変化が前記文字情報の前記表示態様の変化と同期するように前記画像表示データを生成することを特徴とするデータ処理装置。
In the data processing device according to any one of claims 1 to 3,
The character reproduction data generation unit generates character reproduction data for displaying the display mode of the character information together with the time,
The image display data generation unit is configured to synchronize the change of the predetermined area with the change of the display mode of the character information on one frame image of a plurality of frames taken in time series. A data processing apparatus for generating image display data.
請求項4に記載のデータ処理装置において、
前記画像表示データに基づいて前記所定の領域で変化する物体を特定し、それぞれが物体からの音を含む複数の音響データの中から、前記特定した物体からの音を含む音響データを決定する音響データ決定部と、
前記1フレームの画像上において時間とともに変化する前記領域の変化に同期して、前記音響データ決定部で決定された音響データを音響再生するための音響再生データを生成する音響再生データ生成部と、
をさらに備えることを特徴とするデータ処理装置。
The data processing apparatus according to claim 4, wherein
An acoustic that identifies an object that changes in the predetermined area based on the image display data, and that determines acoustic data that includes sound from the identified object from among a plurality of acoustic data that includes sound from the object. A data decision unit;
An acoustic reproduction data generation unit that generates acoustic reproduction data for acoustic reproduction of the acoustic data determined by the acoustic data determination unit in synchronization with a change in the region that changes with time on the image of the one frame;
A data processing apparatus further comprising:
請求項4に記載のデータ処理装置において、
前記1フレームの画像上において時間とともに変化する前記領域の変化に同期して、所定の音響データを音響再生するための音響再生データを生成する音響再生データ生成部と、
前記画像表示データに基づいて前記所定の領域で変化する物体を特定し、前記特定した物体からの音を強調する処理を前記音響データに施す音響データ処理部と、
をさらに備えることを特徴とするデータ処理装置。
The data processing apparatus according to claim 4, wherein
A sound reproduction data generation unit that generates sound reproduction data for reproducing sound of predetermined sound data in synchronization with a change in the region that changes with time on the image of the one frame;
An acoustic data processing unit that identifies an object that changes in the predetermined region based on the image display data, and that performs processing for enhancing the sound from the identified object on the acoustic data;
A data processing apparatus further comprising:
請求項6に記載のデータ処理装置において、
前記音響データは左右の音響信号を含み、
前記音響データ処理部は、前記左右の音響信号間の位相を制御して前記強調処理を行うことを特徴とするデータ処理装置。
The data processing apparatus according to claim 6, wherein
The acoustic data includes left and right acoustic signals,
The acoustic data processing unit performs the enhancement processing by controlling a phase between the left and right acoustic signals.
請求項6に記載のデータ処理装置において、
前記音響データ処理部は、前記音響信号の周波数成分別に増幅利得を制御して前記強調処理を行うことを特徴とするデータ処理装置。
The data processing apparatus according to claim 6, wherein
The acoustic data processing unit performs the enhancement processing by controlling an amplification gain for each frequency component of the acoustic signal.
時系列に撮影された複数フレームの画像のうちの1フレームの画像上で、所定の領域が時間とともに変化する画像を表示するための画像表示データを生成する画像表示データ生成部と、
前記時間とともに変化する画像に加えて、所定の文字情報を表示するための文字再生データを生成する文字再生データ生成部と、
前記画像表示データに基づいて、前記1フレームの画像上で変化する物体を特定する特定部と、
前記文字再生データに基づいて、前記特定部で特定された物体の名称を含むか否かを前記文字情報の文章ごとに判定する判定部と、
を備え、
前記文字再生データ生成部は、前記特定部によって特定された1つの物体の名称が1つの文章に含まれることが前記判定部によって判定された場合に、前記1フレームの画像に対して前記1つの文章を表示し、前記特定部によって特定された複数の物体の名称が、それぞれ異なる文章に含まれることが前記判定部によって判定された場合に、前記1フレームの画像に対して前記異なる文章をそれぞれ表示するように文字再生データを生成することを特徴とするデータ処理装置。
An image display data generating unit that generates image display data for displaying an image in which a predetermined region changes with time on an image of one frame among a plurality of frames taken in time series;
A character reproduction data generation unit for generating character reproduction data for displaying predetermined character information in addition to the image that changes with time;
A specifying unit that specifies an object that changes on the image of the one frame based on the image display data;
A determination unit that determines, for each sentence of the character information, whether or not the name of the object specified by the specifying unit is included based on the character reproduction data;
With
When the determination unit determines that the name of one object specified by the specifying unit is included in one sentence, the character reproduction data generation unit performs the one-frame image on the one frame image. When the determination unit determines that the names of the plurality of objects specified by the specifying unit are included in different sentences, the different sentences are respectively displayed for the one-frame image. A data processing apparatus for generating character reproduction data for display.
JP2013165008A 2013-08-08 2013-08-08 Data processor Pending JP2015035687A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013165008A JP2015035687A (en) 2013-08-08 2013-08-08 Data processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013165008A JP2015035687A (en) 2013-08-08 2013-08-08 Data processor

Publications (1)

Publication Number Publication Date
JP2015035687A true JP2015035687A (en) 2015-02-19

Family

ID=52543930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013165008A Pending JP2015035687A (en) 2013-08-08 2013-08-08 Data processor

Country Status (1)

Country Link
JP (1) JP2015035687A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003338975A (en) * 2002-05-21 2003-11-28 Toshiba Corp Digital still camera and method of inputting user instruction, using touch panel
JP2011066717A (en) * 2009-09-17 2011-03-31 Casio Computer Co Ltd Image photographing display device and program for the same
JP2011248149A (en) * 2010-05-27 2011-12-08 Kyocera Corp Portable electronic device and image projection unit
JP2012134775A (en) * 2010-12-21 2012-07-12 Nikon Systems Inc Image processing system, imaging apparatus, and image processing program
JP2013003719A (en) * 2011-06-14 2013-01-07 Alpine Electronics Inc Electronic book viewing system and in-vehicle unit
JP2013135446A (en) * 2011-12-27 2013-07-08 Canon Inc Imaging apparatus and control method thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003338975A (en) * 2002-05-21 2003-11-28 Toshiba Corp Digital still camera and method of inputting user instruction, using touch panel
JP2011066717A (en) * 2009-09-17 2011-03-31 Casio Computer Co Ltd Image photographing display device and program for the same
JP2011248149A (en) * 2010-05-27 2011-12-08 Kyocera Corp Portable electronic device and image projection unit
JP2012134775A (en) * 2010-12-21 2012-07-12 Nikon Systems Inc Image processing system, imaging apparatus, and image processing program
JP2013003719A (en) * 2011-06-14 2013-01-07 Alpine Electronics Inc Electronic book viewing system and in-vehicle unit
JP2013135446A (en) * 2011-12-27 2013-07-08 Canon Inc Imaging apparatus and control method thereof

Similar Documents

Publication Publication Date Title
JP5117280B2 (en) IMAGING DEVICE, IMAGING METHOD, REPRODUCTION DEVICE, AND REPRODUCTION METHOD
JP4869270B2 (en) Imaging apparatus and image reproduction apparatus
US20110261215A1 (en) Image processing apparatus and method of controlling the same
JP5806623B2 (en) Imaging apparatus, imaging method, and program
KR101739379B1 (en) Digital photographing apparatus and control method thereof
JP5837922B2 (en) Ranking key video frames based on camera position
JP2009077026A (en) Imaging apparatus and method, and program
KR101737086B1 (en) Digital photographing apparatus and control method thereof
KR20100070043A (en) Method for displaying scene recognition of digital image signal processing apparatus, medium for recording the method and digital image signal processing apparatus applying the method
JP5741659B2 (en) Movie sorting device, movie sorting method and program
JP6056551B2 (en) Image processing program and digital camera
JP5266701B2 (en) Imaging apparatus, subject separation method, and program
KR20100035381A (en) Image processing method and apparatus, and digital photographing apparatus
JP5604916B2 (en) Image processing apparatus and program
JP2009088944A (en) Character recognition apparatus, imaging apparatus and video reproducing apparatus
JP2007028331A (en) Image generating apparatus and program thereof
JP2015035687A (en) Data processor
JP2018060549A (en) Image processing device
JP6236856B2 (en) Image processing apparatus and image processing program
JP2011139300A (en) Image processing apparatus and program
JP5948960B2 (en) Camera, image processing apparatus and program
JP5593652B2 (en) Camera and movie playback program
JP6213619B2 (en) Camera and program
JP2014217008A (en) Image processing device, imaging device, and image processing program
JP2015192336A (en) Image processing device and digital camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160715

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171003

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20171130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180201

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181010

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20181127

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20190111