JP2015035687A - Data processor - Google Patents
Data processor Download PDFInfo
- Publication number
- JP2015035687A JP2015035687A JP2013165008A JP2013165008A JP2015035687A JP 2015035687 A JP2015035687 A JP 2015035687A JP 2013165008 A JP2013165008 A JP 2013165008A JP 2013165008 A JP2013165008 A JP 2013165008A JP 2015035687 A JP2015035687 A JP 2015035687A
- Authority
- JP
- Japan
- Prior art keywords
- image
- frame
- data
- time
- character information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、データ処理装置に関する。 The present invention relates to a data processing apparatus.
静止画像中の一部を動的に表現する技術が知られている(特許文献1参照)。同技術は、ノイズが時間的に変化しない、あるいは本来動くべきものが動かない静止画という時間の止まった世界の中で、一部領域だけ時間が進行しているという異質な世界を表現したものであり、注目を集めている。 A technique for dynamically expressing a part of a still image is known (see Patent Document 1). This technology expresses a heterogeneous world where time is progressing only in some areas in a still-timed world of still images in which noise does not change over time or things that should move originally do not move It is attracting attention.
静止画像中の一部の動的表現に対し、さらに情景の理解を深めることが望まれる。 It is desirable to deepen the understanding of the scene for some dynamic expressions in still images.
請求項1の発明によるデータ処理装置は、時系列に撮影された複数フレームの画像のうちの1フレームの画像上で、所定の領域が時間とともに変化する画像を表示するための画像表示データを生成する画像表示データ生成部と、時間とともに変化する画像に加えて、所定の文字情報を表示するための文字再生データを生成する文字再生データ生成部と、文字情報に含まれる内容に基づいて、所定の領域を決定する領域決定部と、を備え、画像表示データ生成部は、複数フレームの画像の各々において、領域決定部で決定された領域の時系列画像を取得し、複数フレームの画像のうちの1フレームの画像に基づいて生成された静止画像に対し、取得した時系列画像を順次合成することによって画像表示データを生成することを特徴とする。
請求項3の発明によるデータ処理装置は、時系列に撮影された複数フレームの画像のうちの1フレームの画像上で、所定の領域が時間とともに変化する画像を表示するための画像表示データを生成する画像表示データ生成部と、時間とともに変化する画像に加えて、所定の文字情報を表示するための文字再生データを生成する文字再生データ生成部と、画像表示データに基づいて所定の領域で変化する物体を特定し、それぞれが物体の名称を含む複数の文字情報の中から、特定した物体の名称を含む文字情報を決定する文字情報決定部と、を備え、文字再生データ生成部は、文字情報決定部で決定された文字情報を表示するための文字再生データを生成することを特徴とする。
The data processing device according to
A data processing device according to a third aspect of the present invention generates image display data for displaying an image in which a predetermined region changes with time on one frame image of a plurality of frames taken in time series. An image display data generating unit for generating, character reproduction data generating unit for generating character reproduction data for displaying predetermined character information in addition to an image changing with time, and a change in a predetermined region based on the image display data A character information determination unit for determining character information including the specified object name from among a plurality of character information each including the name of the object. Character reproduction data for displaying the character information determined by the information determination unit is generated.
本発明によれば、静止画像中の一部を動的に表現する際の情景理解を深められる。 According to the present invention, it is possible to deepen understanding of a scene when a part of a still image is dynamically expressed.
本発明の一実施の形態によるデジタルカメラは、複数フレームの静止画像に基づいて、静止画像の一部の領域を動的に表現する「動き表現」を行うとともに、上記静止画像に文字情報を組合せて、この文字情報の表示態様を時間経過とともに変化させる。 A digital camera according to an embodiment of the present invention performs “motion expression” that dynamically expresses a partial region of a still image based on a plurality of frames of still images, and combines character information with the still images. Thus, the display mode of the character information is changed over time.
図1(a)は、動的に表現する領域mを有する静止画像と、この静止画像に重ね表示された文字情報Tを例示する図である。「動き表現」は、静止画像という時間の止まった世界の中で、一部の領域mだけ時間が進行しているかのような異質な世界を表現するものである。文字情報Tの表示態様の変化は、例えば文字の表示色、表示輝度、文字の太さ、文字の大きさまたは書体などを、時間の経過とともに変化させるものである。本実施形態では、文字情報Tを構成する文字の先頭から徐々に表示態様を変化させ、図1(b)に例示するように、文字情報Tを構成する全ての文字の表示態様を変化させた後に所定時間が経過すると、静止画像の領域mにおいて「動き表現」を開始させる。 FIG. 1A is a diagram illustrating a still image having an area m to be dynamically expressed and character information T displayed to be superimposed on the still image. The “motion expression” expresses a heterogeneous world as if time has progressed by a part of the area m in a still image-stopped world. The change in the display mode of the character information T is to change, for example, the display color, display brightness, character thickness, character size, or typeface of the character over time. In this embodiment, the display mode is gradually changed from the beginning of the characters constituting the character information T, and the display modes of all the characters constituting the character information T are changed as illustrated in FIG. When a predetermined time elapses later, “motion expression” is started in the still image area m.
図2は、デジタルカメラ1の構成を例示するブロック図である。図2において、撮影レンズ11は、撮像素子12の撮像面に被写体像を結像させる。なお、図2では、撮影レンズ11がカメラと一体的に形成された(撮影レンズが着脱不能な)デジタルカメラ1を例示したが、カメラボディと、そのカメラボディに着脱可能な交換レンズからなるカメラシステムによって構成してもよい。その場合は、図2の撮影レンズ11および後述するレンズ駆動部21からなる構成が交換レンズ側に含まれ、その他の符号からなる構成がカメラボディ側に含まれる。
FIG. 2 is a block diagram illustrating the configuration of the
CPU16は、図示しないシャッターボタンの半押し操作に連動して半押しスイッチ20aがオンすると、AE(自動露出)演算およびオートフォーカス(AF)処理を行わせて、撮影レンズ11を構成するフォーカシングレンズ(不図示)を光軸方向(図2において矢印方向)に進退移動させる。これにより、撮影レンズ11の焦点位置が自動調節される。フォーカシングレンズ(不図示)の駆動は、CPU16から指示を受けたレンズ駆動部21が行う。
When the half-
撮像素子12は、CMOSイメージセンサなどによって構成される。撮像素子12は、撮像面上に結像された被写体像を撮像する。撮像素子12から出力された撮像信号は、A/D変換部13においてアナログ信号からデジタル信号に変換される。画像処理部14は、デジタル画像信号に対して所定の画像処理を行う。
The
液晶モニタ15は、撮像素子12で撮像された画像、後述するバッファメモリ18、あるいはメモリカード50に記憶される画像を表示すると共に、CPU16からの指示に応じて、画像やアイコン、操作メニューなどを表示する。液晶モニタ15の表示面にはタッチ操作部材15aが積層されている。タッチ操作部材15aは、表示画面上のタッチ位置を示す信号をCPU16へ送出する。音響処理回路23は、ステレオマイク22で集音された音響信号を増幅し、増幅後の信号をA/D変換回路(不図示)によってデジタル音響データに変換する。また、音響処理回路23は、デジタル音響データに基づいてD/A変換回路(不図示)によってスピーカ駆動信号を生成し、スピーカ24から音響再生させる。
The
フラッシュメモリ17は、CPU16が実行するプログラムや、実行処理に必要なデータ、後述する画像データベース(以降画像DB17Aとする)、文字情報データベース(以降文字情報DB17Bとする)、音響データベース(以降音響DB17Cとする)、対象物データベース(以降対象物DB17Dとする)などを格納する。プログラム、データ、DB17A〜DB17Dの内容は、CPU16からの指示によって追加、変更が可能に構成されている。
The
CPU16は、例えばバッファメモリ18を作業領域として制御プログラムを実行し、カメラ各部に対する種々の制御を行う。バッファメモリ18は、画像データに対して各種処理を行うに際し、当該処理の前、あるいは後の画像データを一時的に記憶する場合にも使用される。本実施形態によるデジタルカメラ1では、撮影指示(シャッターボタンの全押し操作)前に撮像素子12によって所定のフレームレートで取得される複数フレームの画像(先撮り画像と呼ぶ)や、撮影指示後に撮像素子12によって所定のフレームレートで取得される複数フレームの画像(後撮り画像と呼ぶ)を一時的に記憶する場合にも使用される。
The
画像処理部14は、デジタル画像信号に対する画像処理以外に、画像信号を格納した所定形式の画像ファイル(例えば Exif ファイル)を生成する。記録再生部19は、CPU16からの指示に基づいて画像ファイルをメモリカード50に記録(保存)し、また、メモリカード50に記録(保存)されている画像ファイルを読み出す。記録再生部19はさらに、音響データを格納した音響ファイルをメモリカード50に記録(保存)し、メモリカード50に記録(保存)されている音響ファイルを読み出す。
In addition to the image processing on the digital image signal, the
メモリカード50は、図示しないカードスロットに着脱自在に取り付けられる記録媒体である。CPU16は、記録再生部19によってメモリカード50から読み出された画像ファイル、または撮影後バッファメモリ18に記憶されている画像データに基づいて、液晶モニタ15に撮影画像を再生表示させる。
The
操作部材20は、上記半押しスイッチ20aや、シャッターボタンの全押し操作に伴ってオンする全押しスイッチ20b、およびモード切替えスイッチなどを含み、各部材の操作に伴う操作信号をCPU16へ送出する。
The
半押しスイッチ20aからのオン信号(半押し操作信号)は、シャッターボタンが通常ストロークの半分程度まで押し下げ操作されると出力され、半ストロークの押し下げ操作解除で出力が解除される。また、全押しスイッチ20bからのオン信号(全押し操作信号)は、シャッターボタンが通常ストロークまで押し下げ操作されると出力され、通常ストロークの押し下げ操作が解除されると出力が解除される。
The ON signal (half-press operation signal) from the half-
<撮影モード>
上記デジタルカメラ1は、「通常の撮影モード」と、「先撮り撮影モード」とを有する。「通常の撮影モード」は、上記全押し操作信号に応じて1フレームずつ撮影画像を取得してメモリカード50へ記録する撮影モードである。「先撮り撮影モード」は、静止画像を所定のフレームレート(例えば毎秒120フレーム)で取得し、上記全押し操作信号を受けると、当該全押し操作信号を受けた時点の前後において取得した複数フレームの画像(上記先撮り画像と後撮り画像)のうち、所定の画像をメモリカード50へ記録する撮影モードである。各撮影モードは、操作部材20またはタッチ操作部材15aからの操作信号に応じて切替え可能に構成されている。
<Shooting mode>
The
<再生モード>
再生モードのデジタルカメラ1は、「通常の撮影モード」または「先撮り撮影モード」において記録された画像をフレームごとに、あるいは所定数のフレームごとに、液晶モニタ15に再生表示する。また、「動き表現」する場合は、「先撮り撮影モード」で取得された複数フレームの画像に基づいて、静止画像の中で変化する対象物を動的に表現するように、液晶モニタ15に再生表示を行う。
<Playback mode>
The
<動き表現と文字情報の組合せ>
本実施形態によるデジタルカメラ1は、図1のように「動き表現」に文字情報を組合せる処理に特徴を有するので、以降はこの点を中心に説明する。「動き表現」に文字情報を組合せる処理のオン/オフは、操作部材20またはタッチ操作部材15aからの操作信号に応じて切替え可能に構成されている。
<Combination of motion expression and character information>
Since the
再生モードであって、かつ「動き表現」に文字情報を組合せる処理がオンされたデジタルカメラ1は、操作部材20またはタッチ操作部材15aからの操作信号によって指示された複数フレームの画像に基づいて、「動き表現」に適したフレームを選び、選んだフレームの画像を用いて液晶モニタ15に再生表示する。また、再生表示画像に重ねて、操作部材20またはタッチ操作部材15aからの操作に基づいて選択された文字情報を液晶モニタ15に表示する(図1(a)、図1(b))。以下、組合せる文字情報の決定、「動き表現」する画像コンテンツの決定、画像DB17Aに格納されている画像の組の説明、「動き表現」に適したフレームの選択、および「動き表現」において動的に表現する対象物の決定、および「動き表現」のための画像生成について説明する。
The
―「動き表現」と組合せる文字情報の決定−
文字情報DB17Bには、あらかじめ俳句や詩、文章などの複数のコンテンツが格納されている。CPU16は、文字情報DB17Bに格納されているコンテンツの中から、「動き表現」と組合せる文字情報を決定する。CPU16は、文字情報DB17Bに格納されている複数のコンテンツのそれぞれについて、先頭から所定数の文字(例えば最大20文字)を読み出し、読み出した内容を液晶モニタ15の画面上にリスト表示させる。CPU16は、リスト表示させた状態で、タッチ操作部材15aを用いたコンテンツの選択操作を受け付ける。
-Determination of character information combined with "motion expression"-
The
ユーザーは、液晶モニタ15の画面上で任意の文字列の表示位置をタッチ操作する。CPU16は、タッチ操作部材15aからの操作信号を受けると、タッチ位置に対応するコンテンツの全文を文字情報DB17Bから読み出し、上記リスト表示に代えて液晶モニタ15の画面上に表示させる。ユーザーは、液晶モニタ15の画面上で不図示の「決定」アイコンの表示位置をタッチ操作する。CPU16は、タッチ操作部材15aから決定操作信号を受けると、全文表示しているコンテンツを「動き表現」と組合せる文字情報に決定する。なお、CPU16は、液晶モニタ15の画面上で不図示の「戻る」アイコンの表示位置がタッチ操作された場合は、液晶モニタ15の画面上に再度リスト表示させる。
The user touches the display position of an arbitrary character string on the screen of the
−「動き表現」する画像の決定−
画像DB17Aには、1組につき複数のフレーム画像を有する画像の組が、あらかじめ複数組格納されている。CPU16は、画像DB17Aに格納されている複数の画像の組の中から1つの画像の組を、「動き表現」するコンテンツ画像として決定する。画像DB17Aに格納されている画像の組が、どのように撮影された画像群であるかについては後述する。
-Determining the image for "motion expression"-
In the
CPU16は、画像DB17Aに格納されている画像の各組から、代表としてサムネイル画像を1つずつ読み出し、読み出したサムネイル画像を液晶モニタ15の画面上に並べて表示させる。CPU16は、サムネイル画像を並べて表示した状態で、タッチ操作部材15aを用いたコンテンツ画像の選択操作を受け付ける。
The
ユーザーは、液晶モニタ15の画面上で任意のサムネイル画像の表示位置をタッチ操作する。CPU16は、タッチ操作部材15aからの操作信号を受けると、タッチ位置のサムネイル画像を代表とする画像の組に含まれるフレーム画像の全てを画像DB17Aから読み出し、これらのサムネイル画像を液晶モニタ15の画面上に並べて表示させる。ユーザーは、液晶モニタ15の画面上で不図示の「決定」アイコンの表示位置をタッチ操作する。CPU16は、タッチ操作部材15aから決定操作信号を受けると、並べて表示中の画像の組を、「動き表現」するコンテンツ画像として決定する。なお、CPU16は、液晶モニタ15の画面上で不図示の「戻る」アイコンの表示位置がタッチ操作された場合は、液晶モニタ15の画面上に再度各画像の組を代表するサムネイル画像を並べて表示させる。
The user touches the display position of an arbitrary thumbnail image on the screen of the
―画像DB17Aに格納されている画像の組について―
画像DB17Aに格納されている画像の組が、どのように撮影された画像群であるかについて説明する。ユーザーは、例えばデジタルカメラ1を手持ちして、または三脚に固定して、複数フレームの画像を取得する。図3は、「先撮り撮影モード」における画像の取得タイミングを説明する図である。図3において、時刻t0に「先撮り撮影モード」が起動されると、CPU16は撮影待機処理を開始させる。撮影待機処理では、上記所定のフレームレートで被写体像を撮像して露出演算やフォーカス調節を行うとともに、取得した画像データを逐次バッファメモリ18へ記憶する。
-About the set of images stored in the
How the set of images stored in the
「先撮り撮影モード」において先撮り画像と後撮り画像の記憶に使用するバッファメモリ18のメモリ容量は、あらかじめ十分な容量が確保されている。CPU16は、時刻t0以降にバッファメモリ18内に記憶したフレーム画像のフレーム枚数が所定枚数(例えばC枚)に達した場合には、古いフレーム画像から順に上書き消去する。これにより、「先撮り撮影モード」において先撮り画像と後撮り画像の記憶に使用するバッファメモリ18のメモリ容量を制限できる。
In the “pre-shooting shooting mode”, a sufficient memory capacity of the
時刻t1に全押し操作信号が入力されると、CPU16は撮影処理を開始させる。撮影処理では、時刻t1以前に先撮りしたA枚のフレーム画像と、時刻t1より後に後撮りされるB枚のフレーム画像とを合わせた(A+B)枚のフレーム画像をメモリカード50への記録候補画像とする。図3における黒い帯は、記録候補画像である(A+B)枚のフレーム画像が取得される区間を表す。斜線の帯は、バッファメモリ18に一旦は記憶されたものの、上書き消去されたフレーム画像が取得された区間を表す。
When a full-press operation signal is input at time t1, the
CPU16は、設定されている記録方式に基づいて、記録候補画像のうち所定のフレーム画像をメモリカード50に記録する。本実施形態によるデジタルカメラ1では、(A+B)枚全てのフレーム画像を1組として、メモリカード50に記録するものとする。フレーム画像の組は、時間軸上で順番に並ぶので時系列画像と呼ぶ。
The
CPU16はさらに、メモリカード50に記録された複数の組の時系列画像の中から、画像DB17Aへ格納する時系列画像の組を決定する。CPU16は、操作部材20またはタッチ操作部材15aからの操作信号によって指示された組の時系列画像を、画像DB17A内に「複製」する。なお、複製元の組の時系列画像をメモリカード50から削除する「移動」を行ってもよい。
The
―「動き表現」に適したフレームの選択―
CPU16は、「動き表現」するコンテンツ画像として上述したように決定した時系列画像の組に基づいて、「動き表現」に適したフレームを選ぶ。具体的には、静止領域(背景)として用いるフレームSと、フレームSより時間的に前に取得されたフレームPと、フレームSより時間的に後に取得されたフレームQとを、(A+B)枚のフレーム画像の中から選ぶ。
―Selecting frames suitable for motion expression―
The
―フレームS―
本実施形態によるデジタルカメラ1のCPU16は、ユーザー操作によって指示されたフレーム画像をフレームSとする。具体的には、(A+B)枚のフレーム画像に基づいて、各フレームのサムネイル画像を図4に例示するように、液晶モニタ15の画面に並べて表示させる。(A+B)枚のサムネイル画像が一画面に収まらない場合には、CPU16は、ユーザー操作に応じて画面をスクロールさせることにより、ユーザーが意図するサムネイル画像を液晶モニタ15に表示させる。
-Frame S-
The
ユーザーは、図4に例示した液晶モニタ15の画面上で、「動き表現」の際に静止領域(背景)として用いたいフレームをタッチ操作で選ぶ。CPU16は、タッチ操作部材15aからの操作信号を受けると、タッチ位置のサムネイル画像Xに対応するフレーム画像をフレームSとする。CPU16は、フレームSを決定すると画像DB17AからフレームSの画像をから読み出し、図5に例示するように液晶モニタ15の画面上に表示させる。
On the screen of the liquid crystal monitor 15 illustrated in FIG. 4, the user selects a frame to be used as a still area (background) by “touch operation” in “motion expression”. When the
なお、全押し操作信号が入力された時刻t1に最も近いタイミングで撮像された画像を、自動的にフレームSとして設定するようにしてもよい。この場合、バッファメモリ18内に記憶されたA+B枚のフレーム画像のうち、どのフレームが全押し操作タイミングに最も近いタイミングで撮像された画像であるかを示す情報についても、バッファメモリ18に記憶しておく。
Note that an image captured at the timing closest to the time t1 when the full-press operation signal is input may be automatically set as the frame S. In this case, information indicating which of the A + B frame images stored in the
―「動き表現」において動的に表現する対象物の決定―
CPU16は、「動き表現」において静止画像の中で動的に表現する対象物を以下のように決定する。CPU16は、上述したように決定した文字情報の全文から、所定の品詞(例えば名詞)を検出する。CPU16は、検出した名詞が表す対象物を、「動き表現」において静止画像の中で動的に表現する。このためにCPU16は、静止画像において公知の物体認識処理を行うことにより、対象物を特定する。ここで、品詞検出に必要な情報と、物体検出に必要な情報(例えば、物体検出に用いる画像特徴量など)とが、対象物データベース17Dにあらかじめ記録されている。
-Determination of objects to be dynamically expressed in "motion expression"-
The
例えば、図1(a)および図1(b)に例示した文字情報Tの場合を例に説明すると、CPU16は、「古池や蛙飛び込む水の音」の中の名詞「池」、「蛙」、「水」、「音」を検出する。CPU16はさらに、静止画像(フレームS)の中から上記名詞に対応する物体を物体認識処理によって検出する。一般に、輪郭を有していない物体の検出は困難であるところ、「水」や「音」そのものは輪郭を有していないため、これらの検出は困難である。本例の場合、CPU16は、図5に例示したフレームSから、例えば「蛙」より画像に占める割合が大きい「池」を検出する。そしてCPU16は、検出した「池」を囲む矩形領域のマークmをフレームSの画像上に重ね表示させ、マークmで囲まれる範囲を動体領域とする。
For example, the case of the character information T illustrated in FIG. 1A and FIG. 1B will be described as an example. The
―フレームP、フレームQ―
CPU16は、上記フレームSより時間的に前に取得されたフレーム画像からフレームPを選ぶ。また、CPU16は、上記フレームSより時間的に後に取得されたフレーム画像からフレームQを選ぶ。図6は、「池」を対象物とし、この「池」の水面に広がる波紋を撮影したフレームf1、フレームf2、…フレームf(A−1)、フレームfA、フレームf(A+1)、…フレームf(A+5)、…フレームf(A+10)、…フレームf(A+B)の画像を例示する図である。草の上から「蛙」が池へ飛び込み、「池」の水面に波紋が広がる場面である。本説明では、フレームf(A+1)を上記フレームSに対応させる。このため、フレームf1からフレームfAまでがフレームPの候補に対応し、フレームf(A+2)からフレームf(A+B)までがフレームQの候補に対応する。
-Frame P, Frame Q-
The
図6のフレームf(A+1)(すなわちフレームS)における動体領域m(A+1)は、図5において決定した動体領域に対応する。CPU16は、例えば、動体領域m(A+1)をテンプレートとして、図6のフレームf(A+1)(すなわちフレームS)以外の他のフレーム画像からテンプレートマッチング手法によって動体領域を抽出する。図6のm1、m2、…m(A−1)、m(A)、m(A+1)、…m(A+5)、…m(A+10)、…m(A+B)は、各フレームにおける動体領域を表す。なお、上記の各フレーム画像における動体領域の抽出は、上記のテンプレートマッチングの手法に代えて(あるいは加えて)、各フレーム間の差分等の演算、あるいはテクスチャ等の画像特徴量を用いて行うものであっても構わない。動体領域は、時間変化を伴うものである為、単純なテンプレートマッチングでは抽出できない場合も想定される。このような場合には、フレーム間の差分等の演算や、テクスチャ等の画像特徴量を用いる手法が有効である。
The moving object region m (A + 1) in the frame f (A + 1) (that is, the frame S) in FIG. 6 corresponds to the moving object region determined in FIG. For example, the
図7は、フレームf(A+1)(すなわちフレームS)における動体領域m(A+1)、および非動体領域(すなわち静止領域)を例示する図である。斜線を引いた領域が非動体領域を表す。CPU16は、図6の各フレーム画像からそれぞれの動体領域において2以上の特徴点を抽出する。
FIG. 7 is a diagram illustrating a moving object area m (A + 1) and a non-moving object area (that is, a stationary area) in the frame f (A + 1) (that is, the frame S). A hatched area represents a non-moving object area. The
図6において、複数の黒点は特徴点を表す。画像間の位置合わせに適した特徴点の抽出は、例えば、Lowe, David G. (1999). "Object recognition from local scale-invariant features". Proceedings of the International Conference on Computer Vision. 2. pp.1150-1157.などに開示される公知の技術を用いることができる。 In FIG. 6, a plurality of black dots represent feature points. For example, Lowe, David G. (1999). "Object recognition from local scale-invariant features". Proceedings of the International Conference on Computer Vision. 2. pp.1150 Known techniques disclosed in -1157. And the like can be used.
CPU16は、フレームf1、フレームf2、…フレームf(A−1)、フレームfA、フレームf(A+1)、…フレームf(A+5)、…フレーム(A+10)、…フレームf(A+B)間でそれぞれ特徴点の対応付けを行い、フレーム間の画像の位置合わせを行う。CPU16は、各フレームにおける動体領域の位置を、フレームf(A+1)(すなわちフレームS)を基準に表す。
The
図6の場合、フレームPの候補となるフレームでは、動体領域において隣接フレームとの間でそれぞれ差分が生じていない。この場合のCPU16は、例えばフレームSとの間で時間的に隣接するフレームfAをフレームPとして選ぶ。なお、フレームPは複数選んでもよい。
In the case of FIG. 6, in the frames that are candidates for the frame P, no difference is generated between adjacent frames in the moving object region. In this case, the
また、図6の場合、フレームQの候補となるフレームでは、動体領域において隣接フレームとの間でそれぞれ差分が生じている。対象物である「池」の輪郭の形状は、フレーム間で等しく、「池」の輪郭の大きさも変化がないが、「池」の水面の波紋の形状はフレーム間で異なる。CPU16は、フレームSとの間でそれぞれの波紋間の相対距離が所定範囲内であるフレームf(A+5)、フレームf(A+10),およびf(A+B)をフレームQとして選ぶ。フレームQを構成するフレーム数を多くすると、「動き表現」を滑らかにできる。
In the case of FIG. 6, in the frame that is a candidate for the frame Q, a difference is generated between each adjacent frame in the moving object region. The shape of the contour of the “pond” that is the object is the same between the frames, and the size of the contour of the “pond” does not change, but the shape of the ripples on the water surface of the “pond” varies from frame to frame. The
CPU16は、上述するように選んだフレームS、フレームP(フレームfA)、およびフレームQ(フレームf(A+5)、フレームf(A+10)、フレームf(A+B))を合成して静止画像(フレームS)上において動体領域を動的に表現する。具体的には、フレームSの一部を構成する動体領域m(A+1)に代えて、他のフレームの動体領域を、フレームSにおいて対応する位置へ所定時間ごとに順次はめ込み合成する。このためにCPU16は、先ず、フレームSの画像、および選んだ複数のフレーム画像からテンプレートマッチング手法によってそれぞれ動体領域を抽出する。図7において、m(A)、m(A+5)、m(A+10)、m(A+B)は、抽出した動体領域を例示する図である。CPU16は、このようにして対象物についての時系列画像を生成する。図7の動体領域は、上述した「動き表現」に適したフレーム選択を行う際に抽出済みであるので、この情報を使用できる。
The
―「動き表現」のための画像生成―
CPU16は、図7に例示したフレームS(f(A+1))における動体領域m(A+1)に代えて、対象物についての時系列画像、すなわち、フレームPの動体領域m(A)、フレームSの動体領域m(A+1)、上記フレームQの動体領域m(A+5)、動体領域m(A+10)、動体領域m(A+B)を、フレームSにおいて対応する位置へ所定の時間ごとに、順番にはめ込み合成する。フレームSにおいて対応する位置は、「動き表現」に適したフレーム選択の際に求めた動体領域の位置であって、フレームSを基準に表した位置である。
-Image generation for "motion expression"-
The
例えば、三脚で撮影方向を変更しないで撮影した場合には、各フレームで池の座標位置は変化しない。これに対し、画面上の位置が各フレームで変化する蛙を撮影する場合や、手持ちで撮影した場合には(手ぶれにより)、順次はめこみ合成するフレームS上の動体領域の位置が、フレームによって異なる。このように動体領域の位置がフレームごとに異なる場合のはめこみ合成の位置は、フレームSの背景領域を基準にして、各フレームを位置合わせした上で、各フレームの動体領域の座標を、フレームS上の座標に変換した上で、各フレームの動体領域を、順次、フレームS上の変換座標上にはめこみ合成する。 For example, when shooting without changing the shooting direction with a tripod, the coordinate position of the pond does not change in each frame. On the other hand, when shooting a wrinkle whose position on the screen changes in each frame, or when shooting by hand (by camera shake), the position of the moving object region on the frame S to be sequentially fitted and synthesized differs depending on the frame. . In this way, when the position of the moving object region is different for each frame, the position of the inset composition is obtained by aligning each frame with reference to the background region of the frame S, and then setting the coordinates of the moving object region of each frame as the frame S. After converting to the upper coordinates, the moving object region of each frame is sequentially embedded and synthesized on the converted coordinates on the frame S.
また、各フレーム画像を、フレームSの背景領域の特徴点を基準に位置合わせをした上で、対象物(例えば蛙)の「移動範囲を包含する範囲」を動体領域として設定し(この場合、動体領域を含む被写体の範囲(撮影範囲)は各フレームで同じになるので、動体領域の中に対象物と静止領域とが含まれる)、各フレーム画像における動体領域を、フレームS上の変換座標上に、順次はめこみ合成する構成としてもよい。 In addition, after aligning each frame image with reference to the feature point of the background region of the frame S, the “range including the moving range” of the object (for example, 蛙) is set as the moving object region (in this case, Since the range (shooting range) of the subject including the moving object region is the same in each frame, the moving object region includes the object and the stationary region), and the moving object region in each frame image is converted to the converted coordinates on the frame S. It is also possible to employ a configuration in which the fitting is sequentially performed.
図8は、はめ込み合成後のフレームcA、フレームc(A+1)、フレームc(A+5)、c(A+10)およびフレームc(A+B)を例示する図である。各フレームの「動体領域の画像」は、それぞれ図6のフレームfA、フレームf(A+1)、フレームf(A+5)、f(A+10)およびフレームf(A+B)を撮影した時点の「動体領域の画像」に対応する。なお、フレームc(A+1)は、フレームf(A+1)に等しい。 FIG. 8 is a diagram illustrating the frame cA, the frame c (A + 1), the frame c (A + 5), c (A + 10), and the frame c (A + B) after the inset synthesis. The “moving body region image” of each frame is the “moving body region image” at the time when the frames fA, f (A + 1), f (A + 5), f (A + 10), and f (A + B) of FIG. ". Note that the frame c (A + 1) is equal to the frame f (A + 1).
図8に例示した画像を液晶モニタ15に順番に再生表示させると、静止画像(フレームS=f(A+1))という時間の止まった世界の中で、動体領域(「池」の波紋)だけ時間が進行しているかのような、異質な世界を表現し得る。
When the images illustrated in FIG. 8 are sequentially reproduced and displayed on the
なお、静止画像(フレームS)上において動体領域の位置をm(A)→m(A+1)→m(A+5)→m(A+10)→m(A+B)→m(A)…へ切替える時間の間隔を短くすると速い「動き表現」になり、切替える間隔を長くすると遅い「動き表現」になる。 It should be noted that the time interval for switching the position of the moving object region on the still image (frame S) from m (A) → m (A + 1) → m (A + 5) → m (A + 10) → m (A + B) → m (A). If the is shortened, it becomes a fast “motion expression”, and if the switching interval is lengthened, it becomes a slow “motion expression”.
<「動き表現」と文字情報の表示態様の変化のタイミング>
CPU16は、「動き表現」において静止画像の中で動体領域(対象物)を動的に動かすタイミングと、文字情報の表示態様を変化させるタイミングとを、例えば以下のように関連づける(同期させる)。まず、はめ込み合成後のフレームcAを液晶モニタ15に表示した状態で文字情報Tを重ね表示させる。
<"Motion expression" and the timing of changes in the display mode of character information>
The
次にCPU16は、図1(a)に例示したように、文字情報Tの表示態様を時間経過とともに変化させる。CPU16はさらに、図1(b)に例示するように、文字情報Tを構成する全ての文字の表示態様の変化が終了した後、所定時間(例えば0.5秒)が経過すると「動き表現」を開始させる。上記説明では、f(A)〜f(A+B)のうちから、動き表現に用いるフレーム画像を選択する構成としたが、例えば、f(A)〜f(A+B)の全てのフレーム画像を用いて、動き表現に用いる画像を生成してもよい。
Next, as illustrated in FIG. 1A, the
<「動き表現」に必要なデータの記録>
CPU16は記録再生部19へ指示を送り、「動き表現」に必要なデータと、文字情報の表示態様の変化に必要なデータとをメモリカード50に記録させる。記録するデータは、例えば、フレームS、フレームPおよびフレームQの各画像、これらの画像における動体領域の範囲、座標位置、フレームPおよびフレームQからフレームSへ位置合わせするための制御(シフト)値、ループ再生の要否などの情報、文字情報T、文字情報の表示位置、表示態様の変化開始のタイミング、表示態様の変化速度などである。
<Recording of data necessary for "motion expression">
The
―フローチャートの説明―
図9は、上述した「動き表現」のためにCPU16が実行する処理の流れを説明するフローチャートである。CPU16は、「先撮り撮影モード」に設定されると図9による処理を起動する。図9のステップS1において、CPU16は先撮り画像の取得(すなわち撮影待機処理)を開始させてステップS2へ進む。これにより、先撮りされたフレーム画像がバッファメモリ18に蓄積されるとともに、液晶モニタ15に逐次表示される。
―Explanation of flowchart―
FIG. 9 is a flowchart for explaining the flow of processing executed by the
ステップS2において、CPU16は、先撮り画像データに基づいてAE(自動露出)演算およびAF(自動焦点調節)処理を行わせてステップS3へ進む。ステップS3において、CPU16は、レリーズボタンの全押し操作が行われたか否かを判定する。CPU16は、全押しスイッチ20bからのオン信号が入力された場合にステップS3を肯定判定してステップS4へ進み、全押しスイッチ20bからのオン信号が入力されない場合には、ステップS3を否定判定してステップS2へ戻る。ステップS2へ戻る場合は、上述した処理を繰り返す。
In step S2, the
ステップS4において、CPU16は、後撮り画像の取得を開始させてステップS5へ進む。後撮り画像は、全押し操作に応じて取得する1枚と、その後に取得する(B−1)枚である。ステップS5において、CPU16は、バッファメモリ18に記憶している(A+B)枚のフレーム画像をメモリカード50に記録してステップS6へ進む。
In step S4, the
ステップS6において、CPU16は、終了指示が行われたか否かを判定する。CPU16は、操作部材20またはタッチ操作部材15aから「通常撮影モード」へ切り替える操作信号が入力されると、ステップS6を肯定判定して図9による処理を終了する。CPU16は、操作部材20またはタッチ操作部材15aから「通常撮影モード」への切り替え操作信号が入力されない場合は、ステップS6を否定判定してステップS1へ戻る。ステップS1へ戻る場合は、上述した処理を繰り返す。
In step S6, the
「動き表現」に文字情報を組合せるCPU16が実行する処理の流れについて、図10に例示するフローチャートを参照して説明する。ここで、「動き表現」する画像は、上述したユーザー操作によって決定した画像であり、「動き表現」に組合せる文字情報は、上述したユーザー操作によって決定した文字情報である。CPU16は、再生モードであって、かつ「動き表現」に文字情報を組合せる処理がオンされると図10による処理を起動する。
A flow of processing executed by the
図10のステップS51において、CPU16は、(A+B)枚のフレーム画像の中から静止画用フレーム(フレームS)を決めてステップS52へ進む。ステップS52において、CPU16は、再生時に静止画像(フレームS)上で動的に表現する動体領域を決定してステップS53へ進む。
In step S51 of FIG. 10, the
ステップS53において、CPU16は、図6の各フレーム画像の位置合わせを行ってステップS54へ進む。位置合わせは、フレーム画像から抽出した2以上の特徴点の位置に基づいて行う。
In step S53, the
ステップS54において、CPU16は、各フレーム画像から上記テンプレートマッチング手法によって動体領域を抽出し、ステップS55へ進む。ステップS55において、CPU16は、静止画像(フレームS)を基準として各フレームの動体領域の位置を求めて、ステップS56へ進む。
In step S54, the
ステップS56において、CPU16は、静止画像(フレームS)より時間的に前に取得されたフレーム画像であって、当該フレームにおける対象物とフレームSにおける対象物との相対距離が所定範囲内であるフレームPを抽出してステップS57へ進む。
In step S56, the
ステップS57において、CPU16は、静止画像(フレームS)より時間的に後に取得されたフレーム画像であって、当該フレームにおける対象物とフレームSにおける対象物との相対距離が所定範囲内であり、かつ、当該フレームにおける対象物と上記フレームPにおける対象物との類似度が所定値以上であるフレームQを抽出してステップS58へ進む。
In step S57, the
ステップS58において、CPU16は、条件を満たすか否かを判定する。CPU16は、例えば、フレームP、フレームQがフレームSと略同一であって変化がなく、再生表示しても動体領域を動的に表現できない場合は、ステップS58を否定判定してステップS56へ戻ってフレームPおよびフレームQの抽出をやり直す。CPU16は、フレームP、及び(または)フレームQがフレームSと適度に相違する場合(例えば、フレームP、フレームQにおける対象物がフレームSにおける対象物との間で所定の相対距離を有する場合)は、ステップS58を肯定判定してステップS59へ進む。
In step S58, the
ステップS59において、CPU16は、所定の時間ごとに、フレームSにおける動体領域に代えて図7に例示した動体領域を、フレームSにおいて対応する位置へはめ込み合成してステップS60へ進む。
In step S59, the
ステップS60において、CPU16は、静止画用フレームの背景領域に文字情報Tを表示し、文字情報Tの表示態様を時間経過とともに変化させるフレーム画像を生成してステップS61へ進む。
In step S60, the
ステップS61において、CPU16は、終了指示されたか否かを判定する。CPU16は、終了操作が行われた場合にステップS60を肯定判定して図10による処理を終了する。CPU16は、終了操作が行われない場合には、ステップS60を否定判定してステップS51へ戻る。
In step S61, the
以上説明した実施形態によれば、以下の作用効果が得られる。
(1)デジタルカメラ1は、時系列に撮影された複数フレームの画像f1〜f(A+B)のうちの1フレームf(A+1)の画像上で、所定の領域mが時間とともに変化する画像を表示するための画像表示データを生成するCPU16と、時間とともに変化する画像に加えて、所定の文字情報Tを表示するための文字再生データを生成するCPU16と、文字情報Tに含まれる内容に基づいて、所定の領域mを決定するCPU16と、を備え、CPU16は、複数フレームの画像f1〜f(A+B)の各々において、CPU16で決定された領域mの位置情報を取得し、取得した位置情報と複数フレームの画像f1〜f(A+B)とに基づいて、CPU16で決定された領域mについての時系列画像m1〜m(A+B)を取得し、複数フレームの画像f1〜f(A+B)のうちの1フレームの画像f(A+1)に基づいて生成された静止画像(図7の斜線領域)に対し、取得した時系列画像m1〜m(A+B)を順次合成することによって画像表示データを生成する。静止画像において「動き表現」する領域mは文字情報Tと関連を持たせることができるので、文字情報Tを表示しない場合に比べて、静止画像中の一部を動的に表現する際の情景理解を深められる。
According to the embodiment described above, the following effects can be obtained.
(1) The
(2)上記(1)のデジタルカメラ1において、CPU16は、文字情報Tの表示態様を時間とともに表示するための文字再生データを生成し、CPU16は、時系列に撮影された複数フレームの画像f1〜f(A+B)のうちの1フレームの画像f(A+1)上で、所定の領域mの変化が文字情報Tの表示態様の変化と同期するように画像表示データを生成する。これにより、「動き表現」する領域mの変化と文字情報Tの内容とをさらに細かく関連させることができるので、静止画像中の一部を動的に表現する際の情景理解をさらに深められる。
(2) In the
(変形例1)
上述した実施形態では、文字情報Tを構成する全ての文字の表示態様を変化させた後に所定時間が経過すると、静止画像の領域mにおいて「動き表現」を開始させる例を説明した。この代わりに、静止画像の領域mにおいて「動き表現」が終了してから文字の表示態様の変化を開始させたり、静止画像の領域mにおいて行う「動き表現」の開始タイミングと文字の表示態様の変化の開始タイミングとを揃えたり、種々の手法を適宜採用してよい。これにより、「動き表現」する領域mの変化と、文字情報Tの内容とをさらに細かく関連させることができるので、静止画像中の一部を動的に表現する際の情景理解をさらに深められる。
(Modification 1)
In the above-described embodiment, the example in which “motion expression” is started in the area m of the still image after a predetermined time has elapsed after changing the display mode of all the characters constituting the character information T has been described. Instead, the change of the character display mode is started after the “motion expression” is completed in the still image region m, or the start timing of the “motion expression” performed in the still image region m and the character display mode are changed. You may align with the start timing of a change, and may employ | adopt various methods suitably. As a result, the change in the area “m” for “motion expression” and the content of the character information T can be related more finely, so that understanding of the scene when dynamically expressing a part of a still image can be further deepened. .
(変形例2)
上記実施形態では、ユーザーによるタッチ操作部材15aのタッチ操作に基づいて、CPU16が「動き表現」する画像の組を決定した。この代わりに、文字情報Tに含まれる所定の品詞に基づいて、CPU16が「動き表現」する画像の組を決定するようにしてもよい。例えば、図1(a)および図1(b)に例示した文字情報Tの場合を例に説明すると、CPU16は、「古池や蛙飛び込む水の音」の中の名詞「池」、「蛙」、「水」、「音」を検出する。
(Modification 2)
In the above-described embodiment, the
変形例2のCPU16はさらに、画像DB17Aに格納されている画像の組ごとに、各組を構成するフレーム画像から上記名詞に対応する物体を物体認識処理によって検出する。CPU16は、物体認識処理によって「池」や「蛙」が最も多く検出された画像の組を、「動き表現」する画像の組として決定する。
The
変形例2によれば、文字情報Tと関連性が高い画像の組を画像DB17Aの中から自動で見つけることができる。なお、品詞は名詞に限らず、形容詞、あるいは動詞等の他の品詞であってもよい。これらの名詞以外の品詞を用いた場合であっても、画像認識処理により、これら品詞を含む文字情報Tと関連性が高い画像の組を画像DB17Aの中から自動的に見つけることができる。
また、ユーザーによるタッチ操作に基づいて、「動き表現」に組合せる文字情報を決定する代わりに、決定されている画像の組に基づいて、CPU16が「動き表現」に組合せる文字情報を決定するようにしてもよい。例えば、CPU16は、決定されている画像に対して画像認識処理を行い、認識した対象物を示す名詞を含む文字情報を文字情報DB17Bから選んで「動き表現」に組合せる文字情報として決定する。
According to the second modification, a set of images that are highly relevant to the character information T can be automatically found from the
Further, instead of determining the character information to be combined with “motion expression” based on the touch operation by the user, the
(変形例3)
上述した実施形態では、文字情報Tを先に決定しておき、文字情報Tに含まれる所定の品詞(上記実施形態では名詞)に基づいて、「動き表現」において静止画像の中で動的に表現する対象物「池」を決定する例を説明した。この代わりに、静止画像の中で動的に「動き表現」する対象物の時系列画像が先に生成されている場合において、この対象物を示す名詞を含む文字情報を、文字情報DB17Bから検出するように構成してもよい。
(Modification 3)
In the embodiment described above, the character information T is determined first, and based on a predetermined part of speech (noun in the above embodiment) included in the character information T, the “motion expression” is dynamically changed in the still image. The example which determines the target object "pond" to represent was demonstrated. Instead, when a time-series image of an object to be dynamically “moved” is generated in a still image, character information including a noun indicating the object is detected from the
変形例3のCPU16は、「動き表現」において静止画像の中で動的に表現する「池」についての時系列画像が生成されている場合に、文字情報DB17Bを検索し、動的な表現の対象物を示す名詞「池」を含む文字情報(「古池や蛙飛び込む水の音」)を検出する。
When the time series image about the “pond” that is dynamically expressed in the still image is generated in the “motion expression” in the “motion expression”, the
変形例3によれば、「動き表現」において静止画像の中で所定の対象物を動的に表現する時系列画像と関連性が高い文字情報Tを、文字情報DB17Bの中から自動で見つけることができる。対象物の時系列画像は、自動認識処理(物体抽出処理+各フレームで当該物体領域の関連付け)により抽出してよい。そして、抽出された物体の名前、形状、動作、状態等に基づいて、文字情報DBから文字情報を自動的に抽出する構成としてもよい。
According to the third modification, character information T that is highly relevant to a time-series image that dynamically represents a predetermined object in a still image in “motion expression” is automatically found from the
(変形例4)
変形例3に加えて、あらかじめ音響DB17Cに効果音の音響データを格納しておき、音響DB17Cの中から、静止画像の中で動的に「動き表現」する時系列画像と関連性が高い効果音の音響データを検出してもよい。
(Modification 4)
In addition to the third modification, the sound data of the sound effect is stored in the sound DB 17C in advance, and the effect highly relevant to the time series image that dynamically “moves” in the still image from the sound DB 17C. Sound acoustic data may be detected.
変形例4の音響DB17Cには、例えば、「池」の水面に物が落ちた場合の効果音「ポチャーン」や、「蛙」の鳴き声「ゲコゲコ」などの音響データがあらかじめ格納される。「ポチャーン」を表す音響データは名詞「池」に関連付けられ、「ゲコゲコ」を表す音響データは名詞「蛙」に関連付けられる。 In the acoustic DB 17C of the fourth modification, for example, acoustic data such as a sound effect “pocharn” when an object falls on the water surface of “pond” and a cry “gekogeko” of “の” are stored in advance. The acoustic data representing “Pocharn” is associated with the noun “pond”, and the acoustic data representing “Gekogeko” is associated with the noun “蛙”.
変形例4のCPU16は、「動き表現」において静止画像の中で動的に表現する「池」についての時系列画像が生成されている場合に、動的な表現の対象物を示す名詞「池」に関連付けられている効果音「ポチャーン」の音響データを検出する。CPU16は、音響DB17Cを検索し、「ポチャーン」を表す音響データを検出する。CPU16はさらに、検出した音響データを音響DB17Cから読み出し、「動き表現」と同期してスピーカ24から音響再生させる。
When the time series image about the “pond” that is dynamically expressed in the still image is generated in the “motion expression” in the “motion expression”, the
このとき、CPU16は、「動き表現」において静止画像の中で対象物「池」を動的に動かし始めるタイミングと、スピーカ24から「ポチャーン」を音響再生するタイミングとを同期させる。変形例4のCPU16は、スピーカ24から「ポチャーン」を音響再生した後、所定時間(例えば0.5秒)が経過すると「動き表現」を開始させる。
At this time, the
なお、変形例4のCPU16は、「動き表現」に必要なデータをメモリカード50へ記録する際、「ポチャーン」を表す音響データも関連づけて記録する。そして、「動き表現」において静止画像の中で対象物「池」を動的に動かし始めるタイミングと、「ポチャーン」を音響再生するタイミングを示す情報も含める。
In addition, when recording the data necessary for “motion expression” on the
変形例4によれば、「動き表現」において静止画像の中で所定の対象物「池」を動的に表現するための時系列画像と関連性が高い効果音「ポチャーン」を表す音響データを音響DB17Cの中から自動で見つけることができる。また、「動き表現」に合わせて適切なタイミングで効果音を音響再生できる。 According to the modified example 4, in the “motion expression”, the acoustic data representing the sound effect “pocharn” having high relevance to the time-series image for dynamically expressing the predetermined object “pond” in the still image is obtained. It can be automatically found in the acoustic DB 17C. Also, sound effects can be played back at appropriate timing in accordance with “motion expression”.
(変形例5)
変形例4において音響再生に用いた効果音「ポチャーン」を表す音響データに対し、強調処理を施すようにしてもよい。変形例5のCPU16は音響処理回路23へ指示を送り、水がはねる音である「ポチャーン」を表す音響データに含まれる周波数成分に対する増幅利得を初期値より高く設定し、「ポチャーン」を表す音響データに含まれない周波数成分に対する増幅利得を初期値より低く設定することにより、水がはねる音以外の他の音を抑圧するフィルタ処理を施す。これにより、水がはねる音を強調できる。CPU16は記録再生部19へ指示を送り、強調処理後の音響データをメモリカード50へ記録させる。
(Modification 5)
An enhancement process may be performed on the sound data representing the sound effect “pocharn” used for sound reproduction in the modified example 4. The
音響データは、音響DBに格納されているデータに限らず、撮影時にマイクで取得された音響データを用いてもよい、この音響データの再生のタイミングは、実際に画像を撮影したタイミングでもよいし、画像を撮影したタイミングからずらしたタイミングであっても構わない。実際にマイクで集音された音響データを用いる場合には、邪魔な音も記録されている可能性もある。このような場合は、特に、後述する変形例6の手法を用いることが有効になる。 The sound data is not limited to the data stored in the sound DB, and sound data acquired by a microphone at the time of shooting may be used. The timing of reproducing the sound data may be the timing at which an image is actually shot. The timing may be shifted from the timing at which the image was taken. When acoustic data actually collected by a microphone is used, there is a possibility that a disturbing sound is also recorded. In such a case, it is particularly effective to use the method of Modification 6 described later.
(変形例6)
変形例4において音響再生に用いた効果音「ポチャーン」を表す音響データに対し、他の手法による強調処理を施すようにしてもよい。変形例6のCPU16は音響処理回路23へ指示を送り、音響データを構成する左右の音響信号間で位相を制御する。音響データが非等方の指向性を有するステレオマイク22を介して集音されている場合、左右の音響信号間の位相差を揃えるように位相を調節することにより、水がはねる音を強調できる。
(Modification 6)
You may make it perform the emphasis process by another method with respect to the sound data showing the sound effect "pocharn" used for sound reproduction in the modification 4. The
例えば、ステレオマイク22のうち右マイクの指向性が、「蛙」が「池」に落ちた地点に向いている場合、当該地点に指向性が向いていない左マイクで集音された音響信号の位相は、右マイクで集音された音響信号の位相より遅れる。そこで、左マイクで集音された音響信号の位相を進めて左右の位相を揃えることにより、効果音「ポチャーン」を強調する。
For example, when the directivity of the right microphone of the
CPU16は、上述したフレームSにおいて動体領域である「池」の水面の波紋が画面の右側で生じていることから、「蛙」が「池」に落ちた地点(画面右方向)からの音をひろう右マイクで集音された音響信号の位相が進んでいると判断し、強調処理のために左マイクで集音された音響信号の位相を進めるように決定する。これにより、水がはねる音を強調できる。CPU16は記録再生部19へ指示を送り、強調処理後の音響データをメモリカード50へ記録させる。
Since the ripple on the water surface of the “pond”, which is the moving object area, is generated on the right side of the screen in the frame S described above, the
(変形例7)
上述した実施形態では、「動き表現」のために静止画像の中で動的に表現する領域(対象物)を1つ設けた例を説明したが、動的に表現する領域(対象物)を複数設けるようにしてもよい。例えば、画面内で変化する第1の対象物を「池」とし、画面内で変化する第2の対象物を「蛙」とする。
(Modification 7)
In the embodiment described above, an example has been described in which one region (object) that is dynamically expressed in a still image for “motion expression” is provided. However, a region (object) that is dynamically expressed is described. A plurality of them may be provided. For example, a first object that changes in the screen is “pond”, and a second object that changes in the screen is “蛙”.
CPU16は、時系列に並ぶ図6のフレーム画像について、第2の対象物「蛙」を有する第2の動体領域o1〜oAを抽出する。変形例7の場合、池に飛び込む「蛙」はフレーム間で形状と画面内の位置が変化するので、差分検出手法を用いる。
The
CPU16は、時系列に並ぶ図6のフレーム画像について、第1の対象物「池」を有する第1の動体領域m1〜m(A+B)を除いた背景領域(例えば「草」)で位置合わせを行った上で、隣接するフレーム間で差分をとることにより、フレーム画像における「蛙」を抽出する。具体的には、時間的に隣接する、所定の閾値で2値化された差分画像間で、論理積をとることにより、「蛙」を含む領域を抽出する。そしてCPU16は、抽出した領域において公知の物体認識処理を行うことにより、「蛙」を特定する。フレーム画像について背景領域で位置合わせを行うのは、フレーム間差分が変化しない大きい面積の部分で位置合わせするのであって、「蛙」で位置合わせするのではないからである。
The
ここで、フレーム間で所定値以上の差分が生じた領域が「蛙」を含む領域に対応し、フレーム間の差分が所定値未満の領域は「蛙」を含まない領域に対応する。次にCPU16は、図6の各フレーム画像からそれぞれ第1の動体領域m1〜m(A+B)および第2の動体領域o1〜oAを除外した非動体領域において、第一の実施形態と同様に2以上の特徴点を抽出し、フレーム間でそれぞれ特徴点の対応付けを行うことによって、各フレームにおける非動体領域の位置を、フレームf(A+1)(すなわちフレームS)における非動体領域を基準に表す。この基準に表したフレームS上の位置に、順次動体領域をはめこみ合成する。
Here, an area where a difference between frames exceeds a predetermined value corresponds to an area including “蛙”, and an area where the difference between frames is less than a predetermined value corresponds to an area not including “蛙”. Next, the
CPU16はさらに、第1動体領域m1〜m(A+B)および第2動体領域o1〜oAにおいても、それぞれ2以上の特徴点を抽出する。そして、各フレームにおける非動体領域の特徴点と各動体領域の特徴点の位置関係に基づいて、各フレームにおける第1動体領域m1〜m(A+B)および第2動体領域o1〜oAの位置を、フレームf(A+1)(すなわちフレームS)における非動体領域を基準に表す。
The
CPU16は、「動き表現」において静止画像の中で「蛙」を動的に表現する場合は、フレームSにおける第2動体領域に代えて、例えば、フレームf2、フレームf(A−1)、およびフレームfAの第2動体領域を、フレームSにおいて対応するそれぞれの位置へ所定時間ごとに順番にはめ込み合成する。
When the
以上説明したように、「動き表現」のための画像生成において、「動き表現」のために静止画像(背景)上で動的に表現する領域(対象物)を2つ設ける場合でも、2つの動体領域をフレームSにおいて対応するそれぞれの位置へ所定時間ごとにはめ込み合成する手法は、上述した実施形態と同様である。また、メモリカード50に対する必要なデータの記録についても、上述した場合と同様である。
As described above, in the image generation for “motion expression”, even when two regions (objects) that are dynamically expressed on a still image (background) for “motion expression” are provided, The method of fitting the moving object region to each corresponding position in the frame S every predetermined time is the same as in the above-described embodiment. The recording of necessary data on the
上記のように「蛙」についての時系列画像をはめ込み合成した画像を液晶モニタ15に順番に再生表示させると、静止画像(フレームS=f(A+1))という時間の止まった世界の中で、第2の動体領域「蛙」だけ時間が進行しているかのような、異質な世界を表現し得る。なお、「蛙」と池を統合して1つの動体領域としてもよい。
As described above, when the images obtained by inserting and synthesizing the time-series images of “蛙” are sequentially reproduced and displayed on the
(変形例8)
本発明は、電子絵本へ適用することもできる。電子絵本の場合には、ストーリーを表す文字情報のうち、どこまでを液晶モニタ15の画面上に表示するかを決定する必要がある。CPU16は、電子絵本のように、あらかじめ文字情報として文章が定められている場合には、原則1つの文章に1つの静止画像を対応させて、この静止画像上で対象物を動的に表現する。このため、CPU16は、ストーリーを表す文字情報を1文章ずつ液晶モニタ15の画面上に表示させる。
(Modification 8)
The present invention can also be applied to electronic picture books. In the case of an electronic picture book, it is necessary to determine how much of the character information representing the story is to be displayed on the screen of the
ここで、連続する2以上の文章であっても、それぞれの文章で表現される対象物が1つの静止画像に含まれている場合がある。この場合のCPU16は、複数の文章を液晶モニタ15の1画面内に表示させ、1つの静止画像上で複数の対象物を動的に表現する。
Here, even if there are two or more consecutive sentences, the object represented by each sentence may be included in one still image. In this case, the
CPU16は、時間経過にともなう文字情報(複数の文章)の表示態様の変化に同期させて、それぞれの文章で表される対象物を動的に表現する。例えば、図11に例示した静止画像に重ねて、以下の文章を表示する。「なおちゃんは、ウィンクしました。夕焼け空をカラスが飛んでいきます。静かな夏の夕方でした。」
The
CPU16は、例えば、「なおちゃんは、ウィンクしました。」を構成する全ての文字の表示態様の変化が終了した後、所定時間(例えば0.5秒)が経過すると、静止画像において人物の目を対象に「動き表現」を開始させる。そして、「夕焼け空をカラスが飛んでいきます。静かな夏の夕方でした。」を構成する全ての文字の表示態様の変化が終了した後、所定時間(例えば0.5秒)が経過すると、静止画像においてカラスを対象に「動き表現」を開始させる。このような表示形態を、電子絵本の全てのページに適用することで、より情景理解を深められる電子絵本を構成することができる。
For example, when the predetermined time (for example, 0.5 seconds) elapses after the change in the display mode of all the characters that constitute “Nano-chan has winked”, the
(変形例9)
上述した説明では、液晶モニタ15に文字情報を表示し、その表示態様を時間経過とともに変化させるようにした。この代わりに、あるいはこれに加えて、文字情報の内容を読み上げるようにスピーカ24から音声再生させてもよい。この場合には、「なおちゃんは、ウィンクしました。」を構成する全ての文字の読み上げ再生が終了した後、所定時間(例えば0.5秒)が経過すると、静止画像において人物の目を対象に「動き表現」を開始させる。そして、「夕焼け空をカラスが飛んでいきます。静かな夏の夕方でした。」を構成する全ての文字の読み上げ再生が終了した後、所定時間(例えば0.5秒)が経過すると、静止画像においてカラスを対象に「動き表現」を開始させる。
(Modification 9)
In the above description, the character information is displayed on the
(変形例10)
以上の説明では、電子機器としてデジタルカメラ1を用いる例を説明したが、多機能携帯電話機やタブレット型コンピュータを用いて構成してもよい。
(Modification 10)
In the above description, an example in which the
(変形例11)
上述した実施形態では、時系列に並ぶ複数フレームの画像群に基づいて、デジタルカメラ1で「動き表現」処理を行う例を説明したが、パーソナルコンピュータや、タブレット型コンピュータなどを用いて、事後的に「動き表現」処理を行う画像処理装置を構成してもよい。この場合、デジタルカメラ1で取得した画像データであって、時系列に並ぶ複数フレームの画像群を保存しておく。
(Modification 11)
In the above-described embodiment, the example in which the “motion expression” process is performed by the
そして、図12に示すコンピュータ200に図10に例示したフローチャートの処理を行うプログラムを実行させることにより、静止画像の中で変化する被写体(対象物)を動的に表現するデータ処理装置を構成する。プログラムをパーソナルコンピュータ200に取込んで使用する場合には、パーソナルコンピュータ200のデータストレージ装置にプログラムをローディングした上で、当該プログラムを実行させることによってデータ処理装置として使用する。
Then, by causing the
パーソナルコンピュータ200に対するプログラムのローディングは、プログラムを格納したCD−ROMなどの記憶媒体204をパーソナルコンピュータ200にセットして行ってもよいし、ネットワークなどの通信回線201を経由する方法でパーソナルコンピュータ200へローディングしてもよい。通信回線201を経由する場合は、通信回線201に接続されたサーバー(コンピュータ)202のハードディスク装置203などにプログラムを格納しておく。プログラムは、記憶媒体204や通信回線201を介する提供など、種々の形態のコンピュータプログラム製品として供給することができる。
The loading of the program to the
以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。上記実施形態および各変形例は、適宜組み合わせて構わない。 The above description is merely an example, and is not limited to the configuration of the above embodiment. You may combine the said embodiment and each modification suitably.
1…デジタルカメラ
12…撮像素子
14…画像処理部
15…液晶モニタ
15a…タッチ操作部材
16…CPU
17…フラッシュメモリ
17A…画像DB
17B…文字情報DB
17C…音響DB
17D…対象物DB
18…バッファメモリ
19…記録再生部
20…操作部材
50…メモリカード
200…コンピュータ
204…記憶媒体
DESCRIPTION OF
17 ...
17B ... Character information DB
17C ... Acoustic DB
17D ... Object DB
18 ...
Claims (9)
前記時間とともに変化する画像に加えて、所定の文字情報を表示するための文字再生データを生成する文字再生データ生成部と、
前記文字情報に含まれる内容に基づいて、前記所定の領域を決定する領域決定部と、
を備え、
前記画像表示データ生成部は、前記複数フレームの画像の各々において、前記領域決定部で決定された領域の時系列画像を取得し、前記複数フレームの画像のうちの1フレームの画像に基づいて生成された静止画像に対し、前記取得した時系列画像を順次合成することによって前記画像表示データを生成することを特徴とするデータ処理装置。 An image display data generating unit that generates image display data for displaying an image in which a predetermined region changes with time on an image of one frame among a plurality of frames taken in time series;
A character reproduction data generation unit for generating character reproduction data for displaying predetermined character information in addition to the image that changes with time;
An area determining unit that determines the predetermined area based on content included in the character information;
With
The image display data generation unit acquires a time-series image of the region determined by the region determination unit in each of the plurality of frame images, and generates based on one frame image of the plurality of frame images. A data processing apparatus, wherein the image display data is generated by sequentially synthesizing the acquired time-series images with the still image thus obtained.
前記時系列に撮影された複数フレームの画像の組が複数組存在し、
前記文字情報に含まれる内容に基づいて、前記複数組の画像の組の中から所定の画像の組を決定する画像の組決定部をさらに備え、
前記画像表示データ生成部は、前記組決定部で決定された画像の組において、時系列に撮影された複数フレームの画像のうちの1フレームの画像上で、前記領域決定部で決定された領域が時間とともに変化する画像を表示するための画像表示データを生成することを特徴とするデータ処理装置。 The data processing apparatus according to claim 1,
There are multiple sets of images of multiple frames taken in time series,
An image set determining unit that determines a predetermined set of images from the plurality of sets of images based on content included in the character information;
The image display data generation unit is a region determined by the region determination unit on one frame image of a plurality of frames taken in time series in the image group determined by the group determination unit. A data processing apparatus for generating image display data for displaying an image whose time changes with time.
前記時間とともに変化する画像に加えて、所定の文字情報を表示するための文字再生データを生成する文字再生データ生成部と、
前記画像表示データに基づいて前記所定の領域で変化する物体を特定し、それぞれが物体の名称を含む複数の文字情報の中から、前記特定した物体の名称を含む文字情報を決定する文字情報決定部と、
を備え、
前記文字再生データ生成部は、前記文字情報決定部で決定された文字情報を表示するための文字再生データを生成することを特徴とするデータ処理装置。 An image display data generating unit that generates image display data for displaying an image in which a predetermined region changes with time on an image of one frame among a plurality of frames taken in time series;
A character reproduction data generation unit for generating character reproduction data for displaying predetermined character information in addition to the image that changes with time;
Character information determination that identifies an object that changes in the predetermined area based on the image display data, and that determines character information that includes the specified object name from among a plurality of character information that each includes the name of the object And
With
The data processing device, wherein the character reproduction data generation unit generates character reproduction data for displaying the character information determined by the character information determination unit.
前記文字再生データ生成部は、前記文字情報の表示態様を前記時間とともに表示するための文字再生データを生成し、
前記画像表示データ生成部は、時系列に撮影された複数フレームの画像のうちの1フレームの画像上で、前記所定の領域の変化が前記文字情報の前記表示態様の変化と同期するように前記画像表示データを生成することを特徴とするデータ処理装置。 In the data processing device according to any one of claims 1 to 3,
The character reproduction data generation unit generates character reproduction data for displaying the display mode of the character information together with the time,
The image display data generation unit is configured to synchronize the change of the predetermined area with the change of the display mode of the character information on one frame image of a plurality of frames taken in time series. A data processing apparatus for generating image display data.
前記画像表示データに基づいて前記所定の領域で変化する物体を特定し、それぞれが物体からの音を含む複数の音響データの中から、前記特定した物体からの音を含む音響データを決定する音響データ決定部と、
前記1フレームの画像上において時間とともに変化する前記領域の変化に同期して、前記音響データ決定部で決定された音響データを音響再生するための音響再生データを生成する音響再生データ生成部と、
をさらに備えることを特徴とするデータ処理装置。 The data processing apparatus according to claim 4, wherein
An acoustic that identifies an object that changes in the predetermined area based on the image display data, and that determines acoustic data that includes sound from the identified object from among a plurality of acoustic data that includes sound from the object. A data decision unit;
An acoustic reproduction data generation unit that generates acoustic reproduction data for acoustic reproduction of the acoustic data determined by the acoustic data determination unit in synchronization with a change in the region that changes with time on the image of the one frame;
A data processing apparatus further comprising:
前記1フレームの画像上において時間とともに変化する前記領域の変化に同期して、所定の音響データを音響再生するための音響再生データを生成する音響再生データ生成部と、
前記画像表示データに基づいて前記所定の領域で変化する物体を特定し、前記特定した物体からの音を強調する処理を前記音響データに施す音響データ処理部と、
をさらに備えることを特徴とするデータ処理装置。 The data processing apparatus according to claim 4, wherein
A sound reproduction data generation unit that generates sound reproduction data for reproducing sound of predetermined sound data in synchronization with a change in the region that changes with time on the image of the one frame;
An acoustic data processing unit that identifies an object that changes in the predetermined region based on the image display data, and that performs processing for enhancing the sound from the identified object on the acoustic data;
A data processing apparatus further comprising:
前記音響データは左右の音響信号を含み、
前記音響データ処理部は、前記左右の音響信号間の位相を制御して前記強調処理を行うことを特徴とするデータ処理装置。 The data processing apparatus according to claim 6, wherein
The acoustic data includes left and right acoustic signals,
The acoustic data processing unit performs the enhancement processing by controlling a phase between the left and right acoustic signals.
前記音響データ処理部は、前記音響信号の周波数成分別に増幅利得を制御して前記強調処理を行うことを特徴とするデータ処理装置。 The data processing apparatus according to claim 6, wherein
The acoustic data processing unit performs the enhancement processing by controlling an amplification gain for each frequency component of the acoustic signal.
前記時間とともに変化する画像に加えて、所定の文字情報を表示するための文字再生データを生成する文字再生データ生成部と、
前記画像表示データに基づいて、前記1フレームの画像上で変化する物体を特定する特定部と、
前記文字再生データに基づいて、前記特定部で特定された物体の名称を含むか否かを前記文字情報の文章ごとに判定する判定部と、
を備え、
前記文字再生データ生成部は、前記特定部によって特定された1つの物体の名称が1つの文章に含まれることが前記判定部によって判定された場合に、前記1フレームの画像に対して前記1つの文章を表示し、前記特定部によって特定された複数の物体の名称が、それぞれ異なる文章に含まれることが前記判定部によって判定された場合に、前記1フレームの画像に対して前記異なる文章をそれぞれ表示するように文字再生データを生成することを特徴とするデータ処理装置。
An image display data generating unit that generates image display data for displaying an image in which a predetermined region changes with time on an image of one frame among a plurality of frames taken in time series;
A character reproduction data generation unit for generating character reproduction data for displaying predetermined character information in addition to the image that changes with time;
A specifying unit that specifies an object that changes on the image of the one frame based on the image display data;
A determination unit that determines, for each sentence of the character information, whether or not the name of the object specified by the specifying unit is included based on the character reproduction data;
With
When the determination unit determines that the name of one object specified by the specifying unit is included in one sentence, the character reproduction data generation unit performs the one-frame image on the one frame image. When the determination unit determines that the names of the plurality of objects specified by the specifying unit are included in different sentences, the different sentences are respectively displayed for the one-frame image. A data processing apparatus for generating character reproduction data for display.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013165008A JP2015035687A (en) | 2013-08-08 | 2013-08-08 | Data processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013165008A JP2015035687A (en) | 2013-08-08 | 2013-08-08 | Data processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015035687A true JP2015035687A (en) | 2015-02-19 |
Family
ID=52543930
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013165008A Pending JP2015035687A (en) | 2013-08-08 | 2013-08-08 | Data processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015035687A (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003338975A (en) * | 2002-05-21 | 2003-11-28 | Toshiba Corp | Digital still camera and method of inputting user instruction, using touch panel |
JP2011066717A (en) * | 2009-09-17 | 2011-03-31 | Casio Computer Co Ltd | Image photographing display device and program for the same |
JP2011248149A (en) * | 2010-05-27 | 2011-12-08 | Kyocera Corp | Portable electronic device and image projection unit |
JP2012134775A (en) * | 2010-12-21 | 2012-07-12 | Nikon Systems Inc | Image processing system, imaging apparatus, and image processing program |
JP2013003719A (en) * | 2011-06-14 | 2013-01-07 | Alpine Electronics Inc | Electronic book viewing system and in-vehicle unit |
JP2013135446A (en) * | 2011-12-27 | 2013-07-08 | Canon Inc | Imaging apparatus and control method thereof |
-
2013
- 2013-08-08 JP JP2013165008A patent/JP2015035687A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003338975A (en) * | 2002-05-21 | 2003-11-28 | Toshiba Corp | Digital still camera and method of inputting user instruction, using touch panel |
JP2011066717A (en) * | 2009-09-17 | 2011-03-31 | Casio Computer Co Ltd | Image photographing display device and program for the same |
JP2011248149A (en) * | 2010-05-27 | 2011-12-08 | Kyocera Corp | Portable electronic device and image projection unit |
JP2012134775A (en) * | 2010-12-21 | 2012-07-12 | Nikon Systems Inc | Image processing system, imaging apparatus, and image processing program |
JP2013003719A (en) * | 2011-06-14 | 2013-01-07 | Alpine Electronics Inc | Electronic book viewing system and in-vehicle unit |
JP2013135446A (en) * | 2011-12-27 | 2013-07-08 | Canon Inc | Imaging apparatus and control method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5117280B2 (en) | IMAGING DEVICE, IMAGING METHOD, REPRODUCTION DEVICE, AND REPRODUCTION METHOD | |
JP4869270B2 (en) | Imaging apparatus and image reproduction apparatus | |
US20110261215A1 (en) | Image processing apparatus and method of controlling the same | |
JP5806623B2 (en) | Imaging apparatus, imaging method, and program | |
KR101739379B1 (en) | Digital photographing apparatus and control method thereof | |
JP5837922B2 (en) | Ranking key video frames based on camera position | |
JP2009077026A (en) | Imaging apparatus and method, and program | |
KR101737086B1 (en) | Digital photographing apparatus and control method thereof | |
KR20100070043A (en) | Method for displaying scene recognition of digital image signal processing apparatus, medium for recording the method and digital image signal processing apparatus applying the method | |
JP5741659B2 (en) | Movie sorting device, movie sorting method and program | |
JP6056551B2 (en) | Image processing program and digital camera | |
JP5266701B2 (en) | Imaging apparatus, subject separation method, and program | |
KR20100035381A (en) | Image processing method and apparatus, and digital photographing apparatus | |
JP5604916B2 (en) | Image processing apparatus and program | |
JP2009088944A (en) | Character recognition apparatus, imaging apparatus and video reproducing apparatus | |
JP2007028331A (en) | Image generating apparatus and program thereof | |
JP2015035687A (en) | Data processor | |
JP2018060549A (en) | Image processing device | |
JP6236856B2 (en) | Image processing apparatus and image processing program | |
JP2011139300A (en) | Image processing apparatus and program | |
JP5948960B2 (en) | Camera, image processing apparatus and program | |
JP5593652B2 (en) | Camera and movie playback program | |
JP6213619B2 (en) | Camera and program | |
JP2014217008A (en) | Image processing device, imaging device, and image processing program | |
JP2015192336A (en) | Image processing device and digital camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160715 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170417 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171003 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20171130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180201 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180710 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181010 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20181127 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20190111 |