JP5540376B2 - Frame-split image generation apparatus and program - Google Patents

Frame-split image generation apparatus and program Download PDF

Info

Publication number
JP5540376B2
JP5540376B2 JP2009213682A JP2009213682A JP5540376B2 JP 5540376 B2 JP5540376 B2 JP 5540376B2 JP 2009213682 A JP2009213682 A JP 2009213682A JP 2009213682 A JP2009213682 A JP 2009213682A JP 5540376 B2 JP5540376 B2 JP 5540376B2
Authority
JP
Japan
Prior art keywords
frame
video
scene
frames
impression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009213682A
Other languages
Japanese (ja)
Other versions
JP2011066546A (en
Inventor
剛 森山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Polytechnic University
Original Assignee
Tokyo Polytechnic University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Polytechnic University filed Critical Tokyo Polytechnic University
Priority to JP2009213682A priority Critical patent/JP5540376B2/en
Publication of JP2011066546A publication Critical patent/JP2011066546A/en
Application granted granted Critical
Publication of JP5540376B2 publication Critical patent/JP5540376B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)

Description

本発明は、コマ割り画像生成装置及びプログラムに係り、特に、映像の内容及び演出印象を表わすコマ割り画像を生成するコマ割り画像生成装置及びプログラムに関する。   The present invention relates to a frame-split image generating apparatus and a program, and more particularly, to a frame-split image generating apparatus and a program for generating a frame-split image representing video content and presentation impression.

従来、映像の要約に関しては多くの研究がある。それらの多くは、カット(カメラの切り替わる点)や大音量の箇所、あるいは画像中の特定の物体(例えば、主人公の顔)が出現する箇所を重要箇所(キーフレーム)として検出する手法である。すなわち、従来の手法は、映像中に映っている内容を基準に映像を要約しようとするものであった。   Conventionally, there has been much research on video summarization. Many of them are techniques for detecting a point where a cut (a point at which the camera is switched), a high sound volume, or a specific object (for example, the main character's face) in an image appears as an important point (key frame). That is, the conventional method is intended to summarize the video based on the content shown in the video.

例えば、テレビ番組等の映像信号及び音声信号から、人物領域を検出すると共に台詞を認識し、吹き出し及び効果線を付与して、自動的に漫画画像を生成する漫画生成装置が知られている(特許文献1)。   For example, there is known a comic generation apparatus that automatically detects a comic image by detecting a person area from a video signal and an audio signal of a television program and the like, recognizing a dialogue, adding a speech balloon and an effect line ( Patent Document 1).

ところで、笑顔の人物が映った画像は、どのように映っているかによって、様々な解釈が可能である。例えば、女性が食事に誘う映像を撮影する場合を考えると、ハイアングル(人物の斜め上から撮影)では、女性が愛らしく見えるのに対して、ローアングル(人物の斜め下から撮影)では、女性が高圧的に見える。このように、映像中に映っている内容がどういう意味を持つかを解釈するためには、それがどのように映っているかという情報が不可欠である。   By the way, an image showing a smiling person can be interpreted in various ways depending on how the image is shown. For example, when taking a picture of a woman inviting to eat, a woman looks adorable at a high angle (taken from the top of a person), while a woman at a low angle (taken from the bottom of a person) Looks like a high pressure. Thus, in order to interpret the meaning of the content shown in the video, information on how it is shown is indispensable.

そして、被写体をどのように映すと、観客がどのように受け取るかは、映画の文法と呼ばれ、20世紀前半に集大成されて今日に至っている。従って、カメラワーク(レンズワーク、アングル、ショットサイズ、照明、被写体とカメラの動き)や音響(効果音、せりふの音声、音楽)といった物理的な構造から、そのシーンが観客にどのような心理的印象を与えるか(以下、演出印象)を予測することができると考えられる。   And how the audience receives the image of the subject is called the grammar of the movie, and it has been compiled in the first half of the 20th century and has reached today. Therefore, from the physical structure such as camera work (lens work, angle, shot size, lighting, subject and camera movement) and sound (sound effects, speech sounds, music) It is considered that an impression can be predicted (hereinafter referred to as a production impression).

特開2003−85572号公報JP 2003-85572 A

従来の映像要約法では、確かに人物の顔や物体が見て取れるとしても、どのように映っているかを表わす情報を保存していないため、映像全体の流れの中で、その人物の顔や物体がどのような意味を持つのかを解釈する上では、十分な情報を保存していない、という問題がある。   In the conventional video summarization method, even if a person's face and object can be seen, the information indicating how the person is reflected is not stored. There is a problem that not enough information is stored to interpret what it means.

本発明は、上記の問題点を解決するためになされたもので、映像信号が表わす内容及び演出印象を表わしたコマ割り画像を生成することができるコマ割り画像生成装置及びプログラムを提供することを目的とする。   The present invention has been made to solve the above-described problems, and provides a frame-divided image generation apparatus and a program that can generate a frame-divided image representing the contents represented by the video signal and the presentation impression. Objective.

上記の目的を達成するために本発明に係るコマ割り画像生成装置は、入力された映像信号又は前記映像信号に対応する音声信号に基づいて、複数種類の特定の演出印象の各々について、前記特定の演出印象を有する映像部分を検出する演出検出手段と、前記複数種類の特定の演出印象の各々について、前記映像信号の映像フレームから、前記演出検出手段によって検出された映像部分に対応する複数の映像フレームを選択するフレーム選択手段と、前記複数種類の特定の演出印象の各々について、前記特定の演出印象に対応し、かつ、複数のコマに分割されたコマ割りの各コマに、前記フレーム選択手段によって前記特定の演出印象として選択された前記映像フレームを各々割り当てたコマ割り画像を各々生成する生成手段と、を含み、前記コマ割りの各コマの境界の形状を、前記特定の演出印象の種類に応じた形状としている。 In order to achieve the above object, the frame-split image generating apparatus according to the present invention is configured to specify the specific image impression for each of a plurality of types of specific presentation impressions based on an input video signal or an audio signal corresponding to the video signal. For each of the plurality of types of specific effect impressions, a plurality of image portions corresponding to the video portions detected by the effect detection unit from the video frame of the video signal. Frame selection means for selecting a video frame, and for each of the plurality of types of specific presentation impressions , the frame selection is performed for each frame divided into a plurality of frames corresponding to the specific presentation impression. generating means for generating each respectively assigned panel layout images the image frame selected as the specific effect impression by means only contains the The shape of the boundaries of each frame of Ma split has a shape corresponding to the type of the specific effect impression.

本発明に係るプログラムは、コンピュータを、入力された映像信号又は前記映像信号に対応する音声信号に基づいて、複数種類の特定の演出印象の各々について、前記特定の演出印象を有する映像部分を検出する演出検出手段、前記複数種類の特定の演出印象の各々について、前記映像信号の映像フレームから、前記演出検出手段によって検出された映像部分に対応する複数の映像フレームを選択するフレーム選択手段、及び前記複数種類の特定の演出印象の各々について、前記特定の演出印象に対応し、かつ、複数のコマに分割されたコマ割りの各コマに、前記フレーム選択手段によって前記特定の演出印象として選択された前記映像フレームを各々割り当てたコマ割り画像を各々生成する生成手段として機能させるためのプログラムであって、前記コマ割りの各コマの境界の形状を、前記特定の演出印象の種類に応じた形状としている。 The program according to the present invention allows a computer to detect a video portion having a specific presentation impression for each of a plurality of types of specific presentation impressions based on an input video signal or an audio signal corresponding to the video signal. Effect detection means, frame selection means for selecting a plurality of video frames corresponding to the video portion detected by the effect detection means, from the video frames of the video signal , for each of the plurality of types of specific effect impressions , and Each of the plurality of types of specific effect impressions is selected as the specific effect impression by the frame selection unit for each frame that corresponds to the specific effect impression and is divided into a plurality of frames. program der to function as generating means for generating each respectively assigned panel layout images the video frame Te, the shape of the boundary of each frame of the panel layout, and a shape corresponding to the type of the specific effect impression.

本発明によれば、演出検出手段によって、入力された映像信号又は映像信号に対応する音声信号に基づいて、特定の演出印象を有する映像部分を検出する。フレーム選択手段によって、映像信号の映像フレームから、演出検出手段によって検出された映像部分に対応する複数の映像フレームを選択する。   According to the present invention, the effect detection means detects a video portion having a specific effect impression based on the input video signal or an audio signal corresponding to the video signal. The frame selection means selects a plurality of video frames corresponding to the video portion detected by the effect detection means from the video frames of the video signal.

そして、生成手段によって、特定の演出印象に対応し、かつ、複数のコマに分割されたコマ割りの各コマに、フレーム選択手段によって選択された映像フレームを各々割り当てたコマ割り画像を生成する。   Then, the generation unit generates a frame-divided image corresponding to a specific effect impression and assigning the video frame selected by the frame selection unit to each frame divided into a plurality of frames.

このように、特定の演出印象を有する映像部分に対応する複数の映像フレームを、特定の演出印象に対応するコマ割りの各コマに割り当てたコマ割り画像を生成することにより、映像信号が表わす内容と共に、それが観客にどのような心理的印象を与えるかを表わしたコマ割り画像を生成することができる。   In this way, the content represented by the video signal is generated by generating a frame-divided image in which a plurality of video frames corresponding to a video portion having a specific effect impression are assigned to each frame allocated to the frame corresponding to the specific effect impression. At the same time, it is possible to generate a frame-divided image representing what kind of psychological impression it gives to the audience.

本発明に係る演出検出手段は、映像信号又は音声信号に基づいて、複数種類の特定の演出印象の各々について、特定の演出印象を有する映像部分を検出し、フレーム選択手段は、複数種類の特定の演出印象の各々について、映像信号の映像フレームから、特定の演出印象が検出された映像部分に対応する複数の映像フレームを選択し、生成手段は、複数種類の特定の演出印象の各々について、特定の演出印象に対応するコマ割りの各コマに、特定の演出印象として選択された映像フレームを各々割り当てたコマ割り画像を各々生成することができる。これによって、複数種類の演出印象について、映像信号が表わす内容及び演出印象を表わしたコマ割り画像を生成することができる。   The effect detection means according to the present invention detects a video portion having a specific effect impression for each of a plurality of types of specific effect impressions based on the video signal or the audio signal, and the frame selection means detects the plurality of types of specification effects. For each of the production impressions, a plurality of video frames corresponding to the video part in which the specific production impression is detected is selected from the video frames of the video signal, and the generation unit A frame-divided image in which a video frame selected as a specific effect impression is assigned to each frame that corresponds to a specific effect impression can be generated. As a result, for a plurality of types of effect impressions, it is possible to generate a frame-divided image representing the contents represented by the video signal and the effect impressions.

上記のコマ割りの各コマの境界の形状を、特定の演出印象の種類に応じた形状とすることができる。   The shape of the boundary of each frame of the above-mentioned frame division can be made to be a shape according to a specific type of effect impression.

上記の特定の演出印象は、緊迫したシーンを含み、緊迫したシーンに対応するコマ割りを、斜めの線を含む境界によって複数のコマに分割したものとすることができる。これによって、緊迫したシーンであることを表わしたコマ割りとすることができる。 Specific effect impression of the includes a tense scenes, a panel layout that corresponds to the tense scene, can be obtained by dividing into a plurality of frames by a boundary including a diagonal line. This can be a panel layout showing that it is tense scene.

また、演出検出手段は、映像信号の連続した映像フレーム間の色情報の差分に基づいて、連続撮影の境界であるカットを検出し、カットの検出回数が閾値以上となる所定範囲を、緊迫したシーンとなる映像部分として検出することができる。 Further, the effect detection means detects a cut that is a boundary of continuous shooting based on a difference in color information between successive video frames of the video signal, and tightens a predetermined range in which the number of cut detections is equal to or greater than a threshold. it can be detected as an image portion to be a scene.

上記の特定の演出印象は、衝撃的なシーンを含み、衝撃的なシーンに対応するコマ割りを、斜めの線を含む境界によって複数のコマに分割すると共に、他のコマよりも大きさが大きいコマを有するものとすることができる。これによって、衝撃的なシーンであることを表わしたコマ割りとすることができる。   The above-mentioned specific performance impression includes a shocking scene, and the frame division corresponding to the shocking scene is divided into a plurality of frames by a boundary including diagonal lines, and is larger in size than other frames. It can have a frame. As a result, it is possible to divide the frame into scenes that represent a shocking scene.

また、演出検出手段は、映像信号に対応する音声信号に基づいて、衝撃的なシーンとなる映像部分を検出することができる。   Further, the effect detection means can detect a video portion that becomes a shocking scene based on an audio signal corresponding to the video signal.

上記の特定の演出印象は、会話シーン又はゆっくりしたシーンを含み、会話シーン又はゆっくりしたシーンに対応するコマ割りを、規則的に配置され、かつ、各々の大きさが対応している複数のコマに分割したものとすることができる。これによって、会話シーン又はゆっくりしたシーンであることを表わしたコマ割りとすることができる。   The specific production impression includes a conversation scene or a slow scene, and a frame layout corresponding to the conversation scene or the slow scene is regularly arranged, and a plurality of frames each corresponding to a size. It can be divided into two. As a result, the frame can be divided into frames representing a conversation scene or a slow scene.

また、演出検出手段は、映像信号に対応する音声信号に基づいて、会話シーン又はゆっくりしたシーンとなる映像部分を検出することができる。   Further, the effect detection means can detect a video portion that becomes a conversation scene or a slow scene based on an audio signal corresponding to the video signal.

以上説明したように、本発明のコマ割り画像生成装置及びプログラムによれば、特定の演出印象を有する映像部分に対応する複数の映像フレームを、特定の演出印象に対応するコマ割りの各コマに割り当てたコマ割り画像を生成することにより、映像信号が表わす内容と共に、それが観客にどのような心理的印象を与えるかを表わしたコマ割り画像を生成することができる、という効果が得られる。   As described above, according to the frame-split image generating apparatus and program of the present invention, a plurality of video frames corresponding to a video portion having a specific effect impression are assigned to each frame that corresponds to the specific effect impression. By generating the assigned frame divided image, it is possible to generate a frame divided image representing what kind of psychological impression it gives to the audience together with the contents represented by the video signal.

本発明の第1の実施の形態に係る映像機器の構成を示す概略図である。It is the schematic which shows the structure of the video equipment which concerns on the 1st Embodiment of this invention. RGBヒストグラムを示す図である。It is a figure which shows a RGB histogram. 緊張感のあるシーンに対応するコマ割りの例を示すイメージ図である。It is an image figure which shows the example of the frame division corresponding to the scene with a feeling of tension. 衝撃的なシーンに対応するコマ割りの例を示すイメージ図である。It is an image figure which shows the example of the frame division corresponding to a shocking scene. 会話シーンに対応するコマ割りの例を示すイメージ図である。It is an image figure which shows the example of the frame division corresponding to a conversation scene. (A)フレームの例を示すイメージ図、及び(B)コマの形状をフレームに重畳させた様子を示すイメージ図である。(A) It is an image figure which shows the example of a frame, (B) It is an image figure which shows a mode that the shape of the frame was superimposed on the frame. 本発明の第1の実施の形態に係る映像機器におけるコマ割り画像生成処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the frame division | segmentation image generation process routine in the video equipment which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る映像機器における緊迫シーンコマ画像生成処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the tension | tensile_strength scene frame image generation process routine in the video equipment which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る映像機器におけるカット頻度算出処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the cut frequency calculation process routine in the video equipment which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る映像機器における衝撃シーンコマ画像生成処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the impact scene frame image generation process routine in the video equipment which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る映像機器における会話シーンコマ画像生成処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the conversation scene frame image generation process routine in the video equipment which concerns on the 1st Embodiment of this invention. 普通のシーンに対応するコマ割りの例を示すイメージ図である。It is an image figure which shows the example of the frame division corresponding to a normal scene.

以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、映像信号を記録及び再生する映像機器に本発明を適用した場合を例に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. An example in which the present invention is applied to a video device that records and reproduces a video signal will be described.

図1に示すように、第1の実施の形態に係る映像機器10は、CPUと、RAMと、後述するコマ割り画像生成処理ルーチンを実行するためのプログラムを記憶したROMとを備え、機能的には次に示すように構成されている。   As shown in FIG. 1, the video equipment 10 according to the first embodiment includes a CPU, a RAM, and a ROM that stores a program for executing a frame-divided image generation processing routine described later. Is configured as follows.

映像機器10は、DVDなどの記録媒体を介して入力された映像信号及び音声信号からなる映画データを記憶した映画記憶部12と、映画記憶部12から処理対象としての映画データを取得する映画データ取得部14と、特定の演出印象を有する映像部分を検出する演出検出部16と、特定の演出印象の種類毎に予め用意されたコマ割りデータを記憶するコマ割り記憶部18と、検出された特定の演出印象に対応するコマ割りデータをコマ割り記憶部18から取得するコマ割り取得部20と、検出された特定の演出印象に応じて、映画データの映像信号から、キーフレームを複数選択するキーフレーム選択部22と、選択されたキーフレームを、取得したコマ割りデータの各コマに割り当てて、コマ割り画像を生成し、映画データの要約として映画記憶部12に記憶させるコマ割り画像生成部24と、映画記憶部12に記憶された映画データ及びコマ割り画像を、ディスプレイなどの表示装置40に表示させる表示制御部26とを備えている。なお、フレームは、映像における伝送単位であり、1枚の画像である。また、シーンは、映像または漫画を視聴した人物が、意味的なまとまり、もしくは演出を受け取る部分である。コマは、ページを折れ線分によって分割した単位であり、ページは、紙媒体の漫画における、1枚の紙の片面である。演出は、映像または漫画を視聴した人物が、映像または漫画から受け取る印象である。   The video equipment 10 includes a movie storage unit 12 that stores movie data composed of video and audio signals input via a recording medium such as a DVD, and movie data that acquires movie data to be processed from the movie storage unit 12. An acquisition unit 14, an effect detection unit 16 that detects a video portion having a specific effect impression, and a frame allocation storage unit 18 that stores frame allocation data prepared in advance for each type of the specific effect impression, are detected. A frame division acquisition unit 20 that acquires frame division data corresponding to a specific production impression from the frame division storage unit 18 and a plurality of key frames are selected from the video signal of the movie data according to the detected specific production impression. The key frame selection unit 22 and the selected key frame are allocated to each frame of the acquired frame division data to generate a frame division image, which is used as a summary of movie data. The panel layout image generation unit 24 to be stored in the movie storage section 12, the movie data and the panel layout image stored in the movie storage unit 12, and a display control unit 26 to be displayed on the display device 40 such as a display. A frame is a transmission unit in video and is a single image. A scene is a portion where a person who has watched a video or a manga receives a semantic collection or production. A frame is a unit obtained by dividing a page by a line segment, and a page is one side of a piece of paper in a cartoon of a paper medium. The production is an impression received from a video or comic by a person who views the video or comic.

次に、複数種類の特定の演出印象を検出する原理について説明する。まず、特定の演出印象として、緊迫感のあるシーン(あるいは、動きのあるシーン)を検出する場合について説明する。   Next, the principle of detecting a plurality of types of specific effect impressions will be described. First, the case where a scene with a sense of tension (or a scene with movement) is detected as a specific performance impression will be described.

映画においては、緊迫感を演出するための様々な手法がある。例えば、効果音として持続的な高音を鳴らしたり、カメラもしくは被写体を大きく動かしたり、一定時間内にショットを頻繁に切り替えたりする手法である。本実施の形態では、最後に挙げた手法に着目する。この手法は、視聴者の視界を激しく変化させ、その心理状態をかく乱することを狙ったものである。これは言い換えれば、映像中における緊迫箇所とは、映像中で短時間の間にカットが頻出している箇所だと言える。従って、映像中でカットの頻度が突出している箇所を検出することによって、緊迫箇所を検出することができると考えられる。ここで、カットとは、ショットの境界であり、ショットとは、映像において、1台のカメラで連続して撮像された部分である。   In movies, there are various techniques for producing a sense of urgency. For example, it is a method of producing a continuous high tone as a sound effect, moving a camera or subject largely, or frequently switching shots within a certain time. In the present embodiment, attention is paid to the last method. This technique aims to change the viewer's field of view and disturb the psychological state. In other words, it can be said that the strained part in the video is a part where cuts frequently appear in a short time in the video. Therefore, it is considered that the tightened part can be detected by detecting the part where the cut frequency protrudes in the video. Here, a cut is a shot boundary, and a shot is a portion of an image that has been continuously captured by a single camera.

本実施の形態では、演出検出部16によって、入力された映画データの映像信号の最初から、T秒間の分析窓を1秒ずつシフトしながら、逐次、分析窓内でカットの頻度を求める。カットは、映像中のフレーム間の色分布の差分を閾値処理して求める。分析窓内におけるカット頻度が、あらかじめ定めた閾値よりも多い場合、分析窓の位置を、緊迫感のあるシーンとなる箇所として検出する。なお、カット頻度に関する閾値は、予め実験などに求めておけばよく、例えば、閾値を7(回/10秒間)とする。   In the present embodiment, the effect detection unit 16 sequentially obtains the cut frequency in the analysis window while shifting the analysis window for T seconds by 1 second from the beginning of the video signal of the input movie data. The cut is obtained by performing threshold processing on the difference in color distribution between frames in the video. When the cut frequency in the analysis window is higher than a predetermined threshold, the position of the analysis window is detected as a location that becomes a tense scene. Note that the threshold regarding the cut frequency may be obtained in advance by experiments or the like. For example, the threshold is set to 7 (times / 10 seconds).

なお、ショット間のつなぎ方には、通常の切り替え以外にも、ディゾルブ(隣り合うショットの映像フレームを混ぜ合わせながらスムーズに切り替える効果)等の効果がある。本実施の形態では、緊迫感に最も寄与するものとして、通常の切り替えのみを対象とする。ショットの境界前後では、多くの場合、異なる舞台装置が撮影されており、その色分布に急激な変化が生ずる。そこで、演出検出部16では、現フレームと次フレームのそれぞれに対して、色分布として、図2に示すようなRGBヒストグラムを算出し、色分布の差分として、色チャネルごとにヒストグラム間のバタチャリヤ(Bhattacharyya) 距離を求める。ここで、バタチャリヤ距離とは、独立な二つの事象の同時確率に対する自己情報量として定義され、アフィン変換(平行移動、回転、伸縮)に不変であるため、カメラの移動やズーム、回転に関して影響を受けない。RGBチャネル間の距離の平均値が、あらかじめ設定した閾値以上となる場合、そのフレーム間でカットが発生したと判断される。   Note that, in addition to normal switching, there is an effect such as a dissolve (an effect of switching smoothly while mixing video frames of adjacent shots) as a method of connecting between shots. In the present embodiment, only normal switching is targeted as one that contributes most to a sense of urgency. In many cases, different stage apparatuses are photographed before and after the shot boundary, and abrupt changes occur in the color distribution. Therefore, the effect detection unit 16 calculates an RGB histogram as shown in FIG. 2 as the color distribution for each of the current frame and the next frame, and determines the difference between the histograms for each color channel as a color distribution difference ( Bhattacharya) Find the distance. Here, the batcha rear distance is defined as the amount of self-information for the simultaneous probability of two independent events, and is invariant to affine transformation (translation, rotation, expansion / contraction). I do not receive it. If the average distance between the RGB channels is equal to or greater than a preset threshold, it is determined that a cut has occurred between the frames.

なお、バタチャリヤ距離に対する閾値は、実験などにより予め定めておけばよい。例えば、カット頻度の算出範囲(分析窓)をT=10秒とし、これをT/2=5秒ずつシフトしながらカット頻度を算出する場合、バタチャリヤ距離に対する閾値を、0.1から0.4まで0.02刻みで変化させると、ROC(Reciever Operating Characteristic)カーブの傾きが最大となった値0.36が得られ、これを閾値として用いる。   It should be noted that the threshold value for the batcha rear distance may be determined in advance through experiments or the like. For example, when the cut frequency calculation range (analysis window) is T = 10 seconds and the cut frequency is calculated while shifting T / 2 = 5 seconds, the threshold for the batch rear distance is set to 0.1 to 0.4. Is changed in increments of 0.02 to obtain a value 0.36 in which the slope of the ROC (Receiver Operating Characteristic) curve is maximized, and this is used as a threshold value.

また、カット頻度に対する閾値は、実験などにより例えば7回と予め定めておけばよい。この場合、これを超えた分析窓位置を、統計上稀にみる緊迫シーンとなる箇所として検出し、また、目視で検出した真値としてのカット(A)、プログラムによって検出されたカット(B)として、プログラムによって検出されたカットのうちの正解カット(C)について以下の(1)式、(2)式により再現率及び適合率を算出した。その結果、再現率は53.8%、適合率は81.4%であった。
再現率=|C|/|A| (1)
適合率=|C|/|B| (2)
Further, the threshold value for the cut frequency may be set in advance, for example, seven times by an experiment or the like. In this case, the analysis window position exceeding this is detected as a part that becomes a tight scene that is rarely seen in the statistics, and the cut (A) as a true value detected visually, the cut (B) detected by the program As for the correct answer cut (C) among the cuts detected by the program, the recall and precision were calculated by the following equations (1) and (2). As a result, the recall was 53.8% and the precision was 81.4%.
Reproducibility = | C | / | A | (1)
Compliance rate = | C | / | B | (2)

次に、特定の演出印象として、衝撃的なシーンを検出する場合について説明する。   Next, a case where a shocking scene is detected as a specific effect impression will be described.

演出検出部16は、入力された映画データの映像信号の最初から、T秒間(例えば1秒間)の分析窓をT/2秒ずつシフトしながら、逐次、分析窓内で、映像信号に対応する音声信号の短時間平均パワーを算出する。衝撃的なシーンの箇所は、映像中の短時間平均パワーを閾値処理して求める。分析窓内における短時間平均パワーが、予め定めた閾値よりも多い場合、分析窓の位置を衝撃的なシーンとして検出する。なお、短時間平均パワーに関する閾値は、実験などにより予め求めておけばよい。   The effect detection unit 16 sequentially corresponds to the video signal in the analysis window while shifting the analysis window for T seconds (for example, 1 second) by T / 2 seconds from the beginning of the input video data of the movie data. Calculate the short-term average power of the audio signal. The location of the shocking scene is obtained by performing threshold processing on the short-time average power in the video. If the short-term average power in the analysis window is greater than a predetermined threshold, the position of the analysis window is detected as a shocking scene. Note that the threshold for the short-term average power may be obtained in advance by experiments or the like.

次に、特定の演出印象として、会話シーン(ゆっくりしたシーン)を検出する場合について説明する。   Next, a case where a conversation scene (slow scene) is detected as a specific effect impression will be described.

演出検出部16は、入力された映画データの映像信号の最初から、T秒間(例えば62.5ms)の分析窓をT/2秒ずつシフトしながら、逐次、分析窓内で、音声検出処理を行い、音声が検出されたか否かを判断する。音声が検出された場合、当該分析窓を、音声区間としてマークする。演出検出部16は、過去M秒(例えば10秒)の音声区間の割合を算出し、音声区間の割合が、あらかじめ定めた閾値(例えば0.4)以上である場合、分析窓の位置を、会話シーンとして検出する。   The effect detection unit 16 sequentially performs voice detection processing in the analysis window while shifting the analysis window for T seconds (for example, 62.5 ms) from the beginning of the input video signal of the movie data by T / 2 seconds. And determine whether voice is detected. When voice is detected, the analysis window is marked as a voice section. The effect detection unit 16 calculates the ratio of the voice section of the past M seconds (for example, 10 seconds), and when the ratio of the voice section is equal to or greater than a predetermined threshold (for example, 0.4), the position of the analysis window is calculated. Detect as a conversation scene.

次に、本実施の形態の原理について説明する。   Next, the principle of this embodiment will be described.

漫画においても、映像と同様の演出技法が開発されている。例えば、非特許文献1(秋田孝宏、“「コマ」から「フィルム」へ”、マンガとマンガ映画、NTT出版、2005)や非特許文献2(竹内オサム、“ マンガ表現学入門”、筑摩書房、2006)の技術が知られている。本を媒体とする漫画においては、シーンをページに分割し、ページをコマに分割する際に、ページ数やコマ数、さらにコマのサイズの大小、コマの形を変えることにより、観客がコマに描かれた絵をどのように受け取るかをコントロールする(本実施の形態ではこれらを総称して、コマ割りと呼ぶこととする)。従って、同じ被写体もしくは描画対象を、映画と漫画の双方において、同じ演出で表現することが可能であると考えられる。   The production technique similar to the image is also developed in the comics. For example, Non-Patent Document 1 (Takahiro Akita, “From“ Koma ”to“ Film ””, Manga and Manga Movie, NTT Publishing, 2005) and Non-Patent Document 2 (Osamu Takeuchi, “Introduction to Manga Expression Studies”, Chikuma Shobo, In the comics using books as a medium, when dividing a scene into pages and dividing the page into frames, the number of pages, the number of frames, the size of the frames, By changing the shape, it controls how the audience receives the picture drawn on the frame (in the present embodiment, these are collectively referred to as frame division). It is thought that the object can be expressed in the same direction in both movies and comics.

本実施の形態では、映画中から、特定の演出がなされている箇所を検出し、その近傍のキーフレームを、同様の演出印象を有する漫画のコマ割りに配置することにより、その箇所に映っている被写体と演出印象とを同時に要約する手法を提案する。   In the present embodiment, a location where a specific effect is made is detected from the movie, and a key frame in the vicinity thereof is arranged in a comic frame having a similar effect impression so that it is reflected in that location. We propose a method for summarizing the subject and the impression of the performance at the same time.

次に、特定の演出印象の種類毎に予め用意されたコマ割りデータについて説明する。   Next, the frame division data prepared in advance for each type of specific effect impression will be described.

図3に、緊迫感のあるシーンに対応するコマ割りの例を示す。緊迫感のあるシーンに対応するコマ割りにおいて、コマの境界の形状に注目すると、斜めの線が多用されている。斜めの線は、映画の文法においても、観客に動きを感じさせる性質を有しており、局面が動的であることを演出する上で、映画と漫画の間で共通した規則であると考えられる。また、特定のコマに観客を注視させずコマからコマへ視線を動かすため、核となるコマが際立つようなコマの大きさの差異を持たせない。コマ割り記憶部18には、緊迫感のあるシーンに対応して、上記図3に示すようなコマ割りを表わすコマ割りデータが1種類だけ予め記憶されている。   FIG. 3 shows an example of frame division corresponding to a scene with tension. In frame division corresponding to a scene with a sense of tension, when attention is paid to the shape of the boundary between frames, diagonal lines are frequently used. The slanted line has a property that makes the audience feel the movement in the grammar of the movie, and is considered to be a common rule between movies and comics in order to produce a dynamic aspect. It is done. Also, since the line of sight is moved from frame to frame without gazing at the specific frame, the difference in frame size is not set so that the core frame stands out. In the frame allocation storage unit 18, one type of frame allocation data representing frame allocation as shown in FIG. 3 is stored in advance corresponding to a scene with a sense of tension.

図4に、衝撃的なシーンに対応するコマ割りの例を示す。核となるコマとして特定されるほど他のコマより大きさが大きいコマがあり、当該大きなコマによって、衝撃が与えられる。当該大きなコマは、ほぼ斜めではない境界に囲まれており、一方、斜めの線である境界で囲まれた小さないくつかのコマを有している。   FIG. 4 shows an example of frame division corresponding to a shocking scene. There is a frame that is larger than the other frames as it is identified as a core frame, and an impact is given by the large frame. The large frame is surrounded by borders that are not substantially diagonal, while it has several small frames that are surrounded by boundaries that are diagonal lines.

例えば、衝撃的なシーンに対応するコマ割りでは、右の大きなコマに、ここで起こった事件を描き、左に縦3つ並んだコマそれぞれに、その事件を取り巻く人物3人の驚いた顔を描く。これにより、起こった事件が大変に衝撃的で、その驚きのあまり、人物全員の時間が止まったかのように息を詰まらせている衝撃的なシーンを演出することができる。コマ割り記憶部18には、衝撃的なシーンに対応して、上記図4に示すようなコマ割りを表わすコマ割りデータが1種類だけ予め記憶されている。   For example, in the frame division corresponding to the shocking scene, the incident that occurred here is drawn on the large frame on the right, and the surprised faces of the three people surrounding the incident are displayed on each of the three vertical columns on the left. Draw. As a result, it is possible to produce a shocking scene in which the incident occurred is very shocking, and the person's time has been stopped as if the time has stopped. In the frame allocation storage unit 18, one type of frame allocation data representing frame allocation as shown in FIG. 4 is stored in advance corresponding to a shocking scene.

図5に、会話シーン(ゆっくりしたシーン)に対応するコマ割りの例を示す。中くらいの大きさで、ほぼ同じ大きさの複数のコマが規則的に配置されている。コマの境界のずれが、コマ画像の順序通りに視線を誘導する。コマ割り記憶部18には、会話シーンに対応して、上記図5に示すようなコマ割りを表わすコマ割りデータが1種類だけ予め記憶されている。   FIG. 5 shows an example of frame division corresponding to a conversation scene (slow scene). A plurality of frames of medium size and approximately the same size are regularly arranged. The shift of the boundary between the frames guides the line of sight in the order of the frame images. In the frame allocation storage unit 18, one type of frame allocation data representing frame allocation as shown in FIG. 5 is stored in advance corresponding to the conversation scene.

キーフレーム選択部22は、緊迫感のあるシーンが検出された分析窓内から、コマ割りのコマ数に等しい6ショット分の先頭フレームを、緊迫感のあるシーンに対応するキーフレームとして選択する。   The key frame selection unit 22 selects, from the analysis window in which a scene with a sense of tension is detected, the top frame for six shots equal to the number of frames divided as a frame corresponding to the scene with a sense of tension.

キーフレーム選択部22は、衝撃的なシーンが検出された分析窓の位置を含むショットの先頭フレームとその後の3ショット分の先頭フレーム(合わせると、コマ割りのコマ数に等しい4ショット分の先頭フレーム)を、衝撃的なシーンに対応するキーフレームとして選択する。   The key frame selection unit 22 includes the first frame of the shot including the position of the analysis window in which the shocking scene is detected and the first frame for the subsequent three shots (when combined, the first frame for four shots equal to the number of frames divided) Frame) is selected as the key frame corresponding to the shocking scene.

キーフレーム選択部22は、会話シーンが検出された範囲の先頭のショットから、コマ割りのコマ数に等しい8ショット分の先頭フレームを、会話シーンに対応するキーフレームとして選択する。   The key frame selection unit 22 selects, from the first shot in the range where the conversation scene is detected, the first frame for eight shots equal to the number of frames divided as a frame corresponding to the conversation scene.

コマ割り画像生成部24は、選択された複数のキーフレームを、当該特定の演出印象に対応するコマ割りの各コマに割り当てて、コマ割り画像を生成し、映画データの要約として映画記憶部12に記憶させる。   The frame division image generation unit 24 allocates the selected key frames to each frame division corresponding to the specific effect impression, generates a frame division image, and the movie storage unit 12 as a summary of movie data. Remember me.

コマへの割り当てでは、まず、図6(B)に示すように、コマの形状を、映像のフレームへ内接する比率で拡大縮小し、重心を一致させるようにフレームに重畳する。その状態で、図6(A)に示すようなフレームにおいて、コマと重なり合ったフレーム内の領域を、そのままコマへコピーして、割り当てる。なお、コマ割りデータの複数のコマは、予め順番が定められており、選択された複数のキーフレームのフレーム番号の順と、コマの順とを合わせて、キーフレームを各コマに割り当てる。例えば、コマの位置が右上に近いほど順番が早く、右下に近いほど順番が遅くなるように、コマ割りデータのコマの順番が定められている。   In assignment to a frame, first, as shown in FIG. 6B, the shape of the frame is enlarged / reduced at a ratio inscribed in the frame of the video, and superimposed on the frame so that the centers of gravity coincide. In this state, in the frame as shown in FIG. 6A, the area in the frame that overlaps the frame is copied and allocated to the frame as it is. Note that the order of the frames of the frame division data is determined in advance, and the key frame is assigned to each frame by combining the order of the frame numbers of the selected key frames and the order of the frames. For example, the frame order of the frame division data is determined such that the closer the frame position is to the upper right, the faster the order is, and the lower the right position is, the slower the order is.

表示制御部26は、映像機器10の操作部(図示省略)又は遠隔操作部(図示省略)によって、映画データの閲覧が指示されたときに、映画記憶部12から、対応する映画データ及びコマ割り画像データを読み出し、映画データの要約としてのコマ割り画像データ、又は映画データを、表示装置40に表示させる。   The display control unit 26 receives the corresponding movie data and frame allocation from the movie storage unit 12 when browsing of movie data is instructed by the operation unit (not shown) or the remote operation unit (not shown) of the video equipment 10. The image data is read out, and frame display image data or movie data as a summary of movie data is displayed on the display device 40.

次に、本実施の形態に係る映像機器10の作用について説明する。まず、記録媒体を介して、映画データが映像機器10に入力されて、入力された映画データが、映画記憶部12に記憶される。   Next, the operation of the video equipment 10 according to the present embodiment will be described. First, movie data is input to the video equipment 10 via a recording medium, and the input movie data is stored in the movie storage unit 12.

そして、映像機器10において、図7に示すコマ割り画像生成処理ルーチンが実行される。   Then, in the video equipment 10, a frame-divided image generation processing routine shown in FIG. 7 is executed.

まず、ステップ100において、コマ割り画像の生成対象となる映画データを、映画記憶部12から取得する。そして、ステップ102において、緊迫感のあるシーンに対応するコマ割り画像を生成して、映画記憶部12に記憶し、ステップ104において、衝撃的なシーンに対応するコマ割り画像を生成して、映画記憶部12に記憶する。   First, in step 100, movie data that is a generation target of a frame-split image is acquired from the movie storage unit 12. Then, in step 102, a frame-cut image corresponding to a scene with a sense of tension is generated and stored in the movie storage unit 12, and in step 104, a frame-cut image corresponding to a shocking scene is generated, Store in the storage unit 12.

次のステップ106では、会話シーンに対応するコマ割り画像を生成して、映画記憶部12に記憶し、コマ割り画像生成処理ルーチンを終了する。   In the next step 106, a frame-cut image corresponding to the conversation scene is generated and stored in the movie storage unit 12, and the frame-cut image generation processing routine is terminated.

上記ステップ102は、図8に示す緊迫シーンコマ画像生成処理ルーチンによって実現される。   The step 102 is realized by a tight scene frame image generation processing routine shown in FIG.

ステップ110において、時刻tを0に設定し、ステップ112で、時刻tからT秒間の範囲である分析窓内で、カット頻度を算出する。   In step 110, time t is set to 0, and in step 112, the cut frequency is calculated within the analysis window that is in the range of T seconds from time t.

そして、ステップ114において、上記ステップ112で算出されたカット頻度が閾値以上であるか否かを判定し、カット頻度が閾値未満である場合には、ステップ116へ進むが、一方、カット頻度が閾値以上である場合には、緊迫シーンが検出されたと判断し、ステップ120へ進む。   In step 114, it is determined whether or not the cut frequency calculated in step 112 is equal to or greater than a threshold value. If the cut frequency is less than the threshold value, the process proceeds to step 116. If so, it is determined that a tense scene has been detected, and the process proceeds to step 120.

ステップ116では、分析窓が、映像終了位置に到達したか否かを判定し、映像終了位置に到達した場合には、緊迫シーンが検出されなかったと判断し、緊迫シーンに対応するコマ割り画像を生成せずに、緊迫シーンコマ画像生成処理ルーチンを終了する。   In step 116, it is determined whether or not the analysis window has reached the video end position. If the analysis window has reached the video end position, it is determined that no tension scene has been detected, and a frame-split image corresponding to the tension scene is determined. Without generating, the tension scene frame image generation processing routine is terminated.

ステップ116で、分析窓が、映像終了位置に到達していないと判定された場合には、ステップ118で、時刻tを1秒だけ進めて分析窓をシフトさせて、ステップ112へ戻る。   If it is determined in step 116 that the analysis window has not reached the video end position, in step 118 the time t is advanced by 1 second to shift the analysis window, and the process returns to step 112.

ステップ120では、上記ステップ114でカット頻度が閾値以上であると判定された分析窓内の各ショットの先頭フレームのフレーム番号を抽出する。次のステップ122では、コマ割り記憶部18から、緊迫感のあるシーンに対応するコマ割りデータを取得する。   In step 120, the frame number of the first frame of each shot in the analysis window in which the cut frequency is determined to be greater than or equal to the threshold value in step 114 is extracted. In the next step 122, frame division data corresponding to a scene with a sense of tension is acquired from the frame division storage unit 18.

そして、ステップ124において、上記ステップ120で抽出された先頭フレームのフレーム番号を、先頭から順に、上記ステップ122で取得したコマ割りデータのコマ数と等しいフレーム数分だけ選択して、映像信号から、複数のキーフレームを選択する。   Then, in step 124, the frame number of the top frame extracted in step 120 is selected by the number of frames equal to the frame number of the frame division data acquired in step 122 in order from the top, and from the video signal, Select multiple keyframes.

そして、ステップ126において、上記ステップ124で選択したキーフレームの各々を、コマ割りデータの各コマに順に割り当てて、コマ割り画像を生成し、上記ステップ100で取得した映画データの要約として、映画記憶部12に記憶させて、上記ステップ116へ戻る。   In step 126, each of the key frames selected in step 124 is sequentially assigned to each frame of the frame division data to generate a frame division image. As a summary of the movie data acquired in step 100, movie storage is performed. The data is stored in the unit 12 and the process returns to step 116.

上記ステップ112は、図9に示すカット頻度算出処理ルーチンによって実現される。   The step 112 is realized by a cut frequency calculation processing routine shown in FIG.

まず、ステップ130で、分析窓内の先頭フレームを対象フレームに設定すると共に、カット頻度を初期値0に設定する。   First, in step 130, the first frame in the analysis window is set as a target frame, and the cut frequency is set to an initial value 0.

そして、ステップ132において、対象フレームのRGBヒストグラムを算出し、ステップ134で、対象フレームの次のフレームのRGBヒストグラムを算出する。   In step 132, the RGB histogram of the target frame is calculated. In step 134, the RGB histogram of the next frame of the target frame is calculated.

そして、ステップ136では、上記ステップ132、134で算出されたRGBヒストグラム間のバタチャリヤ距離(RGBチャネル間のバタチャリヤ距離の平均値)を算出する。次にステップ138において、上記ステップ136で算出されたバタチャリヤ距離が閾値以上であるか否かを判定し、算出されたバタチャリヤ距離が閾値未満である場合には、対象フレームと次フレームとの間にカットは存在しないと判断し、ステップ142へ進む。一方、算出されたバタチャリヤ距離が閾値以上である場合には、対象フレームと次フレームとの間にカットが存在すると判断し、ステップ140で、カット頻度をインクリメントしてカウントし、ステップ142へ進む。   In step 136, the virtual distance between the RGB histograms calculated in steps 132 and 134 (the average value of the virtual distance between the RGB channels) is calculated. Next, in step 138, it is determined whether or not the virtual distance calculated in step 136 is greater than or equal to a threshold value. If the calculated virtual distance is less than the threshold value, the interval between the target frame and the next frame is determined. It is determined that there is no cut, and the process proceeds to step 142. On the other hand, if the calculated virtual distance is greater than or equal to the threshold, it is determined that there is a cut between the target frame and the next frame, and in step 140, the cut frequency is incremented and counted, and the process proceeds to step 142.

ステップ142では、分析窓内の全てのフレームについて上記の処理が終了したか否かを判定し、次フレームが最終フレームに到達した場合には、全てのフレームについて上記の処理が終了したと判断し、現在のカット頻度を算出結果として、カット頻度算出処理ルーチンを終了する。一方、次フレームが最終フレームに到達していない場合には、ステップ144で、次フレームを対象フレームに設定して、上記ステップ132へ戻る。   In step 142, it is determined whether or not the above processing has been completed for all the frames in the analysis window. If the next frame has reached the final frame, it is determined that the above processing has been completed for all the frames. Then, the cut frequency calculation processing routine is terminated using the current cut frequency as a calculation result. On the other hand, if the next frame has not reached the final frame, in step 144, the next frame is set as the target frame, and the process returns to step 132.

上記ステップ104は、図10に示す衝撃シーンコマ画像生成処理ルーチンによって実現される。   Step 104 is realized by the impact scene frame image generation processing routine shown in FIG.

ステップ150において、時刻tを0に設定し、ステップ152で、時刻tからT秒間の範囲である分析窓内で、短時間平均パワーを算出する。例えば、T秒間の音声波形サンプル値の二乗平均を計算することにより、短時間平均パワーを算出する。   In step 150, time t is set to 0, and in step 152, short-term average power is calculated within an analysis window that is in the range of T seconds from time t. For example, the short-time average power is calculated by calculating the root mean square of the speech waveform sample values for T seconds.

そして、ステップ154において、上記ステップ152で算出された短時間平均パワーが閾値以上であるか否かを判定し、短時間平均パワーが閾値未満である場合には、ステップ156へ進むが、一方、短時間平均パワーが閾値以上である場合には、衝撃的なシーンが検出されたと判断し、ステップ160へ進む。   In step 154, it is determined whether or not the short-time average power calculated in step 152 is equal to or greater than a threshold value. If the short-time average power is less than the threshold value, the process proceeds to step 156. If the short time average power is greater than or equal to the threshold, it is determined that a shocking scene has been detected, and the process proceeds to step 160.

ステップ156では、分析窓が、映像終了位置に到達したか否かを判定し、映像終了位置に到達した場合には、衝撃的なシーンが検出されなかったと判断し、衝撃的なシーンに対応するコマ割り画像を生成せずに、衝撃シーンコマ画像生成処理ルーチンを終了する。   In step 156, it is determined whether or not the analysis window has reached the video end position. If the analysis window has reached the video end position, it is determined that no shocking scene has been detected, and the shocking scene is handled. The impact scene frame image generation processing routine is terminated without generating the frame-cut image.

ステップ156で、分析窓が、映像終了位置に到達していないと判定された場合には、ステップ158で、時刻tをT/2秒だけ進めて分析窓をT/2だけシフトさせて、ステップ152へ戻る。   If it is determined in step 156 that the analysis window has not reached the video end position, in step 158, the time t is advanced by T / 2 seconds and the analysis window is shifted by T / 2. Return to 152.

ステップ160では、上記ステップ154で短時間平均パワーが閾値以上であると判定された分析窓の位置を含むショットの先頭フレームのフレーム番号を抽出する。次のステップ162では、コマ割り記憶部18から、衝撃的なシーンに対応するコマ割りデータを取得する。   In step 160, the frame number of the first frame of the shot including the position of the analysis window in which the short-term average power is determined to be equal to or greater than the threshold value in step 154 is extracted. In the next step 162, frame division data corresponding to a shocking scene is acquired from the frame division storage unit 18.

そして、ステップ164において、上記ステップ160で抽出された先頭フレームのフレーム番号のキーフレームを映像信号から選択すると共に、後に続く複数のショットの各々の先頭フレームを、キーフレームとして映像信号から選択して、上記ステップ122で取得したコマ割りデータのコマ数と等しいフレーム数分だけのキーフレームを選択する。   In step 164, a key frame having the frame number of the first frame extracted in step 160 is selected from the video signal, and each first frame of a plurality of subsequent shots is selected as a key frame from the video signal. The key frames corresponding to the number of frames equal to the number of frames of the frame division data acquired in step 122 are selected.

そして、ステップ166において、上記ステップ164で選択したキーフレームの各々を、コマ割りデータの各コマに順に割り当てて、コマ割り画像を生成し、上記ステップ100で取得した映画データの要約として映画記憶部12に記憶させて、上記ステップ156へ戻る。   In step 166, each of the key frames selected in step 164 is sequentially assigned to each frame of the frame division data to generate a frame division image, and a movie storage unit as a summary of the movie data acquired in step 100 above 12 and return to step 156.

上記ステップ106は、図11に示す会話シーンコマ画像生成処理ルーチンによって実現される。   Step 106 is realized by the conversation scene frame image generation processing routine shown in FIG.

ステップ170において、時刻tを0に設定し、ステップ172で、上記ステップ100で取得した映画データの音声信号に対して、時刻tからT秒間の範囲である分析窓内で、音声検出処理を行う。なお、音声検出処理では、従来既知の手法を用いればよいため、音声検出処理に関する説明を省略する。   In step 170, time t is set to 0, and in step 172, sound detection processing is performed on the sound signal of the movie data acquired in step 100 in the analysis window that is in the range of T seconds from time t. . It should be noted that since a conventionally known method may be used in the voice detection process, description regarding the voice detection process is omitted.

そして、ステップ174において、上記ステップ172での音声検出処理によって、音声が検出されたか否かを判定し、音声が検出されなかった場合には、ステップ176へ進むが、一方、音声が検出された場合には、ステップ180へ進む。   In step 174, it is determined whether or not sound is detected by the sound detection processing in step 172. If no sound is detected, the process proceeds to step 176. On the other hand, the sound is detected. If yes, go to Step 180.

ステップ176では、分析窓が、映像終了位置に到達したか否かを判定し、映像終了位置に到達した場合には、会話シーンが検出されなかったと判断し、会話シーンに対応するコマ割り画像を生成せずに、会話シーンコマ画像生成処理ルーチンを終了する。   In step 176, it is determined whether or not the analysis window has reached the video end position. If the analysis window has reached the video end position, it is determined that no conversation scene has been detected, and a frame-split image corresponding to the conversation scene is obtained. Without generating, the conversation scene frame image generation processing routine is terminated.

ステップ176で、分析窓が、映像終了位置に到達していないと判定された場合には、ステップ178で、時刻tをT/2秒だけ進めて分析窓をT/2だけシフトさせて、ステップ172へ戻る。   If it is determined in step 176 that the analysis window has not reached the video end position, in step 178 the time t is advanced by T / 2 seconds to shift the analysis window by T / 2, Return to 172.

ステップ180では、上記ステップ174で音声が検出されたと判定された分析窓の区間を、音声区間としてマークする。次のステップ182では、現在の分析窓の区間を含む過去M秒の範囲において、音声区間としてマークされた区間の割合を算出する。   In step 180, the section of the analysis window in which it is determined that the voice is detected in step 174 is marked as a voice section. In the next step 182, the ratio of the section marked as the voice section in the range of the past M seconds including the section of the current analysis window is calculated.

そして、ステップ184で、上記ステップ182で算出された割合が閾値以上であるか否かを判定し、割合が閾値未満である場合には、ステップ178へ移行するが、一方、割合が閾値以上である場合には、会話シーンが検出されたと判断し、ステップ184へ進む。   In step 184, it is determined whether or not the ratio calculated in step 182 is equal to or greater than the threshold value. If the ratio is less than the threshold value, the process proceeds to step 178. If there is, it is determined that a conversation scene has been detected, and the process proceeds to step 184.

ステップ186では、コマ割り記憶部18から、会話シーンに対応するコマ割りデータを取得する。   In step 186, frame division data corresponding to the conversation scene is acquired from the frame division storage unit 18.

そして、ステップ188において、上記ステップ184で音声区間の割合が閾値以上であると判定された過去M秒の範囲の映像信号の先頭のショットから、先頭フレームをキーフレームとして選択すると共に、後に続く複数のショットの各々の先頭フレームを、キーフレームとして映像信号から選択して、上記ステップ186で取得したコマ割りデータのコマ数と等しいフレーム数分だけのキーフレームを選択する。   In step 188, the head frame is selected as a key frame from the head shot of the video signal in the range of the past M seconds determined in step 184 that the proportion of the audio section is equal to or greater than the threshold, and a plurality of subsequent frames are selected. The first frame of each shot is selected from the video signal as a key frame, and key frames corresponding to the number of frames equal to the number of frames of the frame division data acquired in step 186 are selected.

そして、ステップ190において、上記ステップ188で選択したキーフレームの各々を、コマ割りデータの各コマに順に割り当てて、コマ割り画像を生成し、上記ステップ100で取得した映画データの要約として映画記憶部12に記憶させて、上記ステップ176へ戻る。   In step 190, each of the key frames selected in step 188 is sequentially assigned to each frame of the frame division data to generate a frame division image, and a movie storage unit as a summary of the movie data acquired in step 100 12 and return to step 176.

また、ユーザが、映像機器10の操作部(図示省略)又は遠隔操作部(図示省略)を操作して、映画データの閲覧を指示すると、映像機器10の表示制御部26によって、映画記憶部12から、指示された映画データと、当該映画データに対応し、かつ、特定の演出印象の各種類に応じたコマ割り画像を読み出し、映画データの要約として、特定の演出印象の各種類に応じたコマ割り画像を表示装置40に表示させると共に、映画データを、表示装置40に表示させる。   When the user operates the operation unit (not shown) or the remote operation unit (not shown) of the video device 10 to instruct to browse movie data, the movie storage unit 12 is displayed by the display control unit 26 of the video device 10. From the instructed movie data and the frame-divided image corresponding to each type of the specific presentation impression corresponding to the movie data, and according to each type of the specific presentation impression as a summary of the movie data The frame-divided image is displayed on the display device 40, and the movie data is displayed on the display device 40.

以上説明したように、第1の実施の形態に係る映像機器によれば、特定の演出印象として検出された映像部分に対応する複数のキーフレームを、特定の演出印象を表現する予め用意された漫画のコマ割りの各コマに割り当てたコマ割り画像を生成することにより、映像信号が表わす内容と共に、それが観客にどのような心理的印象を与えるかを表わしたコマ割り画像を、映像の要約として生成することができる。また、複数種類の演出印象について、映像信号が表わす内容と共に、それが観客にどのような心理的印象を与えるかを表わしたコマ割り画像を生成することができる。   As described above, according to the video equipment according to the first embodiment, a plurality of key frames corresponding to the video portion detected as the specific effect impression are prepared in advance to express the specific effect impression. By creating a frame-by-frame image assigned to each frame of the comic frame, the frame-by-frame image showing what the video signal represents and what psychological impression it gives to the audience, Can be generated as Further, for a plurality of types of presentation impressions, a frame-divided image representing what kind of psychological impression it gives to the audience together with the contents represented by the video signal can be generated.

映像の要約に関しては、従来、映像に何が映ったかを基準に行われてきた。しかし、映像中の被写体が、映像全体の中でどういった意味をもつかという解釈は、その被写体がどのように映像に映ったかを示す情報があって初めて可能となる。そこで、本実施の形態では、映像中において、特定の演出印象を有する箇所を検出し、その箇所の近傍のキーフレームを、演出印象に応じた漫画のコマ割りに割り当てることで、映像の被写体と演出印象の双方を要約する手法を提案した。   Conventionally, video summarization has been performed on the basis of what appears in the video. However, the interpretation of what the subject in the video means in the entire video is possible only when there is information indicating how the subject appears in the video. Therefore, in the present embodiment, a part having a specific effect impression is detected in the video, and a key frame in the vicinity of the part is assigned to the comic frame division according to the effect impression, thereby A method of summarizing both impressions was proposed.

次に、第2の実施の形態について説明する。なお、第2の実施の形態に係る映像機器の構成は、第1の実施の形態と同様であるため、同一符号を付して説明を省略する。   Next, a second embodiment will be described. Since the configuration of the video equipment according to the second embodiment is the same as that of the first embodiment, the same reference numerals are given and description thereof is omitted.

第2の実施の形態では、映像の物理的特徴に基づいて、コマ割りの各コマの形状及び大きさを決定している点と、フレームに対する物体認識結果に基づいて、フレームからコマへ切り出す領域を決定している点とが、第1の実施の形態と異なっている。   In the second embodiment, the shape and size of each frame divided based on the physical characteristics of the video is determined, and the area cut out from the frame based on the object recognition result for the frame This is different from the first embodiment.

第2の実施の形態では、コマ割り取得部20によって、検出された特定の演出印象に対応するコマ割りデータをコマ割り記憶部18から取得し、取得したコマ割りデータと、特定の演出印象が検出された映像部分の物理的特徴とに基づいて、コマ割りデータの各コマの形状及び大きさを決定し、検出された特定の演出に対応するコマ割りデータを生成する。   In the second embodiment, the frame division acquisition unit 20 acquires frame division data corresponding to the detected specific production impression from the frame division storage unit 18, and the acquired frame division data and the specific production impression are obtained. Based on the detected physical characteristics of the video portion, the shape and size of each frame of the frame division data is determined, and frame division data corresponding to the detected specific effect is generated.

コマ割り画像生成部24は、コマへの割り当てにおいて、映像のフレーム内の物体(例えば、人物の顔)の位置を物体認識等により検出し、映像の文法と、検出された物体の位置とに基づいて、フレームからコマへ切り出す領域を決定し、フレーム内の決定された領域を、そのままコマへコピーして、割り当てる。   The frame division image generation unit 24 detects the position of an object (for example, a human face) in a video frame by object recognition or the like in the allocation to the frame, and uses the grammar of the video and the position of the detected object. Based on this, an area to be cut out from the frame to the frame is determined, and the determined area in the frame is copied to the frame as it is and assigned.

なお、第2の実施の形態に係る映像機器の他の構成及び作用については、第1の実施の形態と同様であるため、説明を省略する。   Note that other configurations and operations of the video equipment according to the second embodiment are the same as those of the first embodiment, and thus description thereof is omitted.

上記の第1の実施の形態及び第2の実施の形態では、緊迫感のあるシーン、衝撃的なシーン、会話シーンに対応するコマ割り画像を生成する場合を例に説明したが、これに限定されるものではなく、更に、普通のシーンに対応するコマ割り画像を生成してもよい。例えば、緊迫感のあるシーン、衝撃的なシーン、及び会話シーンの何れでもない部分を、普通のシーンに対応する映像部分として検出して、キーフレームを選択し、普通のシーンに対応するコマ割りの各コマに割り当てて、普通のシーンに対応するコマ割り画像を生成してもよい。例えば、図12に示すような普通のシーンに対応するコマ割りデータを予め用意しておけばよい。普通のシーンに対応するコマ割りの各コマの形状及び大きさは、他の演出印象のコマ割りに見られる特徴を持たないように定めればよい。   In the first embodiment and the second embodiment described above, the case where the frame-cut image corresponding to the scene with a sense of tension, the shocking scene, and the conversation scene is generated is described as an example. However, the present invention is not limited to this. In addition, a frame division image corresponding to an ordinary scene may be generated. For example, a part that is not a tense scene, a shocking scene, or a conversation scene is detected as a video part corresponding to a normal scene, a key frame is selected, and a frame allocation corresponding to the normal scene is selected. May be assigned to each frame to generate a frame-divided image corresponding to an ordinary scene. For example, frame division data corresponding to an ordinary scene as shown in FIG. 12 may be prepared in advance. The shape and size of each frame division corresponding to an ordinary scene may be determined so as not to have the characteristics seen in the frame division of other effect impressions.

また、映画データなどの映像データから、コマ割り画像を生成する場合を例に説明したが、ビデオ撮影等によって得られた映像データから、コマ割り画像を生成してもよい。ビデオ撮影によって得られた映像から特徴的な画像を抽出してインパクトのある要約ができ、また、印象深いアルバムを生成することができる。また、デジタルフォト画像などの静止画像からコマ割り画像を生成することに、本発明を応用してもよい。例えば、特定の演出印象の種類をユーザが選択し、入力されたデジタルフォト画像を、選択された特定の演出印象に対応するコマ割りの各コマに配置して、コマ割り画像を生成してもよい。コマ割りを用いて写真のアルバムを生成することができるようになり、演出効果を持つアルバムを自動生成することも可能となる。   Further, although the case where the frame-divided image is generated from the video data such as movie data has been described as an example, the frame-divided image may be generated from the video data obtained by video shooting or the like. It is possible to extract high-impact summaries by extracting characteristic images from video obtained by video shooting, and to create impressive albums. Further, the present invention may be applied to generating a frame-cut image from a still image such as a digital photo image. For example, the user may select a specific effect impression type, and the input digital photo image may be arranged in each frame frame corresponding to the selected specific effect impression to generate a frame-divided image. Good. A photo album can be generated using frame division, and an album having a production effect can be automatically generated.

また、記録媒体を介して映画データが入力される場合を例に説明したが、これに限定されるものではなく、放送されている映像データを入力として記憶するようにしてもよい。   Further, although the case where movie data is input via a recording medium has been described as an example, the present invention is not limited to this, and broadcast video data may be stored as input.

また、映像フレーム間の色分布の差分として、RGBヒストグラム間のバタチャリヤ距離を算出する場合を例に説明したが、これに限定されるものではなく、例えば、フレーム間の他の画像特徴量の差分を算出してもよい。   Further, as an example of calculating the batch distance between RGB histograms as the difference in color distribution between video frames, the present invention is not limited to this. For example, the difference between other image feature amounts between frames May be calculated.

また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムをCDROM等の記憶媒体に格納して提供することも可能である。   In the present specification, the embodiment has been described in which the program is installed in advance. However, the program may be provided by being stored in a storage medium such as a CDROM.

10 映像機器
12 映画記憶部
14 映画データ取得部
16 演出検出部
18 コマ割り記憶部
20 コマ割り取得部
22 キーフレーム選択部
24 コマ割り画像生成部
26 表示制御部
40 表示装置
DESCRIPTION OF SYMBOLS 10 Video equipment 12 Movie memory | storage part 14 Movie data acquisition part 16 Effect detection part 18 Frame allocation memory | storage part 20 Frame allocation acquisition part 22 Key frame selection part 24 Frame allocation image generation part 26 Display control part 40 Display apparatus

Claims (6)

入力された映像信号又は前記映像信号に対応する音声信号に基づいて、複数種類の特定の演出印象の各々について、前記特定の演出印象を有する映像部分を検出する演出検出手段と、
前記複数種類の特定の演出印象の各々について、前記映像信号の映像フレームから、前記演出検出手段によって検出された映像部分に対応する複数の映像フレームを選択するフレーム選択手段と、
前記複数種類の特定の演出印象の各々について、前記特定の演出印象に対応し、かつ、複数のコマに分割されたコマ割りの各コマに、前記フレーム選択手段によって前記特定の演出印象として選択された前記映像フレームを各々割り当てたコマ割り画像を各々生成する生成手段と、
を含むコマ割り画像生成装置であって、
前記コマ割りの各コマの境界の形状を、前記特定の演出印象の種類に応じた形状としたコマ割り画像生成装置。
Production detection means for detecting a video portion having the specific production impression for each of a plurality of types of specific production impressions based on an input video signal or an audio signal corresponding to the video signal;
Frame selection means for selecting a plurality of video frames corresponding to the video portion detected by the effect detection means from the video frames of the video signal for each of the plurality of types of specific presentation impressions ;
Each of the plurality of types of specific effect impressions is selected as the specific effect impression by the frame selection unit for each frame that corresponds to the specific effect impression and is divided into a plurality of frames. a generating means each for generating a respective assigned frame split images the video frame,
A panel layout image generating apparatus comprising,
A frame-divided image generating apparatus in which a shape of a boundary between the frame-divided frames is a shape corresponding to the specific effect impression type.
前記特定の演出印象は、映像中で短時間の間にカットが頻出している緊迫したシーンを含み、
前記緊迫したシーンに対応するコマ割りを、斜めの線を含む境界によって複数のコマに分割したものとし
前記演出検出手段は、前記映像信号の連続した映像フレーム間の色情報の差分に基づいて、連続撮影の境界であるカットを検出し、カットの検出回数が閾値以上となる所定範囲を、前記緊迫したシーンとなる映像部分として検出する請求項記載のコマ割り画像生成装置。
The specific performance impression includes a tense scene in which cuts frequently appear in a short time in the video ,
The frame division corresponding to the tense scene is divided into a plurality of frames by a boundary including an oblique line ,
The effect detection means detects a cut that is a boundary of continuous shooting based on a difference in color information between successive video frames of the video signal, and sets the predetermined range in which the number of detections of the cut is equal to or greater than a threshold value, The frame-split image generating apparatus according to claim 1 , wherein the frame-divided image generating apparatus detects a video portion that is a scene .
前記特定の演出印象は、衝撃的なシーンを含み、
前記衝撃的なシーンに対応するコマ割りを、斜めの線を含む境界によって複数のコマに分割すると共に、他のコマよりも大きさが大きいコマを有するものとし
前記演出検出手段は、前記映像信号に対応する音声信号に基づいて、分析窓内の映像信号に対応する音声信号の短時間平均パワーを算出し、算出された短時間平均パワーが閾値より多い前記分析窓の映像信号を、前記衝撃的なシーンとなる映像部分として検出する請求項1又は2記載のコマ割り画像生成装置。
The specific performance impression includes a shocking scene,
The frame division corresponding to the shocking scene is divided into a plurality of frames by a boundary including an oblique line, and has a frame that is larger than the other frames ,
The effect detection means calculates the short-time average power of the audio signal corresponding to the video signal in the analysis window based on the audio signal corresponding to the video signal, and the calculated short-time average power is greater than a threshold value. 3. The frame-split image generating apparatus according to claim 1, wherein a video signal of the analysis window is detected as a video portion that becomes the shocking scene.
前記特定の演出印象は、会話シーン又はゆっくりしたシーンを含み、
前記会話シーン又はゆっくりしたシーンに対応するコマ割りを、規則的に配置され、かつ、各々の大きさが対応している複数のコマに分割したものとした請求項1〜請求項の何れか1項記載のコマ割り画像生成装置。
The specific performance impression includes a conversation scene or a slow scene,
The panel layout corresponding to the conversation scenes or slow scene, are regularly arranged, and any one of claims 1 to claim 3 in which each size is assumed to have divided into a plurality of frames which correspond The frame-split image generating apparatus according to claim 1.
前記演出検出手段は、前記映像信号に対応する音声信号に基づいて、前記会話シーン又はゆっくりしたシーンとなる映像部分を検出する請求項記載のコマ割り画像生成装置。 5. The frame-divided image generation device according to claim 4 , wherein the effect detection means detects a video portion that becomes the conversation scene or a slow scene based on an audio signal corresponding to the video signal. コンピュータを、
入力された映像信号又は前記映像信号に対応する音声信号に基づいて、複数種類の特定の演出印象の各々について、前記特定の演出印象を有する映像部分を検出する演出検出手段、
前記複数種類の特定の演出印象の各々について、前記映像信号の映像フレームから、前記演出検出手段によって検出された映像部分に対応する複数の映像フレームを選択するフレーム選択手段、及び
前記複数種類の特定の演出印象の各々について、前記特定の演出印象に対応し、かつ、複数のコマに分割されたコマ割りの各コマに、前記フレーム選択手段によって前記特定の演出印象として選択された前記映像フレームを各々割り当てたコマ割り画像を各々生成する生成手段
として機能させるためのプログラムであって、
前記コマ割りの各コマの境界の形状を、前記特定の演出印象の種類に応じた形状としたプログラム。
Computer
An effect detection means for detecting a video portion having the specific effect impression for each of a plurality of types of specific effect impressions based on an input video signal or an audio signal corresponding to the video signal,
Frame selection means for selecting a plurality of video frames corresponding to the video portion detected by the effect detection means from the video frames of the video signal for each of the plurality of types of specific presentation impressions ; and
Each of the plurality of types of specific effect impressions is selected as the specific effect impression by the frame selection unit for each frame that corresponds to the specific effect impression and is divided into a plurality of frames. wherein a program for functioning as a generator, each for generating a respective assigned frame split image video frame,
The program which made the shape of the boundary of each frame of the said frame division the shape according to the kind of said specific production impression.
JP2009213682A 2009-09-15 2009-09-15 Frame-split image generation apparatus and program Expired - Fee Related JP5540376B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009213682A JP5540376B2 (en) 2009-09-15 2009-09-15 Frame-split image generation apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009213682A JP5540376B2 (en) 2009-09-15 2009-09-15 Frame-split image generation apparatus and program

Publications (2)

Publication Number Publication Date
JP2011066546A JP2011066546A (en) 2011-03-31
JP5540376B2 true JP5540376B2 (en) 2014-07-02

Family

ID=43952344

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009213682A Expired - Fee Related JP5540376B2 (en) 2009-09-15 2009-09-15 Frame-split image generation apparatus and program

Country Status (1)

Country Link
JP (1) JP5540376B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3148172A1 (en) * 2015-09-28 2017-03-29 Thomson Licensing Method for color grading of a digital visual content, and corresponding electronic device, computer readable program product and computer readable storage medium
JP2019133605A (en) 2018-02-02 2019-08-08 富士ゼロックス株式会社 Information processing apparatus and information processing program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2960939B2 (en) * 1989-08-24 1999-10-12 日本電信電話株式会社 Scene extraction processing method
JP3331291B2 (en) * 1996-03-29 2002-10-07 日本電信電話株式会社 Video information editing device
JP4226237B2 (en) * 2001-09-11 2009-02-18 日本放送協会 Cartoon generating device and comic generating program
JP2005167456A (en) * 2003-12-01 2005-06-23 Matsushita Electric Ind Co Ltd Method and device for extracting interesting features of av content
JP4032122B2 (en) * 2004-06-28 2008-01-16 国立大学法人広島大学 Video editing apparatus, video editing program, recording medium, and video editing method
JP2006050045A (en) * 2004-08-02 2006-02-16 Hitachi Ltd Moving picture data edit apparatus and moving picture edit method
JP2008092335A (en) * 2006-10-03 2008-04-17 Canon Inc Printer and its control method
JP2009065462A (en) * 2007-09-06 2009-03-26 Toshiba Corp Device, method, and program for summarizing video

Also Published As

Publication number Publication date
JP2011066546A (en) 2011-03-31

Similar Documents

Publication Publication Date Title
US8416332B2 (en) Information processing apparatus, information processing method, and program
JP5070194B2 (en) Content list display device and control method
KR101009881B1 (en) Apparatus and method for zoom display of target area from reproducing image
JP5121367B2 (en) Apparatus, method and system for outputting video
JP3667262B2 (en) Video skimming method and apparatus
US8090200B2 (en) Redundancy elimination in a content-adaptive video preview system
US6222532B1 (en) Method and device for navigating through video matter by means of displaying a plurality of key-frames in parallel
JP5010292B2 (en) Video attribute information output device, video summarization device, program, and video attribute information output method
US20150382083A1 (en) Pictorial summary for video
JP5630541B2 (en) Information processing apparatus, information processing method, and program
JP5244877B2 (en) Content processing device
JP2016517640A (en) Video image summary
WO2008094600A1 (en) Concurrent presentation of video segments enabling rapid video file comprehension
KR101440168B1 (en) Method for creating a new summary of an audiovisual document that already includes a summary and reports and a receiver that can implement said method
JPH10232884A (en) Method and device for processing video software
JP2000350156A (en) Method for storing moving picture information and recording medium recording the information
US20230006851A1 (en) Method and device for viewing conference
JP5540376B2 (en) Frame-split image generation apparatus and program
JPH11220689A (en) Video software processor and medium for storing its program
JPH0965287A (en) Method and device for detecting characteristic scene for dynamic image
JP2010109852A (en) Video indexing method, video recording and playback device, and video playback device
JP2000516006A (en) Method and apparatus for navigating video content by displaying a plurality of key frames in parallel
JP2005167456A (en) Method and device for extracting interesting features of av content
US20160127807A1 (en) Dynamically determined audiovisual content guidebook
JP3496866B2 (en) Manga-type video editing method and apparatus, and recording medium recording the editing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120809

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140318

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140414

R150 Certificate of patent or registration of utility model

Ref document number: 5540376

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees