JP2019213160A - Video editing apparatus, video editing method, and video editing program - Google Patents
Video editing apparatus, video editing method, and video editing program Download PDFInfo
- Publication number
- JP2019213160A JP2019213160A JP2018110423A JP2018110423A JP2019213160A JP 2019213160 A JP2019213160 A JP 2019213160A JP 2018110423 A JP2018110423 A JP 2018110423A JP 2018110423 A JP2018110423 A JP 2018110423A JP 2019213160 A JP2019213160 A JP 2019213160A
- Authority
- JP
- Japan
- Prior art keywords
- moving image
- recognition result
- editing
- time interval
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
Description
本発明は動画編集装置、動画編集方法、及び動画編集プログラムの技術に関する。 The present invention relates to a moving image editing apparatus, a moving image editing method, and a moving image editing program.
従来、動画を作成する際には、編集材料となる動画を撮影した後、不要部分カット、テロップ付加、エフェクト付加、動画像コンテンツ付加、音声コンテンツ付加などの動画編集を行う場合がある。このような動画編集を行なうためには、高性能のコンピュータと技術者向けの専用ソフトウェアを用いる必要があり、それらを操作するためには高度な技術や専門知識が要求されていた。近年では、パーソナルコンピュータの高機能化やビデオカメラの普及等により、簡易に動画編集を行なえるソフトウェアが開発され、専門技術や専門知識のない一般ユーザでも容易に動画の編集ができるようになっている。 2. Description of the Related Art Conventionally, when creating a moving image, the moving image editing such as unnecessary part cut, telop addition, effect addition, moving image content addition, audio content addition, etc. may be performed after shooting the moving image as the editing material. In order to perform such video editing, it is necessary to use a high-performance computer and dedicated software for engineers, and advanced techniques and expertise are required to operate these computers. In recent years, software that allows easy editing of moving images has been developed due to the increased functionality of personal computers and the spread of video cameras, etc., and it has become possible to easily edit moving images even for general users without specialized technology or expertise. Yes.
例えば、特許文献1には、編集済のサンプル動画を学習することにより編集情報を生成し、生成した編集情報に基づいてユーザへの編集支援を行なう映像編集支援装置が開示されている。このような装置を用いることで、不要部分カット、テロップ付加、エフェクト付加、動画像コンテンツ付加、音声コンテンツ付加等を模した動画編集を一般ユーザが簡易に行なうことができる。 For example, Patent Document 1 discloses a video editing support apparatus that generates editing information by learning an edited sample moving image and performs editing support for a user based on the generated editing information. By using such an apparatus, a general user can easily perform moving image editing simulating unnecessary partial cut, telop addition, effect addition, moving image content addition, audio content addition, and the like.
しかし、サンプル動画と近しいシーンを検出し、サンプル動画と同じ編集を自動で行う技術が提供されているが、動画作成者の意図を反映した編集を行うためには、近しいシーンを含む十分な量のサンプル動画が必要である。また、自動で無音部分をカットする技術や自動でテロップを挿入する技術も公知となっているが、動画作成者の意図を反映した編集を行うことができるものではない。 However, there is a technology that automatically detects scenes close to the sample video and automatically performs the same editing as the sample video, but a sufficient amount including close scenes is necessary to perform editing that reflects the intention of the video creator. Sample videos are required. In addition, a technique for automatically cutting a silent part and a technique for automatically inserting a telop are also known, but editing that reflects the intention of the movie creator cannot be performed.
そこで、本発明は、以上に示したかかる課題に鑑み、動画作成者の意図を反映した編集を可能としながら動画編集の負担を削減する動画編集装置、動画編集方法、及び動画編集プログラムを提供することを目的とする。 Therefore, in view of the above-described problems, the present invention provides a moving image editing apparatus, a moving image editing method, and a moving image editing program capable of reducing the burden of moving image editing while enabling editing reflecting the intention of the moving image creator. For the purpose.
本発明の解決しようとする課題は以上の如くであり、次にこの課題を解決するための手段を説明する。 The problem to be solved by the present invention is as described above. Next, means for solving the problem will be described.
即ち、本発明においては、動画データに含まれる動画像データから算出される時刻区間付動画像認識結果を格納する動画像認識結果格納部と、前記動画データに含まれる音声データから算出される時刻区間付音声認識結果を格納する音声認識結果格納部と、前記時刻区間付動画像認識結果および前記時刻区間付音声認識結果を各再生時刻において結合した複合認識結果を算出する認識結果結合部と、前記複合認識結果に基づき適用する時刻区間付編集情報を決定する編集情報割当部と、を備えるものである。 That is, in the present invention, a moving image recognition result storage unit that stores a moving image recognition result with a time interval calculated from moving image data included in the moving image data, and a time calculated from the audio data included in the moving image data. A speech recognition result storage unit that stores a speech recognition result with a section; a recognition result combining unit that calculates a combined recognition result obtained by combining the moving image recognition result with the time section and the speech recognition result with the time section at each reproduction time; An editing information allocating unit that determines editing information with a time interval to be applied based on the composite recognition result.
また、前記認識結果結合部において、前記時刻区間付動画像認識結果および前記時刻区間付音声認識結果は所定の組み合わせパターンと照合することにより結合され、前記所定の組み合わせパターンを登録可能とするものである。 Further, in the recognition result combining unit, the moving image recognition result with time interval and the speech recognition result with time interval are combined by collating with a predetermined combination pattern, and the predetermined combination pattern can be registered. is there.
また、前記編集情報割当部において、前記適用する時刻区間付編集情報は前記複合認識結果と、複合認識結果と時刻区間付編集情報との所定の組み合わせパターンと、を照合することにより決定され、前記所定の組み合わせパターンは登録可能とするものである。 Further, in the editing information allocating unit, the editing information with time section to be applied is determined by comparing the composite recognition result and a predetermined combination pattern of the composite recognition result and the editing information with time section, The predetermined combination pattern can be registered.
前記編集情報割当部において決定された時刻区間付編集情報は、編集可能なデータ群として出力されるものである。 The editing information with a time section determined by the editing information allocating unit is output as an editable data group.
本発明の効果として、以下に示すような効果を奏する。 As effects of the present invention, the following effects can be obtained.
本発明においては、動画データから認識が可能である複合的な事象と特定の編集内容とを結びつけることができ、たとえば、音声認識により動画出演者の発話内容から生成されたテロップを動画像認識により認識された動画出演者のジェスチャに応じた位置に付加したり、音声認識により認識されたキーワードに応じた動画像コンテンツを動画像認識により検出された動画出演者の顔位置の周辺に付加したり、動画像認識により認識された動画出演者のジェスチャの応じた音声コンテンツを音声認識により検出された発話区間と重ならないタイミングで付加したり、音声認識により検出された無音声区間のうち動画像認識により認識された特定のオブジェクトが動き始める時刻より前だけをカットしたりする、
といった自動編集を可能とする。
また、動画作成者は特定の編集内容と結びつけられた複合的な事象を利用して、動画の撮影中に任意の動画再生時刻に対して意図した編集内容を指定することができ、これにより、動画作成者の意図を反映した編集を可能としながら動画編集にかかる負担を軽減することができる。
In the present invention, a complex event that can be recognized from moving image data can be linked to a specific editing content. For example, a telop generated from the utterance content of a video performer by voice recognition is recognized by moving image recognition. Add to the position corresponding to the gesture of the recognized video performer, or add the moving image content according to the keyword recognized by voice recognition around the face position of the video performer detected by moving image recognition , Adding audio content according to the gesture of the video performer recognized by moving image recognition at a timing that does not overlap with the utterance interval detected by voice recognition, or moving image recognition among non-speech intervals detected by voice recognition Cut only before the time when the specific object recognized by
Can be automatically edited.
In addition, the video creator can specify the intended editing content for any video playback time during video recording using a complex event linked to specific editing content, While enabling editing that reflects the intention of the video creator, it is possible to reduce the burden on video editing.
次に、発明の実施の形態を説明する。 Next, embodiments of the invention will be described.
<第一の実施形態>
本発明の実施形態に係る動画編集装置1について図1を用いて説明する。
動画編集装置1は、撮影した動画データを編集するための装置である。動画編集装置1は、外部の動画撮影装置と通信する通信部11と、撮影した動画データ、編集した動画データ、および編集情報を記憶する記憶部12と、撮影した動画データを編集する制御部13と、を備えている。
通信部11は、外部の動画撮影装置2と有線または無線の通信回線を通じて通信する部分である。
記憶部12は、撮影した動画データ、編集した動画データ、および編集情報を記憶する部分であり、例えば、RAMやROMなどで構成されている。
制御部13は、撮影した動画データを編集する部分であり、例えば演算装置等で構成されている。
また、制御部13は、動画データを入力する動画入力部21と、動画データに含まれる動画像データから算出される時刻区間付動画像認識結果を格納する動画像認識結果格納部としての動画像認識部22と、動画データに含まれる音声データから算出される時刻区間付音声認識結果を格納する音声認識結果格納部としての音声認識部23と、時刻区間付動画像認識結果および時刻区間付音声認識結果を各再生時刻において結合した複合認識結果を算出する認識結果結合部24と、複合認識結果に基づき適用する時刻区間付編集情報を決定する編集情報割当部25と、を備える。動画入力部21、動画像認識部22、音声認識部23、認識結果結合部24、編集情報割当部25は、例えば一般的なWebブラウザソフトウェアをインストールした一般的な情報処理装置によって実現されるものである。
<First embodiment>
A moving image editing apparatus 1 according to an embodiment of the present invention will be described with reference to FIG.
The moving image editing apparatus 1 is an apparatus for editing captured moving image data. The moving image editing apparatus 1 includes a communication unit 11 that communicates with an external moving image capturing device, a
The communication unit 11 is a part that communicates with the external
The
The
The
動画入力部21は、通信部11を介して外部の動画撮影装置2から動画データが入力される部分である。動画データとは、少なくとも動画像データと、音声データと、時刻データと、を備えるデータ群である。また、動画データはこれらのデータの他にさらに、字幕データ、多重音声データ、副題データ・章(チャプター)データ・メタデータ(タグ)などを備えてもよい。
The moving
動画像認識部22は、動画データに含まれる動画像データおよび時刻データから時刻区間付動画像認識結果を算出する部分である。時刻区間付動画像認識結果は、例えば、動画像データをフレーム画像に分解して、1フレームごとに認識を行うことで動画像を認識した結果である。なお、動画像認識方法は1フレームごとのフレーム分解だけに限定するものではなく、たとえば、マルチフレーム認識による動画像認識方法を採用することもできる。なお、本実施形態に限定するものでなく、動画像認識については、外部のツールもしくはウェブAPIなどのサービスを利用することも可能である。すなわち、動画編集装置1は、少なくとも、算出された時刻区間付動画像認識結果を格納する部分を備えていればよい。
The moving
また、動画像認識部22は、オブジェクト認識および動き認識を用いることもできる。
オブジェクト認識は、フレーム画像データを入力情報とし、あらかじめ登録されたオブジェクトが現れた領域およびオブジェクトの種類を少なくとも出力情報に含む認識手法である。オブジェクトが現れた領域は、複数あってもよい。また、出力情報には、認識の信頼度が含まれていてもよい。
The moving
Object recognition is a recognition method in which frame image data is used as input information, and at least output information includes a region where a pre-registered object appears and the type of object. There may be a plurality of areas where the objects appear. Further, the output information may include the recognition reliability.
また、マルチフレーム認識を採用することによりオブジェクトの特定の動きを対象としてもよい。例えば、人物の特定の動きを対象とする場合、人物が現れた領域、人物の特定のジェスチャの種類、および人物を認識した時刻区間を少なくとも出力に含む。 Further, a specific movement of the object may be targeted by adopting multi-frame recognition. For example, when a specific movement of a person is targeted, the output includes at least an area in which the person appears, a specific gesture type of the person, and a time interval in which the person is recognized.
動画像認識部22は、フレーム画像抽出部31と、秒間フレーム数抽出部32と、再生時刻変換部33と、を有する。フレーム画像抽出部31は、動画データからフレームインデクス付フレーム画像を抽出する部分である。秒間フレーム数抽出部32は、動画データから秒間フレーム数を抽出する部分である。再生時刻変換部33は、フレーム画像抽出部31で抽出されたフレームインデクス付フレーム画像と、秒間フレーム数抽出部32で抽出された秒間フレーム数と、から再生時刻を算出する部分である。
The moving
このように、フレーム画像抽出部31と、秒間フレーム数抽出部32と、再生時刻変換部33とによって取得されるインデクス付フレーム画像および再生時刻から、再生時刻を起点とする時刻区間付動画像認識結果を取得する。
As described above, the moving image recognition with the time interval starting from the reproduction time is obtained from the indexed frame image and the reproduction time acquired by the frame
動画像認識の実施形態としては、例えば、時刻区間付動画像認識結果を用いて特定のジェスチャを検出するジェスチャ認識、特定の物体の位置や動き(差分)を検出する位置認識、動画出演者の表情を認識する表情認識などが含まれる。 As an embodiment of moving image recognition, for example, gesture recognition that detects a specific gesture using a moving image recognition result with a time interval, position recognition that detects a position or movement (difference) of a specific object, and a video performer It includes facial expression recognition that recognizes facial expressions.
音声認識部23は、動画データに含まれる音声データおよび時刻データから時刻区間付音声認識結果を算出する部分である。時刻区間付音声認識結果は、例えば、発話音声認識を用いた場合の、発話内容のテキスト、特定キーワードおよび無音声区間などを認識した結果を指す。なお、音声認識方法は、発話音声認識に限定するものではなく、無音区間や発話以外の特定音声を認識する音波形認識や、音楽などの音響信号認識や、マルチパス探索による単語列認識などを組み合わせて採用することもできる。なお、本実施形態に限定するものでなく、音声認識については、外部のツールもしくはウェブAPIなどのサービスを利用することも可能である。すなわち、動画編集装置1は、少なくとも、算出された時刻区間付音声認識結果を格納する部分を備えていればよい。
The
音声認識部23は、動画データに含まれる音声データおよび時刻データから再生時刻を起点とする区間に対し、発話音声認識を用いた時刻区間付音声認識結果を算出する。また、音声認識部23は、さらに、動画データに含まれる音声データおよび時刻データから声量、認識の信頼度、話者識別結果などを出力に含む構成としてもよい。
The
認識結果結合部24は、時刻区間付動画像認識結果および時刻区間付音声認識結果と、から複合認識結果を算出する。複合認識結果とは、再生時刻でグループ化した時刻区間付動画像認識結果および時刻区間付音声認識結果の複合データである。なお、その他のデータであるメタデータ(タグ)に再生時刻を付与してさらに複合したデータであってもよい。
The recognition
認識結果結合部24においては、時刻区間付動画像認識結果および時刻区間付音声認識結果は、所定の組み合わせパターンと照合することにより結合される。組み合わせパターンを構成する要素は、動画編集装置1で利用することが可能な動画像認識方法で認識される任意の要素(例えばオブジェクト)と、動画編集装置1で利用することが可能な音声認識方法で認識される任意の要素(例えばキーワード)である。動画編集装置1の利用者たる動画作成者は、動画像認識方法で認識される任意の要素および音声認識方法で認識される任意の要素を任意に選択し、その組み合わせパターンを指定可能とする。
動画編集装置1で利用することが可能な動画像認識方法においては、例えば、特定の人物の顔を用いる場合、動画作成者は、予め人物の顔を認識する学習済みモデルを動画像認識部から利用可能であるように登録しておき、当該学習済みモデルは、動画像認識部で任意の要素を認識するために使用される。
また、動画編集装置1で利用することが可能な音声認識方法においては、例えば、特定のキーワードを用いる場合、動画作成者は、予め前記キーワードを音声認識部から利用可能であるように登録しておき、当該キーワードは、音声認識部で任意の要素を認識するために使用される。
認識結果結合部24は、組み合わせパターンの入力部35を備える。入力部35は、動画作成者が、組み合わせパターンを指定するための入力手段であり、動画作成者は入力部35から組み合わせパターンを指定可能である。
In the recognition
In the moving image recognition method that can be used in the moving image editing apparatus 1, for example, when using the face of a specific person, the moving image creator uses the moving image recognition unit to learn a learned model that recognizes the face of the person in advance. It is registered so that it can be used, and the learned model is used for recognizing an arbitrary element by the moving image recognition unit.
Further, in the voice recognition method that can be used in the video editing device 1, for example, when using a specific keyword, the video creator registers the keyword in advance so that it can be used from the voice recognition unit. The keyword is used for recognizing an arbitrary element by the voice recognition unit.
The recognition
編集情報割当部25は、複合認識結果に編集情報を割り当てて時刻区間付編集情報を取得する部分である。複合認識結果と時刻区間付編集情報との関係を結びつける編集方法組み合わせパターンは、予め記憶部12に登録されている。例えば、記憶部12には、表1に示すような編集方法組み合わせパターンが登録されている。
The editing
表1に示す編集方法組み合わせパターンは、動画作成者が、指定可能である。編集方法組み合わせパターンを構成する要素は、認識結果結合部24において指定された任意の組み合わせパターン、および、動画編集装置1が出力する時刻区間付編集情報と動画データとを読み込んで実際に動画編集を行う別の動画編集装置、もしくはこの動画編集装置自体、で利用可能な任意の編集方法である。動画作成者は、認識結果結合部24において指定された任意の組み合わせパターンおよび任意の編集方法を選択し、その編集方法組み合わせパターンを指定可能とするものである。
編集情報割当部25は、編集方法組み合わせパターンの入力部36を備える。入力部36は、動画作成者が、編集方法組み合わせパターンを指定するための入力手段であり、動画作成者は入力部36から編集方法組み合わせパターンを指定可能である。
The editing method combination patterns shown in Table 1 can be specified by the video creator. The elements constituting the editing method combination pattern are an arbitrary combination pattern specified by the recognition
The editing
時刻区間付編集情報は不可逆的なコンテナファイルとして出力される。なお、時刻区間付編集情報はコンテナファイルとして出力するものに限定するものではなく、例えば、編集可能なデータ群として出力することもできる。 The editing information with time section is output as an irreversible container file. Note that the editing information with time section is not limited to being output as a container file, and can be output as, for example, an editable data group.
また、動画編集装置1は、さらに時刻区間付編集情報に従って動画自動編集を行う動画自動編集部26を備えてもよい。この場合、動画自動編集部26は、さらに、画像エフェクト付加編集部51と、テロップ付加編集部52と、動画像コンテンツ付加編集部53と、音声エフェクト付加編集部54と、音声コンテンツ付加編集部55と、を備える。
Moreover, the moving image editing apparatus 1 may further include a moving image
まず、再生時刻変換部33を用いて、時刻区間付編集情報に付与された再生時刻および秒間フレーム数からフレームインデクスを取得し、フレームインデクスが付与されたインデクス付フレーム画像を選択する。
First, the playback
画像エフェクト付加編集部51は、時刻区間付編集情報および再生時刻に基づいて画像エフェクトを決定し、インデクス付フレーム画像に付加する。画像エフェクトとは、画面をデジタル加工する方式であり、例えば白黒二階調化などの画像加工、粒子加工などが含まれる。
The image effect
また、テロップ付加編集部52は、時刻区間付編集情報および再生時刻に基づいて文字または記号からなるテロップを決定し、インデクス付フレーム画像に付加する。テロップとは、画面に重ねる文字または記号を記載したレイヤーである。
Further, the telop
また、動画像コンテンツ付加編集部53は、時刻区間付編集情報および再生時刻に基づいて動画像コンテンツを決定し、インデクス付フレーム画像に付加する。動画像コンテンツとは、フレーム画像にさらに付加される別の動画像である。
The moving image content
また、音声エフェクト付加編集部54は、時刻区間付編集情報から音声エフェクトを決定し、音声データに付加する。音声エフェクトとは、音声をデジタル加工する方式であり、ハイパス加工やエコー加工などが含まれる。
Further, the audio effect
また、音声コンテンツ付加編集部55は、時刻区間付編集情報から音声コンテンツを決定し、音声データに付加する。音声コンテンツとは、音声データに付加される効果音や音楽などの音声データである。
The audio content
また、動画編集装置1は、時刻区間付編集情報からカット区間を算出することもできる。この場合、動画編集装置1の制御部13は、さらに、カット区間算出部27を有する構成とする。
The moving image editing apparatus 1 can also calculate a cut section from the editing information with a time section. In this case, the
カット区間算出部27を有する場合、時刻区間付編集情報にはカット編集情報を含まれる構成とする。
カット編集情報が含まれていた場合には、カット区間算出部27が、時刻区間付編集情報からカット区間を算出する。
When the cut
When the cut edit information is included, the cut
カット区間算出部27は、動画像カット編集部61と、音声カット編集部62と、を有する。
The cut
まず、再生時刻変換部33を用いて、時刻区間付編集情報に付与された再生時刻および秒間フレーム数からフレームインデクスを取得し、フレームインデクスが付与されたインデクス付フレーム画像を選択する。
First, the playback
動画像カット編集部61は、カット区間に含まれるインデクス付フレーム画像を削除する。また、音声カット編集部62は、音声データからカット区間の音声データを削除する。
The moving image
動画結合部63は、編集済み動画データを生成する。動画結合部63は、編集済みのインデクス付フレーム画像および編集済みの音声データから編集済み動画データを生成する。
The moving
次に、本発明の実施形態に係る動画編集方法について図2から図5を用いて説明する。
まず、動画編集方法のうち、認識結果を取得する方法について図2を用いて説明する。
Next, a moving image editing method according to an embodiment of the present invention will be described with reference to FIGS.
First, of the moving image editing methods, a method for obtaining a recognition result will be described with reference to FIG.
まず、動画入力部21を用いて動画データを読み込む(ステップS10)。ステップS10において読み込まれた動画データは、制御部13へと送信される。
First, moving image data is read using the moving image input unit 21 (step S10). The moving image data read in step S10 is transmitted to the
次に、動画データに含まれる動画像データから時刻区間付動画像認識結果を算出する第一の工程について説明する。 Next, a first step of calculating a time-partitioned moving image recognition result from moving image data included in the moving image data will be described.
第一の行程において、まず、フレーム画像抽出部31を用いて動画データからフレームインデクス付フレーム画像を取得する(ステップS20)。
In the first step, first, the frame
次に、秒間フレーム数抽出部32を用いて、動画データから秒間フレーム数を取得する(ステップS30)。 Next, the number of frames per second is obtained from the moving image data using the second frame number extraction unit 32 (step S30).
次に、再生時刻変換部33を用いて、フレーム画像抽出部31で取得されたフレームインデクス付フレーム画像と、秒間フレーム数抽出部32で取得された秒間フレーム数と、から再生時刻を取得する(ステップS40)。
Next, the playback time is acquired from the frame image with the frame index acquired by the frame
次に、フレーム画像抽出部31と、秒間フレーム数抽出部32と、再生時刻変換部33とによって取得される再生時刻、インデクス付フレーム画像、および再生時刻から、再生時刻を起点とする区間に対し、時刻区間付動画像認識結果を取得する(ステップS50)。
Next, from the reproduction time, indexed frame image, and reproduction time acquired by the frame
また、動画データに含まれる音声データから時刻区間付音声認識結果を算出する第二の行程について説明する。なお、第一の行程と、第二の行程とは、並行して処理される。 In addition, a second process of calculating a voice recognition result with a time section from audio data included in the moving image data will be described. The first process and the second process are processed in parallel.
第二の行程において、まず、音声認識部23を用いて、動画データから音声データを取得する(ステップS60)。 In the second step, first, voice data is acquired from the moving image data using the voice recognition unit 23 (step S60).
次に、音声認識部23を用いて、動画データに含まれる音声データおよび時刻データから再生時刻を起点とする区間に対し、時刻区間付音声認識結果を取得する(ステップS70)。
Next, using the
次に、時刻区間付動画像認識結果および時刻区間付音声認識結果を各再生時刻において結合した複合認識結果を算出する第三の工程について、図3を用いて説明する。
認識結果結合部24を用いて、再生時刻を含む時刻区間が付与された時刻区間付動画像認識結果と、時刻区間付音声認識結果と、から複合認識結果を算出する(ステップS110)。
Next, a third step of calculating a composite recognition result obtained by combining the moving image recognition result with time interval and the speech recognition result with time interval at each reproduction time will be described with reference to FIG.
Using the recognition
次に、複合認識結果に基づき適用する編集情報を決定する第四の工程について説明する。
編集情報割当部25を用いて、複合認識結果から時刻区間付編集情報を取得する(ステップS120)。複合認識結果と編集情報の関係は記憶部12に表1に示すテーブルとして記録されており、複合認識結果を入力すると、編集情報割当部25によって、テーブルに基づいて時刻区間付編集情報が生成される。
Next, a fourth process for determining editing information to be applied based on the composite recognition result will be described.
Using the edit
次に、時刻区間付編集情報に従って動画自動編集を行う第五の工程について、図4を用いて説明する。
動画自動編集は、動画像データの編集と、音声データの編集と、が並行して行われる。
動画像データの編集においては、再生時刻変換部33を用いて、時刻区間付編集情報に付与された再生時刻および秒間フレーム数からフレームインデクスを取得し、フレームインデクスが付与されたインデクス付フレーム画像を選択する。(ステップS150)
Next, a fifth process for automatically editing a moving image according to editing information with a time section will be described with reference to FIG.
In moving image automatic editing, editing of moving image data and editing of audio data are performed in parallel.
In editing moving image data, the playback
次に、画像エフェクト付加編集部51を用いて時刻区間付編集情報および再生時刻から画像エフェクトを決定し、インデクス付フレーム画像に付加する(ステップS160)。
次に、テロップ付加編集部52を用いて、時刻区間付編集情報および再生時刻に基づいて文字または記号からなるテロップ画像を生成し、インデクス付フレーム画像に付加する(ステップS170)。
次に、動画像コンテンツ付加編集部53を用いて、時刻区間付編集情報および再生時刻に基づいて動画像コンテンツを決定し、インデクス付フレーム画像に付加する(ステップS180)。
Next, the image effect
Next, using the telop
Next, using the moving image content
音声データの編集においては、まず、音声エフェクト付加編集部54を用いて、時刻区間付編集情報から音声エフェクトを決定し、音声データに付加する(ステップS220)。
次に、音声コンテンツ付加編集部55を用いて、時刻区間付編集情報から音声コンテンツを決定し、音声データに付加する(ステップS230)。
In editing audio data, first, the audio effect
Next, the audio content adding /
このように構成することにより、動画像に対して、画像エフェクト、テロップ画像、動画像コンテンツ、音声データに対する音声エフェクト、および音声コンテンツを付加することができる。 With this configuration, an image effect, a telop image, a moving image content, an audio effect for audio data, and an audio content can be added to the moving image.
さらに、カット編集を行う第六の工程について、図5を用いて説明する。
まず、時刻区間付編集情報にカット編集情報が含まれるか否かについて判断する(ステップS250)。時刻区間付編集情報にカット編集情報が含まれない場合はカット編集を行う必要が無いため、カット編集を終了する。
ステップS250において、カット編集情報が含まれると判断された場合は、カット区間算出部を用いて時刻区間付編集情報からカット区間を算出する(ステップS260)。
Further, a sixth process for performing cut editing will be described with reference to FIG.
First, it is determined whether or not cut editing information is included in the editing information with time section (step S250). If the edit information with time section is not included in the edit information, it is not necessary to perform the cut edit, so the cut edit is terminated.
If it is determined in step S250 that the cut edit information is included, the cut section is calculated from the edit information with time section using the cut section calculation unit (step S260).
カット編集には、動画像のカット編集と、音声データのカット編集と、が並行して行われる。 In cut editing, moving image cut editing and audio data cut editing are performed in parallel.
まず、カット区間に含まれる再生時刻において、再生時刻変換部33を用いて、時刻区間付編集情報に付与された再生時刻および秒間フレーム数からフレームインデクスを取得し、フレームインデクスが付与されたインデクス付フレーム画像を選択する(ステップS270)。
First, at the playback time included in the cut section, the playback
次に、動画像カット編集部61を用いて、前記選択されたインデクス付フレーム画像を削除する(ステップS280)。音声カット編集部62を用いて、音声データからカット区間の音声データを削除する(ステップS290)。
Next, the selected frame image with index is deleted using the moving image cut editing unit 61 (step S280). Using the voice cut
このように構成することにより、動画データから不要な部分をカットするカット編集が行われる。 With this configuration, cut editing for cutting unnecessary portions from moving image data is performed.
上記第一の工程から第六の工程が行われた後、動画結合部63を用いて、編集済み動画データを生成する(ステップS310)。次に、編集済み動画データを出力する(ステップS320)。 After the first to sixth steps are performed, edited moving image data is generated using the moving image combining unit 63 (step S310). Next, the edited moving image data is output (step S320).
次に、動画の編集方法の具体例について説明する。
第一の工程において、動画データに含まれる動画像データから算出された時刻区間付動画像認識結果の具体例として、オブジェクト認識で認識する特定のジェスチャ(ハンドサイン)が含まれる。特定のジェスチャを認識する学習済みモデルは予め登録しておく。動画データから抽出したフレーム画像データを入力情報として、オブジェクト認識を実行し、ジェスチャが現れたフレーム画像データにおける領域を検出し、認識結果とする。これらの認識結果は時刻区間と紐付けられている。
また、第二の工程において、動画データに含まれる音声データから算出された時刻区間付音声認識結果の具体例として、動画出演者の発話内容に基づくテキストの情報、特定キーワードが発話されたか否かの情報、無音声区間に関する情報が含まれる。発話音声認識で出力される発話内容文に含まれるキーワードは予め登録しておく。動画データから抽出した音声データを入力情報として、音声認識を実行し、たとえば特定キーワードが発話されたこと検出し、認識結果とする。これらの認識結果は時刻区間と紐付けられている。
Next, a specific example of a moving image editing method will be described.
In the first step, a specific gesture (hand sign) recognized by object recognition is included as a specific example of the moving image recognition result with time interval calculated from the moving image data included in the moving image data. A learned model for recognizing a specific gesture is registered in advance. Object recognition is executed using frame image data extracted from moving image data as input information, and an area in the frame image data where a gesture appears is detected as a recognition result. These recognition results are associated with time intervals.
In the second step, as a specific example of the speech recognition result with time interval calculated from the audio data included in the video data, text information based on the utterance content of the video performer, whether or not a specific keyword is uttered Information, and information related to a non-voice section. Keywords included in the utterance content sentence output by utterance voice recognition are registered in advance. Voice recognition is executed using voice data extracted from moving image data as input information, and for example, it is detected that a specific keyword is uttered, and the result is recognized. These recognition results are linked to the time interval.
認識結果結合部24において、時刻区間と紐付けられた時刻区間付動画像認識結果および時刻区間付音声認識結果から、複合認識結果を取得する。複合認識結果には、前記認識情報が複合的になったものも含まれる。例えば、発話音声認識の結果として取得された発話時刻区間と、オブジェクト認識の結果として取得された時刻区間を時刻的に結合し、共通区間が含まれる場合、該当する発話音声認識またはオブジェクト認識のすべて、もしくは少なくとも何れか一つが含まれる時刻区間を算出し、時刻区間と紐付けられた複合認識結果とする。
In the recognition
編集情報割当部25において、認識結果結合部24において取得された複合認識結果から、表1に示す編集方法組み合わせパターンに基づいて時刻区間付編集情報を取得する。たとえば時刻区間の最も早い時刻もしくは最も遅い時刻を編集点として算出する。編集点の登録の代わりに、画面演出の付与や、効果音の付与といった編集内容を時刻区間付編集情報として対応付けることも可能である。
The editing
編集情報割当部25に対して、入力部36を用いて編集方法組み合わせパターンを指定可能である。編集方法組み合わせパターンは、認識結果結合部24において指定された組み合わせパターンと、利用可能な任意の編集方法と、を対応付ける組み合わせパターンであり、編集方法は動画作成者により予め登録される。編集方法は、例えば、予め登録されたジェスチャおよびキーワードと、それらを時刻的に結合する組み合わせパターンと、前記組み合わせパターンと対応する時刻区間付編集情報と、により表現することが可能である。また、これらの編集方法はプリセットされた手順から選択できるようにしてもよく、プリセットされた複数の手順をまとめて、一括選択できるようにしてもよい。
An editing method combination pattern can be designated for the editing
動画編集方法の別の具体例として、話者識別を合わせた発話内容の文字起こしを行う方法について説明する。
動画作成者は、オブジェクト認識で認識する出演者ごとの顔に対し、これらを認識する学習済みモデルを予め登録する。オブジェクト認識で認識する顔の構成要素に対し、これらを認識する学習済みモデルを予め登録する。顔の構成要素は、例えば、口である。
As another specific example of the moving image editing method, a method of transcribing the utterance content combined with speaker identification will be described.
The movie creator registers in advance a learned model for recognizing the face of each performer recognized by object recognition. A learned model for recognizing these components is registered in advance for the facial components recognized by object recognition. The facial component is, for example, the mouth.
音声認識部23は、動画データに含まれる音声データおよび時刻データから、時刻区間付音声認識結果を出力する。また、動画像認識部22は、動画データから抽出したフレーム画像データを入力情報としてオブジェクト認識を実行し、出演者ごとの顔が現れたフレーム画像データを検出し、各時刻における顔領域を取得する。
The
また、動画データから抽出したフレーム画像データを入力情報としてオブジェクト認識を実行し、顔の構成要素である口が現れたフレーム画像データを検出し、各時刻における口の領域を取得する。 In addition, object recognition is executed using frame image data extracted from moving image data as input information, frame image data in which a mouth that is a face component appears is detected, and a mouth region at each time is acquired.
また、動画データから抽出したフレーム画像データを入力情報として動き認識を行い、各時刻、各領域における動きベクトルを取得する。 Also, motion recognition is performed using frame image data extracted from moving image data as input information, and motion vectors at each time and each region are acquired.
オブジェクト認識及び動き認識の結果を時刻的、領域的に結合する。すなわち、各出演者の顔領域と口の領域とが共通部分を持つとき、この口の領域を出演者に対応付けて、口の領域における動きベクトルに基づいて動きが有る場合、この出演者を発話中と判定し、動画像認識による発話時刻区間を取得する。 Combine the results of object recognition and motion recognition in time and area. That is, when each performer's face area and mouth area have a common part, this mouth area is associated with the performer, and if there is movement based on the motion vector in the mouth area, It is determined that an utterance is being performed, and an utterance time interval by moving image recognition is acquired.
発話音声認識による発話時刻区間と動画像認識による発話時刻区間を時刻的に結合し、共通区間が有る場合、動画像認識による発話者を、発話音声認識による発話内容文と組み合わせて時刻区間付編集情報として算出する。 When the utterance time section by utterance voice recognition and the utterance time section by moving picture recognition are combined in time, and there is a common section, the utterer by moving picture recognition is combined with the utterance content sentence by utterance voice recognition and edited with time section Calculate as information.
前記編集方法は発話内容文、動きベクトル予め登録された出演者ごとの顔、および顔の構成要素と、それらを時刻的、領域的に結合する組み合わせパターンと、対応する時刻区間付編集情報と、により表現することが可能であり、前記編集方法は動画作成者により予め登録される。 The editing method includes utterance content sentences, faces for each performer registered in advance as motion vectors, face components, combination patterns that combine them temporally and regionally, and editing information with corresponding time intervals, The editing method is registered in advance by the video creator.
また、動画の編集方法の別の具体例として、カット編集を行う方法について説明する。
動画作成者は、オブジェクト認識で認識する出演者の顔に対し、これらを認識する学習済みモデルを予め登録する。
In addition, a method for performing cut editing will be described as another specific example of the moving image editing method.
The movie creator registers in advance a learned model for recognizing the performer's face recognized by object recognition.
音声認識部23は、動画データに含まれる音声データおよび時刻データから、時刻区間付音声認識結果を算出する。また、動画像認識部22は、動画データから抽出したフレーム画像データを入力情報としてオブジェクト認識を実行し、出演者の顔が現れたフレーム画像データを検出し、そのフレームに基づいて時刻区間を取得する。
The
発話音声認識の結果として取得された時刻区間付音声認識結果と、オブジェクト認識の結果として取得された時刻区間を時刻的に結合し、いずれも含まれない時刻区間をカット編集により削除される区間として時刻区間付編集情報として算出する。 The time-recognized speech recognition result acquired as a result of utterance speech recognition and the time interval acquired as a result of object recognition are temporally combined, and a time interval that is not included as a segment that is deleted by cut editing Calculated as editing information with time interval.
前記編集方法は、発話内容文および予め登録された出演者の顔と、それらを時刻的に結合する組み合わせパターンと、対応する時刻区間付編集情報と、により表現することが可能であり、前記編集方法は動画作成者により予め登録される。 The editing method can be expressed by an utterance content sentence and a pre-registered performer's face, a combination pattern that combines them in time, and corresponding editing information with a time interval. The method is registered in advance by the video creator.
時刻区間付編集情報を用いて既に述べた手段により編集を行った動画像データおよび音声データを結合して編集済み動画像データを生成する。編集済み動画像データは、不可逆的なコンテナファイルとして出力される。なお、時刻区間付編集情報はコンテナファイルとして出力するものに限定するものではなく、例えば、編集可能なデータ群として出力することもできる。編集可能なデータ群として生成された場合には、一般的な動画編集ソフトによって、編集者が更に手動で編集を行うことができる。 Edited moving image data is generated by combining moving image data and audio data that have been edited by means already described using the editing information with time interval. The edited moving image data is output as an irreversible container file. Note that the editing information with time section is not limited to being output as a container file, and can be output as, for example, an editable data group. When the data is generated as an editable data group, the editor can perform further manual editing using general moving image editing software.
以上のように、動画編集装置1は、動画データに含まれる動画像データから算出される時刻区間付動画像認識結果を格納する動画像認識結果格納部としての動画像認識部22と、動画データに含まれる音声データから算出される時刻区間付音声認識結果を格納する音声認識結果格納部としての音声認識部23と、時刻区間付動画像認識結果および前記時刻区間付音声認識結果を各再生時刻において結合した複合認識結果を算出する認識結果結合部24と、複合認識結果に基づき適用する時刻区間付編集情報を決定する編集情報割当部25と、を備える。
このように構成することにより、動画編集において、動画データから認識が可能である複合的な事象と特定の編集内容とを紐付けることができる。例えば、音声認識により動画出演者の発話内容から生成されたテロップを動画像認識により認識された動画出演者のジェスチャに応じた位置に付加することができる。また、音声認識により認識されたキーワードに応じた動画像コンテンツを動画像認識により検出された動画出演者の顔の位置の周辺に付加することができる。
また、動画像認識により認識された動画出演者のジェスチャに応じた音声コンテンツを音声認識により検出された発話区間と重ならないタイミングで付加することができる。また、音声認識により検出された無音声区間のうち、動画像認識により認識された特定のオブジェクトが動き始める時刻より前だけをカットすることができる。
As described above, the moving image editing apparatus 1 includes the moving
By configuring in this way, it is possible to link a complex event that can be recognized from moving image data and specific editing contents in moving image editing. For example, a telop generated from the utterance content of a video performer by voice recognition can be added to a position corresponding to the gesture of the video performer recognized by moving image recognition. In addition, moving image content corresponding to the keyword recognized by voice recognition can be added around the position of the face of the video performer detected by moving image recognition.
Moreover, the audio content according to the gesture of the video performer recognized by the moving image recognition can be added at a timing that does not overlap with the utterance section detected by the voice recognition. In addition, it is possible to cut only the part before the time at which a specific object recognized by moving image recognition starts to move in the silent section detected by voice recognition.
このように構成することにより、動画作成者は特定の編集内容と紐付けられた複合的な事象を利用して動画の撮影中に任意の動画再生時刻に対して意図した編集内容を指定することができ、これにより、動画作成者の意図を反映した編集を可能としながら動画編集にかかる負担を軽減することができる。 By configuring in this way, the video creator can specify the intended editing content for any video playback time during video recording using a complex event linked to the specific editing content. As a result, it is possible to reduce the burden of moving image editing while enabling editing that reflects the intention of the moving image creator.
上述の実施形態は、代表的な形態を示したに過ぎず、一実施形態の骨子を逸脱しない範囲で変形して実施することができる。さらに種々の形態で実施し得ることは勿論のことであり、本発明の範囲は、特許請求の範囲の記載によって示され、さらに特許請求の範囲に記載の均等の意味、および範囲内の全ての変更を含む。 The above-described embodiments are merely representative examples, and can be modified and implemented without departing from the scope of one embodiment. It goes without saying that the present invention can be embodied in various forms, and the scope of the present invention is indicated by the description of the claims, and the equivalent meanings described in the claims, and all the scopes within the scope of the claims. Includes changes.
1 動画編集装置
2 動画撮影装置
11 通信部
12 記憶部
13 制御部
21 動画入力部
22 動画像認識部
23 音声認識部
24 認識結果結合部
25 編集情報割当部
26 動画自動編集部
27 カット区間算出部
31 フレーム画像抽出部
32 秒間フレーム数抽出部
33 再生時刻変換部
DESCRIPTION OF SYMBOLS 1
Claims (12)
前記動画データに含まれる音声データから算出される時刻区間付音声認識結果を格納する音声認識結果格納部と、
前記時刻区間付動画像認識結果および前記時刻区間付音声認識結果を各再生時刻において結合した複合認識結果を算出する認識結果結合部と、
前記複合認識結果に基づき適用する時刻区間付編集情報を決定する編集情報割当部と、
を備えることを特徴とする
動画編集装置。 A moving image recognition result storage unit for storing a moving image recognition result with a time interval calculated from moving image data included in the moving image data;
A voice recognition result storage unit that stores a voice recognition result with a time interval calculated from voice data included in the moving image data;
A recognition result combining unit that calculates a combined recognition result obtained by combining the moving image recognition result with time interval and the speech recognition result with time interval at each reproduction time;
An editing information allocating unit for determining editing information with a time interval to be applied based on the composite recognition result;
A video editing apparatus comprising:
請求項1に記載の動画編集装置。 In the recognition result combining unit, the moving image recognition result with time interval and the speech recognition result with time interval are combined by collating with a predetermined combination pattern, and the predetermined combination pattern can be registered. The moving image editing apparatus according to claim 1.
請求項1または2に記載の動画編集装置。 In the editing information allocating unit, the editing information with time section to be applied is determined by comparing the composite recognition result with a predetermined combination pattern of the composite recognition result and the editing information with time section. The moving image editing apparatus according to claim 1, wherein the combination pattern can be registered.
請求項1から3のいずれか一項に記載の動画編集装置。 4. The moving image editing apparatus according to claim 1, wherein the editing information with a time section determined by the editing information allocation unit is output as an editable data group. 5.
前記動画データに含まれる音声データから算出される時刻区間付音声認識結果を格納する第二の工程と、
前記時刻区間付動画像認識結果および前記時刻区間付音声認識結果を各再生時刻において結合した複合認識結果を算出する第三の工程と、
前記複合認識結果に基づき適用する時刻区間付編集情報を決定する第四の工程と
を備えることを特徴とする
動画編集方法。 A first step of storing a moving image recognition result with a time interval calculated from moving image data included in the moving image data;
A second step of storing a voice recognition result with a time interval calculated from voice data included in the video data;
A third step of calculating a combined recognition result obtained by combining the moving image recognition result with time interval and the speech recognition result with time interval at each reproduction time;
A moving image editing method comprising: a fourth step of determining editing information with a time interval to be applied based on the composite recognition result.
請求項5に記載の動画編集方法。 In the second step, the moving image recognition result with time interval and the speech recognition result with time interval are combined by collating with a predetermined combination pattern, and the predetermined combination pattern can be registered. The moving image editing method according to claim 5.
請求項5または6に記載の動画編集方法。 In the third step, the editing information with time section to be applied is determined by comparing the composite recognition result with a predetermined combination pattern of the composite recognition result and the editing information with time section, The moving image editing method according to claim 5 or 6, wherein the combination pattern can be registered.
請求項5から7のいずれか一項に記載の動画編集方法。 8. The moving image editing method according to claim 5, wherein the editing information with a time section determined by the editing information allocating unit is output as an editable data group. 9.
動画データに含まれる動画像データから算出される時刻区間付動画像認識結果を格納する動画像認識ステップと、
前記動画データに含まれる音声データから算出される時刻区間付音声認識結果を格納する音声認識ステップと、
前記時刻区間付動画像認識結果および前記時刻区間付音声認識結果を各再生時刻において結合した複合認識結果を算出する認識結果結合ステップと、
前記複合認識結果に基づき適用する時刻区間付編集情報を決定する編集情報割当ステップと、を前記情報処理装置に実行させることを特徴とする
動画編集プログラム。 In a video editing program that causes an information processing device to function as a video editing device,
A moving image recognition step for storing a moving image recognition result with a time interval calculated from moving image data included in the moving image data;
A voice recognition step of storing a voice recognition result with a time interval calculated from voice data included in the video data;
A recognition result combining step of calculating a combined recognition result obtained by combining the moving image recognition result with time interval and the speech recognition result with time interval at each reproduction time;
A moving image editing program that causes the information processing apparatus to execute an editing information allocation step of determining editing information with a time interval to be applied based on the composite recognition result.
請求項9に記載の動画編集プログラム。 In the recognition result combining step, the moving image recognition result with time interval and the speech recognition result with time interval are combined by collating with a predetermined combination pattern, and the predetermined combination pattern can be registered. The moving image editing program according to claim 9.
請求項9または10に記載の動画編集プログラム。 In the editing information allocating step, the editing information with time section to be applied is determined by comparing the composite recognition result with a predetermined combination pattern of the composite recognition result and the editing information with time section, The moving image editing program according to claim 9 or 10, wherein the combination pattern can be registered.
請求項9から11のいずれか一項に記載の動画編集プログラム。 The moving image editing program according to any one of claims 9 to 11, wherein the editing information with a time section determined in the editing information allocation step is output as an editable data group.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018110423A JP7133367B2 (en) | 2018-06-08 | 2018-06-08 | MOVIE EDITING DEVICE, MOVIE EDITING METHOD, AND MOVIE EDITING PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018110423A JP7133367B2 (en) | 2018-06-08 | 2018-06-08 | MOVIE EDITING DEVICE, MOVIE EDITING METHOD, AND MOVIE EDITING PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019213160A true JP2019213160A (en) | 2019-12-12 |
JP7133367B2 JP7133367B2 (en) | 2022-09-08 |
Family
ID=68847093
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018110423A Active JP7133367B2 (en) | 2018-06-08 | 2018-06-08 | MOVIE EDITING DEVICE, MOVIE EDITING METHOD, AND MOVIE EDITING PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7133367B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230085311A (en) * | 2021-12-07 | 2023-06-14 | 한국전자기술연구원 | AI-based video editing recommendation method for semi-automatic video editing through computer-human collaboration |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001143445A (en) * | 1999-09-08 | 2001-05-25 | Sony United Kingdom Ltd | Device and method for editing |
JP2002142188A (en) * | 2000-11-02 | 2002-05-17 | Canon Inc | Method and device for compiling dynamic image |
JP2013182570A (en) * | 2012-03-05 | 2013-09-12 | Canon Inc | Video generating device and method for controlling the same |
-
2018
- 2018-06-08 JP JP2018110423A patent/JP7133367B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001143445A (en) * | 1999-09-08 | 2001-05-25 | Sony United Kingdom Ltd | Device and method for editing |
JP2002142188A (en) * | 2000-11-02 | 2002-05-17 | Canon Inc | Method and device for compiling dynamic image |
JP2013182570A (en) * | 2012-03-05 | 2013-09-12 | Canon Inc | Video generating device and method for controlling the same |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230085311A (en) * | 2021-12-07 | 2023-06-14 | 한국전자기술연구원 | AI-based video editing recommendation method for semi-automatic video editing through computer-human collaboration |
WO2023106554A1 (en) * | 2021-12-07 | 2023-06-15 | 한국전자기술연구원 | Artificial intelligence-based video edit recommendation method for semi-automatic video editing by means of computer-human cooperation |
KR102553519B1 (en) * | 2021-12-07 | 2023-07-10 | 한국전자기술연구원 | AI-based video editing recommendation method for semi-automatic video editing through computer-human collaboration |
Also Published As
Publication number | Publication date |
---|---|
JP7133367B2 (en) | 2022-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12069345B2 (en) | Characterizing content for audio-video dubbing and other transformations | |
JP4600828B2 (en) | Document association apparatus and document association method | |
US20150261419A1 (en) | Web-Based Video Navigation, Editing and Augmenting Apparatus, System and Method | |
WO2023197979A1 (en) | Data processing method and apparatus, and computer device and storage medium | |
KR101492816B1 (en) | Apparatus and method for providing auto lip-synch in animation | |
CN108242238B (en) | Audio file generation method and device and terminal equipment | |
KR20070118038A (en) | Information processing apparatus, information processing method, and computer program | |
JP6280312B2 (en) | Minutes recording device, minutes recording method and program | |
CN107403011B (en) | Virtual reality environment language learning implementation method and automatic recording control method | |
JP6641045B1 (en) | Content generation system and content generation method | |
JP2007101945A (en) | Apparatus, method, and program for processing video data with audio | |
JP2010011409A (en) | Video digest apparatus and video editing program | |
JP2012181358A (en) | Text display time determination device, text display system, method, and program | |
JP2004056286A (en) | Image display method | |
US9666211B2 (en) | Information processing apparatus, information processing method, display control apparatus, and display control method | |
CN109376145B (en) | Method and device for establishing movie and television dialogue database and storage medium | |
JP2008217447A (en) | Content generation device and content generation program | |
JP7133367B2 (en) | MOVIE EDITING DEVICE, MOVIE EDITING METHOD, AND MOVIE EDITING PROGRAM | |
US12125501B2 (en) | Face-aware speaker diarization for transcripts and text-based video editing | |
US12119028B2 (en) | Video segment selection and editing using transcript interactions | |
US20240134597A1 (en) | Transcript question search for text-based video editing | |
US20240127857A1 (en) | Face-aware speaker diarization for transcripts and text-based video editing | |
US20240127858A1 (en) | Annotated transcript text and transcript thumbnail bars for text-based video editing | |
US20240134909A1 (en) | Visual and text search interface for text-based video editing | |
US20240126994A1 (en) | Transcript paragraph segmentation and visualization of transcript paragraphs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20180621 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210520 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220411 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220426 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220517 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220823 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220829 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7133367 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |