JP2019102943A - Information processing device, control method thereof, and program - Google Patents
Information processing device, control method thereof, and program Download PDFInfo
- Publication number
- JP2019102943A JP2019102943A JP2017230914A JP2017230914A JP2019102943A JP 2019102943 A JP2019102943 A JP 2019102943A JP 2017230914 A JP2017230914 A JP 2017230914A JP 2017230914 A JP2017230914 A JP 2017230914A JP 2019102943 A JP2019102943 A JP 2019102943A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- person
- moving image
- specifying
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、情報処理装置、情報処理装置の制御方法、およびプログラムに関し、特に、動画データを編集するためのイン点、又はアウト点を効率的に設定する仕組みに関する。 The present invention relates to an information processing apparatus, a control method of the information processing apparatus, and a program, and more particularly to a mechanism for efficiently setting an in point or an out point for editing moving picture data.
従来、動画の中から一部の動画を切り出すためには、ユーザが、その動画の映像を確認しながら、動画の切り出し位置を手入力して指定し、切り出し処理を行っており、その作業が煩雑であった。 Conventionally, in order to cut out a part of a moving image from moving images, the user manually inputs and specifies the cutout position of the moving image while checking the video of the moving image, and performs the cutout process, and the work is It was complicated.
特許文献1は、ユーザが、一連の動画を確認しながら、切取開始時間、切取終了時間を操作キーから手入力して指定し、動画データからの切取処理を行うことが記載されている。
例えば、学生の卒業アルバムとしての学生毎の動画データを生成するサービスが考えられる。例えば、このようなサービスにおいて、効率的に複数の学生を撮影するために、1つのカメラが撮影を開始し、学生Aが当該カメラの撮影範囲に入ってきて一言コメントを言い、その後、学生Aが撮影範囲から出て、撮影を止めることなく、次の学生Bが当該カメラの撮影範囲に入ってきて一言コメントを言うようにして、各学生の動画を含む1つの動画ファイルを生成するケースが考えられる。 For example, a service may be considered that generates animation data for each student as a student's graduation album. For example, in such a service, in order to shoot a plurality of students efficiently, one camera starts shooting, student A enters the shooting range of the camera, says a single comment, and then the students As A goes out of the shooting range and the next student B enters the shooting range of the camera and says a single comment without stopping shooting, one moving image file including moving images of each student is generated Cases are conceivable.
すなわち、1つのカメラが、複数の学生が入れ替わり撮影範囲に入ってきて一言コメントを言う各学生の撮影を継続して行い、各学生の動画を含む1つの動画ファイルを生成するケースが考えられる。 That is, it is conceivable that one camera continuously shoots each student who turns into a shooting range and a plurality of students alternately enter a shooting range and says a single comment, and generates one moving image file including moving images of each student. .
このようにして撮影して得られた1つの動画ファイルから、学生ごとに、当該学生が映っている動画ファイルを切り出すために、従来、ユーザは、当該1つの動画ファイルの映像を確認しながら、切取開始時間、切取終了時間を手入力して指定しなければならず、その作業が煩雑であった。また、ユーザは、その際に、複数の学生が入れ替わる際の映像(学生が映っていない映像)も確認することとなり、効率的に、切り取り作業を行うことは難しかった。 Conventionally, in order to cut out a moving image file in which the student is shown from each moving image file obtained by photographing in this manner, the user checks the video of the one moving image file, It was necessary to manually enter and specify the start time and end time of the cut, and the work was complicated. In addition, at that time, the user also checks a video (a video in which a student is not shown) when a plurality of students are replaced, and it has been difficult to perform the cutting work efficiently.
そこで、本発明は、動画データを編集するためのイン点、又はアウト点を効率的に設定する仕組みを提供することを目的とする。 Therefore, an object of the present invention is to provide a mechanism for efficiently setting an in point or an out point for editing moving image data.
本発明は、人物が撮影された動画データの中から人物がフレームインした時間又はフレームを特定する第1特定手段と、前記動画データの中から人物が話し始めた時間又はフレームを特定する第2特定手段と、前記第2特定手段で特定された時間又はフレームに基づき特定される位置に、動画データを編集するためのイン点を設定する設定手段と、前記第1特定手段で特定された人物がフレームインしたフレームから、前記第2特定手段で特定された人物が話し始めたフレームまでのフレームの画像を解析する解析手段と、前記解析手段による解析結果を通知する通知手段とを備えることを特徴とする。 The present invention is a first specifying means for specifying a time or frame in which a person framed in video data in which a person is photographed, and a second specifying means for specifying a time or frame in which a person starts speaking from the moving image data Specifying means, setting means for setting an in point for editing moving image data at a position specified based on a time or frame specified by the second specifying means, and a person specified by the first specifying means Providing analysis means for analyzing an image of a frame from a frame framed in to a frame at which the person specified by the second identification means starts speaking, and notification means for notifying an analysis result by the analysis means It features.
また、本発明は、人物が撮影された動画データの中から人物がフレームインした時間又はフレームを特定する第1特定手段を備える情報処理装置の制御方法であって、前記動画データの中から人物が話し始めた時間又はフレームを特定する第2特定工程と、前記第2特定工程で特定した時間又はフレームに基づき特定される位置に、動画データを編集するためのイン点を設定する設定工程と、前記第1特定手段で特定された人物がフレームインしたフレームから、前記第2特定工程で特定した人物が話し始めたフレームまでのフレームの画像を解析する解析工程と、前記解析工程における解析結果を通知する通知工程とを備えることを特徴とする。 Further, the present invention is a control method of an information processing apparatus including a first specifying means for specifying a time or a frame at which a person enters a frame out of moving image data in which a person is photographed. A second identification step of identifying a time or frame at which the speaker started speaking, a setting step of setting an in point for editing moving image data at a position identified based on the time or frame identified in the second identification step An analysis step of analyzing an image of a frame from a frame in which a person identified by the first identification means enters a frame to a frame where the person identified in the second identification step starts talking; analysis results in the analysis step And a notifying step of notifying.
また、本発明は、人物が撮影された動画データの中から人物がフレームインした時間又はフレームを特定する第1特定手段を備える情報処理装置で読み取り実行可能なプログラムであって、前記情報処理装置を、前記動画データの中から人物が話し始めた時間又はフレームを特定する第2特定手段と、前記第2特定手段で特定された時間又はフレームに基づき特定される位置に、動画データを編集するためのイン点を設定する設定手段と、前記第1特定手段で特定された人物がフレームインしたフレームから、前記第2特定手段で特定された人物が話し始めたフレームまでのフレームの画像を解析する解析手段と、前記解析手段による解析結果を通知する通知手段として機能させることを特徴とする。 Further, the present invention is a program that can be read and executed by an information processing apparatus including first specifying means for specifying a time or a frame at which a person enters a frame from moving image data in which a person is photographed, the information processing apparatus Editing the moving image data at a position specified based on the time or frame specified by the second specifying means, and a second specifying means for specifying a time or frame when a person starts speaking from the moving image data Analyzing the image of the frame from the frame in which the person identified by the first identifying means to the setting means for setting the in point for the frame, to the frame in which the person identified by the second identifying means started speaking It is characterized in that it functions as an analysis means to perform, and a notification means to notify an analysis result by the analysis means.
また、本発明は、人物が撮影された動画データの中から人物がフレームアウトした時間又はフレームを特定する第1特定手段と、前記動画データの中から人物が話し終わった時間又はフレームを特定する第2特定手段と、前記第2特定手段で特定された時間又はフレームに基づき特定される位置に、動画データを編集するためのアウト点を設定する設定手段と、前記第2特定手段で特定された人物が話し終わったフレームから、前記第1特定手段で特定された人物がフレームアウトしたフレームまでのフレームの画像を解析する解析手段と、前記解析手段による解析結果を通知する通知手段とを備えることを特徴とする。 Further, according to the present invention, a first specifying means for specifying a time or frame in which a person framed out of moving image data in which a person was photographed, and a time or frame in which the person ended speaking from the moving image data Second specifying means, setting means for setting an out point for editing moving image data at a position specified based on the time or frame specified by the second specifying means, and specified by the second specifying means Analysis means for analyzing an image of a frame from a frame where a person has finished talking to a frame for which a person specified by the first identification means has framed out, and a notification means for notifying an analysis result by the analysis means It is characterized by
また、本発明は、人物が撮影された動画データの中から人物がフレームアウトした時間又はフレームを特定する第1特定手段を備える情報処理装置の制御方法であって、前記動画データの中から人物が話し終わった時間又はフレームを特定する第2特定工程と、前記第2特定工程で特定した時間又はフレームに基づき特定される位置に、動画データを編集するためのアウト点を設定する設定工程と、前記第2特定工程で特定した人物が話し終わったフレームから、前記第1特定手段で特定された人物がフレームアウトしたフレームまでのフレームの画像を解析する解析工程と、前記解析工程における解析結果を通知する通知工程とを備えることを特徴とする。 Further, the present invention is a control method of an information processing apparatus including a first specifying means for specifying a time or frame in which a person framed out of moving image data in which a person is photographed, which is a person among the moving image data. A second specifying step of specifying a time or frame in which the speaker has finished talking, and a setting step of setting an out point for editing moving picture data at a position specified based on the time or frame specified in the second specifying step Analyzing the image of the frame from the frame in which the person identified in the second identifying step ends to the frame in which the person identified by the first identifying means out of the frame; and the analysis result in the analyzing step And a notifying step of notifying.
また、本発明は、人物が撮影された動画データの中から人物がフレームアウトした時間又はフレームを特定する第1特定手段を備える情報処理装置で読み取り実行可能なプログラムであって、前記情報処理装置を、前記動画データの中から人物が話し終わった時間又はフレームを特定する第2特定手段と、前記第2特定手段で特定された時間又はフレームに基づき特定される位置に、動画データを編集するためのアウト点を設定する設定手段と、前記第2特定手段で特定された人物が話し終わったフレームから、前記第1特定手段で特定された人物がフレームアウトしたフレームまでのフレームの画像を解析する解析手段と、前記解析手段による解析結果を通知する通知手段として機能させることを特徴とする。 Further, the present invention is a program that can be read and executed by an information processing apparatus including first specifying means for specifying a time or frame in which a person framed out of moving image data in which a person is photographed, the information processing apparatus Editing the moving picture data at a position specified based on the time or frame specified by the second specifying means, and a second specifying means for specifying a time or frame in which the person has finished speaking from the moving picture data Analysis of an image of a frame from a frame in which the person specified by the second specifying means has finished talking to a frame in which the person specified by the first specifying means is framed out It is characterized in that it functions as an analysis means to perform, and a notification means to notify an analysis result by the analysis means.
本発明によると、動画データを編集するためのイン点、又はアウト点を効率的に設定することができる。
According to the present invention, it is possible to efficiently set an in point or an out point for editing moving image data.
以下、図面を参照して、本発明の実施形態を詳細に説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施形態の1つである。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific embodiments of the configuration described in the claims.
図1は、本発明の情報処理システムのシステム構成の一例を示すである。 FIG. 1 shows an example of the system configuration of the information processing system of the present invention.
PC101は、本発明の情報処理装置の適用例であり、デスクトップパソコン、ノートパソコン、タブレットPC等のPCである。 The PC 101 is an application example of the information processing apparatus of the present invention, and is a PC such as a desktop personal computer, a notebook personal computer, and a tablet personal computer.
また、カメラ104は、動画及び写真を含む静止画を撮影することが可能なデジタルカメラ、又はデジタルビデオカメラである。カメラ104は、PC101と、有線又は無線通信により相互にデータを送受信する機能を備えている。そのため、カメラ104は、カメラ104で撮影された動画の動画ファイルを、PC101に、当該有線又は無線通信により送信して、PC101のメモリ等の記憶手段に記録することができる。 Also, the camera 104 is a digital camera or digital video camera capable of capturing still images including moving images and photographs. The camera 104 has a function of transmitting and receiving data to and from the PC 101 by wired or wireless communication. Therefore, the camera 104 can transmit the moving image file of the moving image captured by the camera 104 to the PC 101 by the wired or wireless communication, and record the moving image file in the storage unit such as the memory of the PC 101.
また、カメラ104は、SDカード等の可搬型メモリ(携帯記録媒体)を装着可能であり、カメラ104で撮影された動画の動画ファイルを当該可搬型メモリに記録する機能を備えている。 In addition, the camera 104 can be mounted with a portable memory (portable recording medium) such as an SD card, and has a function of recording a moving image file of a moving image captured by the camera 104 in the portable memory.
カメラ104の撮像範囲(撮影範囲)は、椅子105に座った被写体(人物103)を撮影することができる撮像範囲である。 The imaging range (imaging range) of the camera 104 is an imaging range in which an object (person 103) sitting on the chair 105 can be imaged.
カメラ104は、ユーザによる撮影指示を受け付けると、カメラ104は、動画(映像)の撮影を開始する。また、カメラ104は、当該撮影された動画、及び静止画を、通信を介してPC101の記憶手段に記憶するか、当該可搬型メモリに記録する。可搬型メモリに記憶した場合には、カメラ104から当該可搬型メモリを取り出して、PC101に当該取り出した可搬型メモリを装着して、当該可搬型メモリに記憶された動画、及び静止画を、PC101のメモリにコピー(展開)する。 When the camera 104 receives a shooting instruction from the user, the camera 104 starts shooting a moving image (video). In addition, the camera 104 stores the captured moving image and still image in the storage unit of the PC 101 through communication, or records the captured moving image and the still image in the portable memory. When stored in the portable memory, the portable memory is taken out from the camera 104, and the portable memory taken out is attached to the PC 101, and the moving picture and still picture stored in the portable memory are transferred to the PC 101. Copy (expand) to the memory of.
このようにして、PC101は、カメラ104で撮影された動画、及び静止画を取得することができる。 Thus, the PC 101 can acquire a moving image and a still image captured by the camera 104.
カメラ104が動画の撮影を開始した後に、カメラ104の撮像範囲に人物(ユーザ)が入ってきて人物が椅子105に座る。そして、人物が、一言コメントを言う。 After the camera 104 starts shooting a moving image, a person (user) enters the imaging range of the camera 104, and the person sits on the chair 105. And a person says a single word comment.
そして、椅子105に座っていた人物(ユーザ)が立ち、カメラ104の撮像範囲外に移動しフレームアウトすることとなる。 Then, a person (user) sitting on the chair 105 stands up, moves out of the imaging range of the camera 104, and performs a frame out.
そして、撮影を止めることなく、次の異なる人物が、カメラ104の撮像範囲に入ってきて椅子105に座り、同様の動作を行うこととなる。このように、複数の学生が入れ替わり撮影範囲に入ってきて一言コメントを言うことで、カメラ104は、複数の学生の動画を含む1つの動画ファイルを生成し、当該生成された動画ファイルをPC101の記憶手段が記憶することとなる。 Then, without stopping shooting, the next different person comes into the imaging range of the camera 104, sits on the chair 105, and performs the same operation. Thus, the camera 104 generates one moving image file including moving images of a plurality of students by the plurality of students alternately entering the shooting range and saying a single comment, and the generated moving image file is used as the PC 101. The storage means of will be stored.
図10は、複数のユーザ(例えば、学生)が入れ替わり撮影され得られた、複数の学生の動画を含む1つの動画ファイル1001(動画データ)の概念図の一例を示す図である。 FIG. 10 is a view showing an example of a conceptual diagram of one moving image file 1001 (moving image data) including moving images of a plurality of students, obtained by alternately photographing a plurality of users (for example, students).
図10に示すように、複数の学生の動画を含む1つの動画ファイル1001には、木屋野太郎さんの一言コメント付きの動画1002が含まれており、そのあとに、木屋野次郎さんの一言コメント付きの動画1003が含まれており、そのあとに、木屋野三郎さんの一言コメント付きの動画1004が含まれており、そのあとに、木屋野四朗さんの一言コメント付きの動画1005が含まれていることを示している。
As shown in FIG. 10, one moving image file 1001 including videos of a plurality of students includes a moving
また、PC101の記憶手段(メモリ)には、予め、被写体の人物リスト(図7)が記憶されており、この人物リスト(図7)に示される順番で、撮影が行われる。 Further, a person list (FIG. 7) of the subject is stored in advance in the storage means (memory) of the PC 101, and shooting is performed in the order shown in the person list (FIG. 7).
図7は、被写体の人物リストの一例を示す図である。 FIG. 7 is a diagram showing an example of the person list of the subject.
図7に示すように、1番目には、木屋野太郎さんが示されており、2番目には、木屋野次郎さんが示されており、3番目には、木屋野三郎さんが示されており、4番目には、木屋野四朗さんが示されている。 As shown in FIG. 7, Taro Kiyano is shown at the first, Jiro Kiyano is shown at the second, and Saburo Kiyano is shown at the third In the fourth place, Shiro Koyano is shown.
また、各人物の動画ファイルのパスが対応付けて登録される。なお、動画ファイルパスについては、あらかじめではなく、後述するステップS619やステップS919のタイミングで記憶される。 In addition, the path of the moving image file of each person is associated and registered. The moving image file path is stored not in advance but at the timing of steps S619 and S919 described later.
次に、図3を用いて、本発明の情報処理システムの基本的な動作について説明する。図3は、動画の各フレームと、ファイルの始点302、ファイルの終点303、IN点304、OUT点305との位置(時間)の関係を示す図の一例である。
Next, the basic operation of the information processing system of the present invention will be described with reference to FIG. FIG. 3 is an example of a diagram showing the relationship of the position (time) of each frame of the moving image with the
説明を簡単にするために、図3、後述する図5に示すファイルの始点302とIN点304との間のフレーム308は1つのみを示しているが、複数のフレームが含まれていてもよい。また、同様に、OUT点305とファイルの終点303との間にはフレーム307だけではなく複数のフレームが含まれていてもよい。
Although the
ファイルの始点302は、人物を検出できなかったフレーム308と、人物を検出できたと判定されたフレーム306との間の位置(時間)に設定される。
The
ファイルの終点303は、最後に人物を検出できたと判定されたフレーム307と、人物を検出できなくなったフレーム309との間の位置(時間)に設定される。
The
IN点304は、人物の音声を検知し、その音声のボリュームが所定の値に到達する所定時間前(例えば1秒前)に設定される。 The IN point 304 detects the voice of a person, and is set a predetermined time (for example, one second) before the volume of the voice reaches a predetermined value.
OUT点305は、人物の音声のボリュームが所定の値より小さくなった所定時間後(例えば1秒後)に設定される。 The OUT point 305 is set after a predetermined time (for example, one second) after the volume of the voice of the person becomes smaller than a predetermined value.
そして動画ファイル生成時には、IN点304、OUT点305の位置で動画を切り取り、氏名(ユーザ)ごとの動画ファイルを生成する。 Then, at the time of moving image file generation, the moving image is cut at the positions of the IN point 304 and the OUT point 305, and a moving image file for each name (user) is generated.
これにより、ユーザが動画の映像を確認しながら、動画の切り出し位置を手入力して指定し、切り出し処理を行う手間を削減することが可能となる。 As a result, while the user confirms the video of the moving image, it is possible to reduce the time and effort required to manually input and specify the cutout position of the moving image and perform the cutout processing.
ところで、上述した方法で動画を切り出す場合、例えば、OUT点305とファイルの終点303の間のフレーム(フレーム307)で人物が言葉を発することなく何かをしている場合、例えば、手を振っている場合に、その動画が再生されないという課題があった。
By the way, when cutting out a moving image by the above-mentioned method, for example, when a person is doing something without speaking a word in a frame (frame 307) between the OUT point 305 and the
そこで、本発明では、上述した課題を解決するために、第1の実施形態では、ファイルの始点302と、IN点304との間のフレーム(フレーム306)の間の時間が所定時間を超えるかと、OUT点305とファイルの終点303の間のフレーム(フレーム307)の間の時間(フレーム数)が所定時間を超えるかを判定し、超える場合には、その間に言葉を発することなく何か動作を行っていると判断し、動画ファイルの編集者に通知して確認を促す。
Therefore, in the present invention, in order to solve the problems described above, in the first embodiment, whether the time between the frame (frame 306) between the
また、第2の実施形態では、ファイルの始点302と、IN点304との間のフレーム(フレーム306)の間のフレーム、およびOUT点305とファイルの終点303の間のフレーム(フレーム307)の間のフレームを解析し、人物が動作を行っていると判定される場合には、動画ファイルの編集者に通知して確認を促す。
In the second embodiment, the frame between the
通知を受けた、動画ファイルの編集者は、図5に示す動画詳細編集画面で、IN点コントロール503、OUT点コントロール504により、IN点、およびOUT点の調整を行う。図5(A)は、編集者から編集を受け付ける前の状態であり、フレーム501と、フレーム502は、何か動作を行っていると判断されたフレームであり、それぞれのフレームには、編集者に確認させるための通知(本実施形態では、「!」)がされる。なお、何か動作を行っていると判断されたフレームをユーザが識別できれば良いため、フレーム501の周囲を特定の色で囲むことで識別させても、フレーム501を点滅させても良い。
The editor of the moving image file that has received the notification adjusts the IN point and the OUT point by the
そして、図5(B)に示すように、編集者からIN点コントロール503をフレーム501よりも左側、OUT点コントロール504をフレーム502の右側に動かすことにより、フレーム501と、フレーム502を動画ファイルに含めることが可能である。フレーム501と、フレーム502が動画ファイルに含められると、通知は消える。
Then, as shown in FIG. 5B, the editor moves the
上述した通知、および編集を行うことにより、IN点とファイルの始点の間のフレーム、およびOUT点とファイルの終点の間のフレームで人物が言葉を発することなく何かをしている場合に、その動画が再生されないという課題を解決することが可能となる。 If the person is doing something without speaking in the frame between the IN point and the start of the file and the frame between the OUT point and the end of the file by performing the above mentioned notification and editing, It becomes possible to solve the problem that the moving image is not reproduced.
では、以下本発明における処理について説明するが、まず図2を用いて、PC101のハードウェア構成について説明する。
The processing in the present invention will be described below. First, the hardware configuration of the
図2は、本発明の実施形態におけるPC101に適用可能な情報処理装置のハードウェア構成の一例を示すブロック図である。各装置ともに、同様な構成を備えるため、同一の符号を用いて説明する。
FIG. 2 is a block diagram showing an example of a hardware configuration of an information processing apparatus applicable to the
図2において、201はCPUで、システムバス204に接続される各デバイスやコントローラを統括的に制御する。また、ROM202あるいは外部メモリ211には、CPU201の制御プログラムであるBIOS(Basic Input / Output System)やオペレーティングシステムプログラム(以下、OS)や、PCの実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。
In FIG. 2,
203はRAMで、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をROM202あるいは外部メモリ211からRAM203にロードして、ロードしたプログラムを実行することで各種動作を実現するものである。
A
また、205は入力コントローラで、キーボード(KB)209等のポインティングデバイス等からの入力を制御する。206はビデオコントローラで、ディスプレイ210(液晶、ブラウン管を問わない)等の表示器への表示を制御する。
An
207はメモリコントローラで、ブートプログラム、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶する外部記憶装置(ハードディスク(HD))や、フレキシブルディスク(FD)、或いはPCMCIAカードスロットにアダプタを介して接続されるコンパクトフラッシュ(登録商標)メモリ等の外部メモリ211へのアクセスを制御する。
A
208は通信I/Fコントローラで、ネットワークを介して外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いた通信等が可能である。
A communication I /
なお、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ210上での表示を可能としている。また、CPU201は、ディスプレイ210上の不図示のマウスカーソル等でのユーザ指示を可能とする。
Note that the
本発明を実現するための後述する各種プログラムは、外部メモリ211に記録されており、必要に応じてRAM203にロードされることによりCPU201によって実行されるものである。さらに、上記プログラムの実行時に用いられる設定ファイル等も外部メモリ211に格納されており、これらについての詳細な説明も後述する。以上で、図2の説明を終了する。
Various programs to be described later for realizing the present invention are stored in the
次に、図8のフローチャートを用いて、第1、および第2の実施形態におけるPC101が実行する処理について説明する。
Next, processing executed by the
図8は、本実施形態の動画編集に係る処理を示すフローチャートの一例であり、図8の処理は、第1、および第2の実施形態で共通の処理である。 FIG. 8 is an example of a flowchart showing processing relating to moving image editing of this embodiment, and the processing of FIG. 8 is processing common to the first and second embodiments.
PC101は、まず、所定の制御プログラムを起動すると、動画編集画面をディスプレイ210等の表示部に表示する。
First, when the predetermined control program is activated, the
そして、ステップS801において、PC101は、処理対象となる図7に示す被写体の人物リストの選択をユーザにより受け付けて読み取る。PC101は、ステップS801で読み取った人物リストのうち最も順番の早い(番号が低い)氏名(被写体を識別する情報)を処理対象として特定する。
Then, in step S801, the
ステップS802において、PC101は、ステップS801で選択を受け付けた人物リストに対応し、処理対象とする1つの動画ファイルの読み取り指示をユーザにより受け付け、当該動画ファイルの読み取りを開始する。
In step S802, the
例えば、クラスごとの動画ファイルを生成し、例えば、図7に示すような被写体の人物リストが、学生のクラスごとに、記憶されており、どのクラスの学生の動画を処理するかを選択し、そのクラスの動画ファイルを処理対象として読み込むことができる。 For example, a moving image file for each class is generated, and for example, a person list of subjects as shown in FIG. 7 is stored for each class of students, and it is selected which moving image of students of the class is to be processed. You can load a movie file of that class as a processing target.
ステップS802における動画ファイルの読み取り処理の開始は、動画の最初のフレームから順に読み取り開始することを意味する。 The start of the moving image file reading process in step S802 means that reading is started sequentially from the first frame of the moving image.
ステップS803において、PC101は、動画編集に係る処理を実行する。図8の処理の詳細は、第1の実施形態については、図6を用いて説明し、第2の実施形態については、図9を用いて説明する。
In step S803, the
ステップS804において、PC101は、ユーザにより、図4の動画編集画面にリスト表示された各氏名の各動画のうち1つの動画が選択され、ユーザにより、再生ボタン413の押下を受け付けたか否かを判定することにより、当該動画の再生指示を受け付けたか否かを判定する。
In step S804, the
ここでは、後述するステップS616、ステップS917でユーザ操作を受け付けることにより編集処理を行う前の動画、又は、S616、ステップS917の編集処理後の動画(IN点、又はOUT点の位置を任意の位置に変更された動画)についての再生指示を受け付けたか否かを判定する。 Here, the moving image before performing the editing process by accepting the user operation in step S616 and step S917 described later, or the moving image after the editing process of S616 and step S917 (the position of the IN point or the OUT point is an arbitrary position It is determined whether or not the reproduction instruction for the (moving image) changed to is received.
ステップS805において、PC101は、動画の再生指示を受け付けたと判定された場合には、当該動画の動画ファイルの読み込みを行い、当該動画の再生を行う。ここでは、IN点コントロール503以前のフレーム(群)、OUT点コントロール504以後のフレーム(群)については、再生されない。
In step S805, when it is determined that the reproduction instruction of the moving image is accepted, the
ステップS806において、PC101は、当該動画の再生が終了した場合には(ステップS806:YES)、本処理を終了し、動画の再生が終了していない場合には、引き続き、当該動画の再生を行う。以上で、図8の説明を終了する。
In step S806, if the reproduction of the moving image is ended (step S806: YES), the
次に、図6のフローチャートを用いて、第1の実施形態におけるPC101が実行する処理について説明する。
Next, processing executed by the
図6は、第1の実施形態の動画編集に係る処理を示すフローチャートの一例である。 FIG. 6 is an example of a flowchart showing processing relating to moving image editing according to the first embodiment.
図6は、PC101のCPU201が所定の制御プログラムを読み出して実行する処理である。
FIG. 6 shows a process in which the
ステップS601において、PC101は、動画(フレーム)を読み込み、当該読み込んだ動画(フレーム)を解析して、当該フレームの中に人物が含まれているか、すなわち、当該フレーム中の人物を検出できたか否かを判定する。
In step S601, the
そして、PC101は、当該フレームの中に人物が含まれていない、すなわち、当該フレーム中の人物を検出できなかったと判定された場合には(ステップS601:NO)、次のフレームを読み取り、当該読み取ったフレームに対して、ステップS601の処理を実行する。
Then, when it is determined that the person is not included in the frame, that is, the person in the frame can not be detected (step S601: NO), the
ステップS601は、本発明における、人物が撮影された動画データの中から人物がフレームインした時間又はフレームを特定する第1特定手段の一例である。 Step S601 is an example of a first specifying means for specifying a time or a frame at which a person frames in the moving image data in which the person is photographed in the present invention.
PC101は、当該フレームの中に人物が含まれている、すなわち、当該フレーム中の人物を検出できたと判定された場合には(ステップS601:YES)、人物を検出できなかったフレームと、人物を検出できたと判定されたフレームとの間の位置(時間)に、動画ファイル始点(図3のファイルの始点302)を設定する(ステップS602)。
If the
ステップS603において、PC101は、PC101は、人物が発する音声を検出し、かつ、その音声のレベル(ボリューム)が所定の値に達したか否かを判定する。そして、PC101は、音声のレベルが所定の値に達したと判定されると(ステップS603:YES)、ステップS604において、音声のレベルが所定の値に達したと判定されたときのフレームよりも所定時間前(例えば1秒前)のフレームにIN点(図3のIN点304)を設定する。
In step S603, the
ステップS603は、本発明における、前記動画データの中から人物が話し始めた時間又はフレームを特定する第2特定手段の一例である。 Step S603 is an example of a second specifying unit for specifying a time or a frame at which a person starts speaking from the moving image data in the present invention.
また、ステップS604は、本発明における、前記第2特定手段で特定された時間又はフレームに基づき特定される位置に、動画データを編集するためのイン点を設定する設定手段の一例である。 Step S604 is an example of setting means for setting an in point for editing moving picture data at a position specified based on the time or frame specified by the second specifying means in the present invention.
ステップS605において、PC101は、ステップS602で設定した動画ファイルの始点からステップS604で設定したIN点までの間の時間(フレーム数)が所定時間(所定枚数)を超えるかを判定する。ステップS605における所定時間とは、例えば、10秒である。
In step S605, the
PC101は、所定の時間を超える場合には(ステップS605:YES)、動画ファイルの始点からIN点までの間に何か動作を行っていると判断し、ステップS606で、動画ファイルに識別情報を付加する。識別情報とは、後述する図4の識別表示408や、図5のフレーム501上に表示される「!」を表示するための情報である。
If the predetermined time is exceeded (step S605: YES), the
ステップS607において、PC101は、人物が発する音声のレベル(ボリューム)が所定の値まで低下したか否かを判定する。そして、PC101は、音声のレベルが所定の値まで低下したと判定されると(ステップS607:YES)、ステップS608において、音声のレベルが所定の値まで低下したと判定されてから所定時間(例えば1秒前)経過したかを判定し、所定時間が経過したと判定されると(ステップS608:YES)、所定時間経過後のフレームにOUT点(図3のOUT点305)を設定する(ステップS609)。
ステップS607は、本発明における、前記動画データの中から前記人物が話し終わった時間又はフレームを特定する第2特定手段の一例である。
In step S607, the
Step S 607 is an example of a second specifying means for specifying a time or a frame at which the person has finished speaking from the moving image data in the present invention.
また、ステップS609は、本発明における、前記第2の特定手段で特定された時間又はフレームに基づき特定される位置に、動画データを編集するためのアウト点を設定する設定手段の一例である。 Step S609 is an example of setting means for setting an out point for editing moving picture data at a position specified based on the time or frame specified by the second specifying means in the present invention.
ステップS610において、PC101は、現在処理対象のフレームの中に人物が含まれていないか否か、すなわち、当該フレーム中の人物を検出できなかったか否かを判定する。
In step S610, the
PC101は、フレームの中に人物が含まれている、すなわち、当該フレーム中の人物を検出できたと判定された場合には(S610:NO)、次のフレームを処理対象にして、再度、S610の処理を行う。
When it is determined that the person is included in the frame, that is, the person in the frame can be detected (S610: NO), the
ステップS610は、本発明における、人物が撮影された動画データの中から人物がフレームアウトした時間又はフレームを特定する第1特定手段の一例である。 Step S610 is an example of a first specifying means for specifying a time or a frame at which a person framed out of moving image data in which a person is photographed in the present invention.
ステップS611において、PC101は、フレーム中に人物が含まれていない、すなわち、当該フレーム中の人物を検出できないと判定された場合には(S610:YES)、人物が含まれていないと判定されたフレームと、その直前のフレーム(人物が検出されたフレーム)との間の位置(時間)に動画ファイル終点(図3のファイルの終点303)を設定する。
In step S611, if it is determined that the frame does not include a person in the frame, that is, the person in the frame can not be detected (S610: YES), it is determined that the person is not included. The moving image file end point (the
ステップS612において、PC101は、ステップS609で設定したOUT点からステップS611で設定した動画ファイルの終点までの間の時間(フレーム数)が所定時間(所定枚数)を超えるかを判定する。ステップS605における所定時間とは、例えば、10秒である。
In step S612, the
PC101は、所定の時間を超える場合には(ステップS612:YES)、OUT点から動画ファイルの終点までの間に何か動作を行っていると判断し、ステップS613で、動画ファイルに識別情報を付加する。識別情報とは、後述する図4の識別表示408や、図5のフレーム502上に表示される「!」を表示するための情報である。
If the predetermined time is exceeded (step S612: YES), the
ステップS614において、PC101は、ステップS802で読み込んだ動画ファイルを、ステップS602でファイル始点が設定された位置(時間)と、ステップS611でファイル終点が設定された位置(時間)とで切り出して、当該切り出された動画ファイルと、現在の処理対象の氏名(被写体を識別する情報)とを対応付けて外部メモリ211に一時的に記憶する。また、ステップS604で設定されたIN点の位置(時間)の情報と、ステップS609で設定されたOUT点の位置(時間)の情報と、ステップS606で付加された識別情報と、ステップS613で付加された識別情報も外部メモリ211に一時的に記憶する。
In step S614, the
ステップS615において、PC101は、ステップS801で読み込んだ動画ファイルのすべてに対して、ステップS601からステップS614までの処理の処理対象にしたか否か、または、ステップS801で読み取った人物リストの全ての氏名を処理対象として、ステップS601からステップS614までの処理を実行したか否かを判定することにより、ステップS802で読み込んだ動画ファイルの切り出し、IN点、OUT点の設定の処理を終了するか否かを判定する。
In step S615, the
PC101は、ステップS615において、ステップS801で読み込んだ動画ファイルのすべてに対して、ステップS601からステップS614までの処理の処理対象にした、または、ステップS801で読み取った人物リストの全ての氏名を処理対象として、ステップS601からステップS614までの処理を実行したと判定された場合には、ステップS802で読み込んだ動画ファイルの切り出し、IN点、OUT点の設定の処理を終了すると判定し(ステップS615:YES)、処理をステップS616に移行する。
In step S615, the
また、PC101は、ステップS615において、ステップS801で読み込んだ動画ファイルのすべてに対して、ステップS601からステップS614までの処理の処理対象にしていない、または、ステップS801で読み取った人物リストの全ての氏名を処理対象として、S601からS614までの処理を実行していないと判定された場合には、ステップS802で読み込んだ動画ファイルの切り出し、IN点、OUT点の設定の処理を終了しないと判定し(S615:NO)、ステップS801で読み取った人物リストの未処理の氏名のうち最も順番の早い(番号が低い)氏名を処理対象にすると共に、引き続き、ステップS802で読み込んだ動画ファイルの次のフレームを処理対象にして、処理をS601に移行する。
In step S615, the
ステップS616において、PC101は、ステップS802で読み込んだ動画ファイルと、当該動画ファイルと対応付けて登録された氏名との一覧(リスト)を、動画編集画面(図4)に表示する。
In step S616, the
ステップS616は、本発明における、前記第1特定手段で特定された人物がフレームインした時間又はフレームから、前記第2特定手段で特定された人物が話し始めた時間又はフレームまでの時間又はフレーム数を用いて、前記設定手段により設定されたイン点を修正すべきかを確認させるべく、通知する通知手段の一例であり、前記第2特定手段で特定された人物が話し終わった時間又はフレームから、前記第1特定手段で特定された人物がフレームアウトした時間又はフレームまでの時間又はフレーム数を用いて、前記設定手段により設定されたアウト点を修正すべきかを確認させるべく、通知する通知手段の一例である。 Step S616 is the time or frame number from the time or frame when the person specified by the first specifying means to the frame in the present invention to the time or frame when the person specified by the second specifying means starts talking Is an example of a notification means for notifying to confirm that the in-point set by the setting means should be corrected, using a time or a frame at which the person specified by the second specifying means has finished talking The notification means for notifying to confirm whether the out point set by the setting means should be corrected by using the time or the number of frames up to the time or the frame when the person specified by the first specifying means framed out It is an example.
ここで、図4について説明する。図4は、動画編集画面の一例を示す図である。 Here, FIG. 4 will be described. FIG. 4 is a diagram showing an example of a moving image editing screen.
401は、図7に示す人物リストの順番の値であり、401は、氏名を示している。これらの被写体を識別する情報と対応付けてS614、後述するステップS914で記憶した動画ファイルが、403、404に動画のタイムラインとして示されている。403は、IN点(図3のIN点304)とOUT点(図3のOUT点305)との間の動画のライムラインを示しており、404は、OUT点とファイル終点(図3のファイルの終点303)との間の動画のタイムラインが示されている。また、411は、ファイル終点以降の動画を示している。
また、402は、IN点とOUT点との間の動画、又はIN点とOUT点との間の動画の各フレームのうち先頭のフレームの縮小画像(例えばサムネイル画像)である。
また、412は、ファイル始点(図3のファイルの始点302)とIN点との間の動画のタイムラインとして示されている。
Also,
405は、切り出された動画ファイルに含まれる音の波形が表示される領域である。 Reference numeral 405 denotes an area in which the waveform of the sound included in the clipped moving image file is displayed.
406は、ステップS614、後述するステップS914において切り出された動画ファイルと、現在の処理対象の氏名(被写体を識別する情報)とが対応付けられて登録(設定)され、ユーザの指示により、ステップS617、後述するステップS917において任意にIN点、OUT点の編集(変更)の設定がなされ、当該IN点、OUT点に基づき切り出され登録される動画ファイルの処理対象を選択するためのボタン(指示受付部)である。すなわち、誰の動画を処理対象にするにするかを選択するためのボタンである。 In step S614, the moving image file extracted in step S914 to be described later is associated (registered) with the current processing target name (information identifying the subject) and is registered (set) by the user's instruction. In step S 917 described later, editing (modification) of IN point and OUT point is arbitrarily set, and a button for selecting a processing target of a moving image file cut out and registered based on the IN point and OUT point (instruction acceptance Department). That is, it is a button for selecting which moving image is to be processed.
図4に示すように、上述の401〜406、411、412は、氏名ごと(ステップS614、後述するステップS914で切り出された動画ファイルごと)にそれぞれリスト表示されている。410は、ファイル生成ボタンである。
As shown in FIG. 4, the above-mentioned 401 to 406, 411, and 412 are listed and displayed for each name (step S614, for each moving image file cut out in step S914 described later).
図4に示すように、上述の401〜406、411、412は、氏名ごと(ステップS614、後述するステップS914で切り出された動画ファイルごと)にそれぞれリスト表示されているが、いずれかの動画又は氏名(被写体を識別する情報)が選択されると、当該動画のプレビュー表示を行う表示領域407を動画編集画面(図4)は備えている。また、413は、再生ボタンであり、当該いずれかの動画又は氏名(被写体を識別する情報)が選択され、再生ボタン413がユーザにより押下されると、当該動画のプレビューを表示領域407に表示する。
As shown in FIG. 4, the above-mentioned 401 to 406, 411, and 412 are listed and listed for each name (step S614, each moving image file cut out in step S914 described later). When a name (information for identifying a subject) is selected, a moving image editing screen (FIG. 4) has a
409は、リスト表示された動画又は氏名のいずれかが選択され、当該選択された動画のIN点、OUT点の編集指示をユーザにより受け付ける表示領域である。具体的には、409の表示領域は、例えば、図5(A)あるいは図5(B)が表示される表示領域である。 Reference numeral 409 denotes a display area in which either the moving image or the name displayed in a list is selected, and the user receives an instruction to edit the IN point and OUT point of the selected moving image. Specifically, the display area 409 is, for example, a display area in which FIG. 5 (A) or FIG. 5 (B) is displayed.
識別表示408は、ステップS606、ステップS613、後述するステップS906、ステップS913で、動画ファイルに識別情報が付加されている場合に、当該識別情報が付加された動画ファイルをユーザが認識可能となるように囲っている。
When the identification information is added to the moving image file in step S606, step S613, and steps S906 and S913 described later, the
なお、識別情報が付加された動画ファイルをユーザが識別できれば良いため、当該動画ファイルの欄を点滅させたり、氏名401の色を変えることで識別させても良い。
In addition, as long as the user can identify the moving image file to which the identification information is added, identification may be performed by blinking the column of the moving image file or changing the color of the
識別表示408を行うことにより、IN点とファイルの始点の間のフレーム、およびOUT点とファイルの終点の間のフレームで人物が言葉を発することなく何かをしている動画ファイルをユーザが容易に特定することができ、当該動画ファイルの編集(IN点、OUT点の修正)をスムーズに実行することが可能となる。
By performing the
なお、ステップS606、ステップS613、後述するステップS906、ステップS913で、動画ファイルに識別情報が付加されている場合には、409の表示領域に表示される図5(A)あるいは図5(B)上でも、何か動作を行っていると判断されたフレーム(フレーム501と、フレーム502)が識別表示される。
If identification information is added to the moving image file in step S606, step S613, step S906 described later, or step S913, FIG. 5 (A) or FIG. 5 (B) is displayed in the display area 409. Also in the above, the frames (
以上で図4の説明を終了し、図6の説明に戻る。 This completes the description of FIG. 4 and returns to the description of FIG.
ステップS617において、PC101は、動画編集画面(図4)を介して、ユーザによる操作指示を受け付ける。
In step S617, the
例えば、PC101は、ユーザの操作に従って、IN点コントロール503、OUT点コントロール504を任意のフレーム間の位置に移動(変更)する。これにより、IN点、OUT点の位置を任意の位置に変更することにより、動画の編集を行うことが可能なる。
For example, the
また、PC101は、S617において、動画編集画面(図4)にリスト表示された動画、氏名のうち、選択された動画、氏名の動画を表示領域409に表示し、各動画について、同様の操作を行うことが出来る。
Further, in S617, the
そして、PC101は、ユーザにより、動画編集画面(図4)にリスト表示された各動画、各氏名のボタン406(指示受付部)の選択を受け付け、ファイル生成ボタン410の押下を受け付ける。
Then, the
PC101は、ステップS617で、ユーザにより受け付けた操作内容が、IN点、又はOUT点の位置を任意の位置に変更することにより、動画の編集を行う編集指示であると判定された場合には、ユーザ操作により任意にIN点、又はOUT点が変更された位置を登録する編集処理を実行する。 If it is determined in step S617 that the operation content accepted by the user is an editing instruction for editing a moving image by changing the position of the IN point or the OUT point to an arbitrary position in step S617, An editing process is performed to register the position at which the IN point or the OUT point is arbitrarily changed by the user operation.
また、PC101は、ステップS617で、ユーザにより受け付けた操作内容が、リスト表示された各動画、各氏名のボタン406(指示受付部)の選択を受け付け、ファイル生成ボタン410の押下を受け付けた指示(生成指示)であるとステップS618で判定された場合には、当該選択された動画のファイルの生成を行う。具体的には、現在、登録されている各IN点、及び各OUT点の位置で、動画を切り取り、氏名(ユーザ)ごとの動画ファイルを、それぞれ生成する。すなわち、ステップS617の編集処理が行われた場合には、当該編集されたIN点、及び/又はOUT点の位置で、動画を切り取り、氏名(ユーザ)ごとの動画ファイルを、それぞれ生成する。
In step S 617, the
例えば、図5(A)に示すように、フレーム501とフレーム505との間の位置に、IN点コントロール503が設定され、フレーム506とフレーム502との間の位置に、OUT点コントロール504が設定されている場合、PC101は、ステップS619、後述するステップS919において、IN点コントロール503とOUT点コントロール504との間のフレーム(群)を切り出して、1つの動画ファイルとして生成する。
For example, as shown in FIG. 5A, the
この処理を、S617でユーザにより選択された動画ごと(氏名(ユーザ)ごと)に実行し、氏名(ユーザ)ごとの動画ファイルを、それぞれ生成する(ステップS619)。そして、処理を終了する。以上、図6の説明を終了する。 This process is executed for each moving image (name (user)) selected by the user in S617, and a moving image file for each name (user) is generated (step S619). Then, the process ends. This is the end of the description of FIG.
次に、図9のフローチャートを用いて、第2の実施形態におけるPC101が実行する処理について説明する。
Next, processing executed by the
図9は、第2の実施形態の動画編集に係る処理を示すフローチャートの一例である。 FIG. 9 is an example of a flowchart showing processing relating to moving image editing of the second embodiment.
図9は、PC101のCPU201が所定の制御プログラムを読み出して実行する処理である。
FIG. 9 shows a process in which the
ステップS901〜ステップS904までの各処理は、図6のステップS601〜ステップS604までの各処理と同じ処理であるため説明は省略する。 The processes in steps S901 to S904 are the same as the processes in steps S601 to S604 in FIG.
ステップS905において、PC101は、ステップS902で設定した動画ファイルの始点からステップS604で設定したIN点までの間のフレームを解析して、人物が何か動作を行っているかを判定する。動作を行っているかの判定方法は、動画ファイルの始点からIN点までの間のフレームの変化量が所定以上である場合に、動作を行っていると判定する方法や、あらかじめ人物が座って停止している状態の画像を比較画像として記憶しておき、当該画像と、動画ファイルの始点からIN点までの間の各フレームとの類似度が所定以下である場合に、動作を行っていると判定する方法等が考えられる。
In step S905, the
PC101は、人物が何か動作を行っている場合には(ステップS905:YES)、ステップS906で、動画ファイルに識別情報を付加する。識別情報とは、図4の識別表示408や、図5のフレーム501上に表示される「!」を表示するための情報である。
If the person is performing an operation (step S 905: YES), the
ステップS907〜ステップS911までの各処理は、図6のステップS607〜ステップS611までの各処理と同じ処理であるため説明を省略する。 The processes in steps S 907 to S 911 are the same as the processes in steps S 607 to S 611 in FIG.
ステップS912において、PC101は、ステップS609で設定したOUT点からステップS611で設定した動画ファイルの終点までの間のフレームを解析して、人物が何か動作を行っているかを判定する。動作を行っているかの判定方法は、OUT点から動画ファイルの終点までの間のフレームの変化量が所定以上である場合に、動作を行っていると判定する方法や、あらかじめ人物が座って停止している状態の画像を比較画像として記憶しておき、当該画像と、OUT点から動画ファイルの終点までの間の各フレームとの類似度が所定以下である場合に、動作を行っていると判定する方法等が考えられる。
In step S912, the
PC101は、人物が何か動作を行っている場合には(ステップS912:YES)、ステップS913で、動画ファイルに識別情報を付加する。識別情報とは、図4の識別表示408や、図5のフレーム502上に表示される「!」を表示するための情報である。
If the person is performing an operation (step S912: YES), the
ステップS914において、PC101は、ステップS802で読み込んだ動画ファイルを、ステップS902でファイル始点が設定された位置(時間)と、ステップS911でファイル終点が設定された位置(時間)とで切り出して、当該切り出された動画ファイルと、現在の処理対象の氏名(被写体を識別する情報)とを対応付けて外部メモリ211に一時的に記憶する。また、ステップS904で設定されたIN点の位置(時間)の情報と、ステップS909で設定されたOUT点の位置(時間)の情報と、ステップS906で付加された識別情報と、ステップS913で付加された識別情報も外部メモリ211に一時的に記憶する。
In step S914, the
ステップS915〜ステップS919までの各処理は、図6のステップS615〜ステップS619までの各処理と同じ処理であるため説明を省略する。 The processes in steps S915 to S919 are the same as the processes in steps S615 to S619 in FIG.
以上で、図9の説明を終了する。 This is the end of the description of FIG.
以上、本発明によると、動画データを編集するためのイン点、又はアウト点を効率的に設定することができる。 As described above, according to the present invention, it is possible to efficiently set an in point or an out point for editing moving image data.
本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、1つの機器からなる装置に適用してもよい。 The present invention can also be embodied as, for example, a system, an apparatus, a method, a program, a storage medium, etc. Specifically, the present invention may be applied to a system composed of a plurality of devices, The present invention may be applied to an apparatus consisting of two devices.
なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、システム或いは装置に直接、或いは遠隔から供給するものを含む。そして、そのシステム或いは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合も本発明に含まれる。 Note that the present invention includes one that directly or remotely supplies a program of software that implements the functions of the above-described embodiments to a system or an apparatus. The present invention is also included in the present invention if the computer of the system or apparatus reads out and executes the supplied program code.
したがって、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。 Therefore, the program code itself installed in the computer to realize the functional processing of the present invention by the computer also implements the present invention. That is, the present invention also includes a computer program itself for realizing the functional processing of the present invention.
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。 In that case, as long as it has the function of a program, it may be in the form of an object code, a program executed by an interpreter, script data supplied to an OS, or the like.
プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RWなどがある。また、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などもある。 Examples of recording media for supplying the program include a flexible disk, a hard disk, an optical disk, a magneto-optical disk, an MO, a CD-ROM, a CD-R, and a CD-RW. There are also magnetic tapes, non-volatile memory cards, ROMs, DVDs (DVD-ROMs, DVD-Rs) and the like.
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、前記ホームページから本発明のコンピュータプログラムそのもの、若しくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。 In addition, as a program supply method, a browser on a client computer is used to connect to an Internet home page. Then, the program can be supplied by downloading the computer program of the present invention itself or a compressed file including an automatic installation function from the home page to a recording medium such as a hard disk.
また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。 The present invention can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from different home pages. That is, the present invention also includes a WWW server which allows a plurality of users to download program files for realizing the functional processing of the present invention by a computer.
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、ダウンロードした鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。 In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, and distributed to users, and the user who has cleared predetermined conditions downloads key information that decrypts encryption from the homepage via the Internet. Let Then, it is possible to execute the program encrypted by using the downloaded key information and install it on a computer.
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。その他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。 Also, the functions of the above-described embodiments are realized by the computer executing the read program. In addition, based on the instructions of the program, an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiment can be realized by the processing.
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現される。 Furthermore, the program read from the recording medium is written to a memory provided in a function expansion board inserted in the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program, a CPU or the like provided in the function expansion board or the function expansion unit performs part or all of the actual processing, and the function of the above-described embodiment is also realized by the processing.
なお、前述した実施形態は、本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 The embodiments described above merely show examples of implementation in practicing the present invention, and the technical scope of the present invention should not be interpreted in a limited manner by these. That is, the present invention can be implemented in various forms without departing from the technical concept or the main features thereof.
101 PC 101 PC
Claims (10)
前記動画データの中から人物が話し始めた時間又はフレームを特定する第2特定手段と、
前記第2特定手段で特定された時間又はフレームに基づき特定される位置に、動画データを編集するためのイン点を設定する設定手段と、
前記第1特定手段で特定された人物がフレームインしたフレームから、前記第2特定手段で特定された人物が話し始めたフレームまでのフレームの画像を解析する解析手段と、
前記解析手段による解析結果を通知する通知手段と
を備えることを特徴とする情報処理装置。 A first specifying means for specifying a time or a frame at which a person framed in moving image data in which a person is photographed;
A second specifying means for specifying a time or a frame at which a person starts speaking from the moving image data;
Setting means for setting an in point for editing moving picture data at a position specified based on the time or frame specified by the second specifying means;
Analysis means for analyzing an image of a frame from a frame in which the person specified by the first specifying means is frame-in to a frame in which the person specified by the second specifying means starts to speak;
An information processing apparatus comprising: notification means for notifying an analysis result by the analysis means.
前記画面を介して、前記コントロールの位置の変更指示を受け付ける受付手段と、
前記受付手段により受け付けた変更指示に従って、前記画像に対する前記コントロールの表示位置、および前記設定手段により設定されたイン点の位置を修正することを特徴とする請求項1または2に記載の情報処理装置。 The notification means displays images of a plurality of frames of the moving image data in time series, and notifies a screen on which a control regarding an in point set by the setting means is displayed at a position between the plurality of images.
Accepting means for accepting an instruction to change the position of the control via the screen;
The information processing apparatus according to claim 1 or 2, wherein the display position of the control with respect to the image and the position of the in point set by the setting unit are corrected according to the change instruction received by the reception unit. .
前記第1特定手段により特定された時間又はフレームに基づき特定される分割位置で前記動画データを分割して人物ごとの動画データを個々に生成する生成手段と
を備えることを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。 A plurality of persons are photographed alternately in the moving image data, and the first specifying unit specifies a time or a frame at which each person framed in the moving image data,
Generating means for dividing the moving image data at division positions specified based on the time or frame specified by the first specifying means, and individually generating moving image data for each person. The information processing apparatus according to any one of to 5.
前記動画データの先頭から順次分割され生成された動画データを、当該動画データが生成された順番に対応して前記人物リストに定められた識別情報と関連付けて登録する登録手段と、
を備えることを特徴とする請求項4に記載の情報処理装置。 Storage means for storing a person list in which identification information for individually identifying each person included in the moving image data is determined corresponding to the order of generation of the moving image data by the generating means;
Registration means for registering moving image data sequentially divided and generated from the head of the moving image data in association with identification information defined in the person list in correspondence with the order in which the moving image data is generated;
The information processing apparatus according to claim 4, comprising:
前記動画データの中から人物が話し始めた時間又はフレームを特定する第2特定工程と、
前記第2特定工程で特定した時間又はフレームに基づき特定される位置に、動画データを編集するためのイン点を設定する設定工程と、
前記第1特定手段で特定された人物がフレームインしたフレームから、前記第2特定工程で特定した人物が話し始めたフレームまでのフレームの画像を解析する解析工程と、
前記解析工程における解析結果を通知する通知工程と
を備えることを特徴とする情報処理装置の制御方法。 A control method of an information processing apparatus, comprising: first specifying means for specifying a time or a frame at which a person framed in moving image data in which a person is photographed,
A second identification step of identifying a time or a frame at which a person starts speaking from the moving image data;
A setting step of setting an in point for editing moving image data at a position specified based on the time or frame specified in the second specifying step;
An analysis step of analyzing an image of a frame from a frame in which a person specified by the first specifying means frames into a frame to a frame where the person specified in the second specifying step starts talking;
And a notification step of notifying an analysis result in the analysis step.
前記情報処理装置を、
前記動画データの中から人物が話し始めた時間又はフレームを特定する第2特定手段と、
前記第2特定手段で特定された時間又はフレームに基づき特定される位置に、動画データを編集するためのイン点を設定する設定手段と、
前記第1特定手段で特定された人物がフレームインしたフレームから、前記第2特定手段で特定された人物が話し始めたフレームまでのフレームの画像を解析する解析手段と、
前記解析手段による解析結果を通知する通知手段として機能させることを特徴とするプログラム。 It is a program that can be read and executed by an information processing apparatus including a first specifying unit that specifies a time or a frame at which a person framed in moving image data in which a person is photographed,
The information processing apparatus
A second specifying means for specifying a time or a frame at which a person starts speaking from the moving image data;
Setting means for setting an in point for editing moving picture data at a position specified based on the time or frame specified by the second specifying means;
Analysis means for analyzing an image of a frame from a frame in which the person specified by the first specifying means is frame-in to a frame in which the person specified by the second specifying means starts to speak;
A program characterized in that it functions as notification means for notifying an analysis result by the analysis means.
前記動画データの中から人物が話し終わった時間又はフレームを特定する第2特定手段と、
前記第2特定手段で特定された時間又はフレームに基づき特定される位置に、動画データを編集するためのアウト点を設定する設定手段と、
前記第2特定手段で特定された人物が話し終わったフレームから、前記第1特定手段で特定された人物がフレームアウトしたフレームまでのフレームの画像を解析する解析手段と、
前記解析手段による解析結果を通知する通知手段と
を備えることを特徴とする情報処理装置。 A first specifying means for specifying a time or a frame at which a person framed out of moving image data in which a person is photographed;
A second specifying means for specifying a time or a frame at which a person has finished talking from the moving image data;
Setting means for setting an out point for editing moving picture data at a position specified based on the time or frame specified by the second specifying means;
Analysis means for analyzing an image of a frame from a frame where the person specified by the second specifying means has finished talking to a frame where the person specified by the first specifying means is out of frame;
An information processing apparatus comprising: notification means for notifying an analysis result by the analysis means.
前記動画データの中から人物が話し終わった時間又はフレームを特定する第2特定工程と、
前記第2特定工程で特定した時間又はフレームに基づき特定される位置に、動画データを編集するためのアウト点を設定する設定工程と、
前記第2特定工程で特定した人物が話し終わったフレームから、前記第1特定手段で特定された人物がフレームアウトしたフレームまでのフレームの画像を解析する解析工程と、
前記解析工程における解析結果を通知する通知工程と
を備えることを特徴とする情報処理装置の制御方法。 A control method of an information processing apparatus, comprising: first specifying means for specifying a time or frame in which a person framed out of moving image data in which a person is photographed.
A second identification step of identifying a time or a frame at which a person has finished talking from the moving image data;
A setting step of setting an out point for editing moving image data at a position specified based on the time or frame specified in the second specifying step;
An analysis step of analyzing an image of a frame from a frame in which the person identified in the second identification step has finished talking to a frame in which the person identified by the first identification means is out of frame;
And a notification step of notifying an analysis result in the analysis step.
前記情報処理装置を、
前記動画データの中から人物が話し終わった時間又はフレームを特定する第2特定手段と、
前記第2特定手段で特定された時間又はフレームに基づき特定される位置に、動画データを編集するためのアウト点を設定する設定手段と、
前記第2特定手段で特定された人物が話し終わったフレームから、前記第1特定手段で特定された人物がフレームアウトしたフレームまでのフレームの画像を解析する解析手段と、
前記解析手段による解析結果を通知する通知手段として機能させることを特徴とするプログラム。 It is a program that can be read and executed by an information processing apparatus including first specifying means for specifying a time or a frame at which a person framed out of moving image data in which a person is photographed,
The information processing apparatus
A second specifying means for specifying a time or a frame at which a person has finished talking from the moving image data;
Setting means for setting an out point for editing moving picture data at a position specified based on the time or frame specified by the second specifying means;
Analysis means for analyzing an image of a frame from a frame where the person specified by the second specifying means has finished talking to a frame where the person specified by the first specifying means is out of frame;
A program characterized in that it functions as notification means for notifying an analysis result by the analysis means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017230914A JP2019102943A (en) | 2017-11-30 | 2017-11-30 | Information processing device, control method thereof, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017230914A JP2019102943A (en) | 2017-11-30 | 2017-11-30 | Information processing device, control method thereof, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019102943A true JP2019102943A (en) | 2019-06-24 |
Family
ID=66974297
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017230914A Pending JP2019102943A (en) | 2017-11-30 | 2017-11-30 | Information processing device, control method thereof, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019102943A (en) |
-
2017
- 2017-11-30 JP JP2017230914A patent/JP2019102943A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2105930A1 (en) | Selection and positioning of images within a template based on relative comparison of image attributes | |
JP2004064396A (en) | Method and apparatus for generating image as well as program | |
KR20060066597A (en) | Information processing apparatus and information processing method | |
JP2005252574A (en) | Device and method for creating multimedia content, program for making computer execute method, and multimedia content creating system | |
JP2006157324A (en) | Image reproducing apparatus and program | |
JP5441349B2 (en) | Image projection apparatus and control method thereof | |
KR100775187B1 (en) | Thumbnail recording method and terminal using the same | |
JP2019102943A (en) | Information processing device, control method thereof, and program | |
JP2019102944A (en) | Information processing device, control method thereof, and program | |
JP2007258934A (en) | Information processing apparatus and information processing method | |
JP4591283B2 (en) | Image reproduction system, imaging apparatus, and information processing apparatus | |
JP2018074337A (en) | Moving image processing device, moving image processing method, and program | |
JP7103905B2 (en) | Editing system, editing equipment, and editing method | |
US20040228613A1 (en) | Editing and display controller used in portable digital image capture device and method of the same | |
JP6597263B2 (en) | Information processing apparatus, control method thereof, and program | |
JP2019103042A (en) | Information processing device, control method thereof, and program | |
JP4876736B2 (en) | Document camera device | |
JP2019102850A (en) | Information processing apparatus, control method of the same, and program | |
JP2019102852A (en) | Information processing device, control method thereof, and program | |
JP2002199330A (en) | Recorder and reproducing device | |
EP1657671B1 (en) | System and method for generating suggested alternatives for visual or audible data | |
JP2003257158A (en) | Recording and reproducing device, and recording and reproducing method | |
US8677239B2 (en) | Electronic album and method for replaying electronic album | |
JP2019160186A (en) | Photo book creation system and server device | |
JP2019102851A (en) | Information processing device, control method thereof, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20180703 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20181031 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190109 |