JP2019102943A - Information processing device, control method thereof, and program - Google Patents

Information processing device, control method thereof, and program Download PDF

Info

Publication number
JP2019102943A
JP2019102943A JP2017230914A JP2017230914A JP2019102943A JP 2019102943 A JP2019102943 A JP 2019102943A JP 2017230914 A JP2017230914 A JP 2017230914A JP 2017230914 A JP2017230914 A JP 2017230914A JP 2019102943 A JP2019102943 A JP 2019102943A
Authority
JP
Japan
Prior art keywords
frame
person
moving image
specifying
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017230914A
Other languages
Japanese (ja)
Inventor
達也 菅野
Tatsuya Sugano
達也 菅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Original Assignee
Canon Marketing Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc filed Critical Canon Marketing Japan Inc
Priority to JP2017230914A priority Critical patent/JP2019102943A/en
Publication of JP2019102943A publication Critical patent/JP2019102943A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

To provide a mechanism for efficiently setting an IN-point or an OUT-point for editing moving image data.SOLUTION: An information processing device identifies time or frame in which a person has framed in from moving image data in which the person is captured, and identifies time or frame in which the person has started speaking from the moving image data. Next, an IN-point for editing the moving image data is set at a position specified on basis of the time or frame at which the person has started speaking. Then, images of the frames to the frame in which the person has started speaking from the frame in which the person has framed in are analyzed, and the analyzed result is notified.SELECTED DRAWING: Figure 5

Description

本発明は、情報処理装置、情報処理装置の制御方法、およびプログラムに関し、特に、動画データを編集するためのイン点、又はアウト点を効率的に設定する仕組みに関する。   The present invention relates to an information processing apparatus, a control method of the information processing apparatus, and a program, and more particularly to a mechanism for efficiently setting an in point or an out point for editing moving picture data.

従来、動画の中から一部の動画を切り出すためには、ユーザが、その動画の映像を確認しながら、動画の切り出し位置を手入力して指定し、切り出し処理を行っており、その作業が煩雑であった。   Conventionally, in order to cut out a part of a moving image from moving images, the user manually inputs and specifies the cutout position of the moving image while checking the video of the moving image, and performs the cutout process, and the work is It was complicated.

特許文献1は、ユーザが、一連の動画を確認しながら、切取開始時間、切取終了時間を操作キーから手入力して指定し、動画データからの切取処理を行うことが記載されている。   Patent Document 1 describes that a user manually inputs and designates a cutting start time and a cutting end time from an operation key while confirming a series of moving pictures, and performs a cutting process from moving picture data.

特開2010−178010号公報JP, 2010-178010, A

例えば、学生の卒業アルバムとしての学生毎の動画データを生成するサービスが考えられる。例えば、このようなサービスにおいて、効率的に複数の学生を撮影するために、1つのカメラが撮影を開始し、学生Aが当該カメラの撮影範囲に入ってきて一言コメントを言い、その後、学生Aが撮影範囲から出て、撮影を止めることなく、次の学生Bが当該カメラの撮影範囲に入ってきて一言コメントを言うようにして、各学生の動画を含む1つの動画ファイルを生成するケースが考えられる。   For example, a service may be considered that generates animation data for each student as a student's graduation album. For example, in such a service, in order to shoot a plurality of students efficiently, one camera starts shooting, student A enters the shooting range of the camera, says a single comment, and then the students As A goes out of the shooting range and the next student B enters the shooting range of the camera and says a single comment without stopping shooting, one moving image file including moving images of each student is generated Cases are conceivable.

すなわち、1つのカメラが、複数の学生が入れ替わり撮影範囲に入ってきて一言コメントを言う各学生の撮影を継続して行い、各学生の動画を含む1つの動画ファイルを生成するケースが考えられる。   That is, it is conceivable that one camera continuously shoots each student who turns into a shooting range and a plurality of students alternately enter a shooting range and says a single comment, and generates one moving image file including moving images of each student. .

このようにして撮影して得られた1つの動画ファイルから、学生ごとに、当該学生が映っている動画ファイルを切り出すために、従来、ユーザは、当該1つの動画ファイルの映像を確認しながら、切取開始時間、切取終了時間を手入力して指定しなければならず、その作業が煩雑であった。また、ユーザは、その際に、複数の学生が入れ替わる際の映像(学生が映っていない映像)も確認することとなり、効率的に、切り取り作業を行うことは難しかった。   Conventionally, in order to cut out a moving image file in which the student is shown from each moving image file obtained by photographing in this manner, the user checks the video of the one moving image file, It was necessary to manually enter and specify the start time and end time of the cut, and the work was complicated. In addition, at that time, the user also checks a video (a video in which a student is not shown) when a plurality of students are replaced, and it has been difficult to perform the cutting work efficiently.

そこで、本発明は、動画データを編集するためのイン点、又はアウト点を効率的に設定する仕組みを提供することを目的とする。   Therefore, an object of the present invention is to provide a mechanism for efficiently setting an in point or an out point for editing moving image data.

本発明は、人物が撮影された動画データの中から人物がフレームインした時間又はフレームを特定する第1特定手段と、前記動画データの中から人物が話し始めた時間又はフレームを特定する第2特定手段と、前記第2特定手段で特定された時間又はフレームに基づき特定される位置に、動画データを編集するためのイン点を設定する設定手段と、前記第1特定手段で特定された人物がフレームインしたフレームから、前記第2特定手段で特定された人物が話し始めたフレームまでのフレームの画像を解析する解析手段と、前記解析手段による解析結果を通知する通知手段とを備えることを特徴とする。   The present invention is a first specifying means for specifying a time or frame in which a person framed in video data in which a person is photographed, and a second specifying means for specifying a time or frame in which a person starts speaking from the moving image data Specifying means, setting means for setting an in point for editing moving image data at a position specified based on a time or frame specified by the second specifying means, and a person specified by the first specifying means Providing analysis means for analyzing an image of a frame from a frame framed in to a frame at which the person specified by the second identification means starts speaking, and notification means for notifying an analysis result by the analysis means It features.

また、本発明は、人物が撮影された動画データの中から人物がフレームインした時間又はフレームを特定する第1特定手段を備える情報処理装置の制御方法であって、前記動画データの中から人物が話し始めた時間又はフレームを特定する第2特定工程と、前記第2特定工程で特定した時間又はフレームに基づき特定される位置に、動画データを編集するためのイン点を設定する設定工程と、前記第1特定手段で特定された人物がフレームインしたフレームから、前記第2特定工程で特定した人物が話し始めたフレームまでのフレームの画像を解析する解析工程と、前記解析工程における解析結果を通知する通知工程とを備えることを特徴とする。   Further, the present invention is a control method of an information processing apparatus including a first specifying means for specifying a time or a frame at which a person enters a frame out of moving image data in which a person is photographed. A second identification step of identifying a time or frame at which the speaker started speaking, a setting step of setting an in point for editing moving image data at a position identified based on the time or frame identified in the second identification step An analysis step of analyzing an image of a frame from a frame in which a person identified by the first identification means enters a frame to a frame where the person identified in the second identification step starts talking; analysis results in the analysis step And a notifying step of notifying.

また、本発明は、人物が撮影された動画データの中から人物がフレームインした時間又はフレームを特定する第1特定手段を備える情報処理装置で読み取り実行可能なプログラムであって、前記情報処理装置を、前記動画データの中から人物が話し始めた時間又はフレームを特定する第2特定手段と、前記第2特定手段で特定された時間又はフレームに基づき特定される位置に、動画データを編集するためのイン点を設定する設定手段と、前記第1特定手段で特定された人物がフレームインしたフレームから、前記第2特定手段で特定された人物が話し始めたフレームまでのフレームの画像を解析する解析手段と、前記解析手段による解析結果を通知する通知手段として機能させることを特徴とする。   Further, the present invention is a program that can be read and executed by an information processing apparatus including first specifying means for specifying a time or a frame at which a person enters a frame from moving image data in which a person is photographed, the information processing apparatus Editing the moving image data at a position specified based on the time or frame specified by the second specifying means, and a second specifying means for specifying a time or frame when a person starts speaking from the moving image data Analyzing the image of the frame from the frame in which the person identified by the first identifying means to the setting means for setting the in point for the frame, to the frame in which the person identified by the second identifying means started speaking It is characterized in that it functions as an analysis means to perform, and a notification means to notify an analysis result by the analysis means.

また、本発明は、人物が撮影された動画データの中から人物がフレームアウトした時間又はフレームを特定する第1特定手段と、前記動画データの中から人物が話し終わった時間又はフレームを特定する第2特定手段と、前記第2特定手段で特定された時間又はフレームに基づき特定される位置に、動画データを編集するためのアウト点を設定する設定手段と、前記第2特定手段で特定された人物が話し終わったフレームから、前記第1特定手段で特定された人物がフレームアウトしたフレームまでのフレームの画像を解析する解析手段と、前記解析手段による解析結果を通知する通知手段とを備えることを特徴とする。   Further, according to the present invention, a first specifying means for specifying a time or frame in which a person framed out of moving image data in which a person was photographed, and a time or frame in which the person ended speaking from the moving image data Second specifying means, setting means for setting an out point for editing moving image data at a position specified based on the time or frame specified by the second specifying means, and specified by the second specifying means Analysis means for analyzing an image of a frame from a frame where a person has finished talking to a frame for which a person specified by the first identification means has framed out, and a notification means for notifying an analysis result by the analysis means It is characterized by

また、本発明は、人物が撮影された動画データの中から人物がフレームアウトした時間又はフレームを特定する第1特定手段を備える情報処理装置の制御方法であって、前記動画データの中から人物が話し終わった時間又はフレームを特定する第2特定工程と、前記第2特定工程で特定した時間又はフレームに基づき特定される位置に、動画データを編集するためのアウト点を設定する設定工程と、前記第2特定工程で特定した人物が話し終わったフレームから、前記第1特定手段で特定された人物がフレームアウトしたフレームまでのフレームの画像を解析する解析工程と、前記解析工程における解析結果を通知する通知工程とを備えることを特徴とする。   Further, the present invention is a control method of an information processing apparatus including a first specifying means for specifying a time or frame in which a person framed out of moving image data in which a person is photographed, which is a person among the moving image data. A second specifying step of specifying a time or frame in which the speaker has finished talking, and a setting step of setting an out point for editing moving picture data at a position specified based on the time or frame specified in the second specifying step Analyzing the image of the frame from the frame in which the person identified in the second identifying step ends to the frame in which the person identified by the first identifying means out of the frame; and the analysis result in the analyzing step And a notifying step of notifying.

また、本発明は、人物が撮影された動画データの中から人物がフレームアウトした時間又はフレームを特定する第1特定手段を備える情報処理装置で読み取り実行可能なプログラムであって、前記情報処理装置を、前記動画データの中から人物が話し終わった時間又はフレームを特定する第2特定手段と、前記第2特定手段で特定された時間又はフレームに基づき特定される位置に、動画データを編集するためのアウト点を設定する設定手段と、前記第2特定手段で特定された人物が話し終わったフレームから、前記第1特定手段で特定された人物がフレームアウトしたフレームまでのフレームの画像を解析する解析手段と、前記解析手段による解析結果を通知する通知手段として機能させることを特徴とする。   Further, the present invention is a program that can be read and executed by an information processing apparatus including first specifying means for specifying a time or frame in which a person framed out of moving image data in which a person is photographed, the information processing apparatus Editing the moving picture data at a position specified based on the time or frame specified by the second specifying means, and a second specifying means for specifying a time or frame in which the person has finished speaking from the moving picture data Analysis of an image of a frame from a frame in which the person specified by the second specifying means has finished talking to a frame in which the person specified by the first specifying means is framed out It is characterized in that it functions as an analysis means to perform, and a notification means to notify an analysis result by the analysis means.

本発明によると、動画データを編集するためのイン点、又はアウト点を効率的に設定することができる。
According to the present invention, it is possible to efficiently set an in point or an out point for editing moving image data.

本発明の情報処理システムのシステム構成の一例を示すである。1 shows an example of a system configuration of an information processing system of the present invention. 本発明の実施形態におけるPC101に適用可能な情報処理装置のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of the information processing apparatus applicable to PC101 in embodiment of this invention. 動画の各フレームと、ファイルの始点302、ファイルの終点303、IN点304、OUT点305との位置(時間)の関係を示す図の一例である。FIG. 7 is an example of a diagram showing the relationship of the position (time) of each frame of a moving image with the start point 302 of the file, the end point 303 of the file, the IN point 304, and the OUT point 305. 動画編集画面の一例を示す図である。It is a figure which shows an example of a moving image edit screen. 動画詳細編集画面の一例を示す図である。It is a figure which shows an example of an animation detailed edit screen. 第1の実施形態の動画編集に係る処理を示すフローチャートの一例である。It is an example of the flowchart which shows the processing concerning the animation edit of a 1st embodiment. 被写体の人物リストの一例を示す図である。It is a figure showing an example of a person list of a subject. 本実施形態の動画編集に係る処理を示すフローチャートの一例である。It is an example of the flowchart which shows the process which concerns on the moving image edit of this embodiment. 第2の実施形態の動画編集に係る処理を示すフローチャートの一例である。It is an example of the flowchart which shows the processing which relates to the animated picture compilation of 2nd execution form. 複数のユーザ(例えば、学生)が入れ替わり撮影され得られた、複数の学生の動画を含む1つの動画ファイル1001の概念図の一例を示す図である。It is a figure which shows an example of the conceptual diagram of one moving image file 1001 containing the moving image of a plurality of students by which a plurality of users (for example, students) were taken alternately and obtained.

以下、図面を参照して、本発明の実施形態を詳細に説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施形態の1つである。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific embodiments of the configuration described in the claims.

図1は、本発明の情報処理システムのシステム構成の一例を示すである。   FIG. 1 shows an example of the system configuration of the information processing system of the present invention.

PC101は、本発明の情報処理装置の適用例であり、デスクトップパソコン、ノートパソコン、タブレットPC等のPCである。   The PC 101 is an application example of the information processing apparatus of the present invention, and is a PC such as a desktop personal computer, a notebook personal computer, and a tablet personal computer.

また、カメラ104は、動画及び写真を含む静止画を撮影することが可能なデジタルカメラ、又はデジタルビデオカメラである。カメラ104は、PC101と、有線又は無線通信により相互にデータを送受信する機能を備えている。そのため、カメラ104は、カメラ104で撮影された動画の動画ファイルを、PC101に、当該有線又は無線通信により送信して、PC101のメモリ等の記憶手段に記録することができる。   Also, the camera 104 is a digital camera or digital video camera capable of capturing still images including moving images and photographs. The camera 104 has a function of transmitting and receiving data to and from the PC 101 by wired or wireless communication. Therefore, the camera 104 can transmit the moving image file of the moving image captured by the camera 104 to the PC 101 by the wired or wireless communication, and record the moving image file in the storage unit such as the memory of the PC 101.

また、カメラ104は、SDカード等の可搬型メモリ(携帯記録媒体)を装着可能であり、カメラ104で撮影された動画の動画ファイルを当該可搬型メモリに記録する機能を備えている。   In addition, the camera 104 can be mounted with a portable memory (portable recording medium) such as an SD card, and has a function of recording a moving image file of a moving image captured by the camera 104 in the portable memory.

カメラ104の撮像範囲(撮影範囲)は、椅子105に座った被写体(人物103)を撮影することができる撮像範囲である。   The imaging range (imaging range) of the camera 104 is an imaging range in which an object (person 103) sitting on the chair 105 can be imaged.

カメラ104は、ユーザによる撮影指示を受け付けると、カメラ104は、動画(映像)の撮影を開始する。また、カメラ104は、当該撮影された動画、及び静止画を、通信を介してPC101の記憶手段に記憶するか、当該可搬型メモリに記録する。可搬型メモリに記憶した場合には、カメラ104から当該可搬型メモリを取り出して、PC101に当該取り出した可搬型メモリを装着して、当該可搬型メモリに記憶された動画、及び静止画を、PC101のメモリにコピー(展開)する。   When the camera 104 receives a shooting instruction from the user, the camera 104 starts shooting a moving image (video). In addition, the camera 104 stores the captured moving image and still image in the storage unit of the PC 101 through communication, or records the captured moving image and the still image in the portable memory. When stored in the portable memory, the portable memory is taken out from the camera 104, and the portable memory taken out is attached to the PC 101, and the moving picture and still picture stored in the portable memory are transferred to the PC 101. Copy (expand) to the memory of.

このようにして、PC101は、カメラ104で撮影された動画、及び静止画を取得することができる。   Thus, the PC 101 can acquire a moving image and a still image captured by the camera 104.

カメラ104が動画の撮影を開始した後に、カメラ104の撮像範囲に人物(ユーザ)が入ってきて人物が椅子105に座る。そして、人物が、一言コメントを言う。   After the camera 104 starts shooting a moving image, a person (user) enters the imaging range of the camera 104, and the person sits on the chair 105. And a person says a single word comment.

そして、椅子105に座っていた人物(ユーザ)が立ち、カメラ104の撮像範囲外に移動しフレームアウトすることとなる。   Then, a person (user) sitting on the chair 105 stands up, moves out of the imaging range of the camera 104, and performs a frame out.

そして、撮影を止めることなく、次の異なる人物が、カメラ104の撮像範囲に入ってきて椅子105に座り、同様の動作を行うこととなる。このように、複数の学生が入れ替わり撮影範囲に入ってきて一言コメントを言うことで、カメラ104は、複数の学生の動画を含む1つの動画ファイルを生成し、当該生成された動画ファイルをPC101の記憶手段が記憶することとなる。   Then, without stopping shooting, the next different person comes into the imaging range of the camera 104, sits on the chair 105, and performs the same operation. Thus, the camera 104 generates one moving image file including moving images of a plurality of students by the plurality of students alternately entering the shooting range and saying a single comment, and the generated moving image file is used as the PC 101. The storage means of will be stored.

図10は、複数のユーザ(例えば、学生)が入れ替わり撮影され得られた、複数の学生の動画を含む1つの動画ファイル1001(動画データ)の概念図の一例を示す図である。   FIG. 10 is a view showing an example of a conceptual diagram of one moving image file 1001 (moving image data) including moving images of a plurality of students, obtained by alternately photographing a plurality of users (for example, students).

図10に示すように、複数の学生の動画を含む1つの動画ファイル1001には、木屋野太郎さんの一言コメント付きの動画1002が含まれており、そのあとに、木屋野次郎さんの一言コメント付きの動画1003が含まれており、そのあとに、木屋野三郎さんの一言コメント付きの動画1004が含まれており、そのあとに、木屋野四朗さんの一言コメント付きの動画1005が含まれていることを示している。   As shown in FIG. 10, one moving image file 1001 including videos of a plurality of students includes a moving image 1002 with a single comment by Taro Kiyano, and then one Jiro Kiyano Video 1003 with comment is included, followed by video 1004 with comment by Saburo Kiyano, and then video 1005 with comment by Shiro Kiyano Indicates that it is included.

また、PC101の記憶手段(メモリ)には、予め、被写体の人物リスト(図7)が記憶されており、この人物リスト(図7)に示される順番で、撮影が行われる。   Further, a person list (FIG. 7) of the subject is stored in advance in the storage means (memory) of the PC 101, and shooting is performed in the order shown in the person list (FIG. 7).

図7は、被写体の人物リストの一例を示す図である。   FIG. 7 is a diagram showing an example of the person list of the subject.

図7に示すように、1番目には、木屋野太郎さんが示されており、2番目には、木屋野次郎さんが示されており、3番目には、木屋野三郎さんが示されており、4番目には、木屋野四朗さんが示されている。   As shown in FIG. 7, Taro Kiyano is shown at the first, Jiro Kiyano is shown at the second, and Saburo Kiyano is shown at the third In the fourth place, Shiro Koyano is shown.

また、各人物の動画ファイルのパスが対応付けて登録される。なお、動画ファイルパスについては、あらかじめではなく、後述するステップS619やステップS919のタイミングで記憶される。   In addition, the path of the moving image file of each person is associated and registered. The moving image file path is stored not in advance but at the timing of steps S619 and S919 described later.

次に、図3を用いて、本発明の情報処理システムの基本的な動作について説明する。図3は、動画の各フレームと、ファイルの始点302、ファイルの終点303、IN点304、OUT点305との位置(時間)の関係を示す図の一例である。   Next, the basic operation of the information processing system of the present invention will be described with reference to FIG. FIG. 3 is an example of a diagram showing the relationship of the position (time) of each frame of the moving image with the start point 302 of the file, the end point 303 of the file, the IN point 304, and the OUT point 305.

説明を簡単にするために、図3、後述する図5に示すファイルの始点302とIN点304との間のフレーム308は1つのみを示しているが、複数のフレームが含まれていてもよい。また、同様に、OUT点305とファイルの終点303との間にはフレーム307だけではなく複数のフレームが含まれていてもよい。   Although the frame 308 between the start point 302 of the file and the IN point 304 shown in FIG. 3 and FIG. 5 described later is shown only for the sake of simplifying the explanation, even if a plurality of frames are included. Good. Similarly, not only the frame 307 but a plurality of frames may be included between the OUT point 305 and the end point 303 of the file.

ファイルの始点302は、人物を検出できなかったフレーム308と、人物を検出できたと判定されたフレーム306との間の位置(時間)に設定される。   The start point 302 of the file is set to a position (time) between the frame 308 in which the person could not be detected and the frame 306 determined to have detected the person.

ファイルの終点303は、最後に人物を検出できたと判定されたフレーム307と、人物を検出できなくなったフレーム309との間の位置(時間)に設定される。   The end point 303 of the file is set to a position (time) between the frame 307 determined to have finally detected a person and the frame 309 that has not detected a person.

IN点304は、人物の音声を検知し、その音声のボリュームが所定の値に到達する所定時間前(例えば1秒前)に設定される。   The IN point 304 detects the voice of a person, and is set a predetermined time (for example, one second) before the volume of the voice reaches a predetermined value.

OUT点305は、人物の音声のボリュームが所定の値より小さくなった所定時間後(例えば1秒後)に設定される。   The OUT point 305 is set after a predetermined time (for example, one second) after the volume of the voice of the person becomes smaller than a predetermined value.

そして動画ファイル生成時には、IN点304、OUT点305の位置で動画を切り取り、氏名(ユーザ)ごとの動画ファイルを生成する。   Then, at the time of moving image file generation, the moving image is cut at the positions of the IN point 304 and the OUT point 305, and a moving image file for each name (user) is generated.

これにより、ユーザが動画の映像を確認しながら、動画の切り出し位置を手入力して指定し、切り出し処理を行う手間を削減することが可能となる。   As a result, while the user confirms the video of the moving image, it is possible to reduce the time and effort required to manually input and specify the cutout position of the moving image and perform the cutout processing.

ところで、上述した方法で動画を切り出す場合、例えば、OUT点305とファイルの終点303の間のフレーム(フレーム307)で人物が言葉を発することなく何かをしている場合、例えば、手を振っている場合に、その動画が再生されないという課題があった。   By the way, when cutting out a moving image by the above-mentioned method, for example, when a person is doing something without speaking a word in a frame (frame 307) between the OUT point 305 and the end point 303 of the file, for example, There was a problem that the video was not played back.

そこで、本発明では、上述した課題を解決するために、第1の実施形態では、ファイルの始点302と、IN点304との間のフレーム(フレーム306)の間の時間が所定時間を超えるかと、OUT点305とファイルの終点303の間のフレーム(フレーム307)の間の時間(フレーム数)が所定時間を超えるかを判定し、超える場合には、その間に言葉を発することなく何か動作を行っていると判断し、動画ファイルの編集者に通知して確認を促す。   Therefore, in the present invention, in order to solve the problems described above, in the first embodiment, whether the time between the frame (frame 306) between the start point 302 of the file and the IN point 304 exceeds a predetermined time , Determine whether the time (the number of frames) between the frame (frame 307) between the OUT point 305 and the end point 303 of the file exceeds a predetermined time, and if so, do something without speaking a word in between To notify the editor of the video file to prompt confirmation.

また、第2の実施形態では、ファイルの始点302と、IN点304との間のフレーム(フレーム306)の間のフレーム、およびOUT点305とファイルの終点303の間のフレーム(フレーム307)の間のフレームを解析し、人物が動作を行っていると判定される場合には、動画ファイルの編集者に通知して確認を促す。   In the second embodiment, the frame between the start point 302 of the file and the frame between the IN point 304 (frame 306) and the frame between the OUT point 305 and the end point 303 of the file (frame 307). The frame between them is analyzed, and when it is determined that the person is performing an operation, the editor of the moving image file is notified to urge confirmation.

通知を受けた、動画ファイルの編集者は、図5に示す動画詳細編集画面で、IN点コントロール503、OUT点コントロール504により、IN点、およびOUT点の調整を行う。図5(A)は、編集者から編集を受け付ける前の状態であり、フレーム501と、フレーム502は、何か動作を行っていると判断されたフレームであり、それぞれのフレームには、編集者に確認させるための通知(本実施形態では、「!」)がされる。なお、何か動作を行っていると判断されたフレームをユーザが識別できれば良いため、フレーム501の周囲を特定の色で囲むことで識別させても、フレーム501を点滅させても良い。   The editor of the moving image file that has received the notification adjusts the IN point and the OUT point by the IN point control 503 and the OUT point control 504 on the moving picture detailed editing screen shown in FIG. FIG. 5A shows a state before accepting editing from the editor, and the frame 501 and the frame 502 are frames determined to be performing an operation, and each of the frames is an editor. A notification (in the present embodiment, “!”) For confirmation is issued. It is sufficient that the user can identify a frame determined to be performing an operation, so that the frame 501 may be blinked or identified by surrounding the frame 501 with a specific color.

そして、図5(B)に示すように、編集者からIN点コントロール503をフレーム501よりも左側、OUT点コントロール504をフレーム502の右側に動かすことにより、フレーム501と、フレーム502を動画ファイルに含めることが可能である。フレーム501と、フレーム502が動画ファイルに含められると、通知は消える。   Then, as shown in FIG. 5B, the editor moves the IN point control 503 to the left of the frame 501 and the OUT point control 504 to the right of the frame 502, thereby converting the frame 501 and the frame 502 into a moving image file. It is possible to include. The notification disappears when the frame 501 and the frame 502 are included in the movie file.

上述した通知、および編集を行うことにより、IN点とファイルの始点の間のフレーム、およびOUT点とファイルの終点の間のフレームで人物が言葉を発することなく何かをしている場合に、その動画が再生されないという課題を解決することが可能となる。   If the person is doing something without speaking in the frame between the IN point and the start of the file and the frame between the OUT point and the end of the file by performing the above mentioned notification and editing, It becomes possible to solve the problem that the moving image is not reproduced.

では、以下本発明における処理について説明するが、まず図2を用いて、PC101のハードウェア構成について説明する。   The processing in the present invention will be described below. First, the hardware configuration of the PC 101 will be described with reference to FIG.

図2は、本発明の実施形態におけるPC101に適用可能な情報処理装置のハードウェア構成の一例を示すブロック図である。各装置ともに、同様な構成を備えるため、同一の符号を用いて説明する。   FIG. 2 is a block diagram showing an example of a hardware configuration of an information processing apparatus applicable to the PC 101 in the embodiment of the present invention. The respective devices have the same configuration, and therefore will be described using the same reference numerals.

図2において、201はCPUで、システムバス204に接続される各デバイスやコントローラを統括的に制御する。また、ROM202あるいは外部メモリ211には、CPU201の制御プログラムであるBIOS(Basic Input / Output System)やオペレーティングシステムプログラム(以下、OS)や、PCの実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。   In FIG. 2, reference numeral 201 denotes a CPU, which centrally controls devices and controllers connected to the system bus 204. Further, the ROM 202 or the external memory 211 may be a BIOS (Basic Input / Output System) which is a control program of the CPU 201, an operating system program (hereinafter referred to as an OS), and various kinds of functions described later. Programs and the like are stored.

203はRAMで、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をROM202あるいは外部メモリ211からRAM203にロードして、ロードしたプログラムを実行することで各種動作を実現するものである。   A RAM 203 functions as a main memory, a work area, and the like of the CPU 201. The CPU 201 loads programs necessary for execution of processing from the ROM 202 or the external memory 211 to the RAM 203, and implements various operations by executing the loaded programs.

また、205は入力コントローラで、キーボード(KB)209等のポインティングデバイス等からの入力を制御する。206はビデオコントローラで、ディスプレイ210(液晶、ブラウン管を問わない)等の表示器への表示を制御する。   An input controller 205 controls an input from a pointing device such as a keyboard (KB) 209 or the like. Reference numeral 206 denotes a video controller which controls display on a display such as a display 210 (whether liquid crystal or CRT).

207はメモリコントローラで、ブートプログラム、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶する外部記憶装置(ハードディスク(HD))や、フレキシブルディスク(FD)、或いはPCMCIAカードスロットにアダプタを介して接続されるコンパクトフラッシュ(登録商標)メモリ等の外部メモリ211へのアクセスを制御する。   A memory controller 207 is an external storage device (hard disk (HD)) for storing a boot program, various applications, font data, user files, editing files, various data, etc., a flexible disk (FD), or a PCMCIA card slot. It controls access to external memory 211 such as Compact Flash (registered trademark) memory connected via an adapter.

208は通信I/Fコントローラで、ネットワークを介して外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いた通信等が可能である。   A communication I / F controller 208 connects and communicates with an external device via a network, and executes communication control processing in the network. For example, communication using TCP / IP is possible.

なお、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ210上での表示を可能としている。また、CPU201は、ディスプレイ210上の不図示のマウスカーソル等でのユーザ指示を可能とする。   Note that the CPU 201 enables display on the display 210 by executing, for example, outline font rasterization processing on a display information area in the RAM 203. In addition, the CPU 201 enables user instruction with a mouse cursor (not shown) or the like on the display 210.

本発明を実現するための後述する各種プログラムは、外部メモリ211に記録されており、必要に応じてRAM203にロードされることによりCPU201によって実行されるものである。さらに、上記プログラムの実行時に用いられる設定ファイル等も外部メモリ211に格納されており、これらについての詳細な説明も後述する。以上で、図2の説明を終了する。   Various programs to be described later for realizing the present invention are stored in the external memory 211, and are executed by the CPU 201 by being loaded into the RAM 203 as necessary. Furthermore, setting files and the like used at the time of execution of the program are also stored in the external memory 211, and a detailed description of these will be described later. This is the end of the description of FIG.

次に、図8のフローチャートを用いて、第1、および第2の実施形態におけるPC101が実行する処理について説明する。   Next, processing executed by the PC 101 in the first and second embodiments will be described using the flowchart in FIG. 8.

図8は、本実施形態の動画編集に係る処理を示すフローチャートの一例であり、図8の処理は、第1、および第2の実施形態で共通の処理である。   FIG. 8 is an example of a flowchart showing processing relating to moving image editing of this embodiment, and the processing of FIG. 8 is processing common to the first and second embodiments.

PC101は、まず、所定の制御プログラムを起動すると、動画編集画面をディスプレイ210等の表示部に表示する。   First, when the predetermined control program is activated, the PC 101 displays a moving image editing screen on a display unit such as the display 210.

そして、ステップS801において、PC101は、処理対象となる図7に示す被写体の人物リストの選択をユーザにより受け付けて読み取る。PC101は、ステップS801で読み取った人物リストのうち最も順番の早い(番号が低い)氏名(被写体を識別する情報)を処理対象として特定する。   Then, in step S801, the PC 101 receives and reads the selection of the person list of the subject shown in FIG. 7 to be processed by the user. The PC 101 specifies, among the person list read in step S801, the name (information with a low number) having the earliest order (information identifying a subject) as a processing target.

ステップS802において、PC101は、ステップS801で選択を受け付けた人物リストに対応し、処理対象とする1つの動画ファイルの読み取り指示をユーザにより受け付け、当該動画ファイルの読み取りを開始する。   In step S802, the PC 101 corresponds to the person list selected in step S801, receives an instruction to read one moving image file to be processed by the user, and starts reading the moving image file.

例えば、クラスごとの動画ファイルを生成し、例えば、図7に示すような被写体の人物リストが、学生のクラスごとに、記憶されており、どのクラスの学生の動画を処理するかを選択し、そのクラスの動画ファイルを処理対象として読み込むことができる。   For example, a moving image file for each class is generated, and for example, a person list of subjects as shown in FIG. 7 is stored for each class of students, and it is selected which moving image of students of the class is to be processed. You can load a movie file of that class as a processing target.

ステップS802における動画ファイルの読み取り処理の開始は、動画の最初のフレームから順に読み取り開始することを意味する。   The start of the moving image file reading process in step S802 means that reading is started sequentially from the first frame of the moving image.

ステップS803において、PC101は、動画編集に係る処理を実行する。図8の処理の詳細は、第1の実施形態については、図6を用いて説明し、第2の実施形態については、図9を用いて説明する。   In step S803, the PC 101 executes processing relating to moving image editing. Details of the process of FIG. 8 will be described using FIG. 6 for the first embodiment, and using FIG. 9 for the second embodiment.

ステップS804において、PC101は、ユーザにより、図4の動画編集画面にリスト表示された各氏名の各動画のうち1つの動画が選択され、ユーザにより、再生ボタン413の押下を受け付けたか否かを判定することにより、当該動画の再生指示を受け付けたか否かを判定する。   In step S804, the PC 101 determines whether one of the moving images of each name listed on the moving image editing screen in FIG. 4 is selected by the user and the user accepts the pressing of the play button 413. By doing this, it is determined whether or not an instruction to play back the moving image has been received.

ここでは、後述するステップS616、ステップS917でユーザ操作を受け付けることにより編集処理を行う前の動画、又は、S616、ステップS917の編集処理後の動画(IN点、又はOUT点の位置を任意の位置に変更された動画)についての再生指示を受け付けたか否かを判定する。   Here, the moving image before performing the editing process by accepting the user operation in step S616 and step S917 described later, or the moving image after the editing process of S616 and step S917 (the position of the IN point or the OUT point is an arbitrary position It is determined whether or not the reproduction instruction for the (moving image) changed to is received.

ステップS805において、PC101は、動画の再生指示を受け付けたと判定された場合には、当該動画の動画ファイルの読み込みを行い、当該動画の再生を行う。ここでは、IN点コントロール503以前のフレーム(群)、OUT点コントロール504以後のフレーム(群)については、再生されない。   In step S805, when it is determined that the reproduction instruction of the moving image is accepted, the PC 101 reads the moving image file of the moving image, and reproduces the moving image. Here, the frame (group) before the IN point control 503 and the frame (group) after the OUT point control 504 are not reproduced.

ステップS806において、PC101は、当該動画の再生が終了した場合には(ステップS806:YES)、本処理を終了し、動画の再生が終了していない場合には、引き続き、当該動画の再生を行う。以上で、図8の説明を終了する。   In step S806, if the reproduction of the moving image is ended (step S806: YES), the PC 101 ends the processing. If the reproduction of the moving image is not ended, the PC 101 continues to reproduce the moving image. . This is the end of the description of FIG.

次に、図6のフローチャートを用いて、第1の実施形態におけるPC101が実行する処理について説明する。   Next, processing executed by the PC 101 in the first embodiment will be described using the flowchart in FIG.

図6は、第1の実施形態の動画編集に係る処理を示すフローチャートの一例である。   FIG. 6 is an example of a flowchart showing processing relating to moving image editing according to the first embodiment.

図6は、PC101のCPU201が所定の制御プログラムを読み出して実行する処理である。   FIG. 6 shows a process in which the CPU 201 of the PC 101 reads and executes a predetermined control program.

ステップS601において、PC101は、動画(フレーム)を読み込み、当該読み込んだ動画(フレーム)を解析して、当該フレームの中に人物が含まれているか、すなわち、当該フレーム中の人物を検出できたか否かを判定する。   In step S601, the PC 101 reads a moving image (frame), analyzes the read moving image (frame), and includes a person in the frame, that is, can not detect a person in the frame. Determine if

そして、PC101は、当該フレームの中に人物が含まれていない、すなわち、当該フレーム中の人物を検出できなかったと判定された場合には(ステップS601:NO)、次のフレームを読み取り、当該読み取ったフレームに対して、ステップS601の処理を実行する。   Then, when it is determined that the person is not included in the frame, that is, the person in the frame can not be detected (step S601: NO), the PC 101 reads the next frame, and the reading is performed. The process of step S601 is performed on the selected frame.

ステップS601は、本発明における、人物が撮影された動画データの中から人物がフレームインした時間又はフレームを特定する第1特定手段の一例である。   Step S601 is an example of a first specifying means for specifying a time or a frame at which a person frames in the moving image data in which the person is photographed in the present invention.

PC101は、当該フレームの中に人物が含まれている、すなわち、当該フレーム中の人物を検出できたと判定された場合には(ステップS601:YES)、人物を検出できなかったフレームと、人物を検出できたと判定されたフレームとの間の位置(時間)に、動画ファイル始点(図3のファイルの始点302)を設定する(ステップS602)。   If the PC 101 determines that a person is included in the frame, that is, it is determined that the person in the frame has been detected (step S601: YES), the frame in which the person could not be detected, and the person. The moving image file start point (the file start point 302 in FIG. 3) is set at a position (time) between the frame determined to have been detected (step S602).

ステップS603において、PC101は、PC101は、人物が発する音声を検出し、かつ、その音声のレベル(ボリューム)が所定の値に達したか否かを判定する。そして、PC101は、音声のレベルが所定の値に達したと判定されると(ステップS603:YES)、ステップS604において、音声のレベルが所定の値に達したと判定されたときのフレームよりも所定時間前(例えば1秒前)のフレームにIN点(図3のIN点304)を設定する。   In step S603, the PC 101 detects the voice emitted by the person and determines whether the level (volume) of the voice has reached a predetermined value. Then, when it is determined that the voice level has reached the predetermined value (step S603: YES), the PC 101 is more than the frame when it is determined in step S604 that the voice level has reached the predetermined value. An IN point (IN point 304 in FIG. 3) is set to a frame before a predetermined time (for example, one second).

ステップS603は、本発明における、前記動画データの中から人物が話し始めた時間又はフレームを特定する第2特定手段の一例である。   Step S603 is an example of a second specifying unit for specifying a time or a frame at which a person starts speaking from the moving image data in the present invention.

また、ステップS604は、本発明における、前記第2特定手段で特定された時間又はフレームに基づき特定される位置に、動画データを編集するためのイン点を設定する設定手段の一例である。   Step S604 is an example of setting means for setting an in point for editing moving picture data at a position specified based on the time or frame specified by the second specifying means in the present invention.

ステップS605において、PC101は、ステップS602で設定した動画ファイルの始点からステップS604で設定したIN点までの間の時間(フレーム数)が所定時間(所定枚数)を超えるかを判定する。ステップS605における所定時間とは、例えば、10秒である。   In step S605, the PC 101 determines whether the time (number of frames) from the start point of the moving image file set in step S602 to the IN point set in step S604 exceeds a predetermined time (predetermined number of sheets). The predetermined time in step S605 is, for example, 10 seconds.

PC101は、所定の時間を超える場合には(ステップS605:YES)、動画ファイルの始点からIN点までの間に何か動作を行っていると判断し、ステップS606で、動画ファイルに識別情報を付加する。識別情報とは、後述する図4の識別表示408や、図5のフレーム501上に表示される「!」を表示するための情報である。   If the predetermined time is exceeded (step S605: YES), the PC 101 determines that something is being performed between the start point of the moving image file and the IN point, and in step S606 the identification information is added to the moving image file. Add The identification information is information for displaying an identification display 408 of FIG. 4 described later and “!” Displayed on the frame 501 of FIG. 5.

ステップS607において、PC101は、人物が発する音声のレベル(ボリューム)が所定の値まで低下したか否かを判定する。そして、PC101は、音声のレベルが所定の値まで低下したと判定されると(ステップS607:YES)、ステップS608において、音声のレベルが所定の値まで低下したと判定されてから所定時間(例えば1秒前)経過したかを判定し、所定時間が経過したと判定されると(ステップS608:YES)、所定時間経過後のフレームにOUT点(図3のOUT点305)を設定する(ステップS609)。
ステップS607は、本発明における、前記動画データの中から前記人物が話し終わった時間又はフレームを特定する第2特定手段の一例である。
In step S607, the PC 101 determines whether the level (volume) of the sound emitted by the person has decreased to a predetermined value. When it is determined that the voice level has decreased to a predetermined value (step S607: YES), the PC 101 determines in step S608 that the voice level has decreased to a predetermined value (for example, a predetermined time). If it is determined that the predetermined time has elapsed (step S 608: YES), the OUT point (OUT point 305 in FIG. 3) is set in the frame after the predetermined time has elapsed (step S 608) S609).
Step S 607 is an example of a second specifying means for specifying a time or a frame at which the person has finished speaking from the moving image data in the present invention.

また、ステップS609は、本発明における、前記第2の特定手段で特定された時間又はフレームに基づき特定される位置に、動画データを編集するためのアウト点を設定する設定手段の一例である。   Step S609 is an example of setting means for setting an out point for editing moving picture data at a position specified based on the time or frame specified by the second specifying means in the present invention.

ステップS610において、PC101は、現在処理対象のフレームの中に人物が含まれていないか否か、すなわち、当該フレーム中の人物を検出できなかったか否かを判定する。   In step S610, the PC 101 determines whether a person is not included in the frame to be currently processed, that is, whether or not a person in the frame can not be detected.

PC101は、フレームの中に人物が含まれている、すなわち、当該フレーム中の人物を検出できたと判定された場合には(S610:NO)、次のフレームを処理対象にして、再度、S610の処理を行う。   When it is determined that the person is included in the frame, that is, the person in the frame can be detected (S610: NO), the PC 101 sets the next frame as a processing target, and performs the processing in S610 again. Do the processing.

ステップS610は、本発明における、人物が撮影された動画データの中から人物がフレームアウトした時間又はフレームを特定する第1特定手段の一例である。   Step S610 is an example of a first specifying means for specifying a time or a frame at which a person framed out of moving image data in which a person is photographed in the present invention.

ステップS611において、PC101は、フレーム中に人物が含まれていない、すなわち、当該フレーム中の人物を検出できないと判定された場合には(S610:YES)、人物が含まれていないと判定されたフレームと、その直前のフレーム(人物が検出されたフレーム)との間の位置(時間)に動画ファイル終点(図3のファイルの終点303)を設定する。   In step S611, if it is determined that the frame does not include a person in the frame, that is, the person in the frame can not be detected (S610: YES), it is determined that the person is not included. The moving image file end point (the end point 303 of the file in FIG. 3) is set at the position (time) between the frame and the frame immediately preceding it (the frame in which a person is detected).

ステップS612において、PC101は、ステップS609で設定したOUT点からステップS611で設定した動画ファイルの終点までの間の時間(フレーム数)が所定時間(所定枚数)を超えるかを判定する。ステップS605における所定時間とは、例えば、10秒である。   In step S612, the PC 101 determines whether the time (number of frames) from the OUT point set in step S609 to the end point of the moving image file set in step S611 exceeds a predetermined time (predetermined number of sheets). The predetermined time in step S605 is, for example, 10 seconds.

PC101は、所定の時間を超える場合には(ステップS612:YES)、OUT点から動画ファイルの終点までの間に何か動作を行っていると判断し、ステップS613で、動画ファイルに識別情報を付加する。識別情報とは、後述する図4の識別表示408や、図5のフレーム502上に表示される「!」を表示するための情報である。   If the predetermined time is exceeded (step S612: YES), the PC 101 determines that something is being performed between the OUT point and the end point of the moving image file, and in step S613, identifies the identification information in the moving image file. Add The identification information is information for displaying an identification display 408 in FIG. 4 described later and “!” Displayed on the frame 502 in FIG. 5.

ステップS614において、PC101は、ステップS802で読み込んだ動画ファイルを、ステップS602でファイル始点が設定された位置(時間)と、ステップS611でファイル終点が設定された位置(時間)とで切り出して、当該切り出された動画ファイルと、現在の処理対象の氏名(被写体を識別する情報)とを対応付けて外部メモリ211に一時的に記憶する。また、ステップS604で設定されたIN点の位置(時間)の情報と、ステップS609で設定されたOUT点の位置(時間)の情報と、ステップS606で付加された識別情報と、ステップS613で付加された識別情報も外部メモリ211に一時的に記憶する。   In step S614, the PC 101 cuts out the moving image file read in step S802 at the position (time) where the file start point is set in step S602 and the position (time) where the file end point is set in step S611. The extracted moving image file and the name of the current processing target (information for identifying the subject) are associated with each other and temporarily stored in the external memory 211. Also, the information of the position (time) of the IN point set in step S604, the information of the position (time) of the OUT point set in step S609, the identification information added in step S606, and the addition in step S613. The stored identification information is also temporarily stored in the external memory 211.

ステップS615において、PC101は、ステップS801で読み込んだ動画ファイルのすべてに対して、ステップS601からステップS614までの処理の処理対象にしたか否か、または、ステップS801で読み取った人物リストの全ての氏名を処理対象として、ステップS601からステップS614までの処理を実行したか否かを判定することにより、ステップS802で読み込んだ動画ファイルの切り出し、IN点、OUT点の設定の処理を終了するか否かを判定する。   In step S615, the PC 101 determines whether all the moving image files read in step S801 have been subjected to the processing in steps S601 to S614, or all names in the person list read in step S801. Whether or not the process of cutting out the moving image file read in step S802 and setting the IN point and the OUT point is ended by determining whether or not the process from step S601 to step S614 is performed with Determine

PC101は、ステップS615において、ステップS801で読み込んだ動画ファイルのすべてに対して、ステップS601からステップS614までの処理の処理対象にした、または、ステップS801で読み取った人物リストの全ての氏名を処理対象として、ステップS601からステップS614までの処理を実行したと判定された場合には、ステップS802で読み込んだ動画ファイルの切り出し、IN点、OUT点の設定の処理を終了すると判定し(ステップS615:YES)、処理をステップS616に移行する。   In step S615, the PC 101 targets all of the moving image files read in step S801 for the processing in steps S601 to S614, or all names in the person list read in step S801 If it is determined that the process from step S601 to step S614 has been executed, it is determined that the process of cutting out the moving image file read in step S802 and setting the IN point and OUT point is ended (step S615: YES ), The process proceeds to step S616.

また、PC101は、ステップS615において、ステップS801で読み込んだ動画ファイルのすべてに対して、ステップS601からステップS614までの処理の処理対象にしていない、または、ステップS801で読み取った人物リストの全ての氏名を処理対象として、S601からS614までの処理を実行していないと判定された場合には、ステップS802で読み込んだ動画ファイルの切り出し、IN点、OUT点の設定の処理を終了しないと判定し(S615:NO)、ステップS801で読み取った人物リストの未処理の氏名のうち最も順番の早い(番号が低い)氏名を処理対象にすると共に、引き続き、ステップS802で読み込んだ動画ファイルの次のフレームを処理対象にして、処理をS601に移行する。   In step S615, the PC 101 does not process all the moving image files read in step S801, or all names in the person list read in step S801. If it is determined that the process from S601 to S614 has not been executed, it is determined that the process of cutting out the moving image file read in step S802 and setting the IN point and OUT point is not completed ( (S615: NO), among the unprocessed names in the person list read in step S801, the name with the earliest (low numbered) name is to be processed, and the next frame of the moving image file read in step S802 is The processing is shifted to S601 as a processing target.

ステップS616において、PC101は、ステップS802で読み込んだ動画ファイルと、当該動画ファイルと対応付けて登録された氏名との一覧(リスト)を、動画編集画面(図4)に表示する。   In step S616, the PC 101 displays a list (list) of the moving image file read in step S802 and names registered in association with the moving image file on the moving image editing screen (FIG. 4).

ステップS616は、本発明における、前記第1特定手段で特定された人物がフレームインした時間又はフレームから、前記第2特定手段で特定された人物が話し始めた時間又はフレームまでの時間又はフレーム数を用いて、前記設定手段により設定されたイン点を修正すべきかを確認させるべく、通知する通知手段の一例であり、前記第2特定手段で特定された人物が話し終わった時間又はフレームから、前記第1特定手段で特定された人物がフレームアウトした時間又はフレームまでの時間又はフレーム数を用いて、前記設定手段により設定されたアウト点を修正すべきかを確認させるべく、通知する通知手段の一例である。   Step S616 is the time or frame number from the time or frame when the person specified by the first specifying means to the frame in the present invention to the time or frame when the person specified by the second specifying means starts talking Is an example of a notification means for notifying to confirm that the in-point set by the setting means should be corrected, using a time or a frame at which the person specified by the second specifying means has finished talking The notification means for notifying to confirm whether the out point set by the setting means should be corrected by using the time or the number of frames up to the time or the frame when the person specified by the first specifying means framed out It is an example.

ここで、図4について説明する。図4は、動画編集画面の一例を示す図である。   Here, FIG. 4 will be described. FIG. 4 is a diagram showing an example of a moving image editing screen.

401は、図7に示す人物リストの順番の値であり、401は、氏名を示している。これらの被写体を識別する情報と対応付けてS614、後述するステップS914で記憶した動画ファイルが、403、404に動画のタイムラインとして示されている。403は、IN点(図3のIN点304)とOUT点(図3のOUT点305)との間の動画のライムラインを示しており、404は、OUT点とファイル終点(図3のファイルの終点303)との間の動画のタイムラインが示されている。また、411は、ファイル終点以降の動画を示している。   Reference numeral 401 denotes the value of the order of the person list shown in FIG. 7, and reference numeral 401 denotes the name. The moving image files stored in step S 914 described later in association with the information for identifying the subject are shown in 403 and 404 as a moving image timeline. 403 indicates the limeline of the moving image between the IN point (IN point 304 in FIG. 3) and the OUT point (OUT point 305 in FIG. 3); 404 indicates the OUT point and the file end point (file in FIG. 3) The timeline of the animation between the end point 303) of the is shown. Reference numeral 411 denotes a moving image after the end of the file.

また、402は、IN点とOUT点との間の動画、又はIN点とOUT点との間の動画の各フレームのうち先頭のフレームの縮小画像(例えばサムネイル画像)である。   Reference numeral 402 denotes a reduced image (for example, a thumbnail image) of the first frame of the moving image between the IN point and the OUT point or the moving image between the IN point and the OUT point.

また、412は、ファイル始点(図3のファイルの始点302)とIN点との間の動画のタイムラインとして示されている。   Also, reference numeral 412 denotes a moving image timeline between the file start point (the file start point 302 in FIG. 3) and the IN point.

405は、切り出された動画ファイルに含まれる音の波形が表示される領域である。   Reference numeral 405 denotes an area in which the waveform of the sound included in the clipped moving image file is displayed.

406は、ステップS614、後述するステップS914において切り出された動画ファイルと、現在の処理対象の氏名(被写体を識別する情報)とが対応付けられて登録(設定)され、ユーザの指示により、ステップS617、後述するステップS917において任意にIN点、OUT点の編集(変更)の設定がなされ、当該IN点、OUT点に基づき切り出され登録される動画ファイルの処理対象を選択するためのボタン(指示受付部)である。すなわち、誰の動画を処理対象にするにするかを選択するためのボタンである。   In step S614, the moving image file extracted in step S914 to be described later is associated (registered) with the current processing target name (information identifying the subject) and is registered (set) by the user's instruction. In step S 917 described later, editing (modification) of IN point and OUT point is arbitrarily set, and a button for selecting a processing target of a moving image file cut out and registered based on the IN point and OUT point (instruction acceptance Department). That is, it is a button for selecting which moving image is to be processed.

図4に示すように、上述の401〜406、411、412は、氏名ごと(ステップS614、後述するステップS914で切り出された動画ファイルごと)にそれぞれリスト表示されている。410は、ファイル生成ボタンである。   As shown in FIG. 4, the above-mentioned 401 to 406, 411, and 412 are listed and displayed for each name (step S614, for each moving image file cut out in step S914 described later). Reference numeral 410 denotes a file generation button.

図4に示すように、上述の401〜406、411、412は、氏名ごと(ステップS614、後述するステップS914で切り出された動画ファイルごと)にそれぞれリスト表示されているが、いずれかの動画又は氏名(被写体を識別する情報)が選択されると、当該動画のプレビュー表示を行う表示領域407を動画編集画面(図4)は備えている。また、413は、再生ボタンであり、当該いずれかの動画又は氏名(被写体を識別する情報)が選択され、再生ボタン413がユーザにより押下されると、当該動画のプレビューを表示領域407に表示する。   As shown in FIG. 4, the above-mentioned 401 to 406, 411, and 412 are listed and listed for each name (step S614, each moving image file cut out in step S914 described later). When a name (information for identifying a subject) is selected, a moving image editing screen (FIG. 4) has a display area 407 for displaying a preview of the moving image. Reference numeral 413 denotes a play button, which displays a preview of the moving image in the display area 407 when any one of the moving images or names (information for identifying the subject) is selected and the reproduction button 413 is pressed by the user. .

409は、リスト表示された動画又は氏名のいずれかが選択され、当該選択された動画のIN点、OUT点の編集指示をユーザにより受け付ける表示領域である。具体的には、409の表示領域は、例えば、図5(A)あるいは図5(B)が表示される表示領域である。   Reference numeral 409 denotes a display area in which either the moving image or the name displayed in a list is selected, and the user receives an instruction to edit the IN point and OUT point of the selected moving image. Specifically, the display area 409 is, for example, a display area in which FIG. 5 (A) or FIG. 5 (B) is displayed.

識別表示408は、ステップS606、ステップS613、後述するステップS906、ステップS913で、動画ファイルに識別情報が付加されている場合に、当該識別情報が付加された動画ファイルをユーザが認識可能となるように囲っている。   When the identification information is added to the moving image file in step S606, step S613, and steps S906 and S913 described later, the identification display 408 enables the user to recognize the moving image file to which the identification information is added. Surrounded by

なお、識別情報が付加された動画ファイルをユーザが識別できれば良いため、当該動画ファイルの欄を点滅させたり、氏名401の色を変えることで識別させても良い。   In addition, as long as the user can identify the moving image file to which the identification information is added, identification may be performed by blinking the column of the moving image file or changing the color of the name 401.

識別表示408を行うことにより、IN点とファイルの始点の間のフレーム、およびOUT点とファイルの終点の間のフレームで人物が言葉を発することなく何かをしている動画ファイルをユーザが容易に特定することができ、当該動画ファイルの編集(IN点、OUT点の修正)をスムーズに実行することが可能となる。   By performing the identification display 408, the user can easily make a moving image file in which the person does something without speaking in the frame between the IN point and the start point of the file and the frame between the OUT point and the end point of the file It becomes possible to execute editing of the moving image file (correction of IN point and OUT point) smoothly.

なお、ステップS606、ステップS613、後述するステップS906、ステップS913で、動画ファイルに識別情報が付加されている場合には、409の表示領域に表示される図5(A)あるいは図5(B)上でも、何か動作を行っていると判断されたフレーム(フレーム501と、フレーム502)が識別表示される。   If identification information is added to the moving image file in step S606, step S613, step S906 described later, or step S913, FIG. 5 (A) or FIG. 5 (B) is displayed in the display area 409. Also in the above, the frames (frame 501 and frame 502) determined to be performing an operation are identified and displayed.

以上で図4の説明を終了し、図6の説明に戻る。   This completes the description of FIG. 4 and returns to the description of FIG.

ステップS617において、PC101は、動画編集画面(図4)を介して、ユーザによる操作指示を受け付ける。   In step S617, the PC 101 receives an operation instruction from the user via the moving image editing screen (FIG. 4).

例えば、PC101は、ユーザの操作に従って、IN点コントロール503、OUT点コントロール504を任意のフレーム間の位置に移動(変更)する。これにより、IN点、OUT点の位置を任意の位置に変更することにより、動画の編集を行うことが可能なる。   For example, the PC 101 moves (changes) the IN point control 503 and the OUT point control 504 to a position between arbitrary frames according to the operation of the user. This makes it possible to edit a moving image by changing the positions of the IN point and the OUT point to any position.

また、PC101は、S617において、動画編集画面(図4)にリスト表示された動画、氏名のうち、選択された動画、氏名の動画を表示領域409に表示し、各動画について、同様の操作を行うことが出来る。   Further, in S617, the PC 101 displays the selected moving image and name moving image of the moving images and names listed on the moving image editing screen (FIG. 4) in the display area 409, and performs the same operation for each moving image. It can be done.

そして、PC101は、ユーザにより、動画編集画面(図4)にリスト表示された各動画、各氏名のボタン406(指示受付部)の選択を受け付け、ファイル生成ボタン410の押下を受け付ける。   Then, the PC 101 receives, from the user, the selection of each moving image and each name button 406 (instruction receiving unit) displayed in a list on the moving image editing screen (FIG. 4), and receives the pressing of the file generation button 410.

PC101は、ステップS617で、ユーザにより受け付けた操作内容が、IN点、又はOUT点の位置を任意の位置に変更することにより、動画の編集を行う編集指示であると判定された場合には、ユーザ操作により任意にIN点、又はOUT点が変更された位置を登録する編集処理を実行する。   If it is determined in step S617 that the operation content accepted by the user is an editing instruction for editing a moving image by changing the position of the IN point or the OUT point to an arbitrary position in step S617, An editing process is performed to register the position at which the IN point or the OUT point is arbitrarily changed by the user operation.

また、PC101は、ステップS617で、ユーザにより受け付けた操作内容が、リスト表示された各動画、各氏名のボタン406(指示受付部)の選択を受け付け、ファイル生成ボタン410の押下を受け付けた指示(生成指示)であるとステップS618で判定された場合には、当該選択された動画のファイルの生成を行う。具体的には、現在、登録されている各IN点、及び各OUT点の位置で、動画を切り取り、氏名(ユーザ)ごとの動画ファイルを、それぞれ生成する。すなわち、ステップS617の編集処理が行われた場合には、当該編集されたIN点、及び/又はOUT点の位置で、動画を切り取り、氏名(ユーザ)ごとの動画ファイルを、それぞれ生成する。   In step S 617, the PC 101 receives the selection of the button 406 (instruction accepting unit) of each moving image and each name displayed in the list as the operation content accepted by the user, and the instruction for accepting the pressing of the file generation button 410 ( If it is determined in step S618 that the instruction is a generation instruction, the file of the selected moving image is generated. Specifically, the moving image is cut at the positions of each IN point and each OUT point currently registered, and a moving image file for each name (user) is generated. That is, when the editing process of step S617 is performed, the moving image is cut at the position of the edited IN point and / or OUT point, and a moving image file for each name (user) is generated.

例えば、図5(A)に示すように、フレーム501とフレーム505との間の位置に、IN点コントロール503が設定され、フレーム506とフレーム502との間の位置に、OUT点コントロール504が設定されている場合、PC101は、ステップS619、後述するステップS919において、IN点コントロール503とOUT点コントロール504との間のフレーム(群)を切り出して、1つの動画ファイルとして生成する。   For example, as shown in FIG. 5A, the IN point control 503 is set at the position between the frame 501 and the frame 505, and the OUT point control 504 is set at the position between the frame 506 and the frame 502. If YES, the PC 101 cuts out a frame (group) between the IN point control 503 and the OUT point control 504 in step S619 and step S919 described later, and generates one moving image file.

この処理を、S617でユーザにより選択された動画ごと(氏名(ユーザ)ごと)に実行し、氏名(ユーザ)ごとの動画ファイルを、それぞれ生成する(ステップS619)。そして、処理を終了する。以上、図6の説明を終了する。   This process is executed for each moving image (name (user)) selected by the user in S617, and a moving image file for each name (user) is generated (step S619). Then, the process ends. This is the end of the description of FIG.

次に、図9のフローチャートを用いて、第2の実施形態におけるPC101が実行する処理について説明する。   Next, processing executed by the PC 101 in the second embodiment will be described using the flowchart in FIG. 9.

図9は、第2の実施形態の動画編集に係る処理を示すフローチャートの一例である。   FIG. 9 is an example of a flowchart showing processing relating to moving image editing of the second embodiment.

図9は、PC101のCPU201が所定の制御プログラムを読み出して実行する処理である。   FIG. 9 shows a process in which the CPU 201 of the PC 101 reads and executes a predetermined control program.

ステップS901〜ステップS904までの各処理は、図6のステップS601〜ステップS604までの各処理と同じ処理であるため説明は省略する。   The processes in steps S901 to S904 are the same as the processes in steps S601 to S604 in FIG.

ステップS905において、PC101は、ステップS902で設定した動画ファイルの始点からステップS604で設定したIN点までの間のフレームを解析して、人物が何か動作を行っているかを判定する。動作を行っているかの判定方法は、動画ファイルの始点からIN点までの間のフレームの変化量が所定以上である場合に、動作を行っていると判定する方法や、あらかじめ人物が座って停止している状態の画像を比較画像として記憶しておき、当該画像と、動画ファイルの始点からIN点までの間の各フレームとの類似度が所定以下である場合に、動作を行っていると判定する方法等が考えられる。   In step S905, the PC 101 analyzes a frame from the start point of the moving image file set in step S902 to the IN point set in step S604, and determines whether the person is performing an operation. The method of determining whether the motion is performed is a method of determining that the motion is performed when the amount of change of the frame between the start point of the moving image file and the IN point is equal to or more than a predetermined amount. If an image in the running state is stored as a comparison image, and the image is being operated when the similarity between the image and each frame between the start point of the moving image file and the IN point is less than or equal to a predetermined value A method of judging etc. can be considered.

PC101は、人物が何か動作を行っている場合には(ステップS905:YES)、ステップS906で、動画ファイルに識別情報を付加する。識別情報とは、図4の識別表示408や、図5のフレーム501上に表示される「!」を表示するための情報である。   If the person is performing an operation (step S 905: YES), the PC 101 adds identification information to the moving image file in step S 906. The identification information is information for displaying the identification display 408 of FIG. 4 or “!” Displayed on the frame 501 of FIG.

ステップS907〜ステップS911までの各処理は、図6のステップS607〜ステップS611までの各処理と同じ処理であるため説明を省略する。   The processes in steps S 907 to S 911 are the same as the processes in steps S 607 to S 611 in FIG.

ステップS912において、PC101は、ステップS609で設定したOUT点からステップS611で設定した動画ファイルの終点までの間のフレームを解析して、人物が何か動作を行っているかを判定する。動作を行っているかの判定方法は、OUT点から動画ファイルの終点までの間のフレームの変化量が所定以上である場合に、動作を行っていると判定する方法や、あらかじめ人物が座って停止している状態の画像を比較画像として記憶しておき、当該画像と、OUT点から動画ファイルの終点までの間の各フレームとの類似度が所定以下である場合に、動作を行っていると判定する方法等が考えられる。   In step S912, the PC 101 analyzes a frame between the OUT point set in step S609 and the end point of the moving image file set in step S611, and determines whether the person is performing an operation. The method of determining whether the motion is performed is a method of determining that the motion is performed when the amount of change of the frame from the OUT point to the end point of the moving image file is equal to or more than a predetermined amount. If an image in the running state is stored as a comparison image, and the operation is performed when the degree of similarity between the image and each frame between the OUT point and the end point of the moving image file is less than or equal to a predetermined level A method of judging etc. can be considered.

PC101は、人物が何か動作を行っている場合には(ステップS912:YES)、ステップS913で、動画ファイルに識別情報を付加する。識別情報とは、図4の識別表示408や、図5のフレーム502上に表示される「!」を表示するための情報である。   If the person is performing an operation (step S912: YES), the PC 101 adds identification information to the moving image file in step S913. The identification information is information for displaying the identification display 408 of FIG. 4 and “!” Displayed on the frame 502 of FIG.

ステップS914において、PC101は、ステップS802で読み込んだ動画ファイルを、ステップS902でファイル始点が設定された位置(時間)と、ステップS911でファイル終点が設定された位置(時間)とで切り出して、当該切り出された動画ファイルと、現在の処理対象の氏名(被写体を識別する情報)とを対応付けて外部メモリ211に一時的に記憶する。また、ステップS904で設定されたIN点の位置(時間)の情報と、ステップS909で設定されたOUT点の位置(時間)の情報と、ステップS906で付加された識別情報と、ステップS913で付加された識別情報も外部メモリ211に一時的に記憶する。   In step S914, the PC 101 cuts out the moving image file read in step S802 into the position (time) where the file start point is set in step S902 and the position (time) where the file end point is set in step S911. The extracted moving image file and the name of the current processing target (information for identifying the subject) are associated with each other and temporarily stored in the external memory 211. Also, the information of the position (time) of the IN point set in step S904, the information of the position (time) of the OUT point set in step S909, the identification information added in step S906, and the information added in step S913. The stored identification information is also temporarily stored in the external memory 211.

ステップS915〜ステップS919までの各処理は、図6のステップS615〜ステップS619までの各処理と同じ処理であるため説明を省略する。   The processes in steps S915 to S919 are the same as the processes in steps S615 to S619 in FIG.

以上で、図9の説明を終了する。   This is the end of the description of FIG.

以上、本発明によると、動画データを編集するためのイン点、又はアウト点を効率的に設定することができる。   As described above, according to the present invention, it is possible to efficiently set an in point or an out point for editing moving image data.

本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、1つの機器からなる装置に適用してもよい。   The present invention can also be embodied as, for example, a system, an apparatus, a method, a program, a storage medium, etc. Specifically, the present invention may be applied to a system composed of a plurality of devices, The present invention may be applied to an apparatus consisting of two devices.

なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、システム或いは装置に直接、或いは遠隔から供給するものを含む。そして、そのシステム或いは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合も本発明に含まれる。   Note that the present invention includes one that directly or remotely supplies a program of software that implements the functions of the above-described embodiments to a system or an apparatus. The present invention is also included in the present invention if the computer of the system or apparatus reads out and executes the supplied program code.

したがって、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Therefore, the program code itself installed in the computer to realize the functional processing of the present invention by the computer also implements the present invention. That is, the present invention also includes a computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。   In that case, as long as it has the function of a program, it may be in the form of an object code, a program executed by an interpreter, script data supplied to an OS, or the like.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RWなどがある。また、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などもある。   Examples of recording media for supplying the program include a flexible disk, a hard disk, an optical disk, a magneto-optical disk, an MO, a CD-ROM, a CD-R, and a CD-RW. There are also magnetic tapes, non-volatile memory cards, ROMs, DVDs (DVD-ROMs, DVD-Rs) and the like.

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、前記ホームページから本発明のコンピュータプログラムそのもの、若しくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。   In addition, as a program supply method, a browser on a client computer is used to connect to an Internet home page. Then, the program can be supplied by downloading the computer program of the present invention itself or a compressed file including an automatic installation function from the home page to a recording medium such as a hard disk.

また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   The present invention can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from different home pages. That is, the present invention also includes a WWW server which allows a plurality of users to download program files for realizing the functional processing of the present invention by a computer.

また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、ダウンロードした鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。   In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, and distributed to users, and the user who has cleared predetermined conditions downloads key information that decrypts encryption from the homepage via the Internet. Let Then, it is possible to execute the program encrypted by using the downloaded key information and install it on a computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。その他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。   Also, the functions of the above-described embodiments are realized by the computer executing the read program. In addition, based on the instructions of the program, an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiment can be realized by the processing.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現される。   Furthermore, the program read from the recording medium is written to a memory provided in a function expansion board inserted in the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program, a CPU or the like provided in the function expansion board or the function expansion unit performs part or all of the actual processing, and the function of the above-described embodiment is also realized by the processing.

なお、前述した実施形態は、本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   The embodiments described above merely show examples of implementation in practicing the present invention, and the technical scope of the present invention should not be interpreted in a limited manner by these. That is, the present invention can be implemented in various forms without departing from the technical concept or the main features thereof.

101 PC 101 PC

Claims (10)

人物が撮影された動画データの中から人物がフレームインした時間又はフレームを特定する第1特定手段と、
前記動画データの中から人物が話し始めた時間又はフレームを特定する第2特定手段と、
前記第2特定手段で特定された時間又はフレームに基づき特定される位置に、動画データを編集するためのイン点を設定する設定手段と、
前記第1特定手段で特定された人物がフレームインしたフレームから、前記第2特定手段で特定された人物が話し始めたフレームまでのフレームの画像を解析する解析手段と、
前記解析手段による解析結果を通知する通知手段と
を備えることを特徴とする情報処理装置。
A first specifying means for specifying a time or a frame at which a person framed in moving image data in which a person is photographed;
A second specifying means for specifying a time or a frame at which a person starts speaking from the moving image data;
Setting means for setting an in point for editing moving picture data at a position specified based on the time or frame specified by the second specifying means;
Analysis means for analyzing an image of a frame from a frame in which the person specified by the first specifying means is frame-in to a frame in which the person specified by the second specifying means starts to speak;
An information processing apparatus comprising: notification means for notifying an analysis result by the analysis means.
前記解析手段は、前記第1特定手段で特定された人物がフレームインしたフレームから、前記第2特定手段で特定された人物が話し始めたフレームまでのフレームで、人物が動作を行っているかを解析することを特徴とする請求項1に記載の情報処理装置。   The analysis means determines whether the person is moving in a frame from the frame in which the person specified by the first specifying means has entered the frame to the frame where the person specified by the second specifying means has started talking The information processing apparatus according to claim 1, wherein analysis is performed. 前記通知手段は、前記動画データの複数のフレームの画像を時系列に表示すると共に、複数の前記画像の間の位置に前記設定手段により設定されたイン点に関するコントロールを表示した画面を通知し、
前記画面を介して、前記コントロールの位置の変更指示を受け付ける受付手段と、
前記受付手段により受け付けた変更指示に従って、前記画像に対する前記コントロールの表示位置、および前記設定手段により設定されたイン点の位置を修正することを特徴とする請求項1または2に記載の情報処理装置。
The notification means displays images of a plurality of frames of the moving image data in time series, and notifies a screen on which a control regarding an in point set by the setting means is displayed at a position between the plurality of images.
Accepting means for accepting an instruction to change the position of the control via the screen;
The information processing apparatus according to claim 1 or 2, wherein the display position of the control with respect to the image and the position of the in point set by the setting unit are corrected according to the change instruction received by the reception unit. .
前記動画データには入れ替わりで複数の人物が撮影されており、前記第1特定手段は、前記動画データの中から各人物がフレームインした時間又はフレームを特定し、
前記第1特定手段により特定された時間又はフレームに基づき特定される分割位置で前記動画データを分割して人物ごとの動画データを個々に生成する生成手段と
を備えることを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
A plurality of persons are photographed alternately in the moving image data, and the first specifying unit specifies a time or a frame at which each person framed in the moving image data,
Generating means for dividing the moving image data at division positions specified based on the time or frame specified by the first specifying means, and individually generating moving image data for each person. The information processing apparatus according to any one of to 5.
前記動画データに含まれる各人物を個々に識別するための識別情報が、前記生成手段により動画データが生成される順番に対応して定められた人物リストを記憶する記憶手段と、
前記動画データの先頭から順次分割され生成された動画データを、当該動画データが生成された順番に対応して前記人物リストに定められた識別情報と関連付けて登録する登録手段と、
を備えることを特徴とする請求項4に記載の情報処理装置。
Storage means for storing a person list in which identification information for individually identifying each person included in the moving image data is determined corresponding to the order of generation of the moving image data by the generating means;
Registration means for registering moving image data sequentially divided and generated from the head of the moving image data in association with identification information defined in the person list in correspondence with the order in which the moving image data is generated;
The information processing apparatus according to claim 4, comprising:
人物が撮影された動画データの中から人物がフレームインした時間又はフレームを特定する第1特定手段を備える情報処理装置の制御方法であって、
前記動画データの中から人物が話し始めた時間又はフレームを特定する第2特定工程と、
前記第2特定工程で特定した時間又はフレームに基づき特定される位置に、動画データを編集するためのイン点を設定する設定工程と、
前記第1特定手段で特定された人物がフレームインしたフレームから、前記第2特定工程で特定した人物が話し始めたフレームまでのフレームの画像を解析する解析工程と、
前記解析工程における解析結果を通知する通知工程と
を備えることを特徴とする情報処理装置の制御方法。
A control method of an information processing apparatus, comprising: first specifying means for specifying a time or a frame at which a person framed in moving image data in which a person is photographed,
A second identification step of identifying a time or a frame at which a person starts speaking from the moving image data;
A setting step of setting an in point for editing moving image data at a position specified based on the time or frame specified in the second specifying step;
An analysis step of analyzing an image of a frame from a frame in which a person specified by the first specifying means frames into a frame to a frame where the person specified in the second specifying step starts talking;
And a notification step of notifying an analysis result in the analysis step.
人物が撮影された動画データの中から人物がフレームインした時間又はフレームを特定する第1特定手段を備える情報処理装置で読み取り実行可能なプログラムであって、
前記情報処理装置を、
前記動画データの中から人物が話し始めた時間又はフレームを特定する第2特定手段と、
前記第2特定手段で特定された時間又はフレームに基づき特定される位置に、動画データを編集するためのイン点を設定する設定手段と、
前記第1特定手段で特定された人物がフレームインしたフレームから、前記第2特定手段で特定された人物が話し始めたフレームまでのフレームの画像を解析する解析手段と、
前記解析手段による解析結果を通知する通知手段として機能させることを特徴とするプログラム。
It is a program that can be read and executed by an information processing apparatus including a first specifying unit that specifies a time or a frame at which a person framed in moving image data in which a person is photographed,
The information processing apparatus
A second specifying means for specifying a time or a frame at which a person starts speaking from the moving image data;
Setting means for setting an in point for editing moving picture data at a position specified based on the time or frame specified by the second specifying means;
Analysis means for analyzing an image of a frame from a frame in which the person specified by the first specifying means is frame-in to a frame in which the person specified by the second specifying means starts to speak;
A program characterized in that it functions as notification means for notifying an analysis result by the analysis means.
人物が撮影された動画データの中から人物がフレームアウトした時間又はフレームを特定する第1特定手段と、
前記動画データの中から人物が話し終わった時間又はフレームを特定する第2特定手段と、
前記第2特定手段で特定された時間又はフレームに基づき特定される位置に、動画データを編集するためのアウト点を設定する設定手段と、
前記第2特定手段で特定された人物が話し終わったフレームから、前記第1特定手段で特定された人物がフレームアウトしたフレームまでのフレームの画像を解析する解析手段と、
前記解析手段による解析結果を通知する通知手段と
を備えることを特徴とする情報処理装置。
A first specifying means for specifying a time or a frame at which a person framed out of moving image data in which a person is photographed;
A second specifying means for specifying a time or a frame at which a person has finished talking from the moving image data;
Setting means for setting an out point for editing moving picture data at a position specified based on the time or frame specified by the second specifying means;
Analysis means for analyzing an image of a frame from a frame where the person specified by the second specifying means has finished talking to a frame where the person specified by the first specifying means is out of frame;
An information processing apparatus comprising: notification means for notifying an analysis result by the analysis means.
人物が撮影された動画データの中から人物がフレームアウトした時間又はフレームを特定する第1特定手段を備える情報処理装置の制御方法であって、
前記動画データの中から人物が話し終わった時間又はフレームを特定する第2特定工程と、
前記第2特定工程で特定した時間又はフレームに基づき特定される位置に、動画データを編集するためのアウト点を設定する設定工程と、
前記第2特定工程で特定した人物が話し終わったフレームから、前記第1特定手段で特定された人物がフレームアウトしたフレームまでのフレームの画像を解析する解析工程と、
前記解析工程における解析結果を通知する通知工程と
を備えることを特徴とする情報処理装置の制御方法。
A control method of an information processing apparatus, comprising: first specifying means for specifying a time or frame in which a person framed out of moving image data in which a person is photographed.
A second identification step of identifying a time or a frame at which a person has finished talking from the moving image data;
A setting step of setting an out point for editing moving image data at a position specified based on the time or frame specified in the second specifying step;
An analysis step of analyzing an image of a frame from a frame in which the person identified in the second identification step has finished talking to a frame in which the person identified by the first identification means is out of frame;
And a notification step of notifying an analysis result in the analysis step.
人物が撮影された動画データの中から人物がフレームアウトした時間又はフレームを特定する第1特定手段を備える情報処理装置で読み取り実行可能なプログラムであって、
前記情報処理装置を、
前記動画データの中から人物が話し終わった時間又はフレームを特定する第2特定手段と、
前記第2特定手段で特定された時間又はフレームに基づき特定される位置に、動画データを編集するためのアウト点を設定する設定手段と、
前記第2特定手段で特定された人物が話し終わったフレームから、前記第1特定手段で特定された人物がフレームアウトしたフレームまでのフレームの画像を解析する解析手段と、
前記解析手段による解析結果を通知する通知手段として機能させることを特徴とするプログラム。
It is a program that can be read and executed by an information processing apparatus including first specifying means for specifying a time or a frame at which a person framed out of moving image data in which a person is photographed,
The information processing apparatus
A second specifying means for specifying a time or a frame at which a person has finished talking from the moving image data;
Setting means for setting an out point for editing moving picture data at a position specified based on the time or frame specified by the second specifying means;
Analysis means for analyzing an image of a frame from a frame where the person specified by the second specifying means has finished talking to a frame where the person specified by the first specifying means is out of frame;
A program characterized in that it functions as notification means for notifying an analysis result by the analysis means.
JP2017230914A 2017-11-30 2017-11-30 Information processing device, control method thereof, and program Pending JP2019102943A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017230914A JP2019102943A (en) 2017-11-30 2017-11-30 Information processing device, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017230914A JP2019102943A (en) 2017-11-30 2017-11-30 Information processing device, control method thereof, and program

Publications (1)

Publication Number Publication Date
JP2019102943A true JP2019102943A (en) 2019-06-24

Family

ID=66974297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017230914A Pending JP2019102943A (en) 2017-11-30 2017-11-30 Information processing device, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP2019102943A (en)

Similar Documents

Publication Publication Date Title
EP2105930A1 (en) Selection and positioning of images within a template based on relative comparison of image attributes
JP2004064396A (en) Method and apparatus for generating image as well as program
KR20060066597A (en) Information processing apparatus and information processing method
JP2005252574A (en) Device and method for creating multimedia content, program for making computer execute method, and multimedia content creating system
JP2006157324A (en) Image reproducing apparatus and program
JP5441349B2 (en) Image projection apparatus and control method thereof
KR100775187B1 (en) Thumbnail recording method and terminal using the same
JP2019102943A (en) Information processing device, control method thereof, and program
JP2019102944A (en) Information processing device, control method thereof, and program
JP2007258934A (en) Information processing apparatus and information processing method
JP4591283B2 (en) Image reproduction system, imaging apparatus, and information processing apparatus
JP2018074337A (en) Moving image processing device, moving image processing method, and program
JP7103905B2 (en) Editing system, editing equipment, and editing method
US20040228613A1 (en) Editing and display controller used in portable digital image capture device and method of the same
JP6597263B2 (en) Information processing apparatus, control method thereof, and program
JP2019103042A (en) Information processing device, control method thereof, and program
JP4876736B2 (en) Document camera device
JP2019102850A (en) Information processing apparatus, control method of the same, and program
JP2019102852A (en) Information processing device, control method thereof, and program
JP2002199330A (en) Recorder and reproducing device
EP1657671B1 (en) System and method for generating suggested alternatives for visual or audible data
JP2003257158A (en) Recording and reproducing device, and recording and reproducing method
US8677239B2 (en) Electronic album and method for replaying electronic album
JP2019160186A (en) Photo book creation system and server device
JP2019102851A (en) Information processing device, control method thereof, and program

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180703

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181031

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190109