JP2016009262A - Moving image processing device, moving image processing program, and moving image processing method - Google Patents

Moving image processing device, moving image processing program, and moving image processing method Download PDF

Info

Publication number
JP2016009262A
JP2016009262A JP2014128460A JP2014128460A JP2016009262A JP 2016009262 A JP2016009262 A JP 2016009262A JP 2014128460 A JP2014128460 A JP 2014128460A JP 2014128460 A JP2014128460 A JP 2014128460A JP 2016009262 A JP2016009262 A JP 2016009262A
Authority
JP
Japan
Prior art keywords
information
moving image
unit
image data
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014128460A
Other languages
Japanese (ja)
Inventor
智志 長谷川
Satoshi Hasegawa
智志 長谷川
順司 松下
Junji Matsushita
順司 松下
俊英 花澤
Toshihide Hanazawa
俊英 花澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2014128460A priority Critical patent/JP2016009262A/en
Publication of JP2016009262A publication Critical patent/JP2016009262A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a device, program, and method by which a user easily processes a moving image.SOLUTION: When first information is selected out of a plurality of pieces of information about moving image data, first related information that is related to the first information is displayed on a display unit 20. The moving image data is processed on the basis of the first information. In addition, the moving image data is processed on the basis of the first information and second information that is selected out of the first related information. When the second information is selected, a moving image based on either the second related information that is related to the second information or the processed moving image data is displayed.

Description

本発明は、動画処理装置、動画処理プログラム及び動画処理方法に関するものである。   The present invention relates to a moving image processing apparatus, a moving image processing program, and a moving image processing method.

従来、フレーム単位で人間に理解可能なインデックスを付与し、そのインデックスを用いて任意の場面を検索できる動画検索方法が知られている。例えば、特許文献1では、動画内容を処理して得られる物理量をもとに単語データベースの中から複数の単語を計算機に自動的に選択させ、これをフレーム単位で付与しインデックスとする。検索実行時には、検索したい場面に相当する単語を入力して、一致した動画像のフレームを候補画像とする技術が開示されている。   2. Description of the Related Art Conventionally, there is known a moving image search method in which an index understandable to human beings is assigned in units of frames and an arbitrary scene can be searched using the index. For example, in Patent Document 1, a computer automatically selects a plurality of words from a word database based on a physical quantity obtained by processing moving image contents, and assigns them to each frame as an index. A technique is disclosed in which a word corresponding to a scene to be searched is input when a search is performed, and a frame of a matching moving image is used as a candidate image.

特開平5−282380JP-A-5-282380

しかしながら、従来技術では、各インデックスが互いに関連付いていない。そのため、動画を処理することはユーザにとって手間がかかる作業であった。   However, in the prior art, the indexes are not related to each other. Therefore, processing a moving image has been a troublesome operation for the user.

本発明は、このような問題点に鑑みてなされたものであり、ユーザが簡単に動画を処理することを目的とする。   The present invention has been made in view of such problems, and an object thereof is to allow a user to easily process a moving image.

本発明の一態様に係る動画処理装置は、動画データに関する複数の情報のうち第1情報が選択されると前記第1情報と関連のある第1関連情報を表示部に表示させる制御部と、少なくとも前記第1情報に基づいて前記動画データを処理する処理部とを備える。   The moving image processing apparatus according to an aspect of the present invention includes a control unit that causes a display unit to display first related information related to the first information when first information is selected from a plurality of pieces of information related to moving image data. And a processing unit that processes the moving image data based on at least the first information.

本発明の一態様に係る動画処理方法は、動画データに関する複数の情報のうち第1情報が選択されると前記第1情報と関連のある第1関連情報を表示部に表示し、少なくとも前記第1情報に基づいて前記動画データを処理する。   In the moving image processing method according to an aspect of the present invention, when first information is selected from among a plurality of pieces of information regarding moving image data, first related information related to the first information is displayed on a display unit, and at least the first information The moving image data is processed based on one information.

本発明の一態様に係る動画処理プログラムは、動画データに関する複数の情報のうち第1情報が選択されると前記第1情報と関連のある第1関連情報を表示部に表示させる制御ステップと、少なくとも前記第1情報に基づいて前記動画データを処理する処理ステップとを実行させる。   A moving image processing program according to an aspect of the present invention includes a control step of causing a display unit to display first related information related to the first information when first information is selected from among a plurality of pieces of information related to moving image data. And a processing step of processing the moving image data based on at least the first information.

本発明によれば、ユーザは簡単に動画データを処理することができる。   According to the present invention, a user can easily process moving image data.

実施形態1による動画処理装置1の機能ブロック図である。2 is a functional block diagram of the moving image processing apparatus 1 according to Embodiment 1. FIG. 実施形態1による情報テーブルの一例である。3 is an example of an information table according to the first embodiment. 実施形態1による情報テーブルの一例である。3 is an example of an information table according to the first embodiment. 実施形態1による動画処理装置1の動作を示すフローチャートである。4 is a flowchart illustrating an operation of the moving image processing apparatus 1 according to the first embodiment. 実施形態1による表示部20の表示の一例である。4 is an example of display on the display unit 20 according to the first embodiment. 実施形態1による表示部20の表示の一例である。4 is an example of display on the display unit 20 according to the first embodiment. 実施形態1による表示部20の表示の一例である。4 is an example of display on the display unit 20 according to the first embodiment. 実施形態1による表示部20の表示の一例である。4 is an example of display on the display unit 20 according to the first embodiment. 実施形態1による表示部20の表示の一例である。4 is an example of display on the display unit 20 according to the first embodiment. 実施形態2による動画処理装置1の機能ブロック図である。6 is a functional block diagram of a moving image processing apparatus 1 according to Embodiment 2. FIG. 実施形態2による動画処理装置1の動作を示すフローチャートである。6 is a flowchart illustrating an operation of the moving image processing apparatus 1 according to the second embodiment. 実施形態2による表示部20の表示の一例である。It is an example of the display of the display part 20 by Embodiment 2. FIG. 実施形態2による表示部20の表示の一例である。It is an example of the display of the display part 20 by Embodiment 2. FIG. 実施形態2による表示部20の表示の一例である。It is an example of the display of the display part 20 by Embodiment 2. FIG. 実施形態3による動画処理装置1の機能ブロック図である。It is a functional block diagram of the moving image processing apparatus 1 according to Embodiment 3. 実施形態3による動画処理装置1の動作を示すフローチャートである。14 is a flowchart illustrating an operation of the moving image processing apparatus 1 according to the third embodiment. 実施形態3による情報テーブルの一例である。It is an example of the information table by Embodiment 3. 実施形態3による表示部20の表示の一例である。It is an example of the display of the display part 20 by Embodiment 3. FIG. 実施形態4による動画処理装置1の機能ブロック図である。It is a functional block diagram of the moving image processing apparatus 1 according to Embodiment 4. 実施形態4による動画処理装置1の動作を示すフローチャートである。10 is a flowchart illustrating an operation of the moving image processing apparatus 1 according to the fourth embodiment. 実施形態4による表示部20の表示の一例である。It is an example of the display of the display part 20 by Embodiment 4. 実施形態4による表示部20の表示の一例である。It is an example of the display of the display part 20 by Embodiment 4. 実施形態4による表示部20の表示の一例である。It is an example of the display of the display part 20 by Embodiment 4. 実施形態4による表示部20の表示の一例である。It is an example of the display of the display part 20 by Embodiment 4. 実施形態4による表示部20の表示の一例である。It is an example of the display of the display part 20 by Embodiment 4. 実施形態4による表示部20の表示の一例である。It is an example of the display of the display part 20 by Embodiment 4. 本発明による表示部20の表示の一例である。It is an example of the display of the display part 20 by this invention.

本発明による動画処理装置ついて、以下、図面やフローチャートを参照しながら説明する。
≪実施形態1≫
The moving image processing apparatus according to the present invention will be described below with reference to the drawings and flowcharts.
Embodiment 1

図1は、本実施形態に係る動画処理装置1の機能ブロック図の一例である。   FIG. 1 is an example of a functional block diagram of a moving image processing apparatus 1 according to the present embodiment.

動画処理装置1は、動画取得部10と、処理部11と、制御部12と、を備える。   The moving image processing apparatus 1 includes a moving image acquisition unit 10, a processing unit 11, and a control unit 12.

外部装置2は、表示部20と、選択部21と、を備える。本実施形態の表示部20は、例えばパーソナルコンピュータやスマートフォン、タブレット、デジタルカメラ、その他電子機器等のディスプレイ等が挙げられる。選択部21は、マウスやキーボード、マイク、トラックボール、カメラ、ライトペン、タッチパネル等が挙げられる。   The external device 2 includes a display unit 20 and a selection unit 21. Examples of the display unit 20 of the present embodiment include a display of a personal computer, a smartphone, a tablet, a digital camera, and other electronic devices. Examples of the selection unit 21 include a mouse, a keyboard, a microphone, a trackball, a camera, a light pen, and a touch panel.

動画処理装置1は、制御部12の制御により、動画取得部10を介して、動画取得部10に接続されたUSBメモリやメモリーカード、メモリースティック等の外部記憶装置や、インターネットを介して通信接続されたサーバ上に記憶されている動画ファイルを取得する。本実施形態での動画ファイルには、動画データ、音声データ、動画データと音声データを同期させるための信号などが含まれる。字幕やメタデータなどのテキストが含まれていてもよい。さらに本実施形態では、動画データに関する複数の情報があらかじめ関連付いており、これら情報は動画ファイルに含まれているとする。つまり、動画取得部10は、図2aまたは図2bに示すような、動画データに関する複数の情報が互いに関連付いて記憶されている情報テーブルが含まれる動画ファイルを取得する。本実施形態でいう動画データに関する複数の情報とは、動画データに記録されている被写体や、被写体の動作、被写体の大きさ、場所、時間、天気、状況、色、音輝度、エッジ等、様々な情報が挙げられる。図2aまたは図2bでは、情報は文字として情報テーブルに記憶されているが、画像やアイコンで記憶されていてもよい。   Under the control of the control unit 12, the video processing device 1 is connected to the external storage device such as a USB memory, a memory card, or a memory stick connected to the video acquisition unit 10 via the video acquisition unit 10 or via the Internet. Get a video file stored on the server. The moving image file in this embodiment includes moving image data, audio data, a signal for synchronizing moving image data and audio data, and the like. Text such as subtitles and metadata may be included. Furthermore, in this embodiment, it is assumed that a plurality of pieces of information relating to moving image data are associated in advance, and these pieces of information are included in the moving image file. That is, the moving image acquisition unit 10 acquires a moving image file including an information table in which a plurality of pieces of information related to moving image data are stored in association with each other as illustrated in FIG. 2A or 2B. The plurality of pieces of information related to the moving image data in the present embodiment includes various subjects such as the subject recorded in the moving image data, the operation of the subject, the size of the subject, the location, the time, the weather, the situation, the color, the sound luminance, and the edge. Information. In FIG. 2a or 2b, the information is stored as characters in the information table, but may be stored as an image or an icon.

制御部12は、動画取得部10が取得した情報テーブルに記憶されている情報のうち少なくとも1つを外部装置2の表示部20に表示させる。外部装置2の選択部21は、表示部20に表示された情報を選択する。ここで、表示部20に表示された情報に関連付けられた情報がある場合、情報を選択すると、表示部20に情報に関連付いた情報が表示されるといった表示の仕方がある。例えば、動画処理装置1の制御部12は、選択部21によって選択された情報を取得し、取得した情報と関連付いている情報を表示部20に表示させる。   The control unit 12 causes the display unit 20 of the external device 2 to display at least one of the information stored in the information table acquired by the moving image acquisition unit 10. The selection unit 21 of the external device 2 selects information displayed on the display unit 20. Here, when there is information associated with the information displayed on the display unit 20, there is a display method in which information associated with the information is displayed on the display unit 20 when the information is selected. For example, the control unit 12 of the moving image processing apparatus 1 acquires the information selected by the selection unit 21 and causes the display unit 20 to display information associated with the acquired information.

処理部11は、制御部12が選択部21から取得した情報に基づいて、動画取得部10を介して取得した動画データを処理する。動画データの処理については後に詳述する。   The processing unit 11 processes the moving image data acquired via the moving image acquisition unit 10 based on the information acquired from the selection unit 21 by the control unit 12. The processing of moving image data will be described in detail later.

制御部12は、処理部11で処理された動画データを複号化して、表示部20に動画を再生させる。このとき、動画データとともに処理された、音声データ、動画データと音声データを同期させるための信号、字幕やメタデータなどのテキストを複合化し、動画を再生してもよい。動画データのみを複合化し、動画として再生してもよい。制御部12は、動画処理装置1の動画取得部10と処理部11とを制御する。また、制御部12は、外部装置2の表示部20と選択部21とを制御する。   The control unit 12 decodes the moving image data processed by the processing unit 11 and causes the display unit 20 to reproduce the moving image. At this time, audio data, a signal for synchronizing the video data and audio data, and text such as captions and metadata processed together with the video data may be combined to reproduce the video. Only moving image data may be combined and reproduced as a moving image. The control unit 12 controls the moving image acquisition unit 10 and the processing unit 11 of the moving image processing apparatus 1. Further, the control unit 12 controls the display unit 20 and the selection unit 21 of the external device 2.

次に、本実施形態に係る動画処理装置1の動作を図3に示すフローチャートを用いて説明する。   Next, the operation of the moving image processing apparatus 1 according to the present embodiment will be described using the flowchart shown in FIG.

(S1)ユーザが動画処理装置1のスイッチをONにする。なお、本実施形態ではユーザが動画処理装置1のスイッチをONにすることに基づいて図3に示す処理を実行するが、それに限定されるものではない。外部装置2の表示部20にメニュー画面を表示させ、メニュー画面を操作することによって、図3に示す処理を実行してもよい。また、必ずしもユーザによる操作は必要なく、自動的に図3に示す処理が実行されてもよい。   (S1) The user turns on the switch of the moving image processing apparatus 1. In the present embodiment, the process shown in FIG. 3 is executed based on the user turning on the switch of the moving image processing apparatus 1, but the present invention is not limited to this. The process shown in FIG. 3 may be executed by displaying a menu screen on the display unit 20 of the external device 2 and operating the menu screen. Further, the operation shown in FIG. 3 may be automatically executed without necessarily requiring any user operation.

(S2)動画取得部10は、動画ファイルを取得する。本実施形態での動画ファイルには、動画データ、音声データ、動画データと音声データを同期させるための信号、字幕、メタデータなどのテキスト、情報テーブル等が含まれている。本実施形態で情報テーブルとは、動画データに関する複数の情報があらかじめ互いに関連付いて記憶されているテーブルである。図2aは、「A君が運動会で走る」場面を録画した動画データに対応する情報テーブルの一例である。図2bは、「A君が運動会で走る」場面と「B君が運動会で食べる」場面と2つの場面を録画した動画データに対応する情報テーブルの一例である。情報テーブルは、音声データや字幕、テキストなどに関する複数の情報があらかじめ互いに関連付いて記憶されていてもよい。この情報テーブルは、あらかじめ動画データに関連付いて外部(USBメモリやメモリーカード、メモリースティック等の外部記憶装置や、インターネットを介して通信接続されたサーバ等)に記憶されていてもよいし、動画処理装置1が作成してもよい。動画処理装置1が作成する場合については、実施形態2で詳述する。   (S2) The moving image acquisition unit 10 acquires a moving image file. The moving image file in the present embodiment includes moving image data, audio data, a signal for synchronizing moving image data and audio data, text such as subtitles and metadata, an information table, and the like. In the present embodiment, the information table is a table in which a plurality of pieces of information regarding moving image data are stored in association with each other in advance. FIG. 2A is an example of an information table corresponding to moving image data in which a scene “A-kun runs at an athletic meet” is recorded. FIG. 2B is an example of an information table corresponding to moving image data in which two scenes, a scene where “A-kun runs at an athletic meet”, a scene “B-kun eats at an athletic meet”, and two scenes are recorded. In the information table, a plurality of pieces of information relating to audio data, subtitles, text, and the like may be stored in association with each other in advance. This information table may be stored in advance in association with moving image data (external storage devices such as a USB memory, a memory card, and a memory stick, a server connected via the Internet, etc.). The apparatus 1 may create it. The case where the moving image processing apparatus 1 creates will be described in detail in the second embodiment.

(S3)制御部12は、動画取得部10が取得した情報テーブルに記憶されている情報のうち少なくとも1つを外部装置2の表示部20の第1領域201に表示させる(図4a)。例えば図2bに示すような情報テーブルを取得した場合、図4aに示すように、「A君」「運動会」「走る」「B君」「食べる」が表示部20の第1領域201に表示される。表示方法としては、各情報に対応する文字または画像、アイコン等を表示部20の第1領域201に表示する方法が挙げられる。本実施形態では、各情報を文字として表示させる。各情報に対応する画像またはアイコンを表示させる方法に関しては、実施形態2で詳述する。   (S3) The control unit 12 displays at least one of the information stored in the information table acquired by the moving image acquisition unit 10 in the first area 201 of the display unit 20 of the external device 2 (FIG. 4a). For example, when an information table as shown in FIG. 2B is acquired, “A-kun”, “Athletic meet”, “Run”, “B-kun”, and “Eat” are displayed in the first area 201 of the display unit 20 as shown in FIG. The Examples of the display method include a method of displaying characters, images, icons, or the like corresponding to each information in the first area 201 of the display unit 20. In this embodiment, each information is displayed as a character. A method for displaying an image or icon corresponding to each information will be described in detail in the second embodiment.

(S4)ユーザは外部装置2の選択部21を介して、表示部20に表示された情報のうち1つを第1情報401として選択する。選択部21はマウスを使用して図4aに示すようなカーソルを移動することで選択してもよいし、キーボード、マイク、トラックボール、カメラ、ライトペン、タッチパネル等を使用してユーザが選択してもよい。情報が選択されない場合、S3へ戻り情報を表示し続ける。また、一定時間ユーザからの選択がなければ処理を終了してもよい。情報が選択されたらS5へ進む。   (S4) The user selects one piece of information displayed on the display unit 20 as the first information 401 via the selection unit 21 of the external device 2. The selection unit 21 may be selected by moving a cursor as shown in FIG. 4a using a mouse, or selected by a user using a keyboard, microphone, trackball, camera, light pen, touch panel, or the like. May be. If no information is selected, the process returns to S3 and continues to display information. If there is no selection from the user for a certain period of time, the processing may be terminated. If information is selected, the process proceeds to S5.

(S5)制御部12は、ユーザが選択部21を介して選択した情報と関連付いている情報を表示部20に表示させる。例えば制御部12は、第1領域201に表示された情報のうち選択部21によって選択された情報を第1情報401として取得する。さらに制御部12は、第1情報401と関連付いている情報を第1関連情報302として表示部20の第2領域202に表示させる。図4bにおいて、図4aと同様の構成は番号を省略して記載している。図4bは、第1領域201に表示された情報のうち「A君」が選択部21によって選択され、「A君」と関連付いている第1関連情報302を第2領域202に表示した一例である。この表示例は、図2bに示すような情報テーブルを取得した場合である。「A君」は第1情報401となる。このとき第1情報401を強調して表示してもよい。例えば、「A君」の文字の色を変える、文字の大きさを大きくする、文字の太さを太くする、文字を回転等の動きをつけて表示する、等が挙げられる。また、第1情報401以外の第1領域に表示されている情報(「運動会」「走る」「B君」「食べる」)をうすく表示する、表示しない等も挙げられる。第1関連情報302を表示したらS6へ進む。ユーザが、動画データ処理の実行を指示する実行ボタン100を選択したらS8へ進んでもよい。   (S5) The control unit 12 causes the display unit 20 to display information associated with the information selected by the user via the selection unit 21. For example, the control unit 12 acquires information selected by the selection unit 21 among the information displayed in the first area 201 as the first information 401. Further, the control unit 12 displays information associated with the first information 401 as the first related information 302 in the second area 202 of the display unit 20. In FIG. 4b, the same configurations as in FIG. FIG. 4B is an example in which “A-kun” is selected by the selection unit 21 from the information displayed in the first area 201 and the first related information 302 associated with “A-kun” is displayed in the second area 202. It is. This display example is a case where an information table as shown in FIG. “A-kun” is the first information 401. At this time, the first information 401 may be displayed with emphasis. For example, the character color of “A-kun” is changed, the size of the character is increased, the thickness of the character is increased, and the character is displayed with a movement such as rotation. In addition, information displayed in the first area other than the first information 401 (“athletic meet”, “run”, “B-kun”, “eating”) may be displayed lightly or not. If the 1st related information 302 is displayed, it will progress to S6. When the user selects the execution button 100 for instructing execution of the moving image data processing, the process may proceed to S8.

(S6)ユーザは外部装置2の選択部21を介して、第1関連情報302のうち1つを第2情報402として選択する。制御部12は、ユーザが選択した情報を第2情報402として取得する(図4c)。図4cにおいて、図4aまたはbと同様の構成は番号を省略して記載している。情報が選択されない場合、S5へ戻り第1関連情報302を表示し続ける。また、一定時間ユーザからの選択がなければ処理を終了してもよいし、S8へ進んでもよい。情報が選択されたらS7へ進む。ユーザが、動画データ処理の実行を指示する実行ボタン100を選択したらS8へ進んでもよい。   (S6) The user selects one of the first related information 302 as the second information 402 via the selection unit 21 of the external device 2. The control unit 12 acquires information selected by the user as the second information 402 (FIG. 4c). In FIG. 4c, the same configurations as those in FIG. 4a or b are omitted from the numbers. If no information is selected, the process returns to S5 and continues to display the first related information 302. Further, if there is no selection from the user for a certain period of time, the process may be terminated, or the process may proceed to S8. If information is selected, the process proceeds to S7. When the user selects the execution button 100 for instructing execution of the moving image data processing, the process may proceed to S8.

(S7)ユーザは第1情報401かつ第2情報402と関連付いている情報をさらに表示するか、しないかを決定する。表示する場合、S5へ戻る。つまり、制御部12は、第1情報401かつ第2情報402と関連付いている情報を、第2関連情報303として図4cに示すように第3領域203に表示させる。第1情報401かつ第2情報402と関連付いている情報は、図2bに示す情報テーブルから決定できる。第2情報402と関連付いている情報を表示させてもよい。表示する情報がない場合(選択した情報と関連付いている情報がなくなった場合)は、選択した情報に関連付いている情報がこれ以上存在しない旨を示す情報を表示部20に表示させてもよい。表示しない場合、S8へ進む。ユーザが、動画データ処理の実行を指示する実行ボタン100を選択したらS8へ進んでもよい。   (S7) The user determines whether or not to further display information associated with the first information 401 and the second information 402. When displaying, it returns to S5. That is, the control unit 12 displays information associated with the first information 401 and the second information 402 as the second related information 303 in the third region 203 as illustrated in FIG. The information associated with the first information 401 and the second information 402 can be determined from the information table shown in FIG. 2b. Information associated with the second information 402 may be displayed. When there is no information to be displayed (when there is no information associated with the selected information), information indicating that there is no more information associated with the selected information may be displayed on the display unit 20. Good. When not displaying, it progresses to S8. When the user selects the execution button 100 for instructing execution of the moving image data processing, the process may proceed to S8.

(S8)処理部11は、選択部21が選択した情報(第1情報401等)に基づいて、動画取得部10を介して取得した動画データを処理する。例えば図4dに示すように、ユーザは第1情報401として「A君」、第2情報402として「走る」、第3情報403として「運動会」を選択したとする。処理部11は、動画取得部10を介して取得した動画データから「A君が運動会で走る」場面を取得する。少なくとも第1情報401「A君」の場面だけ取得するようにしてもよい。第1情報401「A君」と第2情報402「走る」の場面、つまり「A君が走る」場面を取得するようにしてもよい。取得方法としては、各情報には、動画データの中でどこからどこまでが各情報に対応する場面かを示す時間情報が関連付いており、その時間情報に基づいて動画データから対応する場面を取得する方法が考えられる。例えば、「A君」に対応する場面は0秒から30秒、「走る」に対応する場面は10秒から30秒と40秒から50秒、「運動会」に対応する場面は0秒から50秒とする。この場合、「A君」「走る」「運動会」に基づいて動画データを処理すると、処理部11は10秒から30秒の範囲の動画データを取得する。また、動画データに基づくフレームには、そのフレームに関連する情報がタグ付けされており、「A君」「走る」「運動会」全てがタグ付けされているフレームを取得してもよい。   (S8) The processing unit 11 processes the moving image data acquired via the moving image acquisition unit 10 based on the information selected by the selection unit 21 (first information 401 and the like). For example, as illustrated in FIG. 4 d, it is assumed that the user selects “A-kun” as the first information 401, “Run” as the second information 402, and “Athletic meet” as the third information 403. The processing unit 11 acquires the scene “A-kun runs at the athletic meet” from the moving image data acquired through the moving image acquisition unit 10. Only the scene of at least the first information 401 “A-kun” may be acquired. You may make it acquire the scene of the 1st information 401 "A-kun" and the 2nd information 402 "run", ie, the "A-kun runs" scene. As an acquisition method, each information is associated with time information indicating where the information corresponds to the scene in the video data, and the corresponding scene is acquired from the video data based on the time information. A method is conceivable. For example, the scene corresponding to “A-kun” is 0 to 30 seconds, the scene corresponding to “Run” is 10 to 30 seconds and 40 to 50 seconds, and the scene corresponding to “Athletic meet” is 0 to 50 seconds. And In this case, when the moving image data is processed based on “A-kun”, “Run”, and “Athletic meet”, the processing unit 11 acquires moving image data in the range of 10 to 30 seconds. In addition, a frame based on the moving image data may be tagged with information related to the frame, and a frame in which “A-kun”, “Run”, and “Athletic meet” are all tagged may be acquired.

(S9)制御部12は、図4dに示すように、S8で処理部が取得した範囲の動画データに基づく動画を表示部20の動画領域204で再生させる。また処理部が取得した範囲の動画データに基づく代表画像(サムネイル画像)を動画領域204に表示させ、ユーザが選択部21を介して代表画像を選択すると、動画を再生するようにしてもよい。代表画像は、動画再生時の先頭の画像、被写体の大きさが最も大きい画像、被写体の動きが少ない範囲での画像などが考えられる。代表画像ではなく、再生を示すアイコン等でもよい。また、処理部が取得した範囲の動画データと対応する音声データ、動画データと音声データを同期させるための信号、字幕やメタデータなどのテキストも共に再生してもよい。   (S9) As illustrated in FIG. 4D, the control unit 12 causes the moving image area 204 of the display unit 20 to reproduce a moving image based on the moving image data in the range acquired by the processing unit in S8. Alternatively, a representative image (thumbnail image) based on the moving image data in the range acquired by the processing unit may be displayed in the moving image region 204, and when the user selects a representative image via the selection unit 21, the moving image may be played back. The representative image may be the top image at the time of moving image reproduction, the image with the largest subject size, the image within the range where the subject movement is small, or the like. Instead of a representative image, an icon indicating reproduction may be used. Also, audio data corresponding to the moving image data in the range acquired by the processing unit, a signal for synchronizing the moving image data and audio data, and text such as subtitles and metadata may be reproduced together.

以上のように、本実施形態によれば、各情報が互いに関連付いているため、ユーザは簡単に動画データを処理することができる。また、各情報に関連付いている情報が表示されるため、ユーザにとって見やすい表示を提供することができる。さらに、動画の内容を文字で提供できるので、ユーザは動画の内容を把握しやすい。   As described above, according to the present embodiment, since each piece of information is associated with each other, the user can easily process moving image data. Further, since information associated with each information is displayed, it is possible to provide a display that is easy for the user to see. Furthermore, since the content of the moving image can be provided in characters, the user can easily grasp the content of the moving image.

本実施形態では、情報テーブルは動画ファイルに含まれているとしたが、それに限定されるものではない。例えば、動画ファイルには情報テーブルの記憶場所を示すアドレスが含まれており、そのアドレスを参照することにより情報テーブルを使用してもよい。   In the present embodiment, the information table is included in the moving image file, but is not limited thereto. For example, the moving image file includes an address indicating the storage location of the information table, and the information table may be used by referring to the address.

本実施形態では、動画処理装置1は情報テーブルを含む動画ファイルを取得したがそれに限定されるものではない。情報テーブルは取得されなくてもよい。例えば、動画データに基づくフレームには、そのフレームに関連する情報がタグ付けされており、同じフレームにタグ付けされている情報は互いに関連付いているとして、表示部20に表示させてもよい。その結果、情報テーブルがなくても、ユーザが選択した情報と関連のある情報を表示することができる。   In the present embodiment, the moving image processing apparatus 1 has acquired a moving image file including an information table, but is not limited thereto. The information table may not be acquired. For example, a frame based on moving image data may be displayed on the display unit 20 assuming that information related to the frame is tagged and information tagged to the same frame is associated with each other. As a result, even if there is no information table, information related to the information selected by the user can be displayed.

本実施形態では、表示部20と選択部21は外部装置2に備えられるとしたが、それに限定されるものではない。表示部20と選択部21は動画処理装置1に備えられてもよい。例えば、動画処理装置1がカメラや、スマートフォン、タブレット、PC等で、動画処理装置1の処理を行うアプリケーションを使用する場合が考えられる。   In the present embodiment, the display unit 20 and the selection unit 21 are provided in the external device 2, but are not limited thereto. The display unit 20 and the selection unit 21 may be provided in the moving image processing apparatus 1. For example, the case where the moving image processing apparatus 1 uses the application which performs the process of the moving image processing apparatus 1 with a camera, a smart phone, a tablet, PC etc. can be considered.

本実施形態では、動画取得部10が外部記憶装置等から動画ファイルを取得したが、それに限定されるものではない。例えば、動画処理装置1にはあらかじめ動画ファイルが記憶されていてもよい。   In the present embodiment, the moving image acquisition unit 10 acquires a moving image file from an external storage device or the like, but is not limited thereto. For example, the moving image processing apparatus 1 may store a moving image file in advance.

本実施形態では、動画処理装置1のスイッチがONされ、動画ファイルを取得すると、情報テーブルに記憶されている情報のうち少なくとも1つを外部装置2の表示部20に表示させ、表示された情報から第1情報401を選択するとしたがそれに限定されるものではない。ユーザがマイクまたはキーボード等の図示しない入力部から第1情報401を入力してもよい。動画処理装置1は、マイクによって取得した音(音声)を電気信号に変換し、変換された電気信号を解析した結果である文字データを第1情報401として表示部20に表示する。例えば、ユーザは「A君」がうつっている場面を動画データから取得したいとき、マイクに対して「A君」と発声する。動画処理装置1は、「A君」という音声を音声認識等で解析し、「A君」という文字データを取得する。動画処理装置1は、取得した「A君」という文字データを第1情報401として表示部20に表示する。第1情報401「A君」を表示部20に表示した後、第1情報401「A君」に関連づいている情報がある場合は、「A君」に関連付いている情報を第1関連情報302として表示部20に表示させてもよい。第1情報401「A君」に関連付いている情報がない場合は、「A君」に関連付いている情報がない旨を表示部20に表示させてもよい。動画データに「A君」がうつっている場面がない場合は、動画データにA君がうつっている場面がない旨を表示部20に表示させてもよい。あらかじめ動画データに関する複数の情報を表示部20に表示し、表示された複数の情報のいずれかを、第1情報401としてマイクを使用して選択してもよい。また、ユーザがマイクに対して「A君がうつっている場面がほしい」と発声した場合、動画処理装置1は、音声認識等を用いて「A君がうつっている場面がほしい」という文字データを取得し、さらに形態素解析等で「A君」という名詞を取得する。その後、名詞である「A君」を第1情報401として表示部20に表示させてもよい。名詞が複数取得された場合は、複数の名詞を表示部20に表示させてもよい。名詞でなく、動詞や形容詞、形容動詞を表示させてもよい。例えばユーザが「走る場面がほしい」とマイクに対して発声した場合、動画処理装置1は、音声認識や形態素解析等で「走る」という動詞を文字データで取得し、第1情報401として表示部20に表示させてもよい。「走る」という動詞を取得する方法は、名詞を取得する場合と同様の方法があげられる。また、動画処理装置1は、ユーザがキーボードから入力した文字データを第1情報401として表示部20に表示してもよい。動画処理装置が、文字データを第1情報401として表示部20に表示する方法は、マイクを通して第1情報401を表示する場合と同様の方法があげられる。動画処理装置1は、ユーザから入力された第1情報と、その第1情報と関連付いている第1関連情報を表示部20に表示させてもよい。   In this embodiment, when the switch of the moving image processing apparatus 1 is turned on and a moving image file is acquired, at least one of the information stored in the information table is displayed on the display unit 20 of the external device 2, and the displayed information However, the present invention is not limited to this. The user may input the first information 401 from an input unit (not shown) such as a microphone or a keyboard. The moving image processing apparatus 1 converts sound (sound) acquired by the microphone into an electric signal, and displays character data as a result of analyzing the converted electric signal on the display unit 20 as the first information 401. For example, when the user wants to acquire the scene where “A-kun” is depressed from the moving image data, the user utters “A-kun” to the microphone. The moving image processing apparatus 1 analyzes the voice “A-kun” by voice recognition or the like, and acquires character data “A-kun”. The moving image processing apparatus 1 displays the acquired character data “A-kun” on the display unit 20 as the first information 401. After the first information 401 “A-kun” is displayed on the display unit 20, if there is information related to the first information 401 “A-kun”, the information related to “A-kun” is displayed as the first information. The information 302 may be displayed on the display unit 20. If there is no information associated with the first information 401 “A-kun”, the display unit 20 may display that there is no information associated with “A-kun”. If there is no scene where “A-kun” is moving in the moving image data, the display unit 20 may display that there is no scene where A-kun is moving in the moving image data. A plurality of pieces of information related to the moving image data may be displayed in advance on the display unit 20, and any one of the displayed pieces of information may be selected using a microphone as the first information 401. When the user utters “I want a scene where Mr. A is depressed” to the microphone, the video processing apparatus 1 uses voice recognition or the like to write character data “I want a scene where Mr. A is depressed”. And the noun “A-kun” is acquired by morphological analysis or the like. Thereafter, the noun “A-kun” may be displayed on the display unit 20 as the first information 401. When a plurality of nouns are acquired, a plurality of nouns may be displayed on the display unit 20. Instead of nouns, verbs, adjectives, and adjective verbs may be displayed. For example, when the user utters “I want a scene to run” to the microphone, the moving image processing apparatus 1 acquires the verb “run” as character data by voice recognition, morphological analysis, or the like, and displays the first information 401 as the first information 401. 20 may be displayed. The method for acquiring the verb “run” is the same as the method for acquiring the noun. In addition, the moving image processing apparatus 1 may display character data input from the keyboard by the user on the display unit 20 as the first information 401. The method for displaying the character data on the display unit 20 as the first information 401 by the moving image processing apparatus is the same as the method for displaying the first information 401 through the microphone. The moving image processing apparatus 1 may display the first information input from the user and the first related information related to the first information on the display unit 20.

本実施形態では、ユーザは情報を各領域で1つずつ選択したが、それに限定されるものではない。複数の情報を選択して、選択された各情報に関連付いている情報をそれぞれ表示部20に表示してもよい。例えば図5に示すように第1領域201に表示された情報のうち、第1情報401として「A君」と「食べる」の2つを選択してもよい。その結果、1つの動画データから2つの場面をそれぞれ同時に取得することができる。図5に示すように第1情報401として「A君」と「食べる」、第2情報402として「運動会」と「B君」が選択されたとする。その場合、1つの動画データから、「A君」「運動会」に対応する場面と、「食べる」「B君」に対応する場面とがそれぞれ取得され、動画領域204に表示される。   In this embodiment, the user selects information one by one in each area, but the present invention is not limited to this. A plurality of pieces of information may be selected, and information associated with each selected piece of information may be displayed on the display unit 20. For example, as shown in FIG. 5, “A-kun” and “eat” may be selected as the first information 401 among the information displayed in the first area 201. As a result, two scenes can be simultaneously acquired from one moving image data. As shown in FIG. 5, it is assumed that “A-kun” and “eat” are selected as the first information 401 and “Athletic meet” and “B-kun” are selected as the second information 402. In that case, a scene corresponding to “A-kun” and “athletic meeting” and a scene corresponding to “eat” and “B-kun” are acquired from one video data and displayed in the video area 204.

本実施形態では、第1領域、第2領域、第3領域、動画領域は表示部に表示したままであるが、それに限定されるものではない。例えば第2領域が表示部20に表示されるタイミングで、第1領域は表示部20から削除してもよい。第3領域が表示部20に表示されるタイミングで、第1領域及び第2領域は表示部20から削除してもよい。動画領域が表示部20に表示されるタイミングで、その他の領域は表示部20から削除してもよい。また表示部20が十分な大きさでなかった場合、ユーザがスクロール等の動作をすることで、各領域を表示部20に表示させたり、表示部20に表示させなかったりを制御してもよい。   In the present embodiment, the first area, the second area, the third area, and the moving image area remain displayed on the display unit, but are not limited thereto. For example, the first region may be deleted from the display unit 20 at the timing when the second region is displayed on the display unit 20. The first region and the second region may be deleted from the display unit 20 at the timing when the third region is displayed on the display unit 20. Other areas may be deleted from the display unit 20 at the timing when the moving image area is displayed on the display unit 20. Further, when the display unit 20 is not sufficiently large, the user may control whether each area is displayed on the display unit 20 or not displayed on the display unit 20 by performing an operation such as scrolling. .

処理部11は、動画データから対応する場面を取得する方法として、時間情報と一致する範囲の動画データを取得するとした。この場合、時間情報と一致する範囲の動画データに基づくフレームを全て取得してもよいし、一部を取得してもよい。また、処理部11は、動画データから対応する場面を取得する方法として、選択された情報がタグ付けされているフレームを取得するとした。この場合、選択された情報がタグ付けされているフレームを全て取得してもよいし、一部を取得してもよい。取得するフレームはユーザが手動で選択してもよいし、動画処理装置1が自動で選択してもよい。自動で選択する場合は、5フレームごと等で間引きして取得してもよいし、手振れやボケを検出してうまく撮れているフレームを取得するようにしてもよい。ユーザが動画データの再生時間を指定して、その時間内におさまるようにフレーム数を決めてもよい。   As a method for acquiring a corresponding scene from the moving image data, the processing unit 11 acquires moving image data in a range that matches the time information. In this case, all the frames based on the moving image data in the range that matches the time information may be acquired, or a part thereof may be acquired. Further, the processing unit 11 acquires a frame tagged with the selected information as a method of acquiring a corresponding scene from the moving image data. In this case, all the frames tagged with the selected information may be acquired, or a part thereof may be acquired. The frame to be acquired may be manually selected by the user, or may be automatically selected by the moving image processing apparatus 1. When selecting automatically, it may be obtained by thinning out every 5 frames or the like, or a frame that is well taken by detecting camera shake or blur may be obtained. The user may specify the playback time of the moving image data, and determine the number of frames so as to fall within that time.

本実施形態では、情報は互いに関連付いているとした。例えば、「A君は座る、B君は食べる」場面からは、「A君」「B君」「座る」「食べる」という情報が取得され、関連付けられる。ユーザが「A君」という情報を第1情報401として選択すると、「B君」「座る」「食べる」が第1関連情報302として表示部20に表示される。その後、第1関連情報302「B君」「座る」「食べる」のうち第2情報402として「食べる」を選択したとする。つまり、第1情報401として「A君」を、第2情報402として「食べる」を選択したとする。この場合、「A君」と「食べる」に関連する場面を表示部20に表示してもよい。例えば、「A君は走る、B君は食べる」場面や、「A君は笑う、C君は食べる」場面等を表示部20に表示してもよい。もしくは、動画データには「A君が食べる」場面が含まれていないため、動画処理装置1は「A君は食べる」場面はない旨を示す情報を表示部20に表示してもよい。また、動画処理装置1は、「A君」と「食べる」、「B君」と「座る」は関連付いていない情報テーブルを取得するようにしてもよい。また、実施形態2で説明するように、動画処理装置1が情報テーブルを作成する場合は、「A君」と「食べる」、「B君」と「座る」を関連付けずに情報テーブルを作成する。具体的には、フレームから「食べる」という情報が取得された場合、「食べる」という情報は、フレームの中で「食べる」を取得した部分の近くから取得される被写体(この場合はA君)と関連付ける。その結果、第1情報401「A君」を選択した場合、第1関連情報302として「食べる」は表示されない。「A君は食べる」場面がある場合、第1関連情報302として「食べる」が表示部20に表示され、第2情報402として「食べる」が選択されると、「A君は食べる」場面が表示20に表示される。   In this embodiment, the information is related to each other. For example, the information “A-kun”, “B-kun”, “Sit”, and “Eat” is acquired and associated from the scene of “A-kun sits, B-kun eats”. When the user selects information “A-kun” as the first information 401, “B-kun”, “sit”, and “eat” are displayed on the display unit 20 as the first related information 302. Thereafter, it is assumed that “eat” is selected as the second information 402 among the first related information 302 “B-kun”, “sit”, and “eat”. That is, it is assumed that “A-kun” is selected as the first information 401 and “eat” is selected as the second information 402. In this case, scenes related to “A-kun” and “eat” may be displayed on the display unit 20. For example, a scene where “A-kun runs, B-kun eats”, “A-kun laughs, C-kun eats” or the like may be displayed on the display unit 20. Alternatively, since the moving image data does not include the “A-you eat” scene, the moving image processing apparatus 1 may display information indicating that there is no “A-kun eats” scene on the display unit 20. Further, the moving image processing apparatus 1 may acquire an information table in which “A-kun” and “eat”, “B-kun”, and “sit” are not related. Further, as described in the second embodiment, when the moving image processing apparatus 1 creates an information table, the information table is created without associating “A-kun” with “eating” and “B-kun” with “sitting”. . Specifically, when the information “eating” is acquired from the frame, the information “eating” is the subject acquired from the vicinity of the portion where “eating” is acquired in the frame (in this case, Mr. A). Associate with. As a result, when the first information 401 “A-kun” is selected, “eat” is not displayed as the first related information 302. If there is a scene where “A-kun eats”, “eat” is displayed on the display unit 20 as the first related information 302, and if “eat” is selected as the second information 402, a scene “A-kun eats” is displayed. It is displayed on the display 20.

表示部20は、戻るボタンを表示しており、ユーザが戻るボタンを押すと、前の処理に戻ることができる。
≪実施形態2≫
The display unit 20 displays a return button, and can return to the previous process when the user presses the return button.
<< Embodiment 2 >>

実施形態1では、動画処理装置は、動画データに関する複数の情報が関連付いている情報テーブルを含む動画ファイルを取得した。実施形態2では、動画処理装置が情報テーブルの作成を行う。また、実施形態1では、情報を文字で表示部20に表示した。実施形態2では、情報を画像、またはアイコンで表示部20に表示する。実施形態1に係る動画処理装置1と実施形態2に係る動画処理装置1との主な相違点は、情報テーブル作成部が追加された点である。なお本実施形態において、実施形態1と同様の構成部、動作の説明は省略する。   In the first embodiment, the moving image processing apparatus acquires a moving image file including an information table associated with a plurality of pieces of information regarding moving image data. In the second embodiment, the moving image processing apparatus creates an information table. In the first embodiment, information is displayed on the display unit 20 in characters. In the second embodiment, information is displayed on the display unit 20 as an image or an icon. The main difference between the moving image processing apparatus 1 according to the first embodiment and the moving image processing apparatus 1 according to the second embodiment is that an information table creation unit is added. In the present embodiment, the same components and operations as those in the first embodiment are not described.

図6は、実施形態2に係る動画処理装置1の機能ブロック図の一例である。実施形態2において、実施形態1と同様の構成部は、実施形態1と同様の数字で表している。   FIG. 6 is an example of a functional block diagram of the moving image processing apparatus 1 according to the second embodiment. In the second embodiment, the same components as those in the first embodiment are represented by the same numbers as in the first embodiment.

動画処理装置1は、動画取得部10と、情報テーブル作成部13と、処理部11と、制御部12とを備える。   The moving image processing apparatus 1 includes a moving image acquisition unit 10, an information table creation unit 13, a processing unit 11, and a control unit 12.

動画処理装置1は、制御部12の制御により、動画取得部10を介して、動画取得部10に接続されたUSBメモリやメモリーカード、メモリースティック等の外部記憶装置や、インターネットを介して通信接続されたサーバ上記憶されている動画ファイルを取得する。実施形態1では、動画データに関する情報が互いに関連付いている情報テーブルが動画ファイル含まれていたが、本実施形態では、情報テーブルは動画ファイルに含まれてなくてよい。本実施形態での動画ファイルには、動画データ、音声データ、動画データと音声データを同期させるための信号などが含まれる。字幕やメタデータなどのテキストが含まれていてもよい。   Under the control of the control unit 12, the video processing device 1 is connected to the external storage device such as a USB memory, a memory card, or a memory stick connected to the video acquisition unit 10 via the video acquisition unit 10 or via the Internet. Get the video file stored on the server. In the first embodiment, an information table in which information related to moving image data is associated with each other is included in the moving image file. However, in the present embodiment, the information table may not be included in the moving image file. The moving image file in this embodiment includes moving image data, audio data, a signal for synchronizing moving image data and audio data, and the like. Text such as subtitles and metadata may be included.

情報テーブル作成部13は、動画取得部10を介して取得した動画ファイルに含まれる動画データから情報を取得し、取得した情報を互いに関連付けて、情報テーブルを作成する。情報テーブルの作成方法については、後に詳述する。動画ファイルに含まれる音声データや、字幕、メタデータなどのテキストから情報を取得してもよい。   The information table creation unit 13 acquires information from the moving image data included in the moving image file acquired via the moving image acquisition unit 10, and generates the information table by associating the acquired information with each other. A method for creating the information table will be described in detail later. Information may be acquired from text such as audio data, subtitles, and metadata included in the moving image file.

制御部12は、情報テーブル作成部13で作成した情報テーブルに記憶されている情報のうち少なくとも1つを外部装置2の表示部20に表示させる。外部装置2の選択部21は、表示部20に表示された情報を選択する。動画処理装置1の制御部12は、選択部21によって選択された情報を取得し、取得した情報に基づいて、表示部20を制御する。また、制御部12は、処理部11で処理した動画データに基づく動画を表示部20で再生する。   The control unit 12 causes the display unit 20 of the external device 2 to display at least one of the information stored in the information table created by the information table creation unit 13. The selection unit 21 of the external device 2 selects information displayed on the display unit 20. The control unit 12 of the video processing device 1 acquires the information selected by the selection unit 21 and controls the display unit 20 based on the acquired information. Further, the control unit 12 reproduces a moving image based on the moving image data processed by the processing unit 11 on the display unit 20.

処理部11は、制御部12が選択部21から取得した情報に基づいて、動画取得部10を介して取得した動画データを処理する。   The processing unit 11 processes the moving image data acquired via the moving image acquisition unit 10 based on the information acquired from the selection unit 21 by the control unit 12.

制御部12は、動画処理装置1の動画取得部10と情報テーブル作成部13と処理部11とを制御する。また、制御部12は、外部装置2の表示部20と選択部21とを制御する。   The control unit 12 controls the moving image acquisition unit 10, the information table creation unit 13, and the processing unit 11 of the moving image processing apparatus 1. Further, the control unit 12 controls the display unit 20 and the selection unit 21 of the external device 2.

次に、本実施形態に係る動画処理装置1の動作を図7に示すフローチャートを用いて説明する。実施形態1と同様の処理は、実施形態1のフローチャート図3と同様のステップ番号がついている。実施形態1と同様の処理は説明を省略する。また、図7に示すフローチャートの「A」は図3に示すフローチャートの「A」に続くことを意味している。   Next, the operation of the moving image processing apparatus 1 according to the present embodiment will be described using the flowchart shown in FIG. Processes similar to those in the first embodiment have the same step numbers as those in the flowchart of FIG. 3 in the first embodiment. The description of the same processing as that of the first embodiment is omitted. Further, “A” in the flowchart shown in FIG. 7 means that “A” in the flowchart shown in FIG. 3 follows.

(S2)動画取得部10は、動画データを取得する。実施形態1では、動画データに関する情報が互いに関連付いている情報テーブルを含む動画ファイルを取得したが、本実施形態では、情報テーブルは取得しなくてよい。本実施形態では、動画データ、音声データ、動画データと音声データを同期させるための信号、字幕、メタデータなどのテキストを含む動画ファイルを取得する。   (S2) The moving image acquisition unit 10 acquires moving image data. In the first embodiment, a moving image file including an information table in which information relating to moving image data is associated with each other is acquired. However, in the present embodiment, the information table may not be acquired. In the present embodiment, a moving image file including text, such as moving image data, audio data, a signal for synchronizing moving image data and audio data, subtitles, and metadata is acquired.

(S21)情報テーブル作成部13は、動画取得部10を介して取得した動画データから、動画データに基づくフレームを選択する。選択されたフレームをフレームiとする。本実施形態では、取得した動画データの先頭のフレームから1枚ずつ選択するとするが、それに限定されるものではない。   (S21) The information table creation unit 13 selects a frame based on the moving image data from the moving image data acquired via the moving image acquisition unit 10. Let the selected frame be frame i. In this embodiment, it is assumed that one frame is selected from the first frame of the acquired moving image data, but the present invention is not limited to this.

(S22)情報テーブル作成部13は、S21で選択されたフレームiに関する情報を取得する。フレームiに関する情報とは、フレームiにうつっている被写体や、被写体の動作、被写体の大きさ、フレームiが記録された場所や、時間、天気、状況、フレームiの色や、輝度、エッジ等、様々な情報が挙げられる。情報の取得方法は、例えば、あらかじめ被写体になりうるものの画像を動画処理装置1が記憶していて、その記憶されている画像の特徴とフレームiの特徴(例えば色や輝度、エッジ等)とを比較することで被写体を特定することができる。また、複数のフレームとフレームレートとを使用して、フレームiからフレームi+nまでに被写体が移動した距離と時間とを把握し、被写体の動き(「走る」「歩く」「止まる」等)の情報を取得することができる。また、フレームiの被写体のエッジとレンズのズーム率とから、被写体の大きさを取得することができる。また、メタデータから、フレームiが記録された場所や時間を取得することができる。また、サーバにアクセスすることで、フレームiが記録されたときの天気や状況を取得することができる。さらに、音声データから、「静か」「にぎやか」等の状況を取得することができる。その他ここに記載した以外の既存の技術を使用してフレームiに関する情報を取得してもよい。   (S22) The information table creation unit 13 acquires information regarding the frame i selected in S21. Information related to frame i includes the subject moving in frame i, the motion of the subject, the size of the subject, the location where frame i was recorded, the time, weather, situation, color of frame i, brightness, edge, etc. And various information. As an information acquisition method, for example, the moving image processing apparatus 1 stores in advance an image of an object that can be a subject, and stores the characteristics of the stored image and the characteristics of the frame i (for example, color, brightness, edge, etc.). The subject can be specified by comparison. Also, by using a plurality of frames and frame rates, the distance and time that the subject has moved from frame i to frame i + n is grasped, and the movement of the subject (“run”, “walk”, “stop”, etc.) Information can be acquired. Also, the size of the subject can be acquired from the edge of the subject in frame i and the zoom rate of the lens. Further, the location and time at which the frame i is recorded can be acquired from the metadata. Further, by accessing the server, it is possible to acquire the weather and situation when the frame i is recorded. Furthermore, the status such as “quiet” or “lively” can be acquired from the voice data. In addition, information related to the frame i may be acquired using an existing technique other than those described here.

(S23)情報テーブル作成部13は、S22で取得した情報を互いに関連づけることで、情報テーブルを作成する。例えば、フレームiに関する情報として「A君」「運動会」「走る」という3つの情報が取得された場合、図2aに示すような情報テーブルを作成する。次に、フレームi+nで、「B君」「運動会」「食べる」という3つの情報が取得されたとする。すでに「運動会」という情報は情報テーブルに記録されているので、「運動会」という情報に「B君」「食べる」をさらに関連付ける。その結果、情報テーブルは図2bに示すような情報テーブルとなる。   (S23) The information table creation unit 13 creates an information table by associating the information acquired in S22 with each other. For example, when three pieces of information “A-kun”, “athletic meet”, and “run” are acquired as information related to frame i, an information table as shown in FIG. Next, it is assumed that three pieces of information “B-kun”, “athletic meet”, and “eat” are acquired in frame i + n. Since the information “Sports Day” has already been recorded in the information table, “B” and “Eat” are further associated with the information “Sports Day”. As a result, the information table becomes an information table as shown in FIG.

(S24)フレームiが最後のフレームでなければS21に戻る。最後のフレームならS3へ進む。   (S24) If the frame i is not the last frame, the process returns to S21. If it is the last frame, the process proceeds to S3.

(S3)制御部12は、情報テーブル作成部13が作成した情報テーブルに記憶されている情報のうち少なくなくとも1つを外部装置2の表示部20の第1領域201に表示させる。実施形態1では、情報を文字で表示部20に表示したが、本実施形態では図8aに示すように情報を画像またはアイコンで表示部20に表示する。図8aに示す表示例では文字も表示しているが、文字は表示せずに画像またはアイコンのみを表示してもよい。   (S3) The control unit 12 displays at least one of the information stored in the information table created by the information table creation unit 13 in the first area 201 of the display unit 20 of the external device 2. In the first embodiment, information is displayed on the display unit 20 as characters. In this embodiment, information is displayed on the display unit 20 as an image or an icon as shown in FIG. 8a. In the display example shown in FIG. 8a, characters are also displayed, but only images or icons may be displayed without displaying characters.

図8a〜cは、実施形態2での表示部20の表示例である。実施形態1と同様の表示内容は、図4と同様の番号がついている。図8aに示すように第1領域201に表示された情報から第1情報401として「B君」が選択されると「B君」の画像またはアイコンが強調表示される。図8aでは「B君」の画像またはアイコンの枠を太くすることで強調表示しているが、それに限定されるものではない。例えば、「B君」以外の画像またはアイコンの表示を薄くしてもよいし、表示しないようにしてもよい。また「B君」の画像またはアイコンを光らせる、回転させる、点滅させる、色を変える、大きく表示する等が考えられる。第1情報401が選択されると、第2領域202に第1関連情報302が表示される。   8a to 8c are display examples of the display unit 20 in the second embodiment. The display contents similar to those in the first embodiment have the same numbers as in FIG. As shown in FIG. 8a, when “B-kun” is selected as the first information 401 from the information displayed in the first area 201, the image or icon of “B-kun” is highlighted. In FIG. 8a, the image or icon frame of “B-kun” is highlighted by making it thick, but it is not limited to this. For example, the display of images or icons other than “B-kun” may be lightened or not displayed. In addition, the image or icon of “Mr. B” can be illuminated, rotated, blinked, changed color, or displayed in large size. When the first information 401 is selected, the first related information 302 is displayed in the second area 202.

図8bに示すように、第1関連情報302から第2情報402として「食べる」が選択されると「食べる」の画像またはアイコンが強調表示される。第2情報402が選択されると第3領域203に第2関連情報303が表示される。図8cに示すように、第2関連情報303から第3情報403が選択され、ユーザが動画データ処理の実行を指示する実行ボタン100を押すと、動画領域204に処理部11で処理された動画データに基づく動画が再生される。処理された動画データに基づく代表画像(サムネイル画像)を動画領域204に表示させ、ユーザが選択部21を介して代表画像を選択すると、動画を再生するようにしてもよい。代表画像は、動画再生時の先頭の画像、被写体の大きさが最も大きい画像、被写体の動きが少ない範囲での画像などが考えられる。代表画像ではなく、再生を示すアイコン等でもよい。また、処理部が取得した範囲の動画データと対応する音声データ、動画データと音声データを同期させるための信号、字幕やメタデータなどのテキストも共に再生してもよい。本実施形態では、「B君」「食べる」「運動会」という3つの情報に基づいて動画データを処理する。そのため、「B君が運動会で食べる」場面の動画データに基づく動画が再生される。または、「B君が運動会で食べる」場面の代表画像が表示され、ユーザが代表画像を選択すると、動画が再生される。代表画像ではなく、再生をしめすアイコン等でもよい。また、表示部20の大きさには限りがあるため、情報または動画データを表示するスペースが表示部20にない場合、ユーザが表示部20をスクロールする等の指示をすることで図8a、図8b、図8cと表示を変えるようにしてもよい。   As shown in FIG. 8b, when “eat” is selected as the second information 402 from the first related information 302, an image or icon of “eat” is highlighted. When the second information 402 is selected, the second related information 303 is displayed in the third area 203. As shown in FIG. 8c, when the third information 403 is selected from the second related information 303 and the user presses the execution button 100 instructing execution of the moving image data processing, the moving image processed in the moving image area 204 by the processing unit 11 A video based on the data is played. A representative image (thumbnail image) based on the processed moving image data may be displayed in the moving image area 204, and when the user selects a representative image via the selection unit 21, the moving image may be reproduced. The representative image may be the top image at the time of moving image reproduction, the image with the largest subject size, the image within the range where the subject movement is small, or the like. Instead of a representative image, an icon indicating reproduction may be used. Also, audio data corresponding to the moving image data in the range acquired by the processing unit, a signal for synchronizing the moving image data and audio data, and text such as subtitles and metadata may be reproduced together. In the present embodiment, moving image data is processed based on three types of information “B-kun”, “eat”, and “athletic meet”. Therefore, the moving image based on the moving image data of the scene “B-kun eats at the athletic meet” is reproduced. Alternatively, a representative image of the scene “B-kun eats at the athletic meet” is displayed, and when the user selects a representative image, a moving image is reproduced. Instead of the representative image, an icon indicating playback may be used. Further, since the size of the display unit 20 is limited, when there is no space for displaying information or moving image data in the display unit 20, the user gives an instruction to scroll the display unit 20 or the like, and FIG. The display may be changed from 8b and FIG. 8c.

また、ユーザは、第1情報401を選択したら実行ボタン100を押してもよい。その場合、第1情報401「B君」がうつっている場面が取得される。さらにユーザは、第2情報402を選択したら実行ボタン100を押してもよい。その場合、第1選択情報「B君」と第2選択情報「食べる」とに基づいた場面、つまり「B君が食べる」場面が取得される。   Further, the user may press the execution button 100 after selecting the first information 401. In that case, a scene in which the first information 401 “B-kun” is depressed is acquired. Furthermore, the user may press the execution button 100 after selecting the second information 402. In this case, a scene based on the first selection information “B-kun” and the second selection information “eat”, that is, a scene “B-kun eats” is acquired.

以上のように、本実施形態によれば、各情報が互いに関連付いているため、ユーザは簡単に動画データを処理することができる。各情報に関連付いている情報が表示されるため、ユーザにとって見やすい表示を提供することができる。また、動画の内容を画像またはアイコンで表示するため、ユーザは直観的に動画の内容を把握できる。さらに、動画データから情報を取得できるため、情報テーブルを取得しなくてよい。   As described above, according to the present embodiment, since each piece of information is associated with each other, the user can easily process moving image data. Since information associated with each information is displayed, it is possible to provide a display that is easy for the user to see. Moreover, since the content of the moving image is displayed as an image or an icon, the user can intuitively grasp the content of the moving image. Furthermore, since information can be acquired from moving image data, it is not necessary to acquire an information table.

本実施形態では、動画処理装置1に情報テーブル作成部13を備えたがそれに限定されるものではない。例えば、情報テーブル作成部13は図示しない外部情報処理部3に備えられており、動画処理装置1は外部情報処理部3から処理結果を取得してもよい。   In the present embodiment, the moving image processing apparatus 1 includes the information table creation unit 13, but is not limited thereto. For example, the information table creation unit 13 may be provided in the external information processing unit 3 (not shown), and the moving image processing apparatus 1 may acquire the processing result from the external information processing unit 3.

本実施形態では、情報テーブル作成部13が動画データから情報を取得しているが、それに限定されるものではない。例えばユーザが、図示しない入力部から情報を入力してもよい。   In the present embodiment, the information table creation unit 13 acquires information from the moving image data, but is not limited thereto. For example, the user may input information from an input unit (not shown).

本実施形態では、動画データから情報を取得する際、フレームを1枚ずつ選択したが、それに限定されるものではない。例えば、フレームを5枚ごとや、10枚ごとに選択してもよい。選択する間隔は、自動に設定してあってもよいし、ユーザが設定してもよい。また、1枚ずつではなく複数枚を選択することで、「走る」等の被写体の動きに関する情報が取得できる。
≪実施形態3≫
In this embodiment, when acquiring information from moving image data, the frames are selected one by one. However, the present invention is not limited to this. For example, the frames may be selected every 5 frames or every 10 frames. The interval to be selected may be set to automatic or may be set by the user. In addition, by selecting a plurality of images instead of one by one, it is possible to acquire information on subject movement such as “run”.
<< Embodiment 3 >>

実施形態3は、情報を選択する際に、ユーザは文章を作成する感覚で情報を選択することができる動画処理装置である。実施形態1に係る動画処理装置1と実施形態3に係る動画処理装置1との主な相違点は、表示順決定部が追加された点である。なお本実施形態において、実施形態1と同様の構成部、動作の説明は省略する。   The third embodiment is a moving image processing apparatus that allows a user to select information as if creating a sentence when selecting information. The main difference between the moving image processing apparatus 1 according to the first embodiment and the moving image processing apparatus 1 according to the third embodiment is that a display order determining unit is added. In the present embodiment, the same components and operations as those in the first embodiment are not described.

図9は、実施形態3に係る動画処理装置1の機能ブロック図の一例である。実施形態3において、実施形態1と同様の構成部は、実施形態1と同様の数字で表している。   FIG. 9 is an example of a functional block diagram of the moving image processing apparatus 1 according to the third embodiment. In the third embodiment, the same components as those in the first embodiment are represented by the same numbers as in the first embodiment.

動画処理装置1は、動画取得部10と、表示順決定部14と、処理部11と、制御部12とを備える。表示順決定部14は、品詞特定部14aと情報分類部14bとを備える。   The moving image processing apparatus 1 includes a moving image acquisition unit 10, a display order determination unit 14, a processing unit 11, and a control unit 12. The display order determination unit 14 includes a part-of-speech specifying unit 14a and an information classification unit 14b.

動画処理装置1は、制御部12の制御により、動画取得部10を介して、動画取得部10に接続されたUSBメモリやメモリーカード、メモリースティック等の外部記憶装置や、インターネットを介して通信接続されたサーバ上に記憶されている動画データを取得する。実施形態3では、実施形態1と同様に動画データに関する情報が予め互いに関連付いている情報テーブルと動画データとを共に取得する。また、実施形態2のように動画処理装置1が情報テーブル作成部13を備えていて、動画処理装置1が情報テーブルを作成してもよい。   Under the control of the control unit 12, the video processing device 1 is connected to the external storage device such as a USB memory, a memory card, or a memory stick connected to the video acquisition unit 10 via the video acquisition unit 10 or via the Internet. The moving image data stored on the server is acquired. In the third embodiment, as in the first embodiment, the information table and the moving image data in which the information related to the moving image data is associated with each other in advance are acquired. Moreover, the moving image processing apparatus 1 may include the information table creating unit 13 as in the second embodiment, and the moving image processing apparatus 1 may create the information table.

表示順決定部14は、外部装置2の表示部20に表示する情報の順番を決定する。品詞特定部14aは、動画取得部10を介して取得した情報テーブルに記憶されている情報について、各情報に対応する品詞を特定する。情報分類部14bは、品詞特定部14aが特定した各情報の品詞に基づき、各情報を対応するカテゴリに分類する。   The display order determination unit 14 determines the order of information to be displayed on the display unit 20 of the external device 2. The part of speech specifying unit 14 a specifies the part of speech corresponding to each piece of information stored in the information table acquired via the moving image acquiring unit 10. The information classifying unit 14b classifies each information into a corresponding category based on the part of speech of each information specified by the part of speech specifying unit 14a.

制御部12は、動画取得部10を介して取得した情報テーブルを表示順決定部14に送信し、表示順決定部14が決定した表示順に基づいて、外部装置2の表示部20に情報を表示させる。外部装置2の選択部21は、表示部20に表示された情報を選択する。制御部12は、選択部21によって選択された情報を取得し、取得した情報と表示順決定部14が決定した表示順に基づいて、さらに表示部20を制御する。また、制御部12は、処理部11で処理した動画データに基づく動画像を表示部20に再生させる。   The control unit 12 transmits the information table acquired via the moving image acquisition unit 10 to the display order determination unit 14 and displays information on the display unit 20 of the external device 2 based on the display order determined by the display order determination unit 14. Let The selection unit 21 of the external device 2 selects information displayed on the display unit 20. The control unit 12 acquires the information selected by the selection unit 21 and further controls the display unit 20 based on the acquired information and the display order determined by the display order determination unit 14. Further, the control unit 12 causes the display unit 20 to reproduce a moving image based on the moving image data processed by the processing unit 11.

処理部11は、制御部12が選択部21から取得した情報に基づいて、制御部12が動画取得部10を介して取得した動画データを処理する   The processing unit 11 processes the video data acquired by the control unit 12 via the video acquisition unit 10 based on the information acquired by the control unit 12 from the selection unit 21.

次に、本実施形態に係る動画処理装置1の動作を図10に示すフローチャートを用いて説明する。実施形態1と同様の処理は、実施形態1のフローチャート図3と同様のステップ番号がついている。実施形態1と同様の処理は説明を省略する。また、図10に示すフローチャートの「A」は図3に示すフローチャートの「A」に続くことを意味している。   Next, the operation of the moving image processing apparatus 1 according to the present embodiment will be described using the flowchart shown in FIG. Processes similar to those in the first embodiment have the same step numbers as those in the flowchart of FIG. 3 in the first embodiment. The description of the same processing as that of the first embodiment is omitted. Further, “A” in the flowchart shown in FIG. 10 means that “A” in the flowchart shown in FIG. 3 is continued.

(S2)動画取得部10は、動画ファイルを取得する。本実施形態では、実施形態1と同様に、動画ファイルには情報テーブルが含まれている。実施形態2のように動画処理装置1が情報テーブル作成部13を備えていて、動画処理装置1が情報テーブルを作成してもよい。   (S2) The moving image acquisition unit 10 acquires a moving image file. In the present embodiment, as in the first embodiment, the moving image file includes an information table. The moving image processing apparatus 1 may include the information table creating unit 13 as in the second embodiment, and the moving image processing apparatus 1 may create the information table.

(S31)品詞特定部14aは、動画取得部10が取得した動画ファイルに含まれる情報テーブルを制御部12を介して取得し、情報テーブルに記憶されている情報について、各情報に対応する品詞を特定する。品詞を特定する方法は、単語とその単語の品詞が関連付けられている単語辞書を動画処理装置1が有しており、単語辞書と各情報を照らし合わせることで情報の品詞を特定する。単語辞書は外部サーバが有しており、有線または無線で外部サーバと通信することで単語辞書と各情報を照らし合わせ品詞を特定してもよい。その他ここに記載した以外の方法や既存の技術を使用して、各情報に対応する品詞を特定してもよい。   (S31) The part-of-speech specifying unit 14a acquires the information table included in the moving image file acquired by the moving image acquiring unit 10 via the control unit 12, and sets the part of speech corresponding to each piece of information stored in the information table. Identify. In the method of specifying the part of speech, the moving image processing apparatus 1 has a word dictionary in which a word and the part of speech of the word are associated, and the part of speech of the information is specified by comparing each information with the word dictionary. An external server has the word dictionary, and the part of speech may be specified by comparing the word dictionary with each piece of information by communicating with the external server by wire or wirelessly. In addition, parts of speech corresponding to each piece of information may be specified using methods other than those described here or existing techniques.

(S32)情報分類部14bは、品詞特定部14aが特定した品詞に基づき、各情報を対応するカテゴリに分類する。本実施形態では、カテゴリを「主語」「述語」「目的語または修飾語」とする。例えば情報分類部14bは、名詞を第1カテゴリ「主語」に分類し、動詞を第2カテゴリ「述語」に分類し、それ以外の品詞を第3カテゴリ「目的語または修飾語」に分類する。   (S32) The information classification unit 14b classifies each information into a corresponding category based on the part of speech specified by the part of speech specification unit 14a. In the present embodiment, the categories are “subject”, “predicate”, and “object or modifier”. For example, the information classification unit 14b classifies the noun into the first category “subject”, classifies the verb into the second category “predicate”, and classifies the other parts of speech into the third category “object or modifier”.

(S3)制御部12は、情報分類部14bで第1カテゴリ「主語」に分類された情報を第1領域201に表示させる。   (S3) The control unit 12 displays information classified into the first category “subject” in the first area 201 by the information classification unit 14b.

(S5)制御部12は、第1領域201に表示された情報のうち、ユーザが選択部21を介して選択した情報を第1情報401として取得する。制御部12は、第1情報401と関連付いている情報のうち第2カテゴリ「述語」に分類された情報を第1関連情報302として、第2領域202に表示させる。第1情報401と関連付いており、かつ第2カテゴリ「述語」に分類された情報がない場合は、その旨を示す情報を表示部20に表示させてもよい。その後、S7へ進む。ユーザが、動画データ処理の実行を指示する実行ボタン100を選択したらS8へ進んでもよい。   (S <b> 5) The control unit 12 acquires information selected by the user via the selection unit 21 among the information displayed in the first area 201 as the first information 401. The control unit 12 causes the second area 202 to display information classified into the second category “predicate” among the information associated with the first information 401 as the first related information 302. When there is no information associated with the first information 401 and classified into the second category “predicate”, information indicating that may be displayed on the display unit 20. Then, it progresses to S7. When the user selects the execution button 100 for instructing execution of the moving image data processing, the process may proceed to S8.

(S7)ユーザは次の情報をさらに表示するか、しないかを決定する。表示する場合、S5へ戻る。つまり、制御部12は、第1情報401かつ第2情報402と関連付いている情報のうち第3カテゴリ「目的語または修飾語」に分類された情報を第2関連情報303として、第3領域203に表示させる。第1情報401と第2情報402とに関連付いており、かつ第3カテゴリ「目的語または修飾語」に分類された情報がない場合は、その旨を示す情報を表示部20に表示させてもよい。次の情報をさらに表示しない場合、S8へ進む。ユーザが、動画データ処理の実行を指示する実行ボタン100を選択したらS8へ進んでもよい。   (S7) The user determines whether or not to display the next information further. When displaying, it returns to S5. That is, the control unit 12 uses the information associated with the first information 401 and the second information 402 as the second related information 303 as the information related to the third category “object or modifier” as the third region. 203 is displayed. If there is no information related to the first information 401 and the second information 402 and classified into the third category “object or modifier”, information indicating that is displayed on the display unit 20. Also good. When the next information is not further displayed, the process proceeds to S8. When the user selects the execution button 100 for instructing execution of the moving image data processing, the process may proceed to S8.

以上のように、本実施形態によれば、ユーザは主語、述語、目的語または修飾語の順に情報を選択できるため、文章を作成する感覚で情報を選択し、動画データを処理することができる。例えば図12は、図11に示すような情報テーブルがあったときの表示例である。第1領域201には、第1カテゴリ「主語」に分類された情報「A君」「B君」「Cさん」が表示される。第1情報401「A君」と関連付いている情報「走る」「にぎやか」「笑う」「楽しい」のうち、第2カテゴリ「述語」に分類された情報「走る」「笑う」が第2領域202に表示される。さらに、第1情報401「A君」かつ第2情報402「笑う」と関連付いている情報「楽しい」のうち、第3カテゴリ「目的語または修飾語」に分類された情報「楽しい」が第3領域203に表示される。第1情報401として「A君」、第2情報402として「笑う」、第3選択情報として「楽しい」が選択されているため、「A君が楽しく笑う」場面の動画データが取得され、動画領域204に表示される。このように情報がカテゴリごとに表示されるので、ユーザは情報を選択しやすい。また、第1カテゴリ「主語」に分類された情報から表示されるので、ユーザは日常使い慣れた文章を作成する感覚で簡単に情報を選択できる。   As described above, according to the present embodiment, since the user can select information in the order of subject, predicate, object, or modifier, it is possible to select information as if creating a sentence and process video data. . For example, FIG. 12 shows a display example when there is an information table as shown in FIG. In the first area 201, information “A-kun”, “B-kun”, and “C-san” classified into the first category “subject” are displayed. Of the information “run”, “lively”, “laugh”, and “fun” associated with the first information 401 “A-kun”, the information “run” and “laugh” classified into the second category “predicate” is the second area. 202. Furthermore, among the information “fun” associated with the first information 401 “A-kun” and the second information 402 “laughing”, the information “fun” classified into the third category “object or modifier” is the first. 3 areas 203 are displayed. Since “A-kun” is selected as the first information 401, “laughing” is selected as the second information 402, and “fun” is selected as the third selection information, moving image data of the scene “A-kun laughs happily” is acquired, It is displayed in area 204. Thus, since information is displayed for each category, the user can easily select information. Further, since the information is displayed from the information classified into the first category “subject”, the user can easily select the information with a sense of creating a sentence familiar to everyday use.

本実施形態では、情報を主語、述語、目的語または修飾語の順に表示部20に表示したが、それに限定されるものではない。表示する順番はユーザが好みの順番を指定するようにしてもよい。また、表示部20に「主語を選択してください。」「述語を選択してください。」「目的語または修飾語を選択してください。」というような指示を表示してもよい。   In this embodiment, information is displayed on the display unit 20 in the order of subject, predicate, object, or modifier, but the present invention is not limited to this. The display order may be specified by the user in a preferred order. In addition, instructions such as “Please select a subject”, “Please select a predicate”, “Please select an object or modifier” may be displayed on the display unit 20.

本実施形態では、名詞を第1カテゴリ「主語」、動詞を第2カテゴリ「述語」、その他の品詞を第3カテゴリ「目的語または修飾語」として分類したが、それに限定されるものではない。例えば、人物名を示す名詞を第1カテゴリ「主語」に分類してもよい。被写体を示す名詞を第1カテゴリ「主語」に分類してもよい。動詞または形容詞または形容動詞を第2カテゴリ「述語」に分類してもよい。被写体の状態を示す動詞または形容詞または形容動詞を第2カテゴリ「述語」に分類してもよい。これらの分類方法は、ユーザが指定してもよい。   In this embodiment, the nouns are classified as the first category “subject”, the verbs as the second category “predicate”, and the other parts of speech as the third category “object or modifier”. However, the present invention is not limited to this. For example, nouns indicating person names may be classified into the first category “subject”. The noun indicating the subject may be classified into the first category “subject”. Verbs or adjectives or adjective verbs may be classified into the second category “predicate”. Verbs or adjectives or adjective verbs indicating the state of the subject may be classified into the second category “predicate”. These classification methods may be specified by the user.

本実施形態では、カテゴリを「主語」「述語」「目的語または修飾語」としたがこれに限定されるものではない。品詞の種類をカテゴリにしてもよいし、「人物」「風景」「動作」「場所」「時間」「その他」等をカテゴリにしてもよい。カテゴリの数はいくつあってもよい。「人物」「風景」「動作」「場所」「時間」「その他」等で分類した場合は、例えば「人物」または「風景」に分類された情報を、第1カテゴリとし、第1領域201に表示させ、「動作」に分類された情報を第2カテゴリとし、第2領域202に表示させ、「場所」または「時間」または「その他」に分類された情報を第3カテゴリとし、第3領域203に表示させてもよい。その結果、被写体を示す名詞がまず表示され、次に被写体の状態を示す動詞または形容詞または形容動詞が表示される。表示させる順番はこれに限らない。
≪実施形態4≫
In the present embodiment, the categories are “subject”, “predicate”, and “object or modifier”, but the present invention is not limited to this. The type of part of speech may be a category, or “person”, “scenery”, “motion”, “location”, “time”, “others”, or the like may be a category. There can be any number of categories. When classified by “person”, “landscape”, “motion”, “location”, “time”, “other”, etc., for example, information classified as “person” or “landscape” is set as the first category and is stored in the first area 201. Information displayed and classified into “operation” is set as the second category and displayed in the second area 202, information classified as “location” or “time” or “others” is set as the third category, and the third area is displayed. 203 may be displayed. As a result, a noun indicating the subject is first displayed, and then a verb or adjective or adjective verb indicating the state of the subject is displayed. The order of display is not limited to this.
<< Embodiment 4 >>

実施形態4は、選択された情報で文章を作成し、作成された文章をユーザが選択することで、動画データを処理することができる動画処理装置である。その結果、ユーザは何度も情報を選択する必要なく動画データを処理することができる。また、作成された文章を記憶しておくことで、ユーザは1度利用した文章を再度利用しやすくなる。実施形態1に係る動画処理装置1と実施形態4に係る動画処理装置1との主な相違点は、文章作成部と文章記憶部が追加された点である。なお本実施形態において、実施形態1と同様の構成部、動作の説明は省略する。   The fourth embodiment is a moving image processing apparatus capable of processing moving image data by creating a sentence with selected information and allowing the user to select the created sentence. As a result, the user can process moving image data without having to select information many times. In addition, by storing the created sentence, the user can easily use the sentence once used again. The main difference between the moving image processing apparatus 1 according to the first embodiment and the moving image processing apparatus 1 according to the fourth embodiment is that a sentence creation unit and a sentence storage unit are added. In the present embodiment, the same components and operations as those in the first embodiment are not described.

図13は、実施形態4に係る動画処理装置1の機能ブロック図の一例である。実施形態4において、実施形態1と同様の構成部は、実施形態1と同様の数字で表している。   FIG. 13 is an example of a functional block diagram of the moving image processing apparatus 1 according to the fourth embodiment. In the fourth embodiment, the same components as those in the first embodiment are represented by the same numerals as those in the first embodiment.

動画処理装置1は、動画取得部10と、文章作成部15と、文章記憶部16と、処理部11と、制御部12とを備える。   The moving image processing apparatus 1 includes a moving image acquisition unit 10, a text creation unit 15, a text storage unit 16, a processing unit 11, and a control unit 12.

文章作成部15は、選択部21によって選択された情報に基づいて文章を作成する。文章を作成する方法は、後に詳述する。   The sentence creation unit 15 creates a sentence based on the information selected by the selection unit 21. A method of creating a sentence will be described in detail later.

文章記憶部16は、文章作成部15で作成された文章を記憶する。   The text storage unit 16 stores the text created by the text creation unit 15.

制御部12は、動画取得部10を介して取得した情報テーブルに記憶されている情報のうち少なくとも1つを表示部20に表示させる。選択部21は、表示部20に表示された情報を選択する。制御部12は、選択部21によって選択された情報を取得し、取得した情報に基づいて、表示部20をさらに制御する。また、制御部12は、選択部21で選択された情報を文章作成部15へ送信する。文章作成部15は制御部12から送信された情報に基づいて文章を作成し、文章記憶部16へ記憶する。制御部12は、文章記憶部16に記憶されている文章を取得し、表示部20に表示させる。また、制御部12は、選択部21が選択した情報を処理部11へ送信する。さらに、制御部12は、処理部11で処理した動画データを表示部20に表示させる。   The control unit 12 causes the display unit 20 to display at least one of the information stored in the information table acquired via the moving image acquisition unit 10. The selection unit 21 selects information displayed on the display unit 20. The control unit 12 acquires the information selected by the selection unit 21 and further controls the display unit 20 based on the acquired information. In addition, the control unit 12 transmits the information selected by the selection unit 21 to the text creation unit 15. The sentence creation unit 15 creates a sentence based on the information transmitted from the control unit 12 and stores it in the sentence storage unit 16. The control unit 12 acquires the text stored in the text storage unit 16 and causes the display unit 20 to display the text. Further, the control unit 12 transmits the information selected by the selection unit 21 to the processing unit 11. Further, the control unit 12 causes the display unit 20 to display the moving image data processed by the processing unit 11.

次に、本実施形態に係る動画処理装置1の動作を図14に示すフローチャートを用いて説明する。実施形態1と同様の処理は、実施形態1のフローチャート図3と同様のステップ番号がついている。実施形態1と同様の処理は説明を省略する。   Next, the operation of the moving image processing apparatus 1 according to the present embodiment will be described using the flowchart shown in FIG. Processes similar to those in the first embodiment have the same step numbers as those in the flowchart of FIG. 3 in the first embodiment. The description of the same processing as that of the first embodiment is omitted.

(S41)制御部12は、図15に示すように情報を選択して動画データを処理するか、文章を選択して動画データを処理するかをユーザに問う内容を表示部20に表示させる。情報を選択して動画データを処理するとは、実施形態1から3で記載した動画処理方法である。すなわち、ユーザが情報を選択していき、選択された情報に基づいて動画データを処理する。文章を選択して動画データを処理するとは、本実施形態の動画処理方法である。すなわち、文章記憶部に記憶されている文章を表示部20に表示し、ユーザが選択した文章に基づいて動画データを処理する。この場合、ユーザが何度も情報を選択する手間が省け、1回の選択で動画データを処理することができる。また、作成された文章を記憶しておくことで、ユーザは1度利用した文章を再度利用しやすくなる。ユーザが、情報を選択して動画データを処理することを選択したらS3へ進む。ユーザが、文章を選択して動画データを処理することを選択したらS44へ進む。   (S41) As shown in FIG. 15, the control unit 12 causes the display unit 20 to display content for asking the user whether to select information to process moving image data or to select text to process moving image data. The processing of moving image data by selecting information is the moving image processing method described in the first to third embodiments. That is, the user selects information and processes moving image data based on the selected information. The processing of moving image data by selecting a sentence is the moving image processing method of the present embodiment. That is, the text stored in the text storage unit is displayed on the display unit 20, and the moving image data is processed based on the text selected by the user. In this case, the user can save time and effort to select information, and the moving image data can be processed with one selection. In addition, by storing the created sentence, the user can easily use the sentence once used again. If the user selects information and selects to process moving image data, the process proceeds to S3. If the user selects a sentence and selects to process moving image data, the process proceeds to S44.

ユーザが、情報を選択して動画データを処理することを選択してS3へ進む場合、S3からS7までは実施形態1と同様の処理をする。その後S42へ進み、選択された情報に基づいて文章を作成し、作成した文章を文章記憶部16へ記憶する。文章を記憶したら、実施形態1と同様の処理で動画データを処理し、処理された動画データに基づく動画像を表示部20に再生する。   When the user selects information and selects to process moving image data and proceeds to S3, the same processing as in the first embodiment is performed from S3 to S7. Thereafter, the process proceeds to S42, where a sentence is created based on the selected information, and the created sentence is stored in the sentence storage unit 16. When the sentence is stored, the moving image data is processed by the same processing as in the first embodiment, and a moving image based on the processed moving image data is reproduced on the display unit 20.

(S42)文章作成部15は、選択部21が選択した情報を制御部12を介して取得し、取得した情報に基づいて文章を作成する。例えば、実施形態3のように情報を表示する順番が決められており、図12に示すように「A君」「笑う」「楽しい」が選択されたとする。この場合、主語は「A君」、述語は「笑う」、目的語または修飾語は「楽しい」となる。文章作成部15は、適当な助詞または助動詞を各情報と組み合わせたり、目的語または修飾語の語尾を変形させることで「A君が楽しく笑う。」という文章を作成する。また、実施形態1のように情報を表示する順願が決められてなく、図4dに示すように「A君」「走る」「運動会」が選択されたとする。この場合、文章作成部15は各情報の品詞を特定し、品詞が名詞と特定された情報に関しては、その名詞が人物名かどうかを判定する。取得した情報の中に人物名に対応する情報があった場合、文章作成部15は人物名に対応する情報を主語、動詞を述語、その他の品詞を修飾語、人物名以外の名詞を目的語とする。文章作成部15は、適当な助詞または助動詞を各情報と組み合わせたり、目的語または修飾語の語尾を変形させることで「A君が運動会で走る。」という文章を作成する。文章を作成したらS43へ進む。   (S42) The text creation unit 15 acquires the information selected by the selection unit 21 via the control unit 12, and creates a text based on the acquired information. For example, it is assumed that the order of displaying information is determined as in the third embodiment, and “A-kun”, “laughing”, and “fun” are selected as shown in FIG. In this case, the subject is “A-kun”, the predicate is “laughing”, and the object or modifier is “fun”. The sentence creation unit 15 creates a sentence “A-kun laughs happily” by combining an appropriate particle or auxiliary verb with each information or changing the ending of the object or modifier. Further, it is assumed that the order for displaying information is not determined as in the first embodiment, and “A-kun”, “Run”, and “Athletic meet” are selected as shown in FIG. In this case, the sentence creation unit 15 specifies the part of speech of each information, and determines whether the noun is a person name for information in which the part of speech is identified as a noun. If there is information corresponding to the person name in the acquired information, the sentence creation unit 15 uses the information corresponding to the person name as the subject, the verb as a predicate, the other part of speech as the modifier, and the noun other than the person name as the object. And The sentence creation unit 15 creates a sentence “A-kun runs at an athletic meet” by combining an appropriate particle or auxiliary verb with each information or by transforming the ending of the object or modifier. If a sentence is created, it will progress to S43.

(S43)文章記憶部16は、S42で文章作成部15が作成した文章を記憶する。文章を記憶したら、S8へ進む。実施形態1と同様に動画データを処理し、処理された動画データに基づく動画像を表示部20に再生する。   (S43) The text storage unit 16 stores the text created by the text creation unit 15 in S42. When the sentence is stored, the process proceeds to S8. The moving image data is processed in the same manner as in the first embodiment, and a moving image based on the processed moving image data is reproduced on the display unit 20.

(S44)ユーザが、S41で文章を選択して動画データを処理することを選択したらS44の処理を行う。制御部12は、文章記憶部16に記憶されている文章を表示部20に表示させる。文章記憶部16に記憶されている文章がない場合、その旨をユーザに通知してもよい。通知する方法は、表示部20に表示してもよいし、音で通知してもよい。処理を終了してもよい。   (S44) If the user selects a sentence in S41 and selects to process moving image data, the process of S44 is performed. The control unit 12 causes the display unit 20 to display the text stored in the text storage unit 16. If there is no sentence stored in the sentence storage unit 16, the user may be notified of this. The notification method may be displayed on the display unit 20 or may be notified by sound. Processing may be terminated.

(S45)ユーザは選択部21を介して、表示部20に表示された文章の中から1つを選択する。文章が選択されない場合、S44へ戻り文章を表示し続ける。また、一定時間ユーザからの選択がなければ処理を終了してもよい。文章が選択されたらS46へ進む。   (S45) The user selects one of the sentences displayed on the display unit 20 via the selection unit 21. If no text is selected, the process returns to S44 and continues to display the text. If there is no selection from the user for a certain period of time, the processing may be terminated. If a sentence is selected, the process proceeds to S46.

(S46)選択された文章で動画データを処理するか、選択された文章を一部修正して動画データを処理するかをユーザに問う内容を表示部20に表示させる。選択された文章で動画データを処理する場合、S8へ進み、実施形態1と同様の処理で動画データを処理する。選択された文章を一部修正して動画データを処理する場合、S47へ進む。   (S46) The display unit 20 displays a content asking the user whether to process the moving image data with the selected text or to modify the selected text to process the moving image data. When the moving image data is processed with the selected text, the process proceeds to S8, where the moving image data is processed in the same process as in the first embodiment. When the moving image data is processed by partially correcting the selected sentence, the process proceeds to S47.

(S47)ユーザは、選択した文章のうち修正したい箇所を選択部21で選択する。制御部12は、選択部21で選択された修正したい箇所を取得し、その代わりとなる情報を表示する。ユーザは表示された情報の中から、ユーザの意図する情報を選択する。表示された情報の中に、ユーザの意図する情報がない場合、図示しない入力部からユーザが入力してもよい。例えば、ユーザが「A君が運動会で走る」という文章を選択し、この文章を修正するとする。図16に示すように、修正したい箇所として「A君」をユーザが選択する。「A君」は人物名なので、「A君」の代わりとなる情報として、情報テーブルに記憶されている「A君」以外の人物名を表示領域5に表示する。ユーザは表示領域5に表示された代わりの情報のうち、ユーザの意図する情報を選択する。意図する情報が表示されなかった場合、入力部6から入力してもよい。   (S47) The user uses the selection unit 21 to select a portion of the selected sentence to be corrected. The control unit 12 acquires the part to be corrected selected by the selection unit 21 and displays information instead. The user selects information intended by the user from the displayed information. When there is no information intended by the user in the displayed information, the user may input from an input unit (not shown). For example, it is assumed that the user selects a sentence “A-kun runs at an athletic meet” and corrects this sentence. As shown in FIG. 16, the user selects “A-kun” as a location to be corrected. Since “A-kun” is a person name, a person name other than “A-kun” stored in the information table is displayed in the display area 5 as information replacing “A-kun”. The user selects information intended by the user from the alternative information displayed in the display area 5. If the intended information is not displayed, it may be input from the input unit 6.

(S48)文章記憶部16は、S47で修正した文章を記憶する。文章を記憶したら、S8へ進む。   (S48) The text storage unit 16 stores the text corrected in S47. When the sentence is stored, the process proceeds to S8.

(S8)処理部11は、動画取得部10を介して取得した動画データを処理する。S41で情報を選択して動画データを処理した場合、処理部11は実施形態1と同様に選択部21が選択した情報(第1情報401等)に基づいて、動画取得部10を介して取得した動画データを処理する。S41で文章を選択し、さらに選択した文章を修正した場合、S47で修正した文章に基づいて動画データを処理する。すなわち、修正した文章に含まれる情報と対応する場面を動画データから取得する。S41で文章を選択し、選択した文章を修正しなかった場合、S45で選択した文章に基づいて動画データを処理する。すなわち、選択した文章に含まれる情報と対応する場面を動画データから取得する。   (S8) The processing unit 11 processes the moving image data acquired via the moving image acquiring unit 10. When the information is selected in S41 and the moving image data is processed, the processing unit 11 acquires the information via the moving image acquisition unit 10 based on the information (first information 401 and the like) selected by the selection unit 21 as in the first embodiment. Processed video data. When a sentence is selected in S41 and the selected sentence is further corrected, the moving image data is processed based on the sentence corrected in S47. That is, a scene corresponding to information included in the corrected sentence is acquired from the moving image data. When a sentence is selected in S41 and the selected sentence is not corrected, the moving image data is processed based on the sentence selected in S45. That is, the scene corresponding to the information included in the selected sentence is acquired from the moving image data.

以上のように、本実施形態によれば、ユーザが文章記憶部16に記憶されている文章を選択することで、ユーザは何度も情報を選択する必要なく動画データを処理することができる。また、作成された文章を記憶しておくことで、ユーザは1度利用した文章を再度利用しやすくなる。   As described above, according to the present embodiment, the user can process moving image data without having to select information many times by selecting a sentence stored in the sentence storage unit 16. In addition, by storing the created sentence, the user can easily use the sentence once used again.

本実施形態では、主語、述語、修飾語、目的語を自動で判断し、適当な助詞または助動詞を組み合わせ、目的語または修飾語の語尾を変形させることで、動画処理装置1が自動で文章を作成したが、それに限定されるものではない。ユーザが手動で行ってもよい。例えば、ユーザは主語、述語、目的語または修飾語となる情報を選択する。主語、述語、目的語または修飾語をつなぐ助詞や助動詞はユーザが図示しない入力部から入力する。または、助詞や助動詞を表示部20に表示させ、表示された助詞や助動詞から適当なものをユーザが選択する。自動で文章を作成するとき、主語または動詞がないと判断され、文章作成部15が文章を作成できなかった場合はその旨をユーザに通知してもよい。   In this embodiment, the moving image processing apparatus 1 automatically determines a subject, a predicate, a modifier, and an object, automatically combines a proper particle or auxiliary verb, and transforms the ending of the object or modifier. Created but not limited to it. It may be performed manually by the user. For example, the user selects information that becomes a subject, predicate, object, or modifier. A particle or auxiliary verb that connects a subject, predicate, object, or modifier is input by an input unit (not shown). Alternatively, a particle or an auxiliary verb is displayed on the display unit 20, and the user selects an appropriate one from the displayed particles or auxiliary verbs. When a sentence is automatically created, if it is determined that there is no subject or verb and the sentence creation unit 15 cannot create the sentence, the user may be notified of this.

本実施形態では、文章作成部15が作成した文章を全て文章記憶部16に記憶させたがそれに限定されるものではない。例えば、制御部12は、文章作成部15が作成した文章を表示部20に表示させる。ユーザが表示された文章を文章記憶部16に記憶する指示をした場合のみ、制御部12は作成された文章を文章記憶部16に記憶させてもよい。   In the present embodiment, all the sentences created by the sentence creating unit 15 are stored in the sentence storage unit 16, but the present invention is not limited to this. For example, the control unit 12 causes the display unit 20 to display the text created by the text creation unit 15. Only when the user gives an instruction to store the displayed text in the text storage unit 16, the control unit 12 may store the created text in the text storage unit 16.

本実施形態では、文章記憶部16に記憶されている文章を表示部20に表示するとした。表示する順番としては、使用頻度の高い順、作成された日順、文章が長い順等が考えられる。   In the present embodiment, the text stored in the text storage unit 16 is displayed on the display unit 20. As the display order, the order of frequency of use, the order of created date, the order of long sentences, and the like can be considered.

本実施形態では、文章が1つだけの場合を説明したがそれに限定されるものではない。例えば、接続詞を使用して、2つの文章をつなげることにより、2つの場面を動画データから取得することも考えられる。具体的に図17を使用して説明する。まず図17aに示すように、ユーザが「A君が運動会で走る」という文章を選択したとする。ユーザが複数の文章で動画データを処理したいと考えた場合、接続詞ボタン7を押す。接続詞ボタン7を押すと、複数の接続詞が表示部20に表示され、ユーザは意図する接続詞「そして」を選択する(図17b)。ユーザが接続詞を選択すると、2つ目の文章の候補が表示部20に表示さる(図17c)。表示された2つ目の文章の候補の中から、ユーザは意図する2つ目の文章「B君は運動会で食べる。」を選択する。すると、「A君は運動会で走る。そして、B君は運動会で食べる。」という文章ができる(図17d)。ユーザがこの文章で動画データを処理する指示をすると、動画処理装置1は「A君が運動会で走る」場面と「B君が運動会で食べる」場面とを動画データから取得し、2つの場面をつなげて表示部20に表示させる。このとき使用した接続詞によって、2つの場面間に効果を付け加えてもよい。例えば、「そして」という接続詞は順接であるので、動画処理装置1は2つの場面は似たような場面であると判断し、フェード等2つの場面のつながりを持たせられるような効果を2つの場面間に挿入して、表示部20に表示させる。「ところで」等の転換の接続詞の場合は、ページをめくる演出等の場面の転換を連想させる効果を2つの場面間に挿入してもよい。接続詞と効果の対応は、あらかじめ設定されていてもよいし、ユーザが指定してもよい。   In this embodiment, although the case where there was only one sentence was demonstrated, it is not limited to it. For example, it is conceivable to acquire two scenes from moving image data by connecting two sentences using a conjunction. This will be specifically described with reference to FIG. First, as shown in FIG. 17a, it is assumed that the user selects a sentence “A-kun runs at an athletic meet”. When the user wants to process moving image data with a plurality of sentences, the conjunction button 7 is pressed. When the conjunction button 7 is pressed, a plurality of conjunctions are displayed on the display unit 20, and the user selects the intended conjunction "and" (FIG. 17b). When the user selects a conjunction, the second sentence candidate is displayed on the display unit 20 (FIG. 17c). From the displayed second sentence candidates, the user selects the intended second sentence “B-kun eats at the athletic meet.” Then, a sentence “A-kun runs at an athletic meet and B-kun eats at an athletic meet” can be made (FIG. 17d). When the user gives an instruction to process the video data with this sentence, the video processing device 1 acquires from the video data the scene “A you run at the athletic meet” and the scene “B you eat at the athletic meet” from the video data. They are connected and displayed on the display unit 20. Depending on the conjunction used at this time, an effect may be added between the two scenes. For example, since the conjunction “and” is sequential, the moving image processing apparatus 1 determines that the two scenes are similar scenes, and has the effect of giving a connection between the two scenes such as a fade. It is inserted between two scenes and displayed on the display unit 20. In the case of a conjunctive conjunction such as “by the way”, an effect reminiscent of a scene change such as a page turning effect may be inserted between the two scenes. The correspondence between conjunctions and effects may be set in advance or specified by the user.

本発明の表示部20として図18に示すような表示例も考えられる。動画領域204は、複数の領域に分割されている。図18では領域8、領域9、領域10に分割されている。これら分割された領域は、各領域の下にある第1領域201と第2領域202と第3領域203にそれぞれ表示された情報に対応する場面を表示する。例えば、領域8には「A君が運動会で走る」場面が表示される。領域9には「B君が運動会で走る」場面が表示され、領域10には「C君が運動会で走る」場面が表示される。第1情報201または第2情報202または第3情報203に表示されている情報は、ユーザが表示部20をスライドすることで表示する情報を変えるようにしてもよい。   A display example as shown in FIG. 18 may be considered as the display unit 20 of the present invention. The moving image area 204 is divided into a plurality of areas. In FIG. 18, the area is divided into an area 8, an area 9, and an area 10. These divided areas display scenes corresponding to the information displayed in the first area 201, the second area 202, and the third area 203 below each area. For example, a scene “A-kun runs at an athletic meet” is displayed in the area 8. In the area 9, a scene “B-kun runs at an athletic meet” is displayed, and an area 10 displays a scene “C-kun runs at an athletic meet”. The information displayed in the first information 201, the second information 202, or the third information 203 may be changed as the information displayed by the user sliding the display unit 20.

本発明では、動画取得部10を介して、動画データ、音声データ、動画データと音声データを同期させるための信号などが含まれる動画ファイルを取得したが、それに限定されるものではない。例えば、動画データを取得してもよい。その場合、動画処理装置1は動画データを処理する。   In the present invention, a moving image file including moving image data, audio data, a signal for synchronizing moving image data and audio data, and the like is acquired via the moving image acquisition unit 10, but the present invention is not limited thereto. For example, moving image data may be acquired. In that case, the moving image processing apparatus 1 processes moving image data.

以上、本発明の実施形態について図面やフローチャートを使用して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計等も含まれる。   As mentioned above, although embodiment of this invention has been explained in full detail using drawing and a flowchart, a concrete structure is not restricted to this embodiment, The design etc. of the range which does not deviate from the summary of this invention are included. .

なお、本発明の実施形態における各部は、専用のハードウェアにより実現されるものであってもよく、また、メモリおよびマイクロプロセッサにより実現させるものであってもよい。   Each unit in the embodiment of the present invention may be realized by dedicated hardware, or may be realized by a memory and a microprocessor.

なお、本発明の実施形態における制御部12は、メモリおよびCPU(中央演算装置)により構成され、制御部12の機能を実現するためのプログラムをメモリにロードして実行することによりその機能を実現させるものであってもよい。   The control unit 12 according to the embodiment of the present invention is configured by a memory and a CPU (central processing unit), and the function is realized by loading a program for realizing the function of the control unit 12 into the memory and executing the program. It may be allowed.

また、制御部12の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、制御部12による処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。   Further, a program for realizing the function of the control unit 12 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into the computer system and executed, whereby the processing by the control unit 12 is performed. May be performed. Here, the “computer system” includes an OS and hardware such as peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

Claims (17)

動画データに関する複数の情報のうち第1情報が選択されると、前記第1情報と関連のある第1関連情報を表示部に表示させる制御部と、
少なくとも前記第1情報に基づいて前記動画データを処理する処理部と、を備える
ことを特徴とする動画処理装置。
When the first information is selected from among a plurality of pieces of information regarding the video data, a control unit that causes the display unit to display first related information related to the first information;
And a processing unit that processes the moving image data based on at least the first information.
前記制御部は、前記動画データから取得された前記複数の情報のうち前記第1情報が選択されると、前記第1関連情報を前記表示部に表示させる
ことを特徴とする請求項1に記載の動画処理装置。
The control unit displays the first related information on the display unit when the first information is selected from the plurality of pieces of information acquired from the moving image data. Video processing device.
前記処理部は、前記第1情報と、前記第1関連情報のうち選択された第2情報と、に基づいて前記動画データを処理する
ことを特徴とする請求項1から2に記載の動画処理装置。
The moving image processing according to claim 1, wherein the processing unit processes the moving image data based on the first information and the second information selected from the first related information. apparatus.
前記制御部は、前記第2情報が選択されると、前記第2情報と関連のある第2関連情報または前記処理部で処理された前記動画データに基づく動画像を前記表示部に表示させる
ことを特徴とする請求項3に記載の動画処理装置。
When the second information is selected, the control unit causes the display unit to display a moving image based on the second related information related to the second information or the moving image data processed by the processing unit. The moving image processing apparatus according to claim 3.
前記制御部は、前記第1情報が選択されると前記第1情報を強調して前記表示部に表示させ、前記第2情報が選択されると前記第2情報を強調して前記表示部に表示させる
ことを特徴とする請求項3から4に記載の動画処理装置。
When the first information is selected, the control unit highlights the first information to be displayed on the display unit, and when the second information is selected, the control unit highlights the second information on the display unit. The moving image processing apparatus according to claim 3, wherein the moving image processing apparatus is displayed.
前記制御部は、前記動画データが前記処理部で処理されると、前記処理部で処理された前記動画データに基づく動画像を前記表示部に表示させる
ことを特徴とする請求項1から5に記載の動画処理装置。
6. The control unit according to claim 1, wherein when the moving image data is processed by the processing unit, the control unit displays a moving image based on the moving image data processed by the processing unit on the display unit. The moving image processing apparatus described.
前記制御部は、前記複数の情報のうち第1カテゴリに分類された情報を前記表示部に表示させ、前記第1カテゴリに分類された情報のうち前記第1情報が選択されると、前記複数の情報のうち第2カテゴリに分類された前記第1関連情報を前記表示部に表示させる
ことを特徴とする請求項1から6に記載の動画処理装置。
The control unit causes the display unit to display information classified into the first category among the plurality of information, and when the first information is selected from the information classified into the first category, The moving image processing apparatus according to claim 1, wherein the first related information classified into a second category is displayed on the display unit.
前記第1カテゴリに分類された情報は被写体を示す名詞であり、
前記制御部は、前記被写体を示す名詞を前記表示部に表示させる
ことを特徴とする請求項7に記載の動画処理装置。
The information classified into the first category is a noun indicating a subject,
The video processing apparatus according to claim 7, wherein the control unit displays a noun indicating the subject on the display unit.
前記制御部は、前記複数の情報のうち前記第1カテゴリに分類された前記被写体を示す名詞と、前記複数の情報のうち前記第2カテゴリに分類された前記被写体の状態を示す動詞または形容詞または形容動詞と、を前記表示部に表示させる
ことを特徴とする請求項8に記載の動画処理装置。
The control unit includes a noun indicating the subject classified into the first category among the plurality of information, and a verb or adjective indicating the state of the subject classified into the second category among the plurality of information, or The moving image processing apparatus according to claim 8, wherein an adjective verb is displayed on the display unit.
前記制御部は、前記動画データから取得された前記複数の情報または前記動画データに関するフレームから取得された前記複数の情報のうち前記第1情報が選択されると、前記第1関連情報を前記表示部に表示させる
ことを特徴とする請求項1から9に記載の動画処理装置。
When the first information is selected from the plurality of information acquired from the moving image data or the plurality of information acquired from a frame related to the moving image data, the control unit displays the first related information. The moving image processing apparatus according to claim 1, wherein the moving image processing apparatus is displayed on a screen.
前記処理部は、前記第1情報と前記第2情報とが取得されたフレームを前記動画データから取得する
ことを特徴とする請求項3に記載の動画処理装置。
The moving image processing apparatus according to claim 3, wherein the processing unit acquires a frame in which the first information and the second information are acquired from the moving image data.
前記複数の情報は、前記複数の情報が取得されたフレームに対応する時間情報が関連付いており、
前記処理部は、前記第1情報と関連付いている前記時間情報と、前記第2情報と関連付いている前記時間情報と、に対応するフレームを前記動画データから取得する
ことを特徴とする請求項11に記載の動画処理装置。
The plurality of information is associated with time information corresponding to a frame from which the plurality of information is acquired,
The processing unit acquires a frame corresponding to the time information associated with the first information and the time information associated with the second information from the moving image data. Item 12. A moving image processing apparatus according to Item 11.
少なくとも前記第1情報に基づいて文章を作成する文章作成部を備え、
前記処理部は、前記文章作成部で作成された前記文章が選択されると、選択された前記文章に基づいて前記動画データを処理する
ことを特徴とする請求項1から12に記載の動画処理装置。
A sentence creation unit for creating a sentence based on at least the first information;
The moving image processing according to claim 1, wherein when the sentence created by the sentence creating unit is selected, the processing unit processes the moving image data based on the selected sentence. apparatus.
前記文章作成部で作成された前記文章を記憶する文章記憶部を備え、
前記制御部は、前記文章記憶部に記憶された前記文章を前記表示部に表示させ、
前記処理部は、前記表示部に表示された前記文章が少なくとも1つ選択されると、選択された前記文章に基づいて前記動画データを処理する
ことを特徴とする請求項13に記載の動画処理装置。
A sentence storage unit for storing the sentence created by the sentence creation unit;
The control unit causes the display unit to display the sentence stored in the sentence storage unit,
The moving image processing according to claim 13, wherein the processing unit processes the moving image data based on the selected sentence when at least one of the sentences displayed on the display unit is selected. apparatus.
前記制御部は、少なくとも1つの接続詞を前記表示部に表示させ、
前記処理部は、前記表示部に表示された前記接続詞のうち少なくとも1つが選択されると、選択された前記接続詞に基づいて前記動画データを処理する
ことを特徴とする請求項1から14に記載の動画処理装置。
The control unit displays at least one conjunction on the display unit,
The said process part processes the said moving image data based on the selected said conjunction, when at least 1 is selected from the said conjunctions displayed on the said display part. Video processing device.
動画データに関する複数の情報のうち第1情報が選択されると、前記第1情報と関連のある第1関連情報を表示部に表示させる制御方法と、
少なくとも前記第1情報に基づいて前記動画データを処理する処理方法と、を備える
ことを特徴とする動画処理方法。
A control method for displaying first related information related to the first information on a display unit when the first information is selected from the plurality of pieces of information regarding the video data;
A moving image processing method comprising: processing the moving image data based on at least the first information.
動画データに関する複数の情報のうち第1情報が選択されると、前記第1情報と関連のある第1関連情報を表示部に表示させる制御ステップと、
少なくとも前記第1情報に基づいて前記動画データを処理する処理ステップと、を備える
ことを特徴とする動画処理プログラム。
When the first information is selected from among a plurality of pieces of information related to the moving image data, a control step of causing the display unit to display first related information related to the first information;
And a processing step for processing the moving image data based on at least the first information.
JP2014128460A 2014-06-23 2014-06-23 Moving image processing device, moving image processing program, and moving image processing method Pending JP2016009262A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014128460A JP2016009262A (en) 2014-06-23 2014-06-23 Moving image processing device, moving image processing program, and moving image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014128460A JP2016009262A (en) 2014-06-23 2014-06-23 Moving image processing device, moving image processing program, and moving image processing method

Publications (1)

Publication Number Publication Date
JP2016009262A true JP2016009262A (en) 2016-01-18

Family

ID=55226791

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014128460A Pending JP2016009262A (en) 2014-06-23 2014-06-23 Moving image processing device, moving image processing program, and moving image processing method

Country Status (1)

Country Link
JP (1) JP2016009262A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11128927B2 (en) 2017-06-07 2021-09-21 Naver Corporation Content providing server, content providing terminal, and content providing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11128927B2 (en) 2017-06-07 2021-09-21 Naver Corporation Content providing server, content providing terminal, and content providing method

Similar Documents

Publication Publication Date Title
CN112449231B (en) Multimedia file material processing method and device, electronic equipment and storage medium
US10325397B2 (en) Systems and methods for assembling and/or displaying multimedia objects, modules or presentations
KR102290419B1 (en) Method and Appratus For Creating Photo Story based on Visual Context Analysis of Digital Contents
US20190235706A1 (en) Display device providing feedback based on image classification
WO2021109678A1 (en) Video generation method and apparatus, electronic device, and storage medium
US8719029B2 (en) File format, server, viewer device for digital comic, digital comic generation device
US20080079693A1 (en) Apparatus for displaying presentation information
JP5634853B2 (en) Electronic comic viewer device, electronic comic browsing system, viewer program, and electronic comic display method
KR20140139859A (en) Method and apparatus for user interface for multimedia content search
US20170206243A1 (en) Control apparatus, control method and computer program
US9558784B1 (en) Intelligent video navigation techniques
US9564177B1 (en) Intelligent video navigation techniques
CN109325143B (en) Method and device for making song list, storage medium and processor
CN112449253A (en) Interactive video generation
CN115082602B (en) Method for generating digital person, training method, training device, training equipment and training medium for model
WO2011155350A1 (en) Content reproduction device, control method for content reproduction device, control program, and recording medium
US20150111189A1 (en) System and method for browsing multimedia file
KR20120129015A (en) Method for creating educational contents for foreign languages and terminal therefor
CN106936830B (en) Multimedia data playing method and device
WO2012145561A1 (en) Systems and methods for assembling and/or displaying multimedia objects, modules or presentations
CN109977390A (en) A kind of method and device generating text
JP6602423B6 (en) Content providing server, content providing terminal, and content providing method
US10915778B2 (en) User interface framework for multi-selection and operation of non-consecutive segmented information
JP5342509B2 (en) CONTENT REPRODUCTION DEVICE, CONTENT REPRODUCTION DEVICE CONTROL METHOD, CONTROL PROGRAM, AND RECORDING MEDIUM
US20140297678A1 (en) Method for searching and sorting digital data