JP7486871B1 - Scene extraction system, scene extraction method, and scene extraction program - Google Patents

Scene extraction system, scene extraction method, and scene extraction program Download PDF

Info

Publication number
JP7486871B1
JP7486871B1 JP2024048196A JP2024048196A JP7486871B1 JP 7486871 B1 JP7486871 B1 JP 7486871B1 JP 2024048196 A JP2024048196 A JP 2024048196A JP 2024048196 A JP2024048196 A JP 2024048196A JP 7486871 B1 JP7486871 B1 JP 7486871B1
Authority
JP
Japan
Prior art keywords
scenes
scene
similarity
unit
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2024048196A
Other languages
Japanese (ja)
Inventor
学 吉田
空也 西坂
久佳 中岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Star Ai
Original Assignee
Star Ai
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Star Ai filed Critical Star Ai
Priority to JP2024048196A priority Critical patent/JP7486871B1/en
Application granted granted Critical
Publication of JP7486871B1 publication Critical patent/JP7486871B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】
ユーザの嗜好に合うシーンを抽出する新たな技術を提供すること。
【解決手段】
シーン抽出システム0は、記憶部、分割部、類似度算出部、嗜好シーン抽出部、類似シーン抽出部、を備える。分割部は、動画をシーンごとに分割する。記憶部は、分割された分割シーンにおける、ユーザごとの、映像に関する特徴に対する映像重視度、音に関する特徴に対する音重視度、発話に関する特徴に対する発話重視度、をユーザIDに紐づけて格納する。類似度算出部は、分割された分割シーンの映像特徴量、音特徴量、発話特徴量、に基づいて、分割シーン同士の映像類似度、音類似度、発話類似度、を算出する。嗜好シーン抽出部は、ユーザの視聴履歴に基づいて、複数の分割シーンからユーザが嗜好する嗜好シーンを抽出する。類似シーン抽出部は、嗜好シーン、類似度、ユーザIDに紐づく重視度、に基づいて、分割シーンから類似シーンを抽出する。
【選択図】図1

【assignment】
To provide a new technique for extracting scenes that match a user's preferences.
SOLUTION
The scene extraction system 0 includes a storage unit, a division unit, a similarity calculation unit, a preferred scene extraction unit, and a similar scene extraction unit. The division unit divides a video into scenes. The storage unit stores the video importance level for the video feature, the sound importance level for the sound feature, and the speech importance level for the speech feature for each user in the divided split scenes, linked to the user ID. The similarity calculation unit calculates the video similarity, sound similarity, and speech similarity between the split scenes based on the video feature, sound feature, and speech feature of the divided split scenes. The preferred scene extraction unit extracts preferred scenes preferred by the user from the multiple split scenes based on the user's viewing history. The similar scene extraction unit extracts similar scenes from the split scenes based on the preferred scene, the similarity, and the importance level linked to the user ID.
[Selected Figure] Figure 1

Description

本発明は、シーン抽出システム、シーン抽出方法及びシーン抽出プログラムに関する。 The present invention relates to a scene extraction system, a scene extraction method, and a scene extraction program.

従来、シーンにおける複数の特徴に基づいて、ユーザの嗜好に合うシーンの抽出を行う技術が存在する。 Conventionally, there exists technology that extracts scenes that match a user's preferences based on multiple features in the scene.

例えば、特許文献1には、シーンにおける単語、画像、音等の特徴に基づいて、ユーザの嗜好に合うシーンの抽出を行う技術が開示されている。 For example, Patent Document 1 discloses a technology that extracts scenes that match a user's preferences based on the characteristics of the words, images, sounds, etc. in the scene.

特許5338450号公報Patent No. 5338450

何れの特徴を重視して動画を視聴しているかはユーザごとに異なる。よって、ユーザの嗜好に合うシーンを提供するためには、何れの特徴を重視してシーンを抽出するかをユーザごとに設定するのが好ましい。しかしながら特許文献1の技術では、複数の特徴に基づいてシーンを抽出できる一方、ユーザが重視する特徴をユーザごとに設定してシーンを抽出することはできない。 Each user has a different preference for which feature to prioritize when watching a video. Therefore, in order to provide scenes that match the user's preferences, it is preferable to set for each user which feature to prioritize when extracting a scene. However, while the technology in Patent Document 1 can extract scenes based on multiple features, it cannot set the feature that each user prioritizes for each user and extract scenes.

本発明は、上述したような事情に鑑みてなされたものであって、ユーザの嗜好に合うシーンを抽出する新たな技術を提供することを解決すべき課題とする。 The present invention was made in consideration of the above-mentioned circumstances, and the problem to be solved is to provide a new technology for extracting scenes that match the user's preferences.

上記課題を解決するために、本発明は動画からシーンを抽出するシーン抽出システムであって、
前記シーン抽出システムは、記憶部、分割部、類似度算出部、嗜好シーン抽出部、類似シーン抽出部、を備え、
前記分割部は、前記動画をシーンごとに分割し、
前記記憶部は、前記分割された分割シーンにおける、ユーザごとの、映像に関する特徴に対する映像重視度、音に関する特徴に対する音重視度、発話に関する特徴に対する発話重視度、をユーザIDに紐づけて格納し、
前記類似度算出部は、前記分割された分割シーンの映像特徴量、音特徴量、発話特徴量、に基づいて、前記分割シーン同士の映像類似度、音類似度、発話類似度、を算出し、
前記嗜好シーン抽出部は、前記ユーザの視聴履歴に基づいて、複数の分割シーンから当該ユーザが嗜好する嗜好シーンを抽出し、
前記類似シーン抽出部は、前記嗜好シーン、前記映像類似度、前記音類似度、前記発話類似度、前記ユーザIDに紐づく重視度、に基づいて、前記分割シーンから類似シーンを抽出する。
In order to solve the above problems, the present invention provides a scene extraction system for extracting scenes from a video, comprising:
the scene extraction system includes a storage unit, a division unit, a similarity calculation unit, a preference scene extraction unit, and a similar scene extraction unit;
The division unit divides the video into scenes,
the storage unit stores, for each user, a video importance level for a video-related feature, a sound importance level for a sound-related feature, and an utterance importance level for an utterance-related feature in the divided split scenes, in association with a user ID;
the similarity calculation unit calculates a video similarity, a sound similarity, and a speech similarity between the split scenes based on a video feature, a sound feature, and a speech feature of the split scenes;
the preference scene extraction unit extracts preference scenes preferred by the user from a plurality of split scenes based on a viewing history of the user;
The similar scene extraction unit extracts similar scenes from the split scenes based on the preferred scene, the video similarity, the sound similarity, the speech similarity, and an importance level linked to the user ID.

また、本発明は、動画からシーンを抽出するシーン抽出システムが実行するシーン抽出方法であって、
前記シーン抽出システムは、記憶部、分割部、類似度算出部、嗜好シーン抽出部、類似シーン抽出部、を備え、
前記分割部が、前記動画をシーンごとに分割するステップと、
前記記憶部が、前記分割された分割シーンにおける、ユーザごとの、映像に関する特徴に対する映像重視度、音に関する特徴に対する音重視度、発話に関する特徴に対する発話重視度、をユーザIDに紐づけて格納するステップと、
前記類似度算出部が、前記分割された分割シーンの映像特徴量、音特徴量、発話特徴量、に基づいて、前記分割シーン同士の映像類似度、音類似度、発話類似度、を算出するステップと、
前記嗜好シーン抽出部が、前記ユーザの視聴履歴に基づいて、複数の分割シーンから当該ユーザが嗜好する嗜好シーンを抽出するステップと、
前記類似シーン抽出部が、前記嗜好シーン、前記映像類似度、前記音類似度、前記発話類似度、前記ユーザIDに紐づく重視度、に基づいて、前記分割シーンから類似シーンを抽出するステップと、を含む。
The present invention also provides a scene extraction method executed by a scene extraction system that extracts scenes from a moving image, comprising the steps of:
the scene extraction system includes a storage unit, a division unit, a similarity calculation unit, a preference scene extraction unit, and a similar scene extraction unit;
A step of dividing the video into scenes by the dividing unit;
storing, by the storage unit, a video importance level for a video feature, a sound importance level for a sound feature, and an utterance importance level for an utterance feature, for each user, in the divided split scenes, in association with a user ID;
a step of calculating a video similarity, a sound similarity, and a speech similarity between the split scenes based on a video feature, a sound feature, and a speech feature of the split scenes by the similarity calculation unit;
a step of the preference scene extraction unit extracting preference scenes preferred by the user from a plurality of split scenes based on a viewing history of the user;
The similar scene extraction unit extracts similar scenes from the split scenes based on the preferred scene, the video similarity, the sound similarity, the speech similarity, and the importance level linked to the user ID.

また、本発明は、動画からシーンを抽出するシーン抽出プログラムであって、
コンピュータを、記憶部、分割部、類似度算出部、嗜好シーン抽出部、類似シーン抽出部、として機能させ、
前記分割部は、前記動画をシーンごとに分割し、
前記記憶部は、前記分割された分割シーンにおける、ユーザごとの、映像に関する特徴に対する映像重視度、音に関する特徴に対する音重視度、発話に関する特徴に対する発話重視度、をユーザIDに紐づけて格納し、
前記類似度算出部は、前記分割された分割シーンの映像特徴量、音特徴量、発話特徴量、に基づいて、前記分割シーン同士の映像類似度、音類似度、発話類似度、を算出し、
前記嗜好シーン抽出部は、前記ユーザの視聴履歴に基づいて、複数の分割シーンから当該ユーザが嗜好する嗜好シーンを抽出し、
前記類似シーン抽出部は、前記嗜好シーン、前記映像類似度、前記音類似度、前記発話類似度、前記ユーザIDに紐づく重視度、に基づいて、前記分割シーンから類似シーンを抽出する。
The present invention also provides a scene extraction program for extracting a scene from a video, comprising:
A computer is caused to function as a storage unit, a division unit, a similarity calculation unit, a preferred scene extraction unit, and a similar scene extraction unit;
The division unit divides the video into scenes,
the storage unit stores, for each user, a video importance level for a video-related feature, a sound importance level for a sound-related feature, and an utterance importance level for an utterance-related feature in the divided split scenes, in association with a user ID;
the similarity calculation unit calculates a video similarity, a sound similarity, and a speech similarity between the split scenes based on a video feature, a sound feature, and a speech feature of the split scenes;
the preference scene extraction unit extracts preference scenes preferred by the user from a plurality of split scenes based on a viewing history of the user;
The similar scene extraction unit extracts similar scenes from the split scenes based on the preferred scene, the video similarity, the sound similarity, the speech similarity, and an importance level linked to the user ID.

このような構成にすることで、ユーザごとの重視する特徴に基づいて、ユーザの嗜好する嗜好シーンを抽出することが可能となり、ユーザの嗜好に合う類似シーンを抽出することができる。 This configuration makes it possible to extract scenes that are preferred by the user based on the features that each user values, and to extract similar scenes that match the user's preferences.

本発明の好ましい形態では、前記シーン抽出システムは、変化重視度作成部、を備え、
前記変化重視度作成部は、前記重視度及び所定条件に基づいて、当該重視度の全部又は一部を変化させた変化重視度を作成し、
前記類似シーン抽出部は、前記嗜好シーン、前記映像類似度、前記音類似度、発話類似度、前記変化重視度、に基づいて、前記分割シーンから変化重視度類似シーンを抽出する。
In a preferred embodiment of the present invention, the scene extraction system includes a change importance level creation unit,
the change importance level creation unit creates a change importance level by changing all or a part of the importance level based on the importance level and a predetermined condition;
The similar scene extraction unit extracts scenes with similar change importance from the split scenes based on the preferred scene, the video similarity, the sound similarity, the speech similarity, and the change importance.

このような構成にすることで、ユーザIDに紐づく重視度を変化させた変化重視度に基づく類似シーンである変化重視度類似シーンを抽出することが可能となり、変化重視度及びユーザIDに紐づく重視度を用いてユーザの嗜好に合う重視度を探ることができる。 This configuration makes it possible to extract change importance similar scenes, which are similar scenes based on the change importance obtained by changing the importance associated with the user ID, and it is possible to find an importance that matches the user's preferences using the change importance and the importance associated with the user ID.

本発明の好ましい形態では、前記シーン抽出システムは、重視度更新部、を備え、
前記重視度更新部は、前記変化重視度類似シーンに関するユーザの視聴履歴に基づいて、当該変化重視度類似シーンに関連する変化重視度を当該ユーザの重視度としてユーザIDに紐づけて更新する。
In a preferred embodiment of the present invention, the scene extraction system includes an importance updating unit,
The importance level update unit updates the change importance level related to the change importance level similar scene as the importance level of the user by linking it to a user ID based on a viewing history of the user for the change importance level similar scene.

このような構成にすることで、様々な重視度による類似シーンの視聴履歴を用いることが可能となり、ユーザの嗜好に合う重視度に更新することができる。 This configuration makes it possible to use viewing histories of similar scenes with various levels of importance, and update the level of importance to match the user's preferences.

本発明の好ましい形態では、前記シーン抽出システムは、提示部、を備え、
前記提示部は、前記類似シーンと比べて低い割合の変化重視度類似シーンを提示する。
In a preferred embodiment of the present invention, the scene extraction system includes a presentation unit,
The presentation unit presents scenes having a similar change importance level at a lower rate than the similar scenes.

このような構成にすることで、類似シーンと少量の変化重視度類似シーンをユーザに対して同時に提示することが可能となり、それぞれの視聴履歴を比較してユーザの嗜好に合う重視度を探ることができる。 This configuration makes it possible to simultaneously present similar scenes and scenes with similar importance with small changes to the user, and by comparing the viewing histories of each, the user can find an importance level that suits their preferences.

本発明の好ましい形態では、前記シーン抽出システムは、ダイジェスト動画作成部、を備え、
前記ダイジェスト動画作成部は、複数の前記類似シーンを用いて、ダイジェスト動画を作成する。
In a preferred embodiment of the present invention, the scene extraction system includes a digest movie creation unit,
The digest movie creation unit creates a digest movie using a plurality of the similar scenes.

このような構成にすることで、複数の類似シーンを用いるダイジェスト動画を作成することが可能となり、ユーザに対して追加のコンテンツを提供することができる。 This configuration makes it possible to create a digest video that uses multiple similar scenes, providing additional content to users.

本発明の好ましい形態では、前記シーン抽出システムは、フレーム抽出部、フレーム類似度算出部、を備え、
前記フレーム抽出部は、複数の前記類似シーンの最初と最後のフレームを抽出し、
前記フレーム類似度算出部は、前記抽出した最初のフレームと最後のフレームのフレーム類似度を算出し、
前記ダイジェスト動画作成部は、前記フレーム類似度に基づいて、前記ダイジェスト動画を作成する。
In a preferred embodiment of the present invention, the scene extraction system includes a frame extraction unit and a frame similarity calculation unit,
The frame extraction unit extracts the first and last frames of the plurality of similar scenes;
the frame similarity calculation unit calculates frame similarity between the extracted first frame and last frame;
The digest movie creation section creates the digest movie based on the frame similarities.

このような構成にすることで、類似シーンの最初のフレームと最後のフレームの類似度に基づいてダイジェスト動画を作成することが可能となり、類似シーンごとの切れ目をユーザに感じさせないダイジェスト動画を作成することができる。 This configuration makes it possible to create a digest video based on the similarity between the first and last frames of similar scenes, making it possible to create a digest video in which the user does not notice the gaps between similar scenes.

本発明の好ましい形態では、前記シーン抽出システムは、嗜好スコア算出部、を備え、
前記嗜好スコア算出部は、前記嗜好シーン、前記映像類似度、前記音類似度、前記発話類似度、前記重視度、に基づいて、嗜好スコアを算出し、
前記ダイジェスト動画作成部は、前記類似シーンにおいて前記嗜好スコアが最も高いものを前記ダイジェスト動画の先頭とし、前記先頭の類似シーンを除く類似シーンの最初のフレームの中で、前記先頭の類似シーンの最後のフレームとのフレーム類似度が最大である類似シーンを前記先頭の類似シーンの次のシーンとして前記ダイジェスト動画を作成する。
In a preferred embodiment of the present invention, the scene extraction system includes a preference score calculation unit,
the preference score calculation unit calculates a preference score based on the preference scene, the video similarity, the sound similarity, the speech similarity, and the importance level;
The digest video creation unit creates the digest video by designating the similar scene with the highest preference score as the beginning of the digest video, and by designating, among the first frames of similar scenes excluding the beginning similar scene, the similar scene with the highest frame similarity with the last frame of the beginning similar scene as the next scene after the beginning similar scene.

このような構成にすることで、ダイジェスト動画の先頭をユーザの嗜好に最も合う類似シーンとすることが可能となり、ユーザの興味を引くダイジェスト動画を作成することができる。 By configuring it in this way, it is possible to start the digest video with a similar scene that best suits the user's preferences, making it possible to create a digest video that will capture the user's interest.

本発明によれば、ユーザの嗜好に合うシーンを抽出する新たな技術を提供することができる。 The present invention provides a new technology for extracting scenes that match a user's preferences.

本実施形態におけるシーン抽出システムの構成を示すブロック図。FIG. 1 is a block diagram showing a configuration of a scene extraction system according to an embodiment of the present invention. 本実施形態におけるハードウェア構成図。FIG. 2 is a diagram showing a hardware configuration according to the present embodiment. 本実施形態における記憶部に格納されたデータ構成の一例。4 shows an example of a data configuration stored in a storage unit in the present embodiment. 本実施形態における記憶部に格納されたデータ構成の一例。4 shows an example of a data configuration stored in a storage unit in the present embodiment. 本実施形態におけるシーン抽出処理のフローチャート。4 is a flowchart of a scene extraction process in the present embodiment. 本実施形態における重視度更新処理のフローチャート。11 is a flowchart of an importance level update process according to the present embodiment. 本実施形態におけるダイジェスト動画作成処理のフローチャート。5 is a flowchart of a digest movie creation process according to the embodiment.

以下、図面を用いて、本発明のシーン抽出システムについて説明する。図面には好ましい実施形態が示されている。しかし、本発明は多くの異なる形態で実施されることが可能であり、本明細書に記載される実施形態に限定されない。 The scene extraction system of the present invention will be described below with reference to the drawings. The drawings show a preferred embodiment. However, the present invention can be embodied in many different forms and is not limited to the embodiment described in this specification.

例えば、本実施形態ではシーン抽出システムの構成、動作等について説明するが、実行される方法(ステップ)、装置、コンピュータプログラム等によっても、同様の作用効果を奏することができる。本実施形態におけるプログラムは、コンピュータが読み取り可能な非一過性の記録媒体として提供されても良いし、外部のサーバからダウンロード可能に提供されても良いし、クライアント端末でその機能を実施するために外部のコンピュータにおいて当該プログラムを起動させても良い(いわゆるクラウドコンピューティング)。 For example, in this embodiment, the configuration, operation, etc. of the scene extraction system are described, but similar effects can be achieved by the executed method (steps), device, computer program, etc. The program in this embodiment may be provided as a non-transient computer-readable recording medium, may be provided so as to be downloadable from an external server, or the program may be started on an external computer to implement its functions on a client terminal (so-called cloud computing).

また、本実施形態において「部」とは、例えば、広義の回路によって実施されるハードウェア資源と、これらハードウェア資源によって具体的に実現され得るソフトウェアの情報処理とを合わせたものも含み得る。本実施形態において「情報」とは、例えば電圧・電流を表す信号値の物理的な値、0又は1で構成される2進数のビット集合体としての信号値の高低、又は量子的な重ね合わせ(いわゆる量子ビット)によって表され、広義の回路上で通信・演算が実行され得る。 In addition, in this embodiment, a "unit" may include, for example, a combination of hardware resources implemented by a circuit in the broad sense and software information processing that can be specifically realized by these hardware resources. In this embodiment, "information" is represented, for example, by the physical value of a signal value representing a voltage or current, the high or low value of a signal value as a binary bit collection consisting of 0 or 1, or a quantum superposition (so-called quantum bit), and communication and calculations can be performed on a circuit in the broad sense.

広義の回路とは、回路(Circuit)、回路類(Circuitry)、プロセッサ(Processor)及びメモリ(Memory)等を適宜組み合わせることによって実現される回路である。即ち、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)等を含むものである。 In the broad sense, a circuit is a circuit that is realized by appropriately combining a circuit, circuitry, processor, memory, etc. In other words, it includes a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an LSI (Large Scale Integration), an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable Gate Array), etc.

<システム概要>
図1は、本実施形態におけるシーン抽出システムの構成を示すブロック図である。図1に示すように、シーン抽出システム0は、シーン抽出装置1、ユーザ端末2、を備える。シーン抽出装置1は、ネットワークNWを介してユーザ端末2と通信可能に構成される。
<System Overview>
Fig. 1 is a block diagram showing the configuration of a scene extraction system according to the present embodiment. As shown in Fig. 1, the scene extraction system 0 includes a scene extraction device 1 and a user terminal 2. The scene extraction device 1 is configured to be able to communicate with the user terminal 2 via a network NW.

シーン抽出装置1は、動画、シーン、ユーザ、に関する情報等に基づいて、動画からユーザの嗜好に合うシーンを抽出する。シーン抽出装置1は、1つの動画から抽出したユーザの嗜好シーンに基づいて、その1つの動画中の別の分割シーンから類似シーンを抽出しても良い。また、シーン抽出装置1は、抽出した嗜好シーンに基づいて、複数の動画の複数の分割シーンから類似シーンを抽出しても良い。 The scene extraction device 1 extracts scenes that match the preferences of a user from a video, based on information about the video, the scene, the user, etc. The scene extraction device 1 may extract a similar scene from another split scene in one video, based on a user's preferred scene extracted from the one video. The scene extraction device 1 may also extract similar scenes from multiple split scenes of multiple videos, based on the extracted preferred scene.

シーン抽出装置1としては、汎用のサーバ向けのコンピュータやパーソナルコンピュータ等を利用することが可能である。また、複数のコンピュータを用いてシーン抽出装置1を構成することも可能である。 A general-purpose server computer, a personal computer, or the like can be used as the scene extraction device 1. It is also possible to configure the scene extraction device 1 using multiple computers.

ユーザは、ユーザ端末2を介して、動画やシーンを視聴する。さらにユーザは、ユーザ端末2を介して、重視度等を入力してシーン抽出装置1に送信しても良い。ユーザ端末2としては、スマートフォンやタブレット端末、パーソナルコンピュータ等の端末装置を利用することができる。 The user watches videos and scenes via the user terminal 2. Furthermore, the user may input the importance level and the like via the user terminal 2 and transmit it to the scene extraction device 1. As the user terminal 2, a terminal device such as a smartphone, tablet terminal, or personal computer can be used.

ネットワークNWは、本実施形態では、IP(Internet Protocol)ネットワークであるが、通信プロトコルの種類に制限はなく、更に、ネットワークの種類、規模にも制限はない。 In this embodiment, the network NW is an IP (Internet Protocol) network, but there are no restrictions on the type of communication protocol, and there are also no restrictions on the type or size of the network.

<ハードウェア構成>
図2は、ハードウェア構成図である。図2(a)に示すように、情報処理装置10(シーン抽出装置1)は、制御部101、記憶部102、及び通信部103を有し、各部及び各工程の作用発揮に用いられる。
<Hardware Configuration>
2 is a hardware configuration diagram. As shown in Fig. 2A, the information processing device 10 (scene extraction device 1) has a control unit 101, a storage unit 102, and a communication unit 103, which are used to perform the functions of each unit and each process.

制御部101は、CPU(Central Processing Unit)等の1又は2以上のプロセッサを含み、本発明に係るシーン抽出プログラム、OS(Operating System)やブラウザソフト、その他のアプリケーションを実行することで、情報処理装置10の動作処理全体を制御する。 The control unit 101 includes one or more processors such as a CPU (Central Processing Unit), and controls the overall operation and processing of the information processing device 10 by executing the scene extraction program according to the present invention, an OS (Operating System), browser software, and other applications.

記憶部102は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、ROM(Read Only Memory)、RAM(Random Access Memory)等であって、本発明に係るシーン抽出プログラム及び、制御部101がプログラムに基づき処理を実行する際に利用するデータ等を記憶する。制御部101が、記憶部102に記憶されているシーン抽出プログラムに基づき処理を実行することによって、後述する機能構成が実現される。 The storage unit 102 is a hard disk drive (HDD), a solid state drive (SSD), a read only memory (ROM), a random access memory (RAM), etc., and stores the scene extraction program according to the present invention and data used when the control unit 101 executes processing based on the program. The control unit 101 executes processing based on the scene extraction program stored in the storage unit 102, thereby realizing the functional configuration described below.

通信部103は、ネットワークNWとの通信制御を実行して、情報処理装置10を動作させるために必要な入力や、動作結果に係る出力を行う。 The communication unit 103 controls communication with the network NW, and performs input necessary to operate the information processing device 10 and outputs related to the results of the operation.

図2(b)のように、端末装置9(ユーザ端末2)は、制御部91、記憶部92、通信部93、入力部94、及び出力部95を有し、各部及び各工程の作用発揮に用いられる。 As shown in FIG. 2(b), the terminal device 9 (user terminal 2) has a control unit 91, a memory unit 92, a communication unit 93, an input unit 94, and an output unit 95, and is used to perform the functions of each unit and each process.

端末装置9の制御部91は、CPU等の1以上のプロセッサを含み、端末装置9の動作処理全体を制御する。端末装置9の記憶部92は、HDD、SSD、ROM、RAM等であって、上述のアプリケーション及び、制御部91がプログラムに基づき処理を実行する際に利用するデータ等を記憶する。 The control unit 91 of the terminal device 9 includes one or more processors such as a CPU, and controls the overall operation and processing of the terminal device 9. The storage unit 92 of the terminal device 9 is an HDD, SSD, ROM, RAM, etc., and stores the above-mentioned applications and data used when the control unit 91 executes processing based on a program.

端末装置9の通信部93は、ネットワークNWとの通信を制御する。端末装置9の入力部94は、マウス及びキーボード等であって、利用者/提供者による操作要求を制御部91に入力する。端末装置9の出力部95は、ディスプレイ等であって、制御部91の処理の結果等を表示する。 The communication unit 93 of the terminal device 9 controls communication with the network NW. The input unit 94 of the terminal device 9 is a mouse, keyboard, or the like, and inputs operation requests from the user/provider to the control unit 91. The output unit 95 of the terminal device 9 is a display, or the like, and displays the results of processing by the control unit 91, etc.

<機能構成要素>
図2に示すように、シーン抽出装置1は、分割部11、特徴量生成部12、類似度算出部13、嗜好シーン抽出部14、嗜好スコア算出部15、類似シーン抽出部16、提示部17、変化重視度作成部18、重視度更新部19、フレーム抽出部1a、フレーム類似度算出部1b、ダイジェスト動画作成部1cを備える。
<Functional components>
As shown in FIG. 2, the scene extraction device 1 includes a division unit 11, a feature generation unit 12, a similarity calculation unit 13, a preference scene extraction unit 14, a preference score calculation unit 15, a similar scene extraction unit 16, a presentation unit 17, a change importance creation unit 18, an importance update unit 19, a frame extraction unit 1a, a frame similarity calculation unit 1b, and a digest movie creation unit 1c.

これら機能構成要素の配置は一例であり、シーン抽出装置1の備えた機能構成の一部が、シーン抽出装置1やユーザ端末2と通信可能に構成された1又は複数の装置に配置されても良い。 The arrangement of these functional components is an example, and some of the functional components of the scene extraction device 1 may be arranged in one or more devices configured to be able to communicate with the scene extraction device 1 and the user terminal 2.

<データ構成>
図3及び4は、本実施形態における記憶部に格納されたデータ構成の一例である。シーン抽出装置1の記憶部は、分割シーン情報、映像類似度情報、音類似度情報、発話類似度情報、視聴履歴情報、重視度情報、類似度スコア情報、嗜好スコア情報、類似シーン情報、類似シーン類似度情報を格納する。
<Data structure>
3 and 4 are examples of data configurations stored in the storage unit in this embodiment. The storage unit of the scene extraction device 1 stores split scene information, video similarity information, sound similarity information, speech similarity information, viewing history information, importance information, similarity score information, preference score information, similar scene information, and similar scene similarity information.

各データの配置も一例であり、シーン抽出装置1の記憶部に格納されたデータの一部又は全部が、シーン抽出装置1やユーザ端末2と通信可能に構成された1又は複数の装置に格納されても良い。 The arrangement of each piece of data is also an example, and some or all of the data stored in the memory unit of the scene extraction device 1 may be stored in one or more devices configured to be able to communicate with the scene extraction device 1 and the user terminal 2.

<分割シーンの作成>
図5は、本実施形態におけるシーン抽出処理のフローチャートである。まず、ステップS501において、分割部11は、動画をシーンごとに分割して分割シーン(例えば、チャプターごと、野球の打者ごと、サッカーの試合のシュートとそれ以外のシーン等)を作成する。分割部11が分割する動画の数は1つでも複数でも良い。本実施形態において分割部11は、管理している(記憶部に格納した、ユーザ端末を介して受け付けた)すべての動画をシーンごとに分割する。
<Creating split scenes>
5 is a flowchart of the scene extraction process in this embodiment. First, in step S501, the division unit 11 divides a video into scenes to create divided scenes (for example, by chapter, by batter in baseball, or by shots and other scenes in a soccer game). The number of videos divided by the division unit 11 may be one or more. In this embodiment, the division unit 11 divides all videos that it manages (stored in the storage unit, received via a user terminal) into scenes.

分割部11は、一定時間(例えば、5分)ごとの等間隔の時間で動画を分割しても良いし、動画の映像から変化点を検出して自動で分割しても良い。また、分割部11は、動画の映像を時間方向にクラスタリングを行うことによって類似する映像を1クラスタとして分割しても良いし、動画に対して分割するためのタグ(例えば、チャプター)が付与されている場合はそのタグによって分割しても良い。 The division unit 11 may divide the video at equal time intervals (e.g., 5 minutes), or may detect change points in the video footage and divide it automatically. The division unit 11 may also divide the video footage into similar images as one cluster by clustering the video footage in the time direction, or, if a tag for dividing the video (e.g., chapter) is attached, the division unit 11 may divide the video footage by the tag.

分割部11は、分割したシーンが何れの動画から分割されたものか、及び、分割元の動画の何れの区間のものか等に関する分割シーン情報を記憶部に格納する。分割シーン情報は、図3(a)のように、動画ID、分割シーンID、動画区間、を含む。これによってシーン抽出装置1は、例えば、分割シーンID「M1_C2」が動画ID「M1」の動画の分割シーンであって、その動画の10~20分の区間のシーンであることを、参照することができる。 The division unit 11 stores in the storage unit split scene information relating to which video the split scene was split from and which section of the original video the scene belongs to. As shown in FIG. 3(a), the split scene information includes a video ID, a split scene ID, and a video section. This allows the scene extraction device 1 to refer to, for example, that split scene ID "M1_C2" is a split scene of a video with video ID "M1", and is a scene from the 10-20 minute section of that video.

<特徴量の生成>
ステップS502において、特徴量生成部12は、分割部11が作成した分割シーンの映像特徴量、音特徴量、発話特徴量を生成する。例えば、動画又はシーンを複数の要素に分解し、それぞれの要素に関する特徴量を生成することができる。本実施形態では、動画又はシーンを映像、音、発話の内容(会話の意味)、の3つの要素に分解し、特徴量生成部12は、それぞれの特徴量を映像特徴量、音特徴量、発話特徴量として生成する。
<Feature Generation>
In step S502, the feature generator 12 generates a video feature, a sound feature, and a speech feature of the split scene created by the splitter 11. For example, a video or a scene can be decomposed into a plurality of elements, and a feature for each element can be generated. In this embodiment, a video or a scene is decomposed into three elements, namely, video, sound, and speech content (meaning of the conversation), and the feature generator 12 generates each feature as a video feature, a sound feature, and a speech feature.

本実施形態で映像特徴量は、動画又はシーンに現れるものやその動き等(例えば、物体の色、形、大きさ、動き、位置関係等)に関する特徴量である。本実施形態で音特徴量は、動画又はシーンにおける音(例えば、大きさ、速さ、周波数、波長等)に関する特徴量である。本実施形態で発話特徴量は、動画又はシーンにおける発話(音声)の内容(人間が理解可能な意味のある内容)に関する特徴量であって、例えば、人間の発話を抽出して自然言語処理をして生成する。 In this embodiment, video features are features related to things that appear in a video or scene and their movements (e.g., the color, shape, size, movement, and positional relationship of an object). In this embodiment, sound features are features related to sounds in a video or scene (e.g., volume, speed, frequency, wavelength, etc.). In this embodiment, speech features are features related to the content of speech (audio) in a video or scene (meaningful content that can be understood by humans), and are generated, for example, by extracting human speech and performing natural language processing.

特徴量生成部12は、分割シーンが含む映像(動きのあるもの、動きのないもの)や音(音声、非音声)をベクトル化することによって、特徴量を生成することが考えられる。特徴量生成部12は、図3(a)のように、生成した特徴量を分割シーンIDに紐づけて記憶部に格納する。 The feature generator 12 may generate features by vectorizing the video (moving and still) and sound (audio and non-audio) contained in the split scene. As shown in FIG. 3(a), the feature generator 12 associates the generated features with the split scene ID and stores them in the storage unit.

例えば、特徴量生成部12は、分割シーンをフレーム(静止画)ごとに分解して画像ファイル群を作成することによって、映像特徴量を生成する。 For example, the feature generator 12 generates video features by breaking down the split scenes into frames (still images) and creating a group of image files.

画像ファイル群からの映像特徴量生成は、独自に学習されたエンコード用のモデルを用いても良いし、オープンソースソフトウェアとして公開されている学習済モデルを用いても良い。公開されているものとしては、例えばVision Transformerベースのモデルを用いても良く、400次元の特徴量を生成することができる。 To generate video features from a group of image files, a proprietary trained encoding model may be used, or a trained model published as open source software may be used. For example, a publicly available model based on Vision Transformer may be used, which can generate 400-dimensional features.

また、画像の模様を自然言語で説明するような学習済モデルも公開されており、画像から抽出される自然言語の情報をエンベディングする(埋め込む)ことで特徴量を生成することもできる。自然言語の情報をエンベディングする(埋め込む)モデルも独自に学習しても良いし、公開されている学習済モデルを用いても良い。公開されているものとしては、例えばOpenAI社がAPI(Application Programming Interface)として公開しているエンコードを適用しても良く、この場合は1536次元の特徴量を生成することができる。 Additionally, trained models that explain the patterns in images in natural language are also publicly available, and features can also be generated by embedding natural language information extracted from images. A model that embeds natural language information can be trained independently, or a publicly available trained model can be used. For example, one publicly available encoding published by OpenAI as an API (Application Programming Interface) can be applied, in which case 1,536-dimensional features can be generated.

例えば、特徴量生成部12は、分割シーンから音に関する音情報のみを抽出して音ファイルを作成することによって、音特徴量を生成する。抽出する音情報は、人間の音声を含んでいても良いし、人間の音声を含んでいなくても良い。 For example, the feature generator 12 generates sound features by extracting only sound information related to sound from the split scenes and creating a sound file. The extracted sound information may or may not include human voice.

音ファイルからの特徴量生成は、独自に学習されたエンコード用のモデルを用いても良いし、オープンソースソフトウェアとして公開されている学習済モデルを用いても良い。公開されているものとしては、例えばVision Transformerベースのモデルを用いても良く、383232次元の特徴量を生成することができる。 To generate features from audio files, a proprietary trained encoding model may be used, or a trained model published as open source software may be used. For example, a publicly available model based on the Vision Transformer may be used, which can generate 383232-dimensional features.

例えば、特徴量生成部12は、分割シーンから人間の発話(音声)に関する発話情報を抽出して発話特徴量を生成する。特徴量生成部12は、分割シーンから抽出した音声情報を用いて、音声認識を行い自然言語に変換することで発話言語ファイルを作成することが考えられる。 For example, the feature generation unit 12 extracts speech information related to human speech (voice) from the split scenes to generate speech features. The feature generation unit 12 may use the voice information extracted from the split scenes to perform voice recognition and convert it into natural language to create a speech language file.

発話言語ファイルからの特徴量は、独自に学習されたエンコード用のモデルを用いても良いし、オープンソースソフトウェアとして公開されている学習済モデルを用いても良い。公開されているものとしては、例えばOpenAI社がAPIとして公開しているエンコードを適用しても良く、この場合は1536次元の特徴量を生成することができる。 The features from the spoken language file may use a proprietary trained encoding model, or a trained model published as open source software. For example, an encoding model published as an API by OpenAI may be used, in which case 1536-dimensional features can be generated.

<類似度の算出>
ステップS503において、類似度算出部13は、分割シーン同士の類似度を算出する。類似度算出部13は、分割された分割シーンの映像特徴量、音特徴量、発話特徴量、に基づいて、分割シーン同士の映像類似度、音類似度、発話類似度を算出する。
<Calculation of similarity>
In step S503, the similarity calculation unit 13 calculates the similarity between the split scenes. The similarity calculation unit 13 calculates the video similarity, sound similarity, and speech similarity between the split scenes based on the video feature amount, sound feature amount, and speech feature amount of the divided split scenes.

類似度算出部13は、すべての分割シーン同士のそれぞれの特徴量の類似度(映像類似度、音類似度、発話類似度)を算出し、図3(b)~(d)のように、記憶部に格納することが考えられる。分割シーンがN個存在する場合、類似度算出部13は、N×N回の計算をそれぞれの特徴量の類似度を算出するために行う。類似度算出部13は、ベクトル同士の類似度を算出するコサイン類似度によって、類似度を算出することが考えられる。 The similarity calculation unit 13 may calculate the similarity (image similarity, sound similarity, speech similarity) of each feature between all split scenes, and store it in the storage unit as shown in Figures 3(b) to (d). When there are N split scenes, the similarity calculation unit 13 performs N x N calculations to calculate the similarity of each feature. The similarity calculation unit 13 may calculate the similarity using cosine similarity, which calculates the similarity between vectors.

また、類似度算出部13は、同じ分割シーン同士の類似度(例えば、分割シーンID「M1_C1」と「M1_C1」の類似度)を算出してもしなくても良い。ユーザが嗜好する嗜好シーンに類似する類似シーンとして、ユーザが一度視聴したものを抽出しても良い場合、類似度算出部13は、同じ分割シーン同士の類似度が高くなるように算出することが考えられる。一方、ユーザが一度視聴したものを抽出しない場合、類似度算出部13は、同じ分割シーン同士の類似度が低くなるように算出、又は、図3(b)~(d)のように類似度を算出しないことが考えられる。 The similarity calculation unit 13 may or may not calculate the similarity between the same split scenes (for example, the similarity between split scene IDs "M1_C1" and "M1_C1"). If it is acceptable to extract scenes that the user has viewed once as similar scenes that are similar to the user's preferred scenes, the similarity calculation unit 13 may calculate the similarity between the same split scenes to be high. On the other hand, if it is not acceptable to extract scenes that the user has viewed once, the similarity calculation unit 13 may calculate the similarity between the same split scenes to be low, or may not calculate the similarity as in Figures 3(b) to (d).

<嗜好シーンの抽出>
ステップS504において、嗜好シーン抽出部14は、ユーザの視聴履歴に基づいて、複数の分割シーンからユーザが嗜好する嗜好シーンを抽出する。嗜好シーン抽出部14は、ユーザごとの分割シーンの視聴履歴に関する視聴履歴情報を記憶部に格納する。視聴履歴情報は、図3(e)のように、ユーザID、分割シーンID、累積視聴時間、を含む。
<Extraction of favorite scenes>
In step S504, the preference scene extraction unit 14 extracts preference scenes that the user prefers from the multiple split scenes based on the user's viewing history. The preference scene extraction unit 14 stores viewing history information regarding the viewing history of the split scenes for each user in the storage unit. The viewing history information includes a user ID, a split scene ID, and a cumulative viewing time, as shown in FIG. 3(e).

嗜好シーン抽出部14は、ユーザごとに、それぞれの分割シーンに対する視聴時間を集計し、累積視聴時間を算出する。これによってシーン抽出装置1は、例えば、ユーザID「U1」が過去に分割シーンID「M2_C1」の分割シーンを合計280秒間視聴したことを、参照することができる。 The preferred scene extraction unit 14 counts the viewing time for each split scene for each user and calculates the cumulative viewing time. This allows the scene extraction device 1 to refer to, for example, the fact that user ID "U1" previously viewed the split scene with split scene ID "M2_C1" for a total of 280 seconds.

嗜好シーン抽出部14は、累積視聴時間に基づいて、ユーザが嗜好する嗜好シーンを抽出する。例えば、嗜好シーン抽出部14は、分割シーンの累積視聴時間が一定時間(閾値)を超えた場合、その分割シーンを嗜好シーンとして抽出しても良い。嗜好シーン抽出部14は、嗜好シーンを抽出した場合、図3(e)のように(その分割シーンIDに嗜好フラグ「1」を紐づけて)記憶部に格納しても良い。 The preference scene extraction unit 14 extracts preference scenes that are preferred by the user based on the cumulative viewing time. For example, if the cumulative viewing time of a split scene exceeds a certain time (threshold), the preference scene extraction unit 14 may extract the split scene as a preference scene. When the preference scene extraction unit 14 extracts a preference scene, it may store the preferred scene in the memory unit as shown in FIG. 3(e) (associating the split scene ID with a preference flag "1").

また、嗜好シーン抽出部14は、累積視聴時間がその分割シーンの再生時間に占める割合を用いて、嗜好シーンを抽出しても良い。分割シーンの累積視聴時間がそのシーンの再生時間の所定の割合(例えば、2分の1等)以上である場合、嗜好シーン抽出部14は、その分割シーンを嗜好シーンとして抽出する。本実施形態ではこの割合を2分の1とするが、これに限られず管理者等が端末を介して割合を設定することができる。 The preferred scene extraction unit 14 may also extract preferred scenes using the proportion of the cumulative viewing time to the playback time of the split scene. If the cumulative viewing time of a split scene is equal to or greater than a predetermined proportion (e.g., half) of the playback time of the scene, the preferred scene extraction unit 14 extracts the split scene as a preferred scene. In this embodiment, this proportion is set to half, but is not limited to this and the administrator, etc., can set the proportion via the terminal.

例えば、分割シーンID「M1_C1」は、再生時間が600秒であるため、ユーザ「U1」の累積視聴時間が300秒の場合、嗜好シーン抽出部14は、分割シーンID「M1_C1」をユーザ「U1」の嗜好シーンとして抽出する。一方、分割シーンID「M2_C2」は、再生時間が630秒であるため、ユーザ「U1」の累積視聴時間が300秒の場合、嗜好シーン抽出部14は、分割シーンID「M2_C2」をユーザ「U1」の嗜好シーンとして抽出しない。 For example, since the playback time of split scene ID "M1_C1" is 600 seconds, if the cumulative viewing time of user "U1" is 300 seconds, the preference scene extraction unit 14 extracts split scene ID "M1_C1" as a preference scene of user "U1". On the other hand, since the playback time of split scene ID "M2_C2" is 630 seconds, if the cumulative viewing time of user "U1" is 300 seconds, the preference scene extraction unit 14 does not extract split scene ID "M2_C2" as a preference scene of user "U1".

この他にも、嗜好シーンの数量が限定されていても良い。例えば、嗜好シーン抽出部14は、累積視聴時間が上位M個(M=1、2、・・・)の分割シーンを嗜好シーンとして抽出しても良い。また、嗜好シーン抽出部14は、累積視聴時間がその分割シーンの再生時間に占める割合が上位M個の分割シーンを嗜好シーンとして抽出しても良い。 In addition, the number of preferred scenes may be limited. For example, the preferred scene extraction unit 14 may extract the top M (M = 1, 2, ...) split scenes in terms of cumulative viewing time as preferred scenes. The preferred scene extraction unit 14 may also extract the top M split scenes in terms of the proportion of the cumulative viewing time to the playback time of the split scene as preferred scenes.

嗜好シーン抽出部14は、更に、分割シーンに紐づくジャンルを用いて嗜好シーンを抽出しても良い。記憶部が、動画ID又は分割シーンIDにジャンルを紐づけて格納することによって、嗜好シーン抽出部14は、このジャンルを用いて嗜好シーンを抽出することが考えられる。 The preference scene extraction unit 14 may further extract preference scenes using a genre associated with the split scene. By storing the video ID or split scene ID in association with a genre in the storage unit, the preference scene extraction unit 14 may extract preference scenes using this genre.

例えば、ユーザ端末を介して、予めユーザの好みのジャンルを受け付け、記憶部がユーザIDに紐づけてそのジャンルを格納することによって、嗜好シーン抽出部14は、ユーザの累積視聴時間及び受け付けたジャンルに基づいて、嗜好シーンを抽出することができる。 For example, the user's preferred genres are received in advance via the user terminal, and the memory unit stores the genres in association with the user ID, so that the preferred scene extraction unit 14 can extract preferred scenes based on the user's cumulative viewing time and the received genres.

<嗜好スコアの算出>
ステップS505において、嗜好スコア算出部15は、嗜好シーン、映像類似度、音類似度、発話類似度、ユーザIDに紐づく重視度、に基づいて、嗜好スコアを算出する。記憶部は、図4(f)のように、ユーザごとの映像重視度、音重視度、発話重視度、を格納する。それぞれのユーザの映像重視度、音重視度、発話重視度、の合計は1であっても良い。また、映像重視度、音重視度、発話重視度、の合計はユーザごとに異なっていても良い。ユーザ端末2を介して、嗜好スコア算出部15がユーザごとの重視度を受け付けても良い。
<Calculation of preference score>
In step S505, the preference score calculation unit 15 calculates a preference score based on the preferred scene, the video similarity, the sound similarity, the speech similarity, and the importance associated with the user ID. The storage unit stores the video importance, the sound importance, and the speech importance for each user, as shown in FIG. 4(f). The sum of the video importance, the sound importance, and the speech importance for each user may be 1. The sum of the video importance, the sound importance, and the speech importance may be different for each user. The preference score calculation unit 15 may receive the importance for each user via the user terminal 2.

類似シーンを抽出するうえで、映像、音、発話の何れを重視して抽出するかはユーザによって異なる。映像重視度は、ユーザが類似シーンを抽出するうえで映像という要素をどの程度重視するかに関する情報である。音重視度は、ユーザが類似シーンを抽出するうえで音という要素をどの程度重視するかに関する情報である。発話重視度は、ユーザが類似シーンを抽出するうえで発話(自然言語)という要素をどの程度重視するかに関する情報である。 Which of the three - video, sound, or speech - is emphasized when extracting similar scenes varies from user to user. Video importance is information about how much importance the user places on the video element when extracting similar scenes. Sound importance is information about how much importance the user places on the sound element when extracting similar scenes. Speech importance is information about how much importance the user places on the speech (natural language) element when extracting similar scenes.

嗜好スコア算出部15は、類似度算出部13が算出したそれぞれの類似度に重視度(重み)を適用することによって、ユーザごとに適した類似シーンを抽出するための嗜好スコアを算出することができる。 The preference score calculation unit 15 can calculate a preference score for extracting similar scenes suitable for each user by applying an importance (weight) to each similarity calculated by the similarity calculation unit 13.

まず、嗜好スコア算出部15は、嗜好シーン、映像類似度、音類似度、発話類似度、に基づいて、図4(g)のような類似度スコア情報を算出する。図4(g)のそれぞれのスコアのカッコ内は、それぞれのスコアを算出するための計算を表す(図3(b)~(d)の類似度との対応関係を示すために便宜上記載する)。例えば、分割シーンID「M1_C2」の映像スコアであれば、「M1_C2」と嗜好シーン「M1_C1」の映像類似度0.12、「M1_C2」と嗜好シーン「M2_C1」の映像類似度0.22を計算(合計)した結果が映像スコア0.34となる。 First, the preference score calculation unit 15 calculates similarity score information as shown in FIG. 4(g) based on the preferred scene, video similarity, sound similarity, and speech similarity. The brackets next to each score in FIG. 4(g) indicate the calculation for calculating each score (written for convenience to show the correspondence with the similarities in FIGS. 3(b) to (d)). For example, in the case of the video score of split scene ID "M1_C2", the video similarity of 0.12 between "M1_C2" and the preferred scene "M1_C1" and the video similarity of 0.22 between "M1_C2" and the preferred scene "M2_C1" are calculated (summed up) to result in a video score of 0.34.

嗜好スコア算出部15は、すべての嗜好シーン(嗜好フラグが1)とそれぞれの分割シーンのそれぞれの類似度に基づいて、分割シーンごとに嗜好シーンとの類似度を加算した類似度スコア(映像スコア、音スコア、発話スコア)を算出する。 The preference score calculation unit 15 calculates a similarity score (video score, sound score, speech score) by adding up the similarity between each of the split scenes and the preferred scene for each split scene, based on the similarity between each of the preferred scenes (preference flag is 1) and each of the split scenes.

例えば、図3(e)によると、ユーザID「U1」の嗜好シーンが分割シーンID「M1_C1」と「M2_C1」であるため、それぞれの類似度を加算して類似度スコアを算出する。図4(g)の分割シーンID「M1_C2」の映像スコアは、分割シーンID「M1_C1」と「M1_C2」の映像類似度0.12、及び、分割シーンID「M2_C1」と「M1_C2」の映像類似度0.22、を合計した値0.34となる。このようにすることによって、複数の嗜好シーンを考慮した類似度スコアを算出し、類似シーンを抽出することができる。 For example, in FIG. 3(e), the preferred scenes for user ID "U1" are split scene IDs "M1_C1" and "M2_C1", so the similarities for each are added together to calculate a similarity score. The video score for split scene ID "M1_C2" in FIG. 4(g) is 0.34, which is the sum of the video similarity of split scene IDs "M1_C1" and "M1_C2" (0.12) and the video similarity of split scene IDs "M2_C1" and "M1_C2" (0.22). In this way, a similarity score that takes multiple preferred scenes into consideration can be calculated, and similar scenes can be extracted.

この他にも、嗜好スコア算出部15は、分割シーンID「M1_C2」の映像スコアとして、分割シーンID「M1_C1」と「M1_C2」の映像類似度0.12、及び、分割シーンID「M2_C1」と「M1_C2」の映像類似度0.22、をそれぞれ映像スコアとしても良い。 In addition, the preference score calculation unit 15 may set the video similarity between split scene IDs "M1_C1" and "M1_C2" of 0.12 and the video similarity between split scene IDs "M2_C1" and "M1_C2" of 0.22 as the video score for split scene ID "M1_C2".

嗜好スコア算出部15は、類似度スコア及び重視度に基づいて、嗜好スコアを算出する。嗜好スコア算出部15は、例えば、式(1)によってぞれぞれの分割シーンに対して嗜好スコアを算出し、図4(h)のようにユーザID及び分割シーンIDに紐づけて記憶部に格納する。図4(h)の嗜好スコアのカッコ内は、式(1)を用いた計算を表す(図4(g)のスコアとの対応関係を示すために便宜上記載する)。例えば、分割シーンID「M2_C2」の嗜好スコアは1.022であって、カッコ内はそのスコアを導出するための計算である。 The preference score calculation unit 15 calculates a preference score based on the similarity score and the importance level. For example, the preference score calculation unit 15 calculates a preference score for each split scene using formula (1), and stores the preference score in the storage unit in association with the user ID and split scene ID as shown in FIG. 4(h). The brackets in the preference score in FIG. 4(h) indicate the calculation using formula (1) (written for convenience to show the correspondence with the score in FIG. 4(g)). For example, the preference score for split scene ID "M2_C2" is 1.022, and the brackets indicate the calculation for deriving that score.

<類似シーンの抽出>
ステップS506において、類似シーン抽出部16は、嗜好シーン、映像類似度、音類似度、発話類似度、ユーザIDに紐づく重視度、に基づいて、分割シーンからユーザの嗜好シーンに類似する類似シーンを抽出する。類似シーン抽出部16は、嗜好スコア算出部15が算出した嗜好スコアに基づいて、分割シーンからユーザの嗜好シーンに類似する類似シーンを抽出する。
<Extraction of Similar Scenes>
In step S506, the similar scene extraction unit 16 extracts scenes similar to the user's preferred scenes from the split scenes based on the preferred scenes, video similarity, audio similarity, speech similarity, and importance associated with the user ID. The similar scene extraction unit 16 extracts scenes similar to the user's preferred scenes from the split scenes based on the preference scores calculated by the preference score calculation unit 15.

例えば、類似シーン抽出部16は、嗜好スコアがある一定の数値(閾値)以上の分割シーンを類似シーンとして抽出することが考えられる。また、類似シーン抽出部16は、分割シーンの中から嗜好スコアが上位L個(L=1、2、・・・)を類似シーンとして抽出することが考えられる。 For example, the similar scene extraction unit 16 may extract split scenes with preference scores equal to or greater than a certain numerical value (threshold value) as similar scenes. The similar scene extraction unit 16 may also extract the top L scenes (L=1, 2, ...) with the highest preference scores from among the split scenes as similar scenes.

<類似シーンの提示(レコメンド)>
ステップS507において、提示部17は、類似シーン抽出部16が抽出した類似シーンに基づいて、類似シーンを提示(レコメンド)する。提示部17は、更に、動画ID又は類似シーンIDに紐づくジャンルに基づいて、ジャンルごとに類似シーンを提示しても良い。
<Recommendation of similar scenes>
In step S507, the presentation unit 17 presents (recommends) similar scenes based on the similar scenes extracted by the similar scene extraction unit 16. The presentation unit 17 may further present similar scenes for each genre based on the genre associated with the video ID or the similar scene ID.

<変化重視度の作成>
図6は、本実施形態における重視度更新処理のフローチャートである。上述の処理と同様の処理については、同様の符号を付してその説明を省略する。ステップS601において、変化重視度作成部18は、重視度及び所定条件に基づいて、重視度の全部又は一部を変化させた変化重視度を作成する。
<Creating the degree of importance of change>
6 is a flowchart of the importance update process in this embodiment. Processes similar to those described above are denoted by the same reference numerals and their description will be omitted. In step S601, the change importance creation unit 18 creates a change importance by changing all or a part of the importance based on the importance and a predetermined condition.

変化重視度は、所定条件に基づいてユーザIDに紐づく重視度を変化させた重視度である。もとの重視度(ユーザIDに紐づく重視度)に基づいて抽出した類似シーンとは異なるシーン(変化重視度類似シーン)を抽出するために、変化重視度作成部18は、ユーザIDに紐づく重視度に変化を与えた重視度(変化重視度)を作成する。 The change importance level is an importance level obtained by changing the importance level associated with the user ID based on a predetermined condition. In order to extract a scene (a change importance level similar scene) that is different from the similar scene extracted based on the original importance level (importance level associated with the user ID), the change importance level creation unit 18 creates an importance level (change importance level) obtained by changing the importance level associated with the user ID.

変化重視度作成部18は、例えば、式(2)~(4)によって、それぞれの変化重視度(変化映像重視度、変化音重視度、変化発話重視度)を作成する。変化重視度作成部18は、式(2)~(4)によって、映像重視度をX倍(例えば、X=1.1)した変化映像重視度を作成し、更に、変化映像重視度、変化音重視度、変化発話重視度、の合計値が1となるような変化音重視度、変化発話重視度、を作成する。 The change importance creation unit 18 creates each change importance (changed image importance, changed sound importance, changed speech importance) using, for example, formulas (2) to (4). The change importance creation unit 18 creates a changed image importance that is X times the image importance (for example, X = 1.1) using formulas (2) to (4), and further creates a changed sound importance and a changed speech importance such that the sum of the changed image importance, changed sound importance, and changed speech importance is 1.

変化重視度作成部18は、式(2)~(4)と同様に、音重視度をX倍した変化音重視度、発話重視度をX倍した変化発話重視度、を作成することができる。Xは、整数であっても良く、整数でない分数であっても良い。さらに、変化重視度作成部18は、Xをランダムに決定しても良く、定期的にXを変化させても良い。 The change importance level creation unit 18 can create a changed sound importance level by multiplying the sound importance level by X, and a changed speech importance level by multiplying the speech importance level by X, in the same way as with equations (2) to (4). X may be an integer or a non-integer fraction. Furthermore, the change importance level creation unit 18 may determine X randomly, or may change X periodically.

<変化重視度に基づく変化重視度類似シーンの抽出>
ステップS602において、嗜好スコア算出部15は、嗜好シーン、映像類似度、音類似度、発話類似度、変化重視度、に基づいて、嗜好スコアを算出しても良い。類似シーン抽出部16は、嗜好シーン、映像類似度、音類似度、発話類似度、変化重視度、に基づいて、分割シーンから変化重視度類似シーンを抽出する。
<Extraction of scenes with similar change importance based on change importance>
In step S602, the preference score calculation unit 15 may calculate a preference score based on the preferred scene, the video similarity, the sound similarity, the speech similarity, and the change importance degree. The similar scene extraction unit 16 extracts change importance degree similar scenes from the split scenes based on the preferred scene, the video similarity, the sound similarity, the speech similarity, and the change importance degree.

<変化重視度類似シーンの提示(レコメンド)>
ステップS603において、提示部17は、ある一定の割合の変化重視度類似シーンを提示する。提示部17は、類似シーンと比べて低い割合の変化重視度類似シーンを提示する。
<Recommendation of scenes with similar change importance>
In step S603, the presentation unit 17 presents a certain proportion of scenes with similar change importance levels. The presentation unit 17 presents scenes with similar change importance levels at a lower proportion than the similar scenes.

提示部17は、例えば、K個(10個等)のシーンを提示する場合、類似シーンのうち嗜好スコアが高い7割、映像重視度をX倍した変化重視度類似シーンのうち嗜好スコアが高い方から1割、音重視度をX倍した変化重視度類似シーンのうち嗜好スコアが高い方から1割、発話重視度をX倍した変化重視度類似シーンのうち嗜好スコアが高い方から1割、を提示する。 When presenting K (e.g., 10) scenes, for example, the presentation unit 17 presents 70% of similar scenes with the highest preference scores, 10% of similar change-importance scenes with X times the video importance and the highest preference scores, 10% of similar change-importance scenes with X times the sound importance and the highest preference scores, and 10% of similar change-importance scenes with X times the speech importance and the highest preference scores.

このように、提示部17が、提示するシーンの中に少量の変化重視度類似シーンを含めてシーンを提示することによって、ユーザが変化重視度類似シーンを好んで視聴する可能性が生じる。ユーザが、類似シーンよりも提示される数が少ない変化重視度類似シーンを好んで視聴する場合、現状のユーザIDに紐づく重視度よりも変化重視度の方がユーザの好みの重視度であると判定できる。 In this way, by the presentation unit 17 presenting scenes including a small number of scenes with similar change importance among the scenes to be presented, there is a possibility that the user will prefer to watch the scenes with similar change importance. If the user prefers to watch the scenes with similar change importance that are presented in smaller numbers than the similar scenes, it can be determined that the change importance is more preferred by the user than the importance associated with the current user ID.

<重視度の更新>
ステップS604において、重視度更新部19は、変化重視度類似シーンに関するユーザの視聴履歴に基づいて、変化重視度類似シーンに関連する変化重視度をユーザの重視度としてユーザIDに紐づけて更新する。重視度更新部19は、ユーザが映像重視度をX倍した変化重視度類似シーンを好んで視聴していると判定した場合、そのユーザの重視度をその変化重視度(映像重視度をX倍した変化映像重視度、それに伴って変化した音重視度及び発話重視度)に更新する。
<Update on priority>
In step S604, the importance updating unit 19 updates the change importance related to the change importance similar scene as the user's importance by linking it to the user ID based on the user's viewing history for the change importance similar scene. If the importance updating unit 19 determines that the user prefers to view a change importance similar scene with a video importance multiplied by X, it updates the user's importance to the change importance (a changed video importance multiplied by X, and the sound importance and speech importance changed accordingly).

例えば、ユーザが1日で最も長い時間視聴した分割シーンが映像重視度をX倍した変化重視度類似シーンである場合、重視度更新部19は、ユーザが映像重視度をX倍した変化重視度類似シーンを好んで視聴していると判定し、その変化重視度をユーザの重視度としてユーザIDに紐づけて更新する。 For example, if the split scene that the user watched for the longest time in one day is a scene with a similar change importance with the video importance multiplied by X, the importance update unit 19 determines that the user prefers to watch scenes with a similar change importance with the video importance multiplied by X, and updates the change importance as the user's importance by linking it to the user ID.

このように、変化重視度を定期的に変化させ、更に、ユーザの視聴履歴に基づいて重視度を更新することによって、ユーザの好みの重視度に近づけることが可能となる。 In this way, by periodically changing the change importance level and further updating the importance level based on the user's viewing history, it is possible to bring the importance level closer to the user's preferences.

<類似シーンからフレームの抽出>
図7は、本実施形態におけるダイジェスト動画作成処理のフローチャートである。上述の処理と同様の処理については、同様の符号を付してその説明を省略する。ステップS701において、フレーム抽出部1aは、類似シーン抽出部16が抽出した複数の類似シーンの最初のフレーム(静止画)と最後のフレーム(静止画)を抽出する。
<Extracting frames from similar scenes>
7 is a flowchart of the digest movie creation process in this embodiment. Processes similar to those described above are denoted by the same reference numerals, and their description will be omitted. In step S701, the frame extraction unit 1a extracts the first frame (still image) and the last frame (still image) of the multiple similar scenes extracted by the similar scene extraction unit 16.

<フレーム類似度の算出>
ステップS702において、フレーム類似度算出部1bは、フレーム抽出部1aが抽出した最初のフレームと最後のフレームのフレーム類似度を算出する。フレーム類似度算出部1bは、フレーム抽出部1aが抽出した類似シーンの最初のフレームと、その類似シーンを除くフレーム抽出部1aが抽出した類似シーンの最後のフレームと、のフレーム類似度を算出する。
<Calculation of Frame Similarity>
In step S702, the frame similarity calculation unit 1b calculates the frame similarity between the first frame and the last frame extracted by the frame extraction unit 1a. The frame similarity calculation unit 1b calculates the frame similarity between the first frame of the similar scene extracted by the frame extraction unit 1a and the last frame of the similar scene extracted by the frame extraction unit 1a excluding the first similar scene.

フレーム類似度算出部1bは、類似シーン抽出部16が抽出したすべての類似シーンの最初のフレームの特徴量と最後のフレームの特徴量を生成し、図4(i)のような類似シーン情報を記憶部に格納する。フレーム類似度算出部1bは、特徴量生成部12が特徴量を生成したのと同様に特徴量を生成することが考えられる。 The frame similarity calculation unit 1b generates features of the first frame and the last frame of all similar scenes extracted by the similar scene extraction unit 16, and stores similar scene information such as that shown in FIG. 4(i) in the storage unit. It is considered that the frame similarity calculation unit 1b generates features in the same way that the feature generation unit 12 generates features.

フレーム類似度算出部1bは、更に、すべての類似シーンの最初のフレームの特徴量と、すべての類似シーンの最後のフレームの特徴量と、に基づいて、類似度を算出し、図4(j)のような類似シーン類似度情報を記憶部に格納する。フレーム類似度算出部1bは、ベクトル同士の類似度を算出するコサイン類似度によって、特徴量の類似度を算出することが考えられる。本実施形態では図4(j)のように、フレーム類似度算出部1bは、同一の類似シーンの最初のフレームと最後のフレームの類似度を算出しない。 The frame similarity calculation unit 1b further calculates similarities based on the feature amounts of the first frames of all similar scenes and the feature amounts of the last frames of all similar scenes, and stores similar scene similarity information such as that shown in FIG. 4(j) in the storage unit. It is considered that the frame similarity calculation unit 1b calculates the similarity of the feature amounts using cosine similarity, which calculates the similarity between vectors. In this embodiment, as shown in FIG. 4(j), the frame similarity calculation unit 1b does not calculate the similarity between the first frame and the last frame of the same similar scene.

<ダイジェスト動画の作成>
ステップS703において、ダイジェスト動画作成部1cは、類似シーン抽出部16が抽出した複数の類似シーンを用いて、ダイジェスト動画を作成する。ダイジェスト動画作成部1cは、例えば、抽出した類似シーンの中で嗜好スコアが高い順に類似シーンをつなぎ合わせてダイジェスト動画を作成しても良い。
<Creating digest videos>
In step S703, the digest movie creation unit 1c creates a digest movie using the plurality of similar scenes extracted by the similar scene extraction unit 16. The digest movie creation unit 1c may create a digest movie by connecting similar scenes from among the extracted similar scenes in descending order of preference score, for example.

ダイジェスト動画作成部1cは、抽出した類似シーンにおいて嗜好スコア算出部15が算出した嗜好スコアが最も高いものをダイジェスト動画の先頭とし、先頭の類似シーンを除く類似シーンの最初のフレームの中で、先頭の類似シーンの最後のフレームとのフレーム類似度が最大である類似シーンを先頭の類似シーンの次のシーンとしてダイジェスト動画を作成しても良い。 The digest video creation unit 1c may create a digest video by setting the extracted similar scene with the highest preference score calculated by the preference score calculation unit 15 as the beginning of the digest video, and setting the similar scene with the highest frame similarity to the last frame of the beginning similar scene, among the first frames of similar scenes other than the beginning similar scene, as the next scene after the beginning similar scene.

ダイジェスト動画作成部1cは、更に、それまでのダイジェスト動画の作成に利用した類似シーンを除く類似シーンの最初のフレームの中で、J番目(J=1、2、・・・)の最後のフレームとのフレーム類似度が最大である類似シーンをJ+1番目の類似シーンとしてダイジェスト動画を作成いても良い。 The digest video creation unit 1c may further create a digest video by selecting the similar scene that has the highest frame similarity with the last frame of the Jth (J=1, 2, ...) similar scene among the first frames of similar scenes excluding similar scenes used in creating the digest videos up to that point, as the J+1th similar scene.

例えば、類似シーン抽出部16が、類似シーンとして、類似シーンID「M4_C1」「M6_C2」「M10_C1」「M11_C1」を抽出したとする。さらに、類似シーンID「M10_C1」の嗜好スコアが最大である場合、ダイジェスト動画作成部1cは、類似シーンID「M10_C1」を先頭のシーンとする。 For example, suppose that the similar scene extraction unit 16 extracts similar scene IDs "M4_C1," "M6_C2," "M10_C1," and "M11_C1" as similar scenes. Furthermore, if the preference score of the similar scene ID "M10_C1" is the highest, the digest movie creation unit 1c sets the similar scene ID "M10_C1" as the first scene.

図4(j)によると、類似シーンID「M10_C1」の最後のフレームと類似シーンID「M4_C1」の最初のフレームの類似度が最大であるため、ダイジェスト動画作成部1cは、類似シーンID「M4_C1」を次のシーンとする。 As shown in FIG. 4(j), the similarity between the last frame of similar scene ID "M10_C1" and the first frame of similar scene ID "M4_C1" is the highest, so the digest movie creation unit 1c selects similar scene ID "M4_C1" as the next scene.

さらに、図4(j)によると、類似シーンID「M4_C1」の最後のフレームと類似シーンID「M10_C1」の最初のフレームの類似度が最大である一方、ダイジェスト動画の作成に既に類似シーンID「M10_C1」を利用している。よって、ダイジェスト動画作成部1cは、その類似シーンを除いて、類似シーンID「M4_C1」の最後のフレームとのフレーム類似度が最大である類似シーンID「M11_C1」を次のシーンとする。ダイジェスト動画作成部1cは、抽出した類似シーンをすべて利用するまでこのような処理を繰り返してダイジェスト動画を作成する。 Furthermore, according to FIG. 4(j), the similarity between the last frame of similar scene ID "M4_C1" and the first frame of similar scene ID "M10_C1" is the highest, but similar scene ID "M10_C1" has already been used to create the digest movie. Therefore, the digest movie creation unit 1c excludes this similar scene and sets the next scene to similar scene ID "M11_C1", which has the highest frame similarity with the last frame of similar scene ID "M4_C1". The digest movie creation unit 1c repeats this process to create the digest movie until all extracted similar scenes have been used.

以上のように、本発明の構成によれば、ユーザの嗜好に合うシーンを抽出する新たな技術を提供することができる。 As described above, the configuration of the present invention can provide a new technology for extracting scenes that match the user's preferences.

0 シーン抽出システム
1 シーン抽出装置
11 分割部
12 特徴量生成部
13 類似度算出部
14 嗜好シーン抽出部
15 嗜好スコア算出部
16 類似シーン抽出部
17 提示部
18 変化重視度作成部
19 重視度更新部
1a フレーム抽出部
1b フレーム類似度算出部
1c ダイジェスト動画作成部
2 ユーザ端末
NW ネットワーク
0 Scene extraction system 1 Scene extraction device 11 Dividing unit 12 Feature quantity generating unit 13 Similarity calculation unit 14 Preference scene extraction unit 15 Preference score calculation unit 16 Similar scene extraction unit 17 Presentation unit 18 Change importance level creation unit 19 Importance level update unit 1a Frame extraction unit 1b Frame similarity calculation unit 1c Digest movie creation unit 2 User terminal NW Network

Claims (9)

動画からシーンを抽出するシーン抽出システムであって、
前記シーン抽出システムは、記憶部、分割部、類似度算出部、嗜好シーン抽出部、類似シーン抽出部、を備え、
前記分割部は、前記動画をシーンごとに分割し、
前記記憶部は、前記分割された分割シーンにおける、ユーザごとの、映像に関する特徴に対する映像重視度、音に関する特徴に対する音重視度、発話に関する特徴に対する発話重視度、をユーザIDに紐づけて格納し、
前記類似度算出部は、前記分割された分割シーンの映像特徴量、音特徴量、発話特徴量、に基づいて、前記分割シーン同士の映像類似度、音類似度、発話類似度、を算出し、
前記嗜好シーン抽出部は、前記ユーザの視聴履歴に基づいて、複数の分割シーンから当該ユーザが嗜好する嗜好シーンを抽出し、
前記類似シーン抽出部は、前記嗜好シーン、前記映像類似度、前記音類似度、前記発話類似度、前記ユーザIDに紐づく重視度、に基づいて、前記分割シーンから類似シーンを抽出する、
シーン抽出システム。
A scene extraction system for extracting scenes from a video, comprising:
the scene extraction system includes a storage unit, a division unit, a similarity calculation unit, a preference scene extraction unit, and a similar scene extraction unit;
The division unit divides the video into scenes,
the storage unit stores, for each user, a video importance level for a video-related feature, a sound importance level for a sound-related feature, and an utterance importance level for an utterance-related feature in the divided split scenes, in association with a user ID;
the similarity calculation unit calculates a video similarity, a sound similarity, and a speech similarity between the split scenes based on a video feature, a sound feature, and a speech feature of the split scenes;
the preference scene extraction unit extracts preference scenes preferred by the user from a plurality of split scenes based on a viewing history of the user;
the similar scene extraction unit extracts similar scenes from the split scenes based on the preferred scene, the video similarity, the sound similarity, the speech similarity, and an importance level associated with the user ID;
Scene extraction system.
前記シーン抽出システムは、変化重視度作成部、を備え、
前記変化重視度作成部は、前記重視度及び所定条件に基づいて、当該重視度の全部又は一部を変化させた変化重視度を作成し、
前記類似シーン抽出部は、前記嗜好シーン、前記映像類似度、前記音類似度、発話類似度、前記変化重視度、に基づいて、前記分割シーンから変化重視度類似シーンを抽出する、
請求項1に記載のシーン抽出システム。
The scene extraction system includes a change importance level creation unit,
the change importance level creation unit creates a change importance level by changing all or a part of the importance level based on the importance level and a predetermined condition;
the similar scene extraction unit extracts scenes having a similar change importance level from the split scenes based on the preference scene, the video similarity level, the sound similarity level, the speech similarity level, and the change importance level;
The scene extraction system according to claim 1 .
前記シーン抽出システムは、重視度更新部、を備え、
前記重視度更新部は、前記変化重視度類似シーンに関するユーザの視聴履歴に基づいて、当該変化重視度類似シーンに関連する変化重視度を当該ユーザの重視度としてユーザIDに紐づけて更新する、
請求項2に記載のシーン抽出システム。
The scene extraction system includes an importance updating unit,
the importance updating unit updates the change importance level related to the change importance level similar scene as the importance level of the user by linking the change importance level related to the change importance level similar scene with a user ID based on a viewing history of the user regarding the change importance level similar scene;
The scene extraction system according to claim 2 .
前記シーン抽出システムは、提示部、を備え、
前記提示部は、前記類似シーンと比べて低い割合の変化重視度類似シーンを提示する、
請求項3に記載のシーン抽出システム。
The scene extraction system includes a presentation unit,
the presentation unit presents scenes with a similar change importance level that have a lower ratio than the similar scenes;
The scene extraction system according to claim 3 .
前記シーン抽出システムは、ダイジェスト動画作成部、を備え、
前記ダイジェスト動画作成部は、複数の前記類似シーンを用いて、ダイジェスト動画を作成する、
請求項1に記載のシーン抽出システム。
the scene extraction system includes a digest movie creation unit,
the digest movie creation unit creates a digest movie using a plurality of the similar scenes;
The scene extraction system according to claim 1 .
前記シーン抽出システムは、フレーム抽出部、フレーム類似度算出部、を備え、
前記フレーム抽出部は、複数の前記類似シーンの最初と最後のフレームを抽出し、
前記フレーム類似度算出部は、前記抽出した最初のフレームと最後のフレームのフレーム類似度を算出し、
前記ダイジェスト動画作成部は、前記フレーム類似度に基づいて、前記ダイジェスト動画を作成する、
請求項5に記載のシーン抽出システム。
The scene extraction system includes a frame extraction unit and a frame similarity calculation unit,
The frame extraction unit extracts the first and last frames of the plurality of similar scenes;
the frame similarity calculation unit calculates frame similarity between the extracted first frame and last frame;
the digest movie creator creates the digest movie based on the frame similarity.
The scene extraction system according to claim 5 .
前記シーン抽出システムは、嗜好スコア算出部、を備え、
前記嗜好スコア算出部は、前記嗜好シーン、前記映像類似度、前記音類似度、前記発話類似度、前記重視度、に基づいて、嗜好スコアを算出し、
前記ダイジェスト動画作成部は、前記類似シーンにおいて前記嗜好スコアが最も高いものを前記ダイジェスト動画の先頭とし、前記先頭の類似シーンを除く類似シーンの最初のフレームの中で、前記先頭の類似シーンの最後のフレームとのフレーム類似度が最大である類似シーンを前記先頭の類似シーンの次のシーンとして前記ダイジェスト動画を作成する、
請求項6に記載のシーン抽出システム。
The scene extraction system includes a preference score calculation unit,
the preference score calculation unit calculates a preference score based on the preference scene, the video similarity, the sound similarity, the speech similarity, and the importance level;
the digest movie creation unit creates the digest movie by setting the similar scene with the highest preference score as the beginning of the digest movie, and by setting, among the first frames of similar scenes other than the beginning similar scene, a similar scene having the highest frame similarity with a last frame of the beginning similar scene as a scene next to the beginning similar scene.
The scene extraction system according to claim 6.
動画からシーンを抽出するシーン抽出システムが実行するシーン抽出方法であって、
前記シーン抽出システムは、記憶部、分割部、類似度算出部、嗜好シーン抽出部、類似シーン抽出部、を備え、
前記分割部が、前記動画をシーンごとに分割するステップと、
前記記憶部が、前記分割された分割シーンにおける、ユーザごとの、映像に関する特徴に対する映像重視度、音に関する特徴に対する音重視度、発話に関する特徴に対する発話重視度、をユーザIDに紐づけて格納するステップと、
前記類似度算出部が、前記分割された分割シーンの映像特徴量、音特徴量、発話特徴量、に基づいて、前記分割シーン同士の映像類似度、音類似度、発話類似度、を算出するステップと、
前記嗜好シーン抽出部が、前記ユーザの視聴履歴に基づいて、複数の分割シーンから当該ユーザが嗜好する嗜好シーンを抽出するステップと、
前記類似シーン抽出部が、前記嗜好シーン、前記映像類似度、前記音類似度、前記発話類似度、前記ユーザIDに紐づく重視度、に基づいて、前記分割シーンから類似シーンを抽出するステップと、を含む、
シーン抽出方法。
A scene extraction method executed by a scene extraction system for extracting scenes from a video, comprising:
the scene extraction system includes a storage unit, a division unit, a similarity calculation unit, a preference scene extraction unit, and a similar scene extraction unit;
A step of dividing the video into scenes by the dividing unit;
storing, by the storage unit, a video importance level for a video feature, a sound importance level for a sound feature, and an utterance importance level for an utterance feature, for each user, in the divided split scenes, in association with a user ID;
a step of calculating a video similarity, a sound similarity, and a speech similarity between the split scenes based on a video feature, a sound feature, and a speech feature of the split scenes by the similarity calculation unit;
a step of the preference scene extraction unit extracting preference scenes preferred by the user from a plurality of split scenes based on a viewing history of the user;
The similar scene extraction unit extracts similar scenes from the split scenes based on the preferred scene, the video similarity, the audio similarity, the speech similarity, and an importance level associated with the user ID.
Scene extraction method.
動画からシーンを抽出するシーン抽出プログラムであって、
コンピュータを、記憶部、分割部、類似度算出部、嗜好シーン抽出部、類似シーン抽出部、として機能させ、
前記分割部は、前記動画をシーンごとに分割し、
前記記憶部は、前記分割された分割シーンにおける、ユーザごとの、映像に関する特徴に対する映像重視度、音に関する特徴に対する音重視度、発話に関する特徴に対する発話重視度、をユーザIDに紐づけて格納し、
前記類似度算出部は、前記分割された分割シーンの映像特徴量、音特徴量、発話特徴量、に基づいて、前記分割シーン同士の映像類似度、音類似度、発話類似度、を算出し、
前記嗜好シーン抽出部は、前記ユーザの視聴履歴に基づいて、複数の分割シーンから当該ユーザが嗜好する嗜好シーンを抽出し、
前記類似シーン抽出部は、前記嗜好シーン、前記映像類似度、前記音類似度、前記発話類似度、前記ユーザIDに紐づく重視度、に基づいて、前記分割シーンから類似シーンを抽出する、
シーン抽出プログラム。
A scene extraction program for extracting scenes from a video, comprising:
A computer is caused to function as a storage unit, a division unit, a similarity calculation unit, a preferred scene extraction unit, and a similar scene extraction unit;
The division unit divides the video into scenes,
the storage unit stores, for each user, a video importance level for a video-related feature, a sound importance level for a sound-related feature, and an utterance importance level for an utterance-related feature in the divided split scenes, in association with a user ID;
the similarity calculation unit calculates a video similarity, a sound similarity, and a speech similarity between the split scenes based on a video feature, a sound feature, and a speech feature of the split scenes;
the preference scene extraction unit extracts preference scenes preferred by the user from a plurality of split scenes based on a viewing history of the user;
the similar scene extraction unit extracts similar scenes from the split scenes based on the preferred scene, the video similarity, the sound similarity, the speech similarity, and an importance level associated with the user ID;
Scene extraction program.
JP2024048196A 2024-03-25 2024-03-25 Scene extraction system, scene extraction method, and scene extraction program Active JP7486871B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024048196A JP7486871B1 (en) 2024-03-25 2024-03-25 Scene extraction system, scene extraction method, and scene extraction program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2024048196A JP7486871B1 (en) 2024-03-25 2024-03-25 Scene extraction system, scene extraction method, and scene extraction program

Publications (1)

Publication Number Publication Date
JP7486871B1 true JP7486871B1 (en) 2024-05-20

Family

ID=91082794

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2024048196A Active JP7486871B1 (en) 2024-03-25 2024-03-25 Scene extraction system, scene extraction method, and scene extraction program

Country Status (1)

Country Link
JP (1) JP7486871B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008176538A (en) 2007-01-18 2008-07-31 Toshiba Corp Video attribute information output apparatus, video summarizing device, program, and method for outputting video attribute information
JP2010016618A (en) 2008-07-03 2010-01-21 Sharp Corp Video reproducing device and video reproducing method
JP2011107936A (en) 2009-11-17 2011-06-02 Nissan Motor Co Ltd Device and method for providing information
JP2012222450A (en) 2011-04-05 2012-11-12 Nippon Telegr & Teleph Corp <Ntt> Similar video output method, similar video output apparatus and similar video output program
US20130094756A1 (en) 2010-11-29 2013-04-18 Huawei Technologies Co., Ltd. Method and system for personalized advertisement push based on user interest learning
WO2016098187A1 (en) 2014-12-17 2016-06-23 株式会社日立製作所 Image search device and image search method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008176538A (en) 2007-01-18 2008-07-31 Toshiba Corp Video attribute information output apparatus, video summarizing device, program, and method for outputting video attribute information
JP2010016618A (en) 2008-07-03 2010-01-21 Sharp Corp Video reproducing device and video reproducing method
JP2011107936A (en) 2009-11-17 2011-06-02 Nissan Motor Co Ltd Device and method for providing information
US20130094756A1 (en) 2010-11-29 2013-04-18 Huawei Technologies Co., Ltd. Method and system for personalized advertisement push based on user interest learning
JP2012222450A (en) 2011-04-05 2012-11-12 Nippon Telegr & Teleph Corp <Ntt> Similar video output method, similar video output apparatus and similar video output program
WO2016098187A1 (en) 2014-12-17 2016-06-23 株式会社日立製作所 Image search device and image search method

Similar Documents

Publication Publication Date Title
JP6355800B1 (en) Learning device, generating device, learning method, generating method, learning program, and generating program
US11090568B1 (en) Dynamic gameplay session content generation system
JP2016520942A (en) Generate a feed of content items associated with a topic from multiple content sources
KR102314645B1 (en) A method and device of various-type media resource recommendation
JP6783479B1 (en) Video generation program, video generation device and video generation method
CN113780217A (en) Live broadcast auxiliary prompting method and device, computer equipment and storage medium
CN111970521B (en) Live broadcast method and device of virtual anchor, computer equipment and storage medium
CN112752121A (en) Video cover generation method and device
CN114286154A (en) Subtitle processing method and device for multimedia file, electronic equipment and storage medium
US20220414472A1 (en) Computer-Implemented Method, System, and Non-Transitory Computer-Readable Storage Medium for Inferring Audience&#39;s Evaluation of Performance Data
JP7030095B2 (en) Methods, devices, servers, computer-readable storage media and computer programs for generating narration
US20220383849A1 (en) Simulating crowd noise for live events through emotional analysis of distributed inputs
US11315607B2 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
JP7486871B1 (en) Scene extraction system, scene extraction method, and scene extraction program
US20200410982A1 (en) Information processing apparatus and information processing method and computer-readable storage medium
US20230336838A1 (en) Graphically animated audience
US11122335B2 (en) Wishing television
CN113282770A (en) Multimedia recommendation system and method
JP2020080115A (en) Thumbnail output device, thumbnail output method, and thumbnail output program
CN111918140B (en) Video playing control method and device, computer equipment and storage medium
US11593426B2 (en) Information processing apparatus and information processing method
JP7152908B2 (en) Gesture control device and gesture control program
JP2018055270A (en) Presentation material generation device, presentation material generation system, computer program and presentation material generation method
WO2022041202A1 (en) Object-based video combining method, client end, and system
CN113542874A (en) Information playing control method, device, equipment and computer readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240325

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20240325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240426

R150 Certificate of patent or registration of utility model

Ref document number: 7486871

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150