JP7189779B2 - Decision device, decision method, decision program - Google Patents
Decision device, decision method, decision program Download PDFInfo
- Publication number
- JP7189779B2 JP7189779B2 JP2019003773A JP2019003773A JP7189779B2 JP 7189779 B2 JP7189779 B2 JP 7189779B2 JP 2019003773 A JP2019003773 A JP 2019003773A JP 2019003773 A JP2019003773 A JP 2019003773A JP 7189779 B2 JP7189779 B2 JP 7189779B2
- Authority
- JP
- Japan
- Prior art keywords
- scene
- content
- unit
- analysis
- moving image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 40
- 238000004458 analytical method Methods 0.000 claims description 174
- 238000007796 conventional method Methods 0.000 description 35
- 238000012545 processing Methods 0.000 description 30
- 238000010191 image analysis Methods 0.000 description 18
- 238000010801 machine learning Methods 0.000 description 18
- 230000000694 effects Effects 0.000 description 15
- 230000002708 enhancing effect Effects 0.000 description 14
- 230000008569 process Effects 0.000 description 14
- 238000005516 engineering process Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000009471 action Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 8
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000002453 shampoo Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、決定装置、決定方法、決定プログラムに関する。 The present invention relates to a determination device, determination method, and determination program.
従来、動画コンテンツに関連した広告コンテンツを表示する技術が提供されている。 Conventionally, techniques for displaying advertising content related to video content have been provided.
しかしながら、上記の従来技術では、動画に重畳するコンテンツが表示される適切なシーンを決定することができるとは限らない。例えば、上記の従来技術では、映像コンテンツにクリエイティブがオーバーレイして現れるに過ぎず、動画に重畳するコンテンツが表示される適切なシーンを決定することができるとは限らない。 However, with the conventional technology described above, it is not always possible to determine an appropriate scene in which content to be superimposed on a moving image is displayed. For example, with the above-described conventional technology, the creative simply appears overlaid on the video content, and it is not always possible to determine an appropriate scene in which the content superimposed on the moving image is displayed.
本願は、上記に鑑みてなされたものであって、動画に重畳するコンテンツが表示される適切なシーンを決定することができる決定装置、決定方法、決定プログラムを提供することを目的とする。 The present application has been made in view of the above, and an object thereof is to provide a determination device, a determination method, and a determination program capable of determining an appropriate scene in which content to be superimposed on a moving image is displayed.
本願に係る決定装置は、動画に関する情報を構成する各シーンを解析する解析部と、前記解析部によって解析された解析結果に基づいて、前記動画に重畳するコンテンツが表示されるシーンを決定する決定部と、を備えたことを特徴とする。 A determination device according to the present application includes an analysis unit that analyzes each scene that constitutes information about a moving image, and a determination that determines a scene in which content to be superimposed on the moving image is displayed based on the analysis result analyzed by the analysis unit. and a part.
実施形態の一態様によれば、動画に重畳するコンテンツが表示される適切なシーンを決定することができるという効果を奏する。 According to one aspect of the embodiment, it is possible to determine an appropriate scene in which content superimposed on a moving image is displayed.
以下に、本願に係る決定装置、決定方法、決定プログラムの実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る決定装置、決定方法、決定プログラムが限定されるものではない。また、各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Embodiments (hereinafter referred to as "embodiments") for implementing the determination device, determination method, and determination program according to the present application will be described in detail below with reference to the drawings. Note that the determination device, determination method, and determination program according to the present application are not limited to this embodiment. Further, each embodiment can be appropriately combined within a range that does not contradict the processing contents. Also, in each of the following embodiments, the same parts are denoted by the same reference numerals, and overlapping descriptions are omitted.
〔1.決定装置が示す提供処理の一例〕
図1を用いて、実施形態に係る決定装置が実行する提供処理の一例について説明する。図1は、実施形態に係る決定装置が実行する決定処理の一例を示す図である。具体的には、決定装置100は、動画に関する情報を構成する各シーンを解析した解析結果に基づいて、動画に重畳するコンテンツが表示されるシーンを決定する。なお、以下には、動画に重畳するコンテンツとして広告コンテンツが重畳される例を挙げて説明する。また、動画に重畳する広告コンテンツが1つの場合について例を挙げて説明する。
[1. Example of provision processing indicated by decision device]
An example of provision processing executed by the determination device according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of determination processing executed by a determination device according to an embodiment. Specifically, the determining
図1に示すように、決定システム1は、端末装置10と、広告装置20と、決定装置100とを含む。端末装置10、広告装置20及び決定装置100は、図示しない所定の通信網を介して、有線又は無線により通信可能に接続される。なお、図1に示す決定システム1には、複数台の端末装置10や、複数台の広告装置20や、複数台の決定装置100が含まれてもよい。
As shown in FIG. 1 , the
実施形態に係る端末装置10は、ブラウザに表示されるウェブページやアプリケーション用のコンテンツ等のコンテンツにアクセスするユーザによって利用される決定装置である。例えば、端末装置10は、デスクトップ型PC(Personal Computer)や、ノート型PCや、タブレット端末や、携帯電話機や、PDA(Personal Digital Assistant)等である。図1の例では、端末装置10がユーザによって利用されるスマートフォンである場合を示す。なお、以下では、端末装置10をユーザと表記する場合がある。すなわち、以下では、ユーザを端末装置10と読み替えることもできる。
The
実施形態に係る広告装置20は、端末装置10から広告コンテンツの配信要求を受け付け、広告主から入稿された広告コンテンツを端末装置10に配信する配信処理を行うサーバ装置である。なお、以下の例では、広告主から広告装置20に広告コンテンツが予め入稿されているものとする。
The
実施形態に係る決定装置100は、例えば、サーバ装置等により実現される。具体的には、決定装置100は、動画に関する情報を構成する各シーンを解析する。そして、決定装置100は、かかる解析結果に基づいて、動画に重畳する広告コンテンツが表示されるシーンを決定する。
The
また、決定装置100は、端末装置10にコンテンツを配信するサーバ等である。例えば、決定装置100は、ニュースサイト、オークションサイト、天気予報サイト、ショッピングサイト、ファイナンス(株価)サイト、路線検索サイト、地図提供サイト、旅行サイト、飲食店紹介サイト、ウェブブログ等を端末装置10に配信する。
Also, the determining
ここで、決定装置100によって配信されるコンテンツには、コンテンツ取得命令が含まれる。例えば、コンテンツを形成するHTML(HyperText Markup Language)により記述されたHTMLファイル等には、広告装置20のURL(Uniform Resource Locator)等が広告コンテンツ取得命令として記述される。この場合、端末装置10は、HTMLファイル等に記述されているURLにアクセスすることで、広告装置20から広告コンテンツを取得する。
Here, the content delivered by the
以下、図1を用いて、決定装置100による決定処理の一例を流れに沿って説明する。
An example of determination processing by the
まず、図1に示すように、決定装置100は、ユーザによってコンテンツの配信要求を受け付ける(ステップS1)。続いて、決定装置100は、動画に関する情報を構成する各シーンを解析する(ステップS2)。具体的には、決定装置100は、画像解析技術等の従来技術やパターンマッチング及び機械学習等の従来技術により、動画に関する情報に含まれる音声をシーン毎に解析する。また、具体的には、決定装置100は、画像解析技術等の従来技術やパターンマッチング及び機械学習等の従来技術により、動画に関する情報に含まれる物体の動作をシーン毎に解析する。
First, as shown in FIG. 1, the
例えば、人が部屋でダンスをしている動画であるものとする。この場合、決定装置100は、画像解析技術等の従来技術やパターンマッチング及び機械学習等の従来技術により、動画に関する情報に含まれる音声又はBGM(Background Music)の音量を解析する。そして、決定装置100は、シーン毎の音量の大小を解析結果として出力する。
For example, assume that the video is a person dancing in a room. In this case, the
また、例えば、人が部屋でダンスをしている動画であるものとする。この場合、決定装置100は、画像解析技術等の従来技術やパターンマッチング及び機械学習等の従来技術により、動画に関する情報に含まれる人の動作を解析する。例えば、決定装置100は、第1のシーンで表示される人の動作と、第2のシーンで表示される人の動作との差分が大きいと判定された場合に、シーン間の動作が大きいと解析する。そして、決定装置100は、シーン毎の動作の大小を解析結果として出力する。
Also, for example, it is assumed that the video is a video of a person dancing in a room. In this case, the
また、例えば、人が部屋でダンスをしている動画であるものとする。この場合、決定装置100は、画像解析技術等の従来技術やパターンマッチング及び機械学習等の従来技術により、動画に関する情報に含まれる動画に対するユーザのコメントを解析する。そして、決定装置100は、シーン毎のコメントの数の大小を解析結果として出力する。
Also, for example, it is assumed that the video is a video of a person dancing in a room. In this case, the
そして、決定装置100は、解析結果に基づいて、広告コンテンツを重畳するシーンを決定する(ステップS3)。具体的には、決定装置100は、解析結果に基づいて、広告コンテンツが重畳されるための所定の領域SP1を含むシーンSE1を決定する。
Then, the determining
例えば、人が部屋でダンスをしている動画であるものとする。この場合、決定装置100は、シーン毎の音量の大小を示す解析結果に基づいて、音量が小さいシーンを選択する。そして、決定装置100は、かかる音量が小さいシーンの所定の領域SP1に広告コンテンツを重畳させる領域を生成する。そして、決定装置100は、かかるシーンを広告コンテンツが重畳されるシーンSE1として決定する。
For example, assume that the video is a person dancing in a room. In this case, the determining
また、例えば、人が部屋でダンスをしている動画であるものとする。この場合、決定装置100は、シーン毎の動作の大小を示す解析結果に基づいて、動作が小さいシーンを選択する。そして、決定装置100は、かかる動作が小さいシーンの所定の領域SP1に広告コンテンツを重畳させる領域を生成する。そして、決定装置100は、かかるシーンを広告コンテンツが重畳されるシーンSE1として決定する。
Also, for example, it is assumed that the video is a video of a person dancing in a room. In this case, the determining
また、例えば、人が部屋でダンスをしている動画であるものとする。この場合、決定装置100は、シーン毎のコメントの数の大小を示す解析結果に基づいて、コメントの数が少ないシーンを選択する。そして、決定装置100は、かかるコメントの数が少ないシーンの所定の領域SP1に広告コンテンツを重畳させる領域を生成する。そして、決定装置100は、かかるシーンを広告コンテンツが重畳されるシーンSE1として決定する。
Also, for example, it is assumed that the video is a video of a person dancing in a room. In this case, the determining
続いて、決定装置100は、動画を含むコンテンツを配信する(ステップS4)。具体的には、決定装置100は、シーンに重畳させる広告コンテンツを含むコンテンツを配信する。より具体的には、決定装置100は、広告コンテンツを重畳するシーンSE1を含む動画が表示されたコンテンツを配信する。例えば、広告コンテンツが賃貸に関するものであるとする。この場合、決定装置100は、賃貸に関する広告コンテンツを重畳するシーンSE1を含む動画が表示されたコンテンツであって、家具の販売に関する情報を示すコンテンツを配信する。
Subsequently, the determining
そして、広告装置20は、端末装置10から広告コンテンツ取得命令を受け付けた場合に、広告コンテンツを配信する(ステップS5)。例えば、広告装置20は、広告コンテンツを重畳するシーンSE1に含まれる所定の領域SP1に含まれる広告コンテンツ取得命令に従って、広告コンテンツを端末装置10に配信する。
Then, the
このように、実施形態に係る決定装置100は、動画を構成する各シーンを解析する。そして、決定装置100は、かかる解析結果に基づいて、動画に重畳するコンテンツが表示されるシーンを決定する。これにより、実施形態に係る決定装置100は、動画を構成する各シーンを解析することでコンテンツに適したシーンを探索することができるため、動画に重畳するコンテンツが表示される適切なシーンを決定することができる。
In this way, the determining
この点について説明する。図1の例を用いて説明すると、決定装置100は、動画に含まれる音声又はBGMの音量を解析する。そして、決定装置100は、シーン毎の音量の大小を示す解析結果に基づいて、音量が小さいシーンを選択する。そして、決定装置100は、かかる音量が小さいシーンの所定の領域に広告コンテンツを重畳させる領域を生成する。そして、決定装置100は、かかるシーンを広告コンテンツが重畳されるシーンとして決定する。このことから、決定装置100は、動画の各シーンのうち、ユーザが広告コンテンツを注目しやすいシーンを決定することができる。これにより、決定装置100は、動画に重畳するコンテンツが表示される適切なシーンを決定することができるため、コンテンツの訴求効果を高めることができる。
This point will be explained. To explain using the example of FIG. 1, the determining
〔2.決定装置の構成〕
次に、図2を用いて、実施形態に係る決定装置100の構成について説明する。図2は、実施形態に係る決定装置100の構成例を示す図である。図2に示すように、決定装置100は、通信部110と、記憶部120と、制御部130とを有する。
[2. Configuration of Decision Device]
Next, the configuration of the
(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線又は無線で接続され、端末装置10と広告装置20との間で情報の送受信を行う。
(Regarding communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. The communication unit 110 is connected to a network by wire or wirelessly, and transmits and receives information between the
(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、動画情報記憶部121と、条件情報記憶部122とを有する。
(Regarding storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or flash memory, or a storage device such as a hard disk or an optical disk. Storage unit 120 has moving image
(動画情報記憶部121について)
実施形態に係る動画情報記憶部121は、動画に関する情報を記憶する。ここで、図3に、実施形態に係る動画情報記憶部121の一例を示す。図3に示した例では、動画情報記憶部121は、「動画ID」、「動画」といった項目を有する。
(Regarding the moving image information storage unit 121)
The moving image
「動画ID」は、動画を識別する識別子である。「動画」は、動画に関する情報である。例えば、図3では、動画IDによって識別された「M1」は、動画が「MO1」である。なお、図3に示した例では、動画を「MO1」等の抽象的な符号で表現したが、動画は、具体的な動画のファイル形式を示す情報等であってもよい。 “Movie ID” is an identifier for identifying a movie. "Movie" is information about a movie. For example, in FIG. 3, "M1" identified by the movie ID has a movie "MO1". In the example shown in FIG. 3, moving images are represented by abstract codes such as "MO1", but the moving images may be information or the like indicating specific file formats of moving images.
(条件情報記憶部122について)
実施形態に係る条件情報記憶部122は、動画に重畳させる広告コンテンツのシーンに関する条件に関する情報を記憶する。ここで、図4に、実施形態に係る条件情報記憶部122の一例を示す。図4に示した例では、条件情報記憶部122は、「条件ID」、「動画ID」、「タイミング」、「場所」、「大きさ」、「広告コンテンツ」といった項目を有する。
(Regarding the condition information storage unit 122)
The condition
「条件ID」は、条件を識別する識別子である。「動画ID」は、動画を識別する識別子である。「タイミング」は、「条件ID」と「動画ID」とに対応付けられたシーンに広告コンテンツを重畳するタイミングに関する情報である。「場所」は、「条件ID」と「動画ID」とに対応付けられたシーンに広告コンテンツを重畳するシーン内の場所に関する情報である。「大きさ」は、「条件ID」と「動画ID」とに対応付けられたシーンに重畳させる広告コンテンツの大きさに関する情報である。「広告コンテンツ」は、シーンに重畳させる広告コンテンツに関する情報である。 "Condition ID" is an identifier that identifies a condition. “Movie ID” is an identifier for identifying a movie. “Timing” is information about the timing of superimposing the advertising content on the scene associated with the “condition ID” and the “video ID”. The “place” is information about the place in the scene where the advertising content is superimposed on the scene associated with the “condition ID” and the “video ID”. "Size" is information about the size of the advertisement content to be superimposed on the scene associated with the "condition ID" and the "video ID". "Advertisement content" is information about advertisement content to be superimposed on the scene.
例えば、図4では、動画IDによって識別された「M1」に対する条件IDによって識別された「CO1」は、タイミングが「T3」であり、場所が「LC1」であり、大きさが「SI1」であり、広告コンテンツが「AD1」である。 For example, in FIG. 4, "CO1" identified by condition ID for "M1" identified by movie ID has timing "T3", location "LC1", and magnitude "SI1". Yes, and the advertising content is "AD1".
なお、図4に示した例では、タイミングを「T3」等の抽象的な符号で表現したが、タイミングは、具体的な数字を示す情報等であってもよい。また、図4に示した例では、場所を「LC3」等の抽象的な符号で表現したが、場所は、具体的なピクセル番号で規定される座標を示す情報等であってもよい。 In the example shown in FIG. 4, the timing is represented by an abstract code such as "T3", but the timing may be information indicating a specific number. In addition, in the example shown in FIG. 4, the location is represented by an abstract code such as "LC3", but the location may be information indicating coordinates specified by a specific pixel number.
また、図4に示した例では、大きさを「SI1」等の抽象的な符号で表現したが、大きさは、具体的なピクセルサイズを示す情報等であってもよい。また、図4に示した例では、広告コンテンツを「AD1」等の抽象的な符号で表現したが、広告コンテンツは、具体的なファイル形式を示す情報等であってもよい。 Also, in the example shown in FIG. 4, the size is represented by an abstract code such as "SI1", but the size may be information indicating a specific pixel size. Also, in the example shown in FIG. 4, the advertising content is represented by an abstract code such as "AD1", but the advertising content may be information or the like indicating a specific file format.
(制御部130について)
制御部130は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、決定装置100内部の記憶装置に記憶されている各種プログラム(決定プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Regarding the control unit 130)
The control unit 130 is a controller, and for example, various programs (an example of a determination program) stored in a storage device inside the
図2に示すように、制御部130は、受付部131と、解析部132と、決定部133と、配信部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図2に示した接続関係に限られず、他の接続関係であってもよい。
As shown in FIG. 2, the control unit 130 includes a reception unit 131, an analysis unit 132, a
(受付部131について)
受付部131は、ユーザによってコンテンツの配信要求を受け付ける。なお、受付部131は、ユーザによってコンテンツの配信要求を受け付けるとともに、ユーザに関する情報を受け付けてもよい。ここでいう、ユーザに関する情報とは、ユーザの属性に関する情報である属性情報、ユーザの位置情報、ユーザのコンテンツ閲覧履歴、ユーザの広告コンテンツ閲覧履歴、ユーザの興味関心に関する情報等である。
(Regarding the reception unit 131)
The reception unit 131 receives a content distribution request from a user. Note that the receiving unit 131 may receive information about the user as well as receiving a content distribution request from the user. Here, the information about the user includes attribute information that is information about the user's attribute, user's location information, user's content viewing history, user's advertising content viewing history, information about user's interests, and the like.
(解析部132について)
解析部132は、動画を構成する各シーンを解析する。具体的には、解析部132は、各シーンに対応する音量と、物体の動作と、コメントの数とを解析する。より具体的には、解析部132は、動画情報記憶部121を参照して、画像解析技術等の従来技術やパターンマッチング及び機械学習等の従来技術より、動画に含まれる音声を解析する。また、より具体的には、解析部132は、動画情報記憶部121を参照して、画像解析技術等の従来技術やパターンマッチング及び機械学習等の従来技術をより、動画に含まれる物体の動作を解析する。また、より具体的には、解析部132は、動画情報記憶部121を参照して、画像解析技術等の従来技術やパターンマッチング及び機械学習等の従来技術をより、動画に関する情報に含まれる各シーンに対するユーザのコメントを解析する。
(Regarding the analysis unit 132)
The analysis unit 132 analyzes each scene that constitutes the moving image. Specifically, the analysis unit 132 analyzes the volume, the motion of the object, and the number of comments corresponding to each scene. More specifically, the analysis unit 132 refers to the moving image
例えば、人が部屋でダンスをしている動画であるものとする。この場合、解析部132は、画像解析技術等の従来技術やパターンマッチング及び機械学習等の従来技術により、動画に含まれる音声又はBGMの音量を解析する。そして、解析部132は、シーン毎の音量の大小を解析結果として出力する。 For example, assume that the video is a person dancing in a room. In this case, the analysis unit 132 analyzes the volume of the audio or BGM included in the moving image by conventional techniques such as image analysis techniques and conventional techniques such as pattern matching and machine learning. Then, the analysis unit 132 outputs the volume level of each scene as an analysis result.
また、例えば、人が部屋でダンスをしている動画であるものとする。この場合、解析部132は、画像解析技術等の従来技術やパターンマッチング及び機械学習等の従来技術により、動画に含まれる人の動作を解析する。例えば、解析部132は、第1のシーンで表示される人の動作と、第2のシーンで表示される人の動作との差分が大きいと判定された場合に、シーン間の動作が大きいと解析する。そして、解析部132は、シーン毎の動作の大小を解析結果として出力する。 Also, for example, it is assumed that the video is a video of a person dancing in a room. In this case, the analysis unit 132 analyzes the motion of the person included in the moving image by conventional techniques such as image analysis technology, pattern matching, machine learning, and the like. For example, when the analysis unit 132 determines that the difference between the human motion displayed in the first scene and the human motion displayed in the second scene is large, the analysis unit 132 determines that the motion between scenes is large. To analyze. Then, the analysis unit 132 outputs the magnitude of the motion for each scene as an analysis result.
また、例えば、人が部屋でダンスをしている動画であるものとする。この場合、解析部132は、画像解析技術等の従来技術やパターンマッチング及び機械学習等の従来技術により、動画に関する情報に含まれる各シーンに対するユーザのコメントを解析する。そして、解析部132は、シーン毎のコメントの数の大小を解析結果として出力する。 Also, for example, it is assumed that the video is a video of a person dancing in a room. In this case, the analysis unit 132 analyzes the user's comments on each scene included in the information about the moving image by conventional techniques such as image analysis technology and conventional techniques such as pattern matching and machine learning. Then, the analysis unit 132 outputs the number of comments for each scene as an analysis result.
また、例えば、人が部屋でダンスをしている動画であるものとする。この場合、解析部132は、画像解析技術等の従来技術やパターンマッチング及び機械学習等の従来技術により、動画中の平面を示す度合いである平面度を検出する。そして、解析部132は、シーン毎に広告コンテンツを表示する領域に適した平面度を解析結果として出力する。 Also, for example, it is assumed that the video is a video of a person dancing in a room. In this case, the analysis unit 132 detects the flatness, which is the degree of flatness in the moving image, by conventional techniques such as image analysis techniques and conventional techniques such as pattern matching and machine learning. Then, the analysis unit 132 outputs the flatness suitable for the area in which the advertising content is displayed for each scene as an analysis result.
(決定部133について)
決定部133は、解析部132によって解析された解析結果に基づいて、動画に重畳するコンテンツが表示されるシーンを決定する。具体的には、決定部133は、解析結果に基づいて、広告コンテンツが重畳されるための所定の領域を含むシーンを決定する。
(About decision unit 133)
The
例えば、図1の例では、人が部屋でダンスをしている動画であるものとする。この場合、決定部133は、シーン毎の音量の大小を示す解析結果に基づいて、音量が小さいシーンを選択する。そして、決定部133は、かかる音量が小さいシーンの所定の領域SP1に広告コンテンツを重畳させる領域を生成する。そして、決定部133は、かかるシーンを広告コンテンツが重畳されるシーンSE1として決定する。そして、決定部133は、かかる結果を条件情報記憶部122に格納する。
For example, in the example of FIG. 1, it is assumed that the video is a person dancing in a room. In this case, the
また、図1の例では、例えば、人が部屋でダンスをしている動画であるものとする。この場合、決定部133は、シーン毎の動作の大小を示す解析結果に基づいて、動作が小さいシーンを選択する。そして、決定部133は、かかる動作が小さいシーンの所定の領域SP1に広告コンテンツを重畳させる領域を生成する。そして、決定部133は、かかるシーンを広告コンテンツが重畳されるシーンSE1として決定する。そして、決定部133は、かかる結果を条件情報記憶部122に格納する。
Also, in the example of FIG. 1, for example, it is assumed that the video is a person dancing in a room. In this case, the determining
また、図1の例では、例えば、人が部屋でダンスをしている動画であるものとする。この場合、決定部133は、シーン毎のコメントの数の大小を示す解析結果に基づいて、コメントの数が少ないシーンを選択する。そして、決定部133は、かかるコメントの数が少ないシーンの所定の領域SP1に広告コンテンツを重畳させる領域を生成する。そして、決定部133は、かかるシーンを広告コンテンツが重畳されるシーンSE1として決定する。そして、決定部133は、かかる結果を条件情報記憶部122に格納する。
Also, in the example of FIG. 1, for example, it is assumed that the video is a person dancing in a room. In this case, the
(配信部134について)
配信部134は、各種コンテンツを配信する。具体的には、配信部134は、決定部133によって決定されたシーンに重畳させる広告コンテンツを含むコンテンツを配信する。より具体的には、配信部134は、条件情報記憶部122に記憶される条件に基づくシーンであって、広告コンテンツを重畳するシーンを含む動画が表示されたコンテンツを配信する。また、より具体的には、配信部134は、動画に重畳された広告コンテンツに対応するコンテンツを配信する。
(About distribution unit 134)
The
例えば、広告コンテンツが賃貸に関するものであるとする。この場合、配信部134は、賃貸に関する広告コンテンツを重畳するシーンを含む動画が表示されたコンテンツであって、家具の販売に関する情報を示すコンテンツを配信する。
For example, suppose the advertising content is about rentals. In this case, the
〔3.処理手順〕
次に、図5を用いて、実施形態に係る決定装置100が実行する決定処理の手順について説明する。図5は、実施形態に係る決定装置が実行する決定処理の流れの一例を示すフローチャートである。
[3. Processing procedure]
Next, with reference to FIG. 5, a procedure of determination processing executed by the
図5に示すように、受付部131は、ユーザによってコンテンツの配信要求を受け付ける(ステップS101)。そして、解析部132は、受付部131がユーザによってコンテンツの配信要求を受け付けていない場合(ステップS101;No)、ユーザによってコンテンツの配信要求を受け付けるまで待機する。 As shown in FIG. 5, the reception unit 131 receives a content distribution request from a user (step S101). If the receiving unit 131 has not received a content distribution request from the user (step S101; No), the analyzing unit 132 waits until receiving a content distribution request from the user.
一方、解析部132は、受付部131がユーザによってコンテンツの配信要求を受け付けた場合(ステップS101;Yes)、動画に関する情報を構成する各シーンを解析する(ステップS102)。 On the other hand, when the accepting unit 131 accepts a content distribution request from the user (step S101; Yes), the analyzing unit 132 analyzes each scene constituting the information about the moving image (step S102).
例えば、人が部屋でダンスをしている動画であるものとする。この場合、解析部132は、画像解析技術等の従来技術やパターンマッチング及び機械学習等の従来技術により、動画に関する情報に含まれる音声又はBGMの音量を解析する。そして、解析部132は、シーン毎の音量の大小を解析結果として出力する。 For example, assume that the video is a person dancing in a room. In this case, the analysis unit 132 analyzes the volume of the audio or BGM included in the information about the moving image by conventional techniques such as image analysis techniques and conventional techniques such as pattern matching and machine learning. Then, the analysis unit 132 outputs the volume level of each scene as an analysis result.
また、例えば、人が部屋でダンスをしている動画であるものとする。この場合、解析部132は、画像解析技術等の従来技術やパターンマッチング及び機械学習等の従来技術により、動画に関する情報に含まれる人の動作を解析する。例えば、解析部132は、第1のシーンで表示される人の動作と、第2のシーンで表示される人の動作との差分が大きいと判定された場合に、シーン間の動作が大きいと解析する。そして、解析部132は、シーン毎の動作の大小を解析結果として出力する。 Also, for example, it is assumed that the video is a video of a person dancing in a room. In this case, the analysis unit 132 analyzes the motion of the person included in the information about the moving image by conventional techniques such as image analysis technology and conventional techniques such as pattern matching and machine learning. For example, when the analysis unit 132 determines that the difference between the human motion displayed in the first scene and the human motion displayed in the second scene is large, the analysis unit 132 determines that the motion between scenes is large. To analyze. Then, the analysis unit 132 outputs the magnitude of the motion for each scene as an analysis result.
また、例えば、人が部屋でダンスをしている動画であるものとする。この場合、解析部132は、画像解析技術等の従来技術やパターンマッチング及び機械学習等の従来技術により、動画に関する情報に含まれる各シーンに対するユーザのコメントを解析する。そして、解析部132は、シーン毎のコメントの数の大小を解析結果として出力する。 Also, for example, it is assumed that the video is a video of a person dancing in a room. In this case, the analysis unit 132 analyzes the user's comments on each scene included in the information about the moving image by conventional techniques such as image analysis technology and conventional techniques such as pattern matching and machine learning. Then, the analysis unit 132 outputs the number of comments for each scene as an analysis result.
そして、決定部133は、解析部132によって解析された解析結果に基づいて、広告コンテンツを重畳するシーンを決定する(ステップS103)。例えば、図1の例では、人が部屋でダンスをしている動画であるものとする。この場合、決定部133は、シーン毎の音量の大小を示す解析結果に基づいて、音量が小さいシーンを選択する。そして、決定部133は、かかる音量が小さいシーンの所定の領域SP1に広告コンテンツを重畳させる領域を生成する。そして、決定部133は、かかるシーンを広告コンテンツが重畳されるシーンSE1として決定する。
Then, the
また、例えば、図1の例では、人が部屋でダンスをしている動画であるものとする。この場合、決定部133は、シーン毎の動作の大小を示す解析結果に基づいて、動作が小さいシーンを選択する。そして、決定部133は、かかる動作が小さいシーンの所定の領域SP1に広告コンテンツを重畳させる領域を生成する。そして、決定部133は、かかるシーンを広告コンテンツが重畳されるシーンSE1として決定する。
Also, for example, in the example of FIG. 1, it is assumed that the video is a person dancing in a room. In this case, the determining
また、例えば、図1の例では、人が部屋でダンスをしている動画であるものとする。この場合、決定部133は、シーン毎のコメントの数の大小を示す解析結果に基づいて、コメントの数が少ないシーンを選択する。そして、決定部133は、かかるコメントの数が少ないシーンの所定の領域SP1に広告コンテンツを重畳させる領域を生成する。そして、決定部133は、かかるシーンを広告コンテンツが重畳されるシーンSE1として決定する。
Also, for example, in the example of FIG. 1, it is assumed that the video is a person dancing in a room. In this case, the
そして、配信部134は、決定部133によって決定されたシーンを含む動画が表示されたコンテンツを配信する(ステップS104)。例えば、広告コンテンツが賃貸に関するものであるとする。この場合、配信部134は、賃貸に関する広告コンテンツを重畳するシーンを含む動画が表示されたコンテンツであって、家具の販売に関する情報を示すコンテンツを配信する。
Then, the
〔4.変形例〕
上述した決定装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、決定装置100の他の実施形態について説明する。
[4. Modification]
The
〔4-1.広告コンテンツの態様〕
上記実施形態では、決定装置100が所定の領域SP1に広告コンテンツを重畳させた動画を含むコンテンツを配信する配信処理を実行する例を挙げたが、対象とする広告コンテンツは、如何なる態様の広告であってもよい。例えば、決定装置100は、バナー等の態様で広告コンテンツを重畳させた動画を含むコンテンツを配信してもよい。
[4-1. Aspect of Advertisement Content]
In the above embodiment, an example was given in which the determining
また、例えば、図6に示すように、動画MO1の周囲に表示される広告コンテンツAD1であって、動画MO1に重畳される広告コンテンツと異なる他の広告コンテンツAD1が表示されるコンテンツを配信してもよい。 Further, for example, as shown in FIG. 6, the advertisement content AD1 displayed around the moving image MO1 and different from the advertising content superimposed on the moving image MO1 is distributed. good too.
また、例えば、図7に示すように、動画MO1の動画MO2の周囲に表示される広告コンテンツAD2と動画MO2に重畳された広告コンテンツAD3とが連結した広告コンテンツが表示されるコンテンツを配信してもよい。 Further, for example, as shown in FIG. 7, the advertisement content AD2 displayed around the moving image MO2 of the moving image MO1 and the advertising content AD3 superimposed on the moving image MO2 are connected to each other to display the advertisement content. good too.
〔4-2.複数の広告コンテンツ〕
上記実施形態では、決定装置100が1つの広告コンテンツを重畳させた動画を含むコンテンツを配信する配信処理を実行する例を挙げたが、広告コンテンツは、複数表示されてもよい。例えば、決定装置100は、複数の広告コンテンツが1つのシーンに重畳させた動画を含むコンテンツを配信してもよい。また、例えば、決定装置100は、複数の広告コンテンツが複数のシーンに一つ以上重畳させた動画を含むコンテンツを配信してもよい。
[4-2. Multiple Ad Content]
In the above embodiment, an example was given in which the determining
〔4-3.決定処理(1)特定の形状〕
上記実施形態では、決定装置100の決定部133が解析結果に基づいて、所定の領域SP1を含むシーンを広告コンテンツが重畳されるシーンSE1として決定する決定処理の一例を説明したが、上記決定処理に限定されない。具体的には、決定部133は、解析部132によって解析された解析結果に基づいて、所定の領域として、特定の形状を含むシーンを決定してもよい。例えば、動画が賃貸に関するものであるとする。この場合、決定部133は、動画にソファー形状のソファーの販売に関する広告コンテンツを重畳するシーンを決定してもよい。
[4-3. Decision processing (1) specific shape]
In the above-described embodiment, an example of the determination process in which the
これにより、実施形態に係る決定装置100の決定部133は、動画に重畳する広告コンテンツが表示される適切なシーンを決定することができるため、広告コンテンツの広告効果を高めることができる。
Accordingly, the
〔4-4.決定処理(2)特定のマーク〕
上記実施形態では、決定装置100の決定部133が解析結果に基づいて、所定の領域SP1を含むシーンを広告コンテンツが重畳されるシーンSE1として決定する決定処理の一例を説明したが、上記決定処理に限定されない。具体的には、決定部133は、解析部132によって解析された解析結果に基づいて、所定の領域として、特定のマークを含むシーンを決定してもよい。なお、ここでいう特定のマークとは、例えば、商品タグ等を含む。
[4-4. Decision processing (2) specific mark]
In the above-described embodiment, an example of the determination process in which the
例えば、動画が洋服に関するものであるとする。この場合、決定部133は、動画に表示される洋服に連結された洋服の識別情報を示す商品タグを重畳するシーンを決定してもよい。このとき、決定部133は、ユーザによってかかる商品タグをクリックすることで、洋服の広告コンテンツを閲覧することができる。
For example, assume that the video is about clothes. In this case, the
これにより、実施形態に係る決定装置100の決定部133は、動画に重畳する広告コンテンツが表示される適切なシーンを決定することができるため、広告コンテンツの広告効果を高めることができる。
Accordingly, the
〔4-5.決定処理(3)コンテンツ提供主によって指定された情報〕
上記実施形態では、決定装置100の決定部133が解析結果に基づいて、所定の領域SP1を含むシーンを広告コンテンツが重畳されるシーンSE1として決定する決定処理の一例を説明したが、上記決定処理に限定されない。具体的には、決定部133は、広告主によって指定された情報に基づいて、シーンを決定してもよい。なお、ここいう広告主によって指定された情報とは、広告コンテンツを重畳させる条件、広告コンテンツを重畳させるシーン等である。
[4-5. Decision processing (3) information specified by the content provider]
In the above-described embodiment, an example of the determination process in which the
例えば、広告主によって広告コンテンツを重畳させる条件として、シーンに広告コンテンツを重畳するタイミングと、シーンに広告コンテンツを重畳するシーン内の場所と、シーンに重畳させる広告コンテンツの大きさとが指定されているものとする。この場合、決定部133は、かかる条件に基づいて、広告コンテンツを重畳させる所定の領域SP1を生成する。このとき、決定部133は、対象物から離れた場所に位置する所定の領域SP1を生成する。そして、決定部133は、かかる所定の領域SP1を含むシーンを広告コンテンツが重畳されるシーンとして決定する。
For example, the timing for superimposing the advertising content on the scene, the location in the scene for superimposing the advertising content on the scene, and the size of the advertising content to be superimposed on the scene are specified as the conditions for superimposing the advertising content by the advertiser. shall be In this case, the
例えば、広告主が家具に関する事業を行うものであるものとする。また、動画が賃貸に関するものであるとする。この場合、決定部133は、家具が表示されるシーンを広告主が指定し、かかるシーンを家具の販売に関する広告コンテンツを重畳するシーンとして決定してもよい。
For example, assume that an advertiser is in the business of furniture. Also assume that the video is about renting. In this case, the determining
これにより、実施形態に係る決定装置100の決定部133は、動画に重畳する広告コンテンツが表示される適切なシーンを決定することができるため、広告コンテンツの広告効果を高めることができる。
Accordingly, the
〔4-6.決定処理(4)オークション〕
上記実施形態では、決定装置100の決定部133が解析結果に基づいて、所定の領域SP1を含むシーンを広告コンテンツが重畳されるシーンSE1として決定する決定処理の一例を説明したが、上記決定処理に限定されない。具体的には、決定部133は、解析部132によって解析された解析結果に基づいて、オークションによって決定される広告コンテンツが表示されるシーンを決定してもよい。例えば、動画が賃貸に関するものであるとする。また、オークションによってテーブルの販売に関する広告コンテンツが決定されたものとする。この場合、決定部133は、動画に表示される広告コンテンツであって、オークションによって決定されたテーブルの販売に関する広告コンテンツを重畳するシーンを決定してもよい。
[4-6. Decision processing (4) Auction]
In the above-described embodiment, an example of the determination process in which the
これにより、実施形態に係る決定装置100の決定部133は、動画に重畳する広告コンテンツが表示される適切なシーンを決定することができるため、広告コンテンツの広告効果を高めることができる。
Accordingly, the
なお、オークションは、リアルタイムオークションでもよい。例えば、動画が賃貸に関するものであるとする。この場合、決定部133は、動画に表示される広告コンテンツであって、リアルタイムで逐次的に変動する広告コンテンツを重畳するシーンを決定してもよい。
Note that the auction may be a real-time auction. For example, suppose a video is about renting. In this case, the determining
〔4-7.決定処理(5)課金〕
上記実施形態では、決定装置100の決定部133が解析結果に基づいて、所定の領域SP1を含むシーンを広告コンテンツが重畳されるシーンSE1として決定する決定処理の一例を説明したが、上記決定処理に限定されない。具体的には、決定部133は、解析部132によって解析された解析結果に基づいて、ユーザの課金額に応じて決定される広告コンテンツが表示されるシーンを決定してもよい。例えば、動画が賃貸に関するものであるとする。また、ユーザの課金額が所定の金額以上である場合に、タイムバーゲンセールの対象商品であるテーブルの販売に関する広告コンテンツが閲覧できるものとする。この場合、決定部133は、動画に表示される広告コンテンツであって、ユーザの課金額によってタイムバーゲンセールの対象商品であるテーブルの販売に関する広告コンテンツを重畳するシーンを決定してもよい。
[4-7. Decision processing (5) Billing]
In the above-described embodiment, an example of the determination process in which the
これにより、実施形態に係る決定装置100の決定部133は、動画に重畳する広告コンテンツが表示される適切なシーンを決定することができるため、広告コンテンツの広告効果を高めることができる。
Accordingly, the
〔4-8.決定処理(6)ユーザに応じたコンテンツ〕
上記実施形態では、決定装置100の決定部133が解析結果に基づいて、所定の領域SP1を含むシーンを広告コンテンツが重畳されるシーンSE1として決定する決定処理の一例を説明したが、上記決定処理に限定されない。具体的には、決定部133は、解析部132によって解析された解析結果に基づいて、動画にユーザに応じて決定される広告コンテンツが表示されるシーンを決定してもよい。
[4-8. Decision processing (6) content according to user]
In the above-described embodiment, an example of the determination process in which the
例えば、ユーザが30代の男性であるものとする。また、動画が風景に関するものであるとする。この場合、決定部133は、自動車の販売に関する広告コンテンツを重畳するシーンを決定してもよい。また、例えば、動画が賃貸に関するものであるとする。この場合、決定部133は、ユーザの位置情報に基づいて近隣の賃貸に関する広告コンテンツを重畳するシーンを決定してもよい。また、例えば、ユーザが育毛剤に関する広告コンテンツを過去に閲覧していたものとする。また、動画がシャンプーの販売に関するものであるとする。この場合、決定部133は、ユーザの閲覧履歴に基づいて育毛剤に関する広告コンテンツを重畳するシーンを決定してもよい。
For example, assume that the user is a male in his thirties. It is also assumed that the motion picture relates to scenery. In this case, the
これにより、実施形態に係る決定装置100の決定部133は、動画に重畳する広告コンテンツが表示される適切なシーンをユーザに応じて決定することができるため、広告コンテンツの広告効果を高めることができる。
Accordingly, the
〔4-9.決定処理(7)シーンに応じたコンテンツ〕
上記実施形態では、決定装置100の決定部133が解析結果に基づいて、所定の領域SP1を含むシーンを広告コンテンツが重畳されるシーンSE1として決定する決定処理の一例を説明したが、上記決定処理に限定されない。具体的には、決定部133は、解析部132によって解析された解析結果に基づいて、動画に含まれるシーンに応じて決定される広告コンテンツが表示されるシーンを決定してもよい。例えば、動画が賃貸に関するものであるとする。この場合、決定部133は、家具の販売に関する広告コンテンツを重畳するシーンを決定してもよい。
[4-9. Decision processing (7) content according to the scene]
In the above-described embodiment, an example of the determination process in which the
これにより、実施形態に係る決定装置100の決定部133は、動画に重畳する広告コンテンツが表示される適切なシーンを決定することができるため、広告コンテンツの広告効果を高めることができる。
Accordingly, the
〔4-10.決定処理(8)ユーザによって選択されたコンテンツ〕
上記実施形態では、決定装置100の決定部133が解析結果に基づいて、所定の領域SP1を含むシーンを広告コンテンツが重畳されるシーンSE1として決定する決定処理の一例を説明したが、上記決定処理に限定されない。具体的には、決定部133は、解析部132によって解析された解析結果に基づいて、ユーザによって選択された広告コンテンツが表示されるシーンを決定してもよい。例えば、動画が賃貸に関するものであるとする。この場合、決定部133は、ユーザによって選択された広告コンテンツであって、家具の販売に関する広告コンテンツが重畳させるシーンを決定してもよい。なお、ユーザは、広告コンテンツの大きさ、シーン内に表示される場所等を決定してもよい。
[4-10. Decision processing (8) content selected by user]
In the above-described embodiment, an example of the determination process in which the
これにより、実施形態に係る決定装置100の決定部133は、動画に重畳する広告コンテンツが表示される適切なシーンを決定することができるため、広告コンテンツの広告効果を高めることができる。
Accordingly, the
〔4-11.決定処理(9)動画内容に応じてシーンを決定〕
上記実施形態では、決定装置100の決定部133が動画の音量、物体の動作、外部情報の解析結果に基づいて、所定の領域SP1を含むシーンを広告コンテンツが重畳されるシーンSE1として決定する決定処理の一例を説明したが、上記決定処理に限定されない。具体的には、決定部133は、解析部132によって各シーンの内容が解析された解析結果に基づいて、動画の内容に応じたシーンを決定する。より具体的には、決定装置100は、ユーザの注視度合に応じたシーンを決定する。例えば、ユーザが30代の男性であるものとする。また、ユーザは自動車に興味関心があるものとする。また、動画に自動車が走行するシーンを含むものとする。また、広告コンテンツが自動車に関する広告コンテンツであるものとする。この場合、決定部133は、ユーザが注視していると推定される自動車が走行するシーンに、自動車に関する広告コンテンツが重畳されるシーンとして決定してもよい。
[4-11. Decision processing (9) Determine scene according to video content]
In the above embodiment, the
なお、上記変形例では、ユーザの興味関心に関する情報から推定されるユーザが注視している自動車が走行するシーンに、自動車に関する広告コンテンツが重畳されるシーンとして決定する例を挙げたが、これに限られず、音量と、物体の動作と、コメントの数との解析結果に基づいて、ユーザの注視度合に応じたシーンを決定してもよい。 In the above modified example, an example is given in which the scene in which the vehicle that the user is watching is estimated from the information about the user's interest is running is determined as the scene in which the advertising content related to the vehicle is superimposed. The scene may be determined according to the degree of gaze of the user based on the analysis results of the volume, the motion of the object, and the number of comments.
例えば、動画に自動車が走行するシーンを含むものとする。また、広告コンテンツが自動車に関する広告コンテンツであるものとする。この場合、解析部132は、画像解析技術等の従来技術やパターンマッチング及び機械学習等の従来技術により、自動車のエンジン音の音量を解析する。そして、解析部132は、シーン毎の音量の大小を解析結果として出力する。そして、決定部133は、シーン毎の音量の大小を示す解析結果に基づいて、音量が大きいシーンを選択する。そして、決定部133は、かかる音量が大きいシーンを広告コンテンツが重畳されるシーンとして決定してもよい。
For example, assume that the moving image includes a scene in which an automobile runs. It is also assumed that the advertising content is advertising content related to automobiles. In this case, the analysis unit 132 analyzes the volume of the engine sound of the automobile by conventional techniques such as image analysis techniques and conventional techniques such as pattern matching and machine learning. Then, the analysis unit 132 outputs the volume level of each scene as an analysis result. Then, the determining
例えば、動画に自動車が走行するシーンを含むものとする。また、広告コンテンツが自動車に関する広告コンテンツであるものとする。この場合、解析部132は、画像解析技術等の従来技術やパターンマッチング及び機械学習等の従来技術により、自動車の動作を解析する。例えば、解析部132は、第1のシーンで表示される自動車の動作と、第2のシーンで表示される自動車の動作との差分が大きいと判定された場合に、シーン間の動作が大きいと解析する。そして、解析部132は、シーン毎の動作の大小を解析結果として出力する。そして、決定部133は、シーン毎の動作の大小を示す解析結果に基づいて、自動車の動作が大きいシーンを選択する。そして、決定部133は、かかる動作が大きいシーンを広告コンテンツが重畳されるシーンとして決定してもよい。
For example, assume that the moving image includes a scene in which an automobile runs. It is also assumed that the advertising content is advertising content related to automobiles. In this case, the analysis unit 132 analyzes the motion of the automobile by conventional techniques such as image analysis techniques and conventional techniques such as pattern matching and machine learning. For example, when it is determined that the difference between the motion of the car displayed in the first scene and the motion of the car displayed in the second scene is large, the analysis unit 132 determines that the motion between the scenes is large. To analyze. Then, the analysis unit 132 outputs the magnitude of the motion for each scene as an analysis result. Then, the
例えば、動画に自動車が走行するシーンを含むものとする。また、広告コンテンツが自動車に関する広告コンテンツであるものとする。この場合、解析部132は、画像解析技術等の従来技術やパターンマッチング及び機械学習等の従来技術により、動画に関する情報に含まれる動画に対するユーザのコメントを解析する。そして、解析部132は、シーン毎のコメントの数の大小を解析結果として出力する。そして、決定部133は、シーン毎のコメントの数の大小を示す解析結果に基づいて、コメントの数が多いシーンを選択する。そして、決定部133は、かかるコメントの数が多いシーンを広告コンテンツが重畳されるシーンとして決定する。
For example, assume that the moving image includes a scene in which an automobile runs. It is also assumed that the advertising content is advertising content related to automobiles. In this case, the analysis unit 132 analyzes the user's comment on the moving image included in the information on the moving image by conventional techniques such as image analysis technology and conventional techniques such as pattern matching and machine learning. Then, the analysis unit 132 outputs the number of comments for each scene as an analysis result. Then, the determining
これにより、実施形態に係る決定装置100の決定部133は、動画に重畳する広告コンテンツが表示される適切なシーンを決定することができるため、広告コンテンツの広告効果を高めることができる。
Accordingly, the
〔4-12.決定処理(10)過去の放送に基づいてシーンを決定〕
上記実施形態では、決定装置100の決定部133が解析結果に基づいて、所定の領域SP1を含むシーンを広告コンテンツが重畳されるシーンSE1として決定する決定処理の一例を説明したが、上記決定処理に限定されない。具体的には、解析部132は、過去に放送された動画に関する情報であって、広告コンテンツを含む動画に関する情報の広告コンテンツが重畳されるシーンの特徴を解析し、決定部133は、解析部132によって解析されたシーンの特徴に基づいて、シーンを決定する。なお、ここでいう過去に放送された動画に関する情報とは、例えば、地上放送、衛星放送又はインターネットで放送された動画に関する情報等である。
[4-12. Decision processing (10) Determine scene based on past broadcast]
In the above-described embodiment, an example of the determination process in which the
より具体的には、解析部132は、過去に放送された動画であって、広告コンテンツを含む動画の広告コンテンツが重畳されるシーンの特徴を解析する。例えば、解析部132は、広告コンテンツが重畳されたシーンの特徴として、ズームアウトされる点や、物体が小さく表示される点や、物体の動きが小さい点や、人の音声がなく、BGMだけが流れる点や、背景画像がシーンのうち大部分を占める点を抽出する。そして、決定部133は、解析部132によって解析されたシーンの特徴に対応するシーンを広告コンテンツが重畳されるシーンとして決定してもよい。
More specifically, the analysis unit 132 analyzes the characteristics of the scene in which the advertising content of the video that was broadcast in the past and contains the advertising content is superimposed. For example, the analysis unit 132 determines that the scene on which the advertisement content is superimposed has features such as being zoomed out, objects being displayed small, objects moving little, human voices being absent, and only background music being played. , and points where the background image occupies most of the scene. Then, the
例えば、過去に放送された動画が地上放送であるものとする。また、地上放送に含まれる広告コンテンツが、テロップとして表示されるものとする。また、地上放送は、ズームアウトされたシーンを多く含むものとする。この場合、解析部132は、地上放送で放送された動画の広告コンテンツがテロップとして表示されるシーンの特徴としてズームアウトされたシーンが多い点を抽出する。そして、決定部133は、解析部132によって解析された解析結果に基づいて、ズームアウトされたシーンを広告コンテンツが重畳されるシーンとして決定してもよい。なお、解析部132は、地上放送で放送された動画のテロップの場所の特徴を解析してもよい。例えば、解析部132は、テロップの場所の特徴として、他の物体等と重ならない点を抽出する。そして、決定部133は、解析部132によって解析された解析結果に基づいて、他の物体等と重ならない場所を広告コンテンツが重畳される場所として決定してもよい。
For example, it is assumed that a moving image broadcasted in the past is a terrestrial broadcast. Moreover, it is assumed that the advertising content included in the terrestrial broadcasting is displayed as a telop. It is also assumed that the terrestrial broadcasting includes many zoomed-out scenes. In this case, the analysis unit 132 extracts a feature of scenes in which advertising content of moving images broadcasted by terrestrial broadcasting is displayed as telops, that there are many zoomed-out scenes. Then, the
これにより、実施形態に係る決定装置100の決定部133は、動画に重畳する広告コンテンツが表示される適切なシーンを決定することができるため、広告コンテンツの広告効果を高めることができる。
Accordingly, the
〔4-13.コンテンツ〕
上記実施形態では、決定装置100が所定の領域SP1に広告コンテンツを重畳させた動画を含むコンテンツを配信する配信処理を実行する例を挙げたが、動画に重畳される情報は、広告コンテンツに限らず、広告目的のコンテンツでなくともよい。例えば、動画に重畳される情報は、天気予報に関するコンテンツや、ニュースに関するコンテンツ等であってもよい。また、例えば、動画に重畳される情報は、字幕でもあってもよい。ここでいう字幕とは、例えば、動画の内容の補助的な説明に関するコンテンツや、動画の音声を文字で表記したコンテンツや、動画の音声の翻訳に関するコンテンツ等である。
[4-13. content〕
In the above embodiment, an example was given in which the determining
〔5.ハードウェア構成〕
また、上述してきた実施形態に係る端末装置10、広告装置20及び決定装置100は、例えば図8に示すような構成のコンピュータ1000によって実現される。以下、決定装置100を例に挙げて説明する。図8は、決定装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[5. Hardware configuration]
Also, the
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The CPU 1100 operates based on programs stored in the
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100がネットワークNを介して生成したデータを他の機器へ送信する。
The
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、入出力インターフェイス1600を介して生成したデータを出力装置へ出力する。
The CPU 1100 controls output devices such as displays and printers, and input devices such as keyboards and mice, through an input/
メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が実施形態に係る決定装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが格納される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
For example, when the
〔6.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[6. others〕
Further, among the processes described in the above embodiments and modifications, all or part of the processes described as being performed automatically can be performed manually, or described as being performed manually. All or part of the processing can also be performed automatically by known methods. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each drawing is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the one shown in the figure, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured.
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Also, the above-described embodiments and modifications can be appropriately combined within a range that does not contradict the processing content.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、決定部は、決定手段や決定回路に読み替えることができる。 Also, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the determination unit can be read as determination means or a determination circuit.
〔7.効果〕
上述してきたように、実施形態に係る決定装置100は、解析部132と、決定部133とを有する。解析部132は、動画に関する情報を構成する各シーンを解析する。決定部133は、解析部132によって解析された解析結果に基づいて、動画に重畳するコンテンツが表示されるシーンを決定する。
[7. effect〕
As described above, the
これにより、実施形態に係る決定装置100は、動画を構成する各シーンを解析することでコンテンツに適したシーンを探索することができるため、動画に重畳するコンテンツが表示される適切なシーンを決定することができる。
As a result, the
また、実施形態に係る決定装置100において、解析部132は、各シーンに対応する音量と、物体の動作と、コメントの数とを解析し、決定部133は、解析部132によって解析された解析結果に基づいて、コンテンツが重畳されるための所定の領域を含むシーンを決定する。
In addition, in the
これにより、実施形態に係る決定装置100は、動画を構成する各シーンを解析することでコンテンツに適したシーンを探索することができるため、動画に重畳するコンテンツが表示される適切なシーンを決定することができる。
As a result, the
また、実施形態に係る決定装置100において、決定部133は、解析部132によって解析された解析結果に基づいて、所定の領域として、特定の形状を含むシーンを決定する。
Also, in the
これにより、実施形態に係る決定装置100は、動画を構成する各シーンを解析することでコンテンツに適したシーンを探索することができるため、動画に重畳するコンテンツが表示される適切なシーンを決定することができる。
As a result, the
また、実施形態に係る決定装置100において、決定部133は、解析部132によって解析された解析結果に基づいて、所定の領域として、特定のマークを含むシーンを決する。
Also, in the
これにより、実施形態に係る決定装置100は、動画を構成する各シーンを解析することでコンテンツに適したシーンを探索することができるため、動画に重畳するコンテンツが表示される適切なシーンを決定することができる。
As a result, the
また、実施形態に係る決定装置100において、解析部132は、各シーンの内容を解析し、決定部133は、解析部132によって解析された解析結果に基づいて、シーンを決定する。
In addition, in the
これにより、実施形態に係る決定装置100は、動画を構成する各シーンを解析することでコンテンツに適したシーンを探索することができるため、動画に重畳するコンテンツが表示される適切なシーンを決定することができる。
As a result, the
また、実施形態に係る決定装置100において、解析部132は、各シーンに対応する音量と、物体の動作と、コメントの数と、ユーザの興味関心に関する情報とから推定されるユーザの注視度合いを解析し、決定部133は、解析部132によって解析された解析結果に基づいて、シーンを決定する。
In addition, in the
これにより、実施形態に係る決定装置100は、動画を構成する各シーンを解析することでコンテンツに適したシーンを探索することができるため、動画に重畳するコンテンツが表示される適切なシーンを決定することができる。
As a result, the
また、実施形態に係る決定装置100において、決定部133は、解析部132によって解析された解析結果に基づいて、オークションによって決定されるコンテンツが表示されるシーンを決定する。
In addition, in the
これにより、実施形態に係る決定装置100は、動画を構成する各シーンを解析することでコンテンツに適したシーンを探索することができるため、動画に重畳するコンテンツが表示される適切なシーンを決定することができる。
As a result, the
また、実施形態に係る決定装置100において、決定部133は、解析部132によって解析された解析結果に基づいて、ユーザの課金額に応じて決定されるコンテンツが表示されるシーンを決定する。
Also, in the
これにより、実施形態に係る決定装置100は、動画を構成する各シーンを解析することでコンテンツに適したシーンを探索することができるため、動画に重畳するコンテンツが表示される適切なシーンを決定することができる。
As a result, the
また、実施形態に係る決定装置100において、決定部133は、コンテンツ提供主によって指定された情報に基づいて、前記シーンを決定する。
Also, in the
これにより、実施形態に係る決定装置100は、動画を構成する各シーンを解析することでコンテンツに適したシーンを探索することができるため、動画に重畳するコンテンツが表示される適切なシーンを決定することができる。
As a result, the
また、実施形態に係る決定装置100において、決定部133は、解析部132によって解析された解析結果に基づいて、ユーザに応じて決定されるコンテンツが表示されるシーンを決定する。
Also, in the
これにより、実施形態に係る決定装置100は、動画を構成する各シーンを解析することでコンテンツに適したシーンを探索することができるため、動画に重畳するコンテンツが表示される適切なシーンを決定することができる。
As a result, the
また、実施形態に係る決定装置100において、決定部133は、解析部132によって解析された解析結果に基づいて、動画に含まれるシーンに応じて決定されるコンテンツが表示されるシーンを決定する。
Also, in the
これにより、実施形態に係る決定装置100は、動画を構成する各シーンを解析することでコンテンツに適したシーンを探索することができるため、動画に重畳するコンテンツが表示される適切なシーンを決定することができる。
As a result, the
また、実施形態に係る決定装置100において、決定部133は、解析部132によって解析された解析結果に基づいて、ユーザによって選択されたコンテンツが表示されるシーンを決定する。
Also, in the
これにより、実施形態に係る決定装置100は、動画を構成する各シーンを解析することでコンテンツに適したシーンを探索することができるため、動画に重畳するコンテンツが表示される適切なシーンを決定することができる。
As a result, the
また、実施形態に係る決定装置100において、解析部132は、過去に放送された動画に関する情報であって、コンテンツを含む動画に関する情報のコンテンツが重畳されたシーンの特徴を解析し、決定部133は、解析部132によって解析されたシーンの特徴に基づいて、シーンを決定する。
Further, in the
これにより、実施形態に係る決定装置100の決定部133は、動画に重畳するコンテンツが表示される適切なシーンを決定することができるため、コンテンツの訴求効果を高めることができる。
As a result, the
また、実施形態に係る決定装置100において、決定部133によって決定されたシーンに重畳させるコンテンツを含むコンテンツを配信する配信部をさらに備える。
The determining
これにより、実施形態に係る決定装置100は、動画に重畳するコンテンツが表示される適切なシーンを決定することができるため、コンテンツの訴求効果を高めることができる。
As a result, the determining
また、実施形態に係る決定装置100において、配信部134は、動画の周囲に表示されるコンテンツであって、コンテンツと異なる他のコンテンツを含むコンテンツを配信する。
In addition, in the
これにより、実施形態に係る決定装置100は、動画に重畳するコンテンツを様々な態様で配信することができるため、コンテンツの訴求効果を高めることができる。
As a result, the determining
また、実施形態に係る決定装置100において、配信部134は、動画の周囲に表示されるコンテンツとコンテンツとが連結したコンテンツを含むコンテンツを配信する。
In addition, in the
これにより、実施形態に係る決定装置100は、動画に重畳するコンテンツを様々な態様で配信することができるため、コンテンツの訴求効果を高めることができる。
As a result, the determining
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, some of the embodiments of the present application have been described in detail based on the drawings. It is possible to carry out the invention in other forms with modifications.
1 決定システム
10 端末装置
20 広告装置
100 決定装置
110 通信部
120 記憶部
121 動画情報記憶部
122 条件情報記憶部
130 制御部
131 受付部
132 解析部
133 決定部
134 配信部
1
Claims (17)
前記解析部によって解析された解析結果に基づいて、前記動画に重畳するコンテンツが表示されるシーンを決定する決定部と、
を備え、
前記決定部は、
前記解析部によって解析された解析結果に基づいて、前記動画に表示される商品に連結された商品の識別情報を示す商品タグであって、ユーザによって当該商品タグがクリックされた場合に当該商品のコンテンツを表示する商品タグを重畳する前記シーンを決定する、
ことを特徴とする決定装置。 an analysis unit that analyzes each scene that constitutes information about a video;
a determination unit that determines a scene in which content to be superimposed on the moving image is displayed based on the analysis result analyzed by the analysis unit;
with
The decision unit
A product tag indicating identification information of a product linked to the product displayed in the moving image based on the analysis result analyzed by the analysis unit, wherein when the product tag is clicked by a user, the product is identified. Determining the scene for superimposing the product tag for displaying the content ;
A decision device characterized by:
前記各シーンに対応する音量と、物体の動作と、コメントの数とを解析する、
ことを特徴とする請求項1に記載の決定装置。 The analysis unit is
Analyzing the sound volume, the movement of the object, and the number of comments corresponding to each scene;
The decision device according to claim 1 , characterized in that:
前記解析部によって解析された解析結果に基づいて、特定の形状を重畳する前記シーンを決定する、
ことを特徴とする請求項2に記載の決定装置。 The decision unit
Determining the scene on which a specific shape is superimposed based on the analysis result analyzed by the analysis unit;
3. The decision device according to claim 2 , characterized in that:
前記各シーンの内容を解析し、
前記決定部は、
前記解析部によって解析された解析結果に基づいて、前記シーンを決定する、
ことを特徴とする請求項1に記載の決定装置。 The analysis unit is
analyzing the content of each scene;
The decision unit
determining the scene based on the analysis result analyzed by the analysis unit;
The decision device according to claim 1, characterized in that:
前記各シーンに対応する音量と、物体の動作と、コメントの数と、ユーザの興味関心に関する情報とから推定されるユーザの注視度合いを解析し、
前記決定部は、
前記解析部によって解析された解析結果に基づいて、前記シーンを決定する、
ことを特徴とする請求項4に記載の決定装置。 The analysis unit is
Analyzing the degree of attention of the user estimated from the sound volume corresponding to each scene, the movement of the object, the number of comments, and information on the user's interest,
The decision unit
determining the scene based on the analysis result analyzed by the analysis unit;
5. The decision device according to claim 4 , characterized in that:
前記解析部によって解析された解析結果に基づいて、オークションによって決定されるコンテンツが表示されるシーンを決定する、
ことを特徴とする請求項1~5のいずれか1つに記載の決定装置。 The decision unit
Determining a scene in which the content determined by the auction is displayed based on the analysis result analyzed by the analysis unit;
The decision device according to any one of claims 1 to 5 , characterized in that:
前記解析部によって解析された解析結果に基づいて、ユーザの課金額に応じて決定されるコンテンツが表示されるシーンを決定する、
ことを特徴とする請求項1~6のいずれか1つに記載の決定装置。 The decision unit
Determining a scene in which the content determined according to the user's billing amount is displayed based on the analysis result analyzed by the analysis unit;
The decision device according to any one of claims 1 to 6 , characterized in that:
コンテンツ提供主によって指定された情報に基づいて、前記シーンを決定する、
ことを特徴とする請求項1~7のいずれか1つに記載の決定装置。 The decision unit
determining the scene based on information specified by a content provider;
The decision device according to any one of claims 1 to 7 , characterized in that:
前記解析部によって解析された解析結果に基づいて、ユーザに応じて決定されるコンテンツが表示されるシーンを決定する、
ことを特徴とする請求項1~8のいずれか1つに記載の決定装置。 The decision unit
Determining a scene in which content determined according to the user is displayed based on the analysis result analyzed by the analysis unit;
The decision device according to any one of claims 1 to 8 , characterized in that:
前記解析部によって解析された解析結果に基づいて、前記動画に含まれるシーンに応じて決定されるコンテンツが表示されるシーンを決定する、
ことを特徴とする請求項1~9のいずれか1つに記載の決定装置。 The decision unit
Determining a scene in which content determined according to the scene included in the moving image is displayed based on the analysis result analyzed by the analysis unit;
The decision device according to any one of claims 1 to 9 , characterized in that:
前記解析部によって解析された解析結果に基づいて、ユーザによって選択されたコンテンツが表示されるシーンを決定する、
ことを特徴とする請求項1~10のいずれか1つに記載の決定装置。 The decision unit
Determining a scene in which the content selected by the user is displayed based on the analysis result analyzed by the analysis unit;
The decision device according to any one of claims 1 to 10 , characterized in that:
過去に放送された動画に関する情報であって、コンテンツを含む動画に関する情報のコンテンツが重畳されるシーンの特徴を解析し、
前記決定部は、
前記解析部によって解析されたシーンの特徴に基づいて、前記シーンを決定する、
ことを特徴とする請求項1~11のいずれか1つに記載の決定装置。 The analysis unit is
Analyze the characteristics of the scene in which the content of the information related to the moving image including the content is superimposed, which is information related to the moving image broadcast in the past,
The decision unit
determining the scene based on features of the scene analyzed by the analysis unit;
The decision device according to any one of claims 1 to 11 , characterized in that:
ことを特徴とする請求項1~12のいずれか1つに記載の決定装置。 Further comprising a distribution unit that distributes content including content to be superimposed on the scene determined by the determination unit,
The decision device according to any one of claims 1 to 12 , characterized in that:
前記動画の周囲に表示されるコンテンツであって、前記コンテンツと異なる他のコンテンツを含むコンテンツを配信する、
ことを特徴とする請求項13に記載の決定装置。 The distribution unit
Distributing content that is displayed around the moving image and that includes other content that is different from the content.
14. A decision device according to claim 13 , characterized in that:
前記動画の周囲に表示されるコンテンツと前記コンテンツとが連結したコンテンツを含むコンテンツを配信する、
ことを特徴とする請求項13又は14に記載の決定装置。 The distribution unit
Distributing content including content displayed around the moving image and content linked to the content;
15. A decision device according to claim 13 or 14 , characterized in that:
動画に関する情報を構成する各シーンを解析する解析工程と、
前記解析工程によって解析された解析結果に基づいて、前記動画に重畳するコンテンツが表示されるシーンを決定する決定工程と、
を含み、
前記決定工程は、
前記解析工程によって解析された解析結果に基づいて、前記動画に表示される商品に連結された商品の識別情報を示す商品タグであって、ユーザによって当該商品タグがクリックされた場合に当該商品のコンテンツを表示する商品タグを重畳する前記シーンを決定する、
ことを特徴とする決定方法。 A computer implemented method of determination comprising:
an analysis step of analyzing each scene that constitutes information about a video;
a determining step of determining a scene in which content to be superimposed on the moving image is displayed based on the analysis result analyzed by the analyzing step;
including
The determining step includes:
A product tag indicating the identification information of the product linked to the product displayed in the video based on the analysis result analyzed by the analysis step, wherein when the product tag is clicked by the user, the product is identified. Determining the scene for superimposing the product tag for displaying the content ;
A determination method characterized by:
前記解析手順によって解析された解析結果に基づいて、前記動画に重畳するコンテンツが表示されるシーンを決定する決定手順と、
をコンピュータに実行させ、
前記決定手順は、
前記解析手順によって解析された解析結果に基づいて、前記動画に表示される商品に連結された商品の識別情報を示す商品タグであって、ユーザによって当該商品タグがクリックされた場合に当該商品のコンテンツを表示する商品タグを重畳する前記シーンを決定する、
ことを特徴とする決定プログラム。 an analysis procedure for analyzing each scene that constitutes information about a video;
a determination procedure for determining a scene in which content to be superimposed on the moving image is displayed based on the analysis result analyzed by the analysis procedure;
on the computer, and
The determination procedure includes:
A product tag indicating identification information of a product linked to the product displayed in the video based on the analysis result analyzed by the analysis procedure, wherein when the product tag is clicked by the user, the product is identified. Determining the scene for superimposing the product tag for displaying the content ;
A decision program characterized by:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019003773A JP7189779B2 (en) | 2019-01-11 | 2019-01-11 | Decision device, decision method, decision program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019003773A JP7189779B2 (en) | 2019-01-11 | 2019-01-11 | Decision device, decision method, decision program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020113904A JP2020113904A (en) | 2020-07-27 |
JP7189779B2 true JP7189779B2 (en) | 2022-12-14 |
Family
ID=71667344
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019003773A Active JP7189779B2 (en) | 2019-01-11 | 2019-01-11 | Decision device, decision method, decision program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7189779B2 (en) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003150487A (en) | 2001-11-09 | 2003-05-23 | Murase Kogyo Kk | Push type information distribution system and client program for push type information distribution system |
US20050137958A1 (en) | 2003-12-23 | 2005-06-23 | Thomas Huber | Advertising methods for advertising time slots and embedded objects |
JP2008146492A (en) | 2006-12-12 | 2008-06-26 | Yahoo Japan Corp | Information providing device, information providing method, and computer program |
JP2014042159A (en) | 2012-08-22 | 2014-03-06 | Sumitomo Electric Ind Ltd | Provision system and provision method for program content, and program provision processing device, and communication network terminal device |
JP2016004064A (en) | 2014-06-13 | 2016-01-12 | 大日本印刷株式会社 | Content delivery device and content delivery system |
JP2016061885A (en) | 2014-09-17 | 2016-04-25 | ヤフー株式会社 | Advertisement display device, advertisement display method and advertisement display program |
JP2017510167A (en) | 2014-02-07 | 2017-04-06 | ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー | Scheme for determining the location and timing of advertisements and other inserts in the media |
JP2017525245A (en) | 2015-02-24 | 2017-08-31 | ビセンゼ・ピーティーイー・リミテッド | Method and system for identifying associated media content |
JP2018528553A (en) | 2015-07-10 | 2018-09-27 | プロンプト・インコーポレイテッド | Intuitive video content reproduction method using data structuring and user interface device therefor |
-
2019
- 2019-01-11 JP JP2019003773A patent/JP7189779B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003150487A (en) | 2001-11-09 | 2003-05-23 | Murase Kogyo Kk | Push type information distribution system and client program for push type information distribution system |
US20050137958A1 (en) | 2003-12-23 | 2005-06-23 | Thomas Huber | Advertising methods for advertising time slots and embedded objects |
JP2008146492A (en) | 2006-12-12 | 2008-06-26 | Yahoo Japan Corp | Information providing device, information providing method, and computer program |
JP2014042159A (en) | 2012-08-22 | 2014-03-06 | Sumitomo Electric Ind Ltd | Provision system and provision method for program content, and program provision processing device, and communication network terminal device |
JP2017510167A (en) | 2014-02-07 | 2017-04-06 | ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー | Scheme for determining the location and timing of advertisements and other inserts in the media |
JP2016004064A (en) | 2014-06-13 | 2016-01-12 | 大日本印刷株式会社 | Content delivery device and content delivery system |
JP2016061885A (en) | 2014-09-17 | 2016-04-25 | ヤフー株式会社 | Advertisement display device, advertisement display method and advertisement display program |
JP2017525245A (en) | 2015-02-24 | 2017-08-31 | ビセンゼ・ピーティーイー・リミテッド | Method and system for identifying associated media content |
JP2018528553A (en) | 2015-07-10 | 2018-09-27 | プロンプト・インコーポレイテッド | Intuitive video content reproduction method using data structuring and user interface device therefor |
Non-Patent Citations (1)
Title |
---|
映像コンテンツの構図と時間変動に基づいた情報オーバレイの一検討,FIT2010 第9回情報科学技術フォーラム 講演論文集 第3分冊,2010年08月20日 |
Also Published As
Publication number | Publication date |
---|---|
JP2020113904A (en) | 2020-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6872582B2 (en) | Devices and methods that support relationships associated with content provisioning | |
JP6485969B2 (en) | Dynamic binding of video content | |
US20190364329A1 (en) | Non-intrusive media linked and embedded information delivery | |
US9066130B1 (en) | Standardizing video content for use in generating an advertising overlay | |
US9888289B2 (en) | Liquid overlay for video content | |
US9258626B2 (en) | Annotating an object in a video with virtual information on a mobile terminal | |
JP5977450B2 (en) | Information processing apparatus, information processing method, and information processing program | |
US10877649B2 (en) | Browsing system, browsing method, and information processing apparatus | |
JP2010249876A (en) | Server apparatus, method of producing advertisement information, and program | |
US20170287000A1 (en) | Dynamically generating video / animation, in real-time, in a display or electronic advertisement based on user data | |
US20150032554A1 (en) | Method for Social Retail/Commercial Media Content | |
KR20190043492A (en) | Apparatus and method for providing advertisement platform | |
KR20160027486A (en) | Apparatus and method of providing advertisement, and apparatus and method of displaying advertisement | |
US11019300B1 (en) | Providing soundtrack information during playback of video content | |
KR101744019B1 (en) | Method for Providing Information of Goods Using Moving Pictures, and Managing Server Used Thererin | |
CN113763009A (en) | Picture processing method, picture skipping method, device, equipment and medium | |
JP7189779B2 (en) | Decision device, decision method, decision program | |
JP6844420B2 (en) | Browsing system, program | |
CN111562868B (en) | Search guidance processing method and device | |
JP6891667B2 (en) | Browsing system, program | |
JP6223309B2 (en) | Distribution device, terminal device, distribution method, and distribution program | |
US8799112B1 (en) | Interactive map for browsing items | |
JP6945964B2 (en) | Generation device, generation method and generation program | |
KR101631271B1 (en) | Rotating Advertisement Display System, Method and Computer Readable Recoding Medium | |
KR20160062562A (en) | Goods Information Display System, Method and Computer Readable Recoding Medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200917 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210517 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210608 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210805 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220304 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220913 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220913 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220930 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20221004 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221202 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7189779 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |