JP2023076341A - 画像解析システム、画像解析方法およびプログラム - Google Patents

画像解析システム、画像解析方法およびプログラム Download PDF

Info

Publication number
JP2023076341A
JP2023076341A JP2021189704A JP2021189704A JP2023076341A JP 2023076341 A JP2023076341 A JP 2023076341A JP 2021189704 A JP2021189704 A JP 2021189704A JP 2021189704 A JP2021189704 A JP 2021189704A JP 2023076341 A JP2023076341 A JP 2023076341A
Authority
JP
Japan
Prior art keywords
image
event
token
map
image analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021189704A
Other languages
English (en)
Other versions
JP7216176B1 (ja
Inventor
隆太郎 山内
Ryutaro Yamauchi
慎平 亀岡
Shinpei Kameoka
祥悟 佐藤
Shogo Sato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ALBERT KK
Sony Interactive Entertainment LLC
Original Assignee
ALBERT KK
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ALBERT KK, Sony Interactive Entertainment LLC filed Critical ALBERT KK
Priority to JP2021189704A priority Critical patent/JP7216176B1/ja
Priority to US17/951,684 priority patent/US20230162499A1/en
Application granted granted Critical
Publication of JP7216176B1 publication Critical patent/JP7216176B1/ja
Publication of JP2023076341A publication Critical patent/JP2023076341A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/771Feature selection, e.g. selecting representative features from a multi-dimensional feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)

Abstract

【課題】機械学習モデルを用いて動画中のイベントに関する特徴をより容易に検出すること。【解決手段】画像解析システムは、画像が入力され画像特徴量とマップソースとを出力する画像解析のための機械学習モデルと、オブジェクトに応じたベクトルと前記出力されたマップソースとに基づいて、前記画像における当該オブジェクトに関する領域を示すアテンションマップを生成するマップ生成手段と、前記生成されたアテンションマップと前記画像特徴量とに基づいて、前記オブジェクトのイベントに関する特徴を示すトークンを生成するトークン生成手段と、を含む。【選択図】図3

Description

本発明は画像解析システム、画像解析方法およびプログラムに関する。
例えばゲームなどの動画を編集するために、その動画において重要なイベントを人の目視などの手法で見つけている。
非特許文献1には、アテンションマップを用いた教師なし学習により、音声の発生源を動画上にマッピングする技術が開示されている。非特許文献2には、視線トラッキングされた注視点情報を用いて教師なしセグメンテーションを行うことが開示されている。
"Learning to Localize Sound Source in Visual Scenes", Arda Senocak, Tae-Hyun Oh, Junsik Kim, Ming-Hsuan Yang, In So Kweon; Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2018, pp. 4358-4366 "Learning Unsupervised Video Object Segmentation Through Visual Attention", Wenguan Wang, Hongmei Song, Shuyang Zhao, Jianbing Shen, Sanyuan Zhao, Steven C. H. Hoi, Haibin Ling; Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2019, pp. 3064-3074
例えばゲームなどの動画において、その動画を構成する画像には、複数のオブジェクトが存在する。この動画から何らかの特徴を検出する場合、特定のオブジェクトに起因する特徴(例えばイベント)を検出することが容易でなかった。
本発明は上記課題を鑑みてなされたものであって、その目的は、機械学習モデルを用いて特定のオブジェクトに着目した特徴をより容易に検出する技術を提供することである。
上記課題を解決するために、本発明にかかる画像解析システムは、画像が入力され画像特徴量とマップソースとを出力する画像解析のための機械学習モデルと、オブジェクトに応じたベクトルと前記出力されたマップソースとに基づいて、前記画像における当該オブジェクトに関する領域を示すアテンションマップを生成するマップ生成手段と、前記生成されたアテンションマップと前記画像特徴量とに基づいて、前記オブジェクトのイベントに関する特徴を示すトークンを生成するトークン生成手段と、を含む。
また、本発明にかかる画像解析方法は、画像が入力され画像特徴量とマップソースとを出力する画像解析のための機械学習モデルから出力されるマップソースと、オブジェクトに応じたベクトルとに基づいて、前記画像における当該オブジェクトに関する領域を示すアテンションマップを生成するステップと、前記生成されたアテンションマップと前記画像特徴量とに基づいて、前記オブジェクトのイベントに関する特徴を示すトークンを生成するステップと、を含む。
また、本発明にかかるプログラムは、画像が入力され画像特徴量とマップソースとを出力する画像解析のための機械学習モデル、オブジェクトに応じたベクトルと前記出力されたマップソースとに基づいて、前記画像における当該オブジェクトに関する領域を示すアテンションマップを生成するマップ生成手段、および、前記生成されたアテンションマップと前記画像特徴量とに基づいて、前記オブジェクトのイベントに関する特徴を示すトークンを生成するトークン生成手段、としてコンピュータを機能させる。
本発明によれば、機械学習モデルを用いて特定のオブジェクトに着目した特徴をより容易に検出することができる。
本発明の一形態では、画像解析システムは、前記生成されたトークンが入力され予測されたイベントを出力するイベント予測器をさらに含んでよい。
本発明の一形態では、画像解析システムは、前記機械学習モデルおよび前記イベント予測器を、画像、前記画像の内にあるオブジェクトであって前記イベントの予測の対象となるオブジェクトに応じた情報、および、前記オブジェクトのイベントを示すラベルとを含む教師データを用いて学習させる学習手段、をさらに含んでよい。
本発明の一形態では、前記トークン生成手段は、前記アテンションマップと、前記画像特徴量と、前記オブジェクトに応じたベクトルとに基づいて、前記オブジェクトのイベントに関する特徴を示すトークンを生成してよい。
本発明の一形態では、前記オブジェクトは、第1のオブジェクトおよび第2のオブジェクトを含み、
前記トークン生成手段は、前記生成されたアテンションマップと前記画像特徴量とに基づいて、前記第1のオブジェクトおよび前記第2のオブジェクトのそれぞれについてイベントに関する特徴を示すトークンを生成し、前記イベント予測器は、第1のオブジェクトのイベントを予測する第1のイベント予測器と第2のオブジェクトのイベントを予測する第2のイベント予測器とを含み、前記第1のイベント予測器は、前記第1のオブジェクトについて生成されるトークンと、前記第2のオブジェクトについて生成されるトークンとが並べられた第1の連結情報を入力し、前記第1のオブジェクトの予測されたイベントを出力し、前記第2のイベント予測器は、前記第1の連結情報における第1のオブジェクトのトークンおよび第2のオブジェクトのトークンが互いに交換された第2の連結情報を入力し、前記第2のオブジェクトの予測されたイベントを出力し、前記第1のイベント予測器および前記第2のイベント予測器に含まれる学習パラメータは共通であってよい。
本発明の一形態では、前記トークン生成手段は、前記オブジェクトのイベントに関連する特徴を示す複数のトークンを出力してよい。
本発明の一形態では、前記マップソースは縦横に並ぶ複数の単位領域のそれぞれについて所定の要素数の内部ベクトルを含み、アテンションマップは、前記複数の点のそれぞれにおける、前記オブジェクトに応じたベクトルと前記内部ベクトルの内積に基づいて生成されてよい。
本発明の一形態では、前記機械学習モデルは、前記生成されたトークンが入力され予測されたイベントを出力するイベント予測器とともに、画像、前記画像の内にあるオブジェクトであって前記イベントの予測の対象となるオブジェクトに応じた情報、および、前記オブジェクトのイベントを示すラベルとを含む教師データを用いて学習されてよい。
本発明の実施形態にかかる画像分析システムのハードウェア構成を示す図である。 画像分析システムが実現する機能を示すブロック図である。 機械学習モデルを学習させる処理の一例を示すフロー図である。 動画コンテンツの一例を概略的に説明する図である。 画像の一例を示す図である。 機械学習モデルの構成を説明する図である。 イベント予測部の処理を説明する図である。 検索部57による動画コンテンツの検索に関する処理を示すフロー図である。
以下では、本発明の実施形態について図面に基づいて説明する。出現する構成要素のうち同一機能を有するものには同じ符号を付し、その説明を省略する。
本実施形態では、ゲームのプレイ時にディスプレイに出力される画像を含む動画コンテンツを解析するシステムについて説明する。動画コンテンツは音声を含んでもよい。以下では予め録画され記憶装置などに格納される動画コンテンツを用いた場合の例について説明する。
図1は、本発明の実施形態にかかる画像分析システムのハードウェア構成の一例を示す図である。画像分析システムは、情報処理装置1を含む。情報処理装置1はパーソナルコンピュータやサーバコンピュータなどのコンピュータである。図1には情報処理装置1のみが図示されているが、情報処理装置1として複数のコンピュータが配置されてもよい。
情報処理装置1は、プロセッサ11、ストレージ12、通信インタフェース13、入出力インタフェース14、表示コントローラ15を含む。
プロセッサ11は、ストレージ12に格納されているプログラムの実行命令に従って動作する。またプロセッサ11は通信インタフェース13、入出力インタフェース14、表示コントローラ15を制御する。プロセッサ11の数は、1つであってもよいし、複数であってもよい。なお、上記プログラムの実行命令は、インターネット等を介して提供されるものであってもよいし、フラッシュメモリまたは光メディア(例えばDVD-ROM)のようなコンピュータで読み取り可能な記憶媒体に格納されて提供されるものであってもよい。
ストレージ12は、DRAMやフラッシュメモリのようなメモリ素子、およびハードディスクドライブのような外部記憶装置によって構成されている。ストレージ12は、上記プログラムの実行命令を格納する。また、ストレージ12は、プロセッサ11や通信インタフェース13等から入力される情報や演算結果を格納する。
通信インタフェース13は他の装置と通信するネットワークインタフェースコントローラであり、有線LAN、無線LANまたは近距離無線通信を構成する集積回路と、通信端子またはアンテナとを含む。通信インタフェース13は、ネットワークを介して他の装置と通信する機能を有する。通信インタフェース13は、プロセッサ11の制御に基づいて、他の装置から受信した情報をプロセッサ11やストレージ12に入力し、他の装置に情報を送信する。
入出力インタフェース14は、入力デバイスからデータを取得し、出力デバイスに対してデータを出力する入出力コントローラ(例えばUSB-IF)により構成される。入力デバイスは、例えば、キーボード、マウス、タッチパネル、タッチパッド、マイク、カメラのうち少なくとも一部を含む。出力デバイスは、例えばスピーカを含む。入出力インタフェース14は、プロセッサ11の制御に基づいて、例えば入力デバイスからユーザの操作に基づく入力データを取得し、その入力データをプロセッサ11やストレージ12に入力する。
表示コントローラ15は、表示出力デバイスをコントロールするグラフィックスコントローラである。表示コントローラ15は、GPU(Graphic Processing Unit)を含んでよい。表示コントローラ15は、表示出力デバイスに表示データを出力する。表示出力デバイスは情報処理装置1の内部または外部にあるディスプレイ装置である。
以下では画像解析システムが実現する機能および処理を説明する。図2は、音画像分析システムが実現する機能を示すブロック図である。画像解析システムは機能的に、情報抽出部51、正解生成部52、アイコン抽出部53、全体学習モデル54、学習制御部55、検索部57を含む。これらの機能は、主に、プロセッサ11がストレージ12に記憶される各部に対応するプログラムの命令を実行し、通信インタフェース13や表示コントローラ15を制御することにより実現される。全体学習モデル54は機械学習モデルの一種であり、画像特徴生成部61と、イベント予測部66とを含む。画像特徴生成部61はエンコーダ62、マップ生成部63、トークン生成部64を含み、イベント予測部66は、第1予測器67と第2予測器68とを含む。
情報抽出部51は、動画コンテンツから、その動画コンテンツを構成する複数の画像のそれぞれの一部である対象領域70(図5参照)と、その対象領域70と異なる情報である付属情報と、対象領域70の内にあるオブジェクトの種類を示すアイコン領域とを抽出する。本実施形態では、対象領域70にあるオブジェクトの数は2であり、抽出されるアイコン領域の数も2である。ここで、情報抽出部51は、動画コンテンツに含まれる複数の画像のそれぞれから、対象領域を抽出する。複数の画像の数(フレームの数)は、例えば動画コンテンツの期間と毎秒フレーム数とから求められる。なお、情報抽出部51はアイコン領域を抽出せずに、例えば文字列のような、オブジェクトの種類を示す他の情報を抽出してもよい。付属情報は、動画コンテンツを構成する複数の画像のそれぞれの一部の領域かつ入力領域と異なる領域に基づいて抽出されてよい。また付属情報は、動画コンテンツに含まれる音声を示す情報であってもよい。
正解生成部52は、抽出された付属情報から正解データを生成する。正解データは、その付属情報が示すイベントの有無、または、イベントの種類を示す情報であってよい。
アイコン抽出部53は、アイコン領域から、オブジェクトの種類を示す特徴量を生成する。より具体的には、アイコン抽出部53は、アイコン領域から入力領域にある2つのオブジェクトの特徴をそれぞれ示す第1特徴ベクトル、第2特徴ベクトルを特徴量として生成する。アイコン抽出部53は、予め学習された小規模な機械学習モデルを含んでいる。この小規模な機械学習モデルは、畳み込みニューラルネットワークを含み、2つのアイコン領域の画像が入力され、それぞれ第1特徴ベクトル、第2特徴ベクトルを出力する。アイコン抽出部53の機械学習モデルは、異なるオブジェクトに対して出力されるベクトル間の距離が長くなるように、距離学習的な手法により学習されてよい。またアイコン抽出部53の機械学習モデルは、アイコン領域からオブジェクトを分類する分類器を含んでもよい。この場合はあらかじめオブジェクトごとにランダムかつ互いに距離の十分大きいベクトルを割り当て、分類器の出力により決定されるオブジェクトに割り当てられたベクトルが第1特徴ベクトルまたは第2特徴ベクトルとして出力されてよい。
学習制御部55は、対象領域70と正解データとを含む教師データを用いて全体学習モデル54を学習させる。その学習において、全体学習モデル54は、動画コンテンツに含まれる学習単位期間(例えば1~2s)の画像を含むクリップから、イベントの発生を示す情報を出力する。全体学習モデル54には、1つのクリップに含まれる複数の画像から抽出される対象領域70が入力され、それに対して、全体学習モデル54のイベント予測部66はイベント予測結果としてイベントの発生を示す情報を出力する。ここで、クリップは複数のフレーム群に分割され、そのフレーム群が全体学習モデル54により処理される。1つのフレーム群は、クリップに含まれる画像のうち連続するk個(kは所定の範囲の整数であり詳細は後述する)のフレームの画像からなる。
全体学習モデル54に含まれる画像特徴生成部61は、クリップから生成される複数のフレーム群のそれぞれについて、第1のオブジェクトおよび第2のオブジェクトの特徴を示す第1トークンおよび第2トークンを出力する。より具体的には、複数のフレーム群のそれぞれについて、画像特徴生成部61には、そのフレーム群に含まれる複数の画像のそれぞれから抽出された対象領域70の画像が入力され、画像特徴生成部61は、対象領域70におけるそれぞれ第1のオブジェクトおよび第2のオブジェクトの特徴を示す第1トークンおよび第2トークンを出力する。画像特徴生成部61に含まれるエンコーダ62、マップ生成部63、トークン生成部64の詳細については後述する。
あるクリップについて、全体学習モデル54に含まれるイベント予測部66は、複数のフレーム群のそれぞれについて出力された第1トークンおよび第2トークンに基づいて、第1のオブジェクトに生じるイベントの有無または種類を示す第1イベント情報と、第2のオブジェクトに生じるイベントの有無または種類を示す第2イベント情報と、を出力する。イベント予測部66に含まれる第1予測器67と第2予測器68との詳細については後述する。
検索部57は、学習済の全体学習モデル54に含まれる画像特徴生成部61を用いて、検索対象となる動画コンテンツから、クエリとして入力されるクエリ動画に類似する動画コンテンツを検索する。クエリ動画は、動画コンテンツから検出したい状況を過不足なく含む動画であり、クエリとなる動画コンテンツの一部であってよい。また、検索部57は、インデックス作成処理と、作成されたインデックスを用いてクエリ動画に類似する動画を検索する検索処理とを行う。
インデックス作成処理においては、検索部57は、検索対象となる動画コンテンツから複数のフレーム群を生成し、複数のフレーム群のそれぞれについて、そのフレーム群に含まれる画像のそれぞれの対象領域70を学習済の画像特徴生成部61に入力することで得られるトークンを、その動画コンテンツにおけるそのフレーム群の時間的位置を示す情報と関連づけてストレージ12に記憶させる。
検索処理においては、検索部57は、クエリとして入力されるクエリ動画から複数のフレーム群を生成する。次に検索部57は、複数のフレーム群のそれぞれについて、学習済の画像特徴生成部61にそのフレーム群に含まれる複数の画像のそれぞれから抽出された対象領域70の画像を入力し、画像特徴生成部61からトークン(テンプレートトークン)を取得する。この処理により得られる複数の時系列のテンプレートトークンと、検索対象となる動画コンテンツについてストレージ12に格納されるトークンとの類似度に基づいて、検索部57はそのクエリ動画に類似するフレーム群を決定し、そのフレーム群に応じた動画コンテンツの区間の位置を示す情報を取得する。検索部57は、その類似する動画コンテンツおよびその類似する区間の位置を示す情報を検索結果として出力する。検索部57は、その動画コンテンツの類似する区間およびその前後を再生してもよい。
全体学習モデル54の学習について説明する。図3は、全体学習モデル54を学習させる処理の一例を示すフロー図である。図3のフローに示される処理は、動画コンテンツから取り出された複数のクリップのそれぞれについて実行される。動画コンテンツに含まれる複数のクリップの期間(学習単位期間)は一定であり、複数のクリップの間で開始タイミングは異なっている。隣り合うクリップにおいて一部のフレームが重複していてもよいし、重複しなくてもよい。
はじめに、情報抽出部51は、学習制御部55により入力される動画コンテンツであって、学習用の動画コンテンツを取得する(ステップS101)。動画コンテンツは、時系列の複数の画像と、時系列の音声データとを含む。より具体的には、情報抽出部51は動画コンテンツからクリップを取得し、さらに、そのクリップのタイミングに応じた期間の音声データまたは画像を取得する。
図4は、動画コンテンツの一例を概略的に説明する図である。図中の横方向に並ぶ矩形の領域のそれぞれは、時系列に並ぶ画像(ここではクリップに相当)を示している。動画コンテンツは、例えば、図4に説明されるように、対戦型格闘ゲームのプレイ動画であり、ゲームのプレイ中における画像と音声とを含んでよい。図4では、説明上の都合により、隣り合う画像(クリップ)における時間間隔が長くなっているが、実際は、クリップの期間は1~2sでよく、各クリップが30~120フレームの画像を含んでよい。
情報抽出部51は、動画コンテンツのクリップに含まれる複数の画像(クリップに含まれる複数のフレームの画像)のそれぞれから、対象領域70およびアイコン領域を抽出する(ステップS102)。対象領域70は、画像解析の対象となる領域であり、アイコン領域は、対象領域70の内にあるオブジェクトの種類を示す領域である。これらの領域の位置は固定されていてよい。
図5は、画像の一例を示す図である。図5に示される画像は、動画コンテンツに含まれる、あるタイミングのフレームにおける画像である。アイコン領域は画像中の第1アイコン領域71および第2アイコン領域72からなり、第1アイコン領域71および第2アイコン領域72はそれぞれ対象領域70に描画される第1オブジェクト81および第2オブジェクト82に対応する。なお、対象領域70内において、ゲームのプレイ状況により、第1オブジェクト81は必ずしも左側に居るとは限らず、第2オブジェクト82が必ずしも右側にいるとは限らない。
また画像に含まれる第1付属領域75および第2付属領域76は、それぞれ第1オブジェクト81および第2オブジェクト82に対応する。対象領域70、第1アイコン領域71、第2アイコン領域72、第1付属領域75、第2付属領域76は互いに異なる領域である。第1付属領域75、第2付属領域76は対象領域70とは重複しない。図5の例では、第1付属領域75、第2付属領域76は、それぞれ第1オブジェクト81、第2オブジェクト82の残り体力を示すHPゲージの画像であり、相手から攻撃を受けるとHPゲージに示される残り体力が減少する。第1付属領域75、第2付属領域76の位置も固定されていてよい。図5における対象領域70は、第1アイコン領域71、第2アイコン領域72、第1付属領域75、第2付属領域76を含まないが、対象領域70は第1アイコン領域71および第2アイコン領域72を含んでもよいし、さらに第1付属領域75、第2付属領域76を含んでもよいし、画像の全体が対象領域70であってもよい。
情報抽出部51は、クリップに含まれる複数の画像から抽出された対象領域70の画像から、画像特徴生成部61に入力する複数のフレーム群の対象画像70を取得する(ステップS103)。フレーム群のそれぞれは、クリップ中に含まれる連続するk枚のフレームからなる。kはあらかじめ定められた整数であり、例えば1以上、かつ、クリップに含まれるフレーム数より小さい数であってよい。kが2以上の場合、情報抽出部51は、クリップに含まれる複数のフレームのうち、スライディングウインドウによって得られるkフレームの画像(フレーム群に含まれるフレームの画像)のそれぞれから抽出された対象領域70の画像を取得してよい。
情報抽出部51は、対象領域70およびアイコン領域(第1アイコン領域71および第2アイコン領域72)のほかに、動画コンテンツから付属情報を抽出する(ステップS104)。ここでは、付属情報は、画像中の第1付属領域75、第2付属領域76であってもよいし、対象領域70が抽出された画像を含むクリップのタイミングに応じた期間の音声を示す音声データであってもよい。情報抽出部51は、対象領域70が抽出された画像を含むクリップより数フレーム先(所定時間が経過したタイミング)の画像から、第1付属領域75、第2付属領域76を抽出してよい。
正解生成部52は、抽出された付属情報から、正解データとしてイベントを検出する(ステップS105)。正解生成部52の処理は、ルールベースで行われてよい。例えば、正解生成部52は、クリップ内の終端のフレームより所定時間(例えば1~5フレーム)が経過したタイミングにおいて付属情報として抽出された、第1付属領域75、第2付属領域76のそれぞれにおける、所定数だけ前のフレームから色が変化した領域の大きさから残り体力のようなパラメータの数値の変化を取得し、その取得された数値の変化に基づいてオブジェクトごとに正解データとしてのイベントを検出してよい。正解生成部52は、第1付属領域75、第2付属領域76のそれぞれが示す数値を取得し、その取得された数値の前のフレームからの変化に基づいてイベントを検出してもよい。また正解生成部52は、例えば、第1付属領域75、第2付属領域76のそれぞれの画像そのものの変化に基づいてイベントを検出してもよい。正解生成部52が検出する正解データとしてのイベントは、オブジェクトごとのダメージ変化を示すものであってよいし、他の変化であってもよい。
また正解生成部52は、クリップに応じた期間(例えばクリップ内の終端のフレームより1から5フレーム後を始めとする所定の期間)の音声データをメルスペクトログラムに変換し、そのメルスペクトログラムを正解データとして取得してもよい。なお、ステップS104,S105の処理は、ステップS102,S103の処理と並行して行われてもよいし、ステップS102の処理の前に行われてもよい。
アイコン抽出部53は、アイコン領域からオブジェクトの種類を示す特徴量を抽出する(ステップS106)。アイコン抽出部53は、第1アイコン領域71から第1オブジェクト81の種類を示す第1特徴ベクトルを抽出し、第2アイコン領域72から第2オブジェクト82の種類を示す第2特徴ベクトルを抽出する。なお、アイコン抽出部53は動画コンテンツまたはクリップごとに1回だけアイコン領域を抽出してもよい。
対象領域70や第1,第2特徴ベクトルが抽出され、正解データが検出(生成)されると、学習制御部55は、複数のフレーム群に含まれる1または複数の画像から取得された対象領域70の画像および抽出された第1特徴ベクトル,第2特徴ベクトルをクリップごとに全体学習モデル54に入力し、全体学習モデル54の出力と、正解データとに基づいて、全体学習モデル54を学習させる(ステップS107)。
ここで、全体学習モデル54についてさらに詳細に説明する。図6は、全体学習モデル54の構成を説明する図である。これまでに説明したように、全体学習モデル54は、画像特徴生成部61と、イベント予測部66とを含む。画像特徴生成部61およびイベント予測部66は機械学習モデルの一種であり、それらは前述の学習制御部55による学習の対象である。
画像特徴生成部61には、クリップから取得されたフレーム群のそれぞれについて、フレーム群に含まれる複数の画像の対象領域70と、オブジェクトに応じたベクトルとが入力される。画像特徴生成部61は、クリップから取得された複数のフレーム群のそれぞれについて、入力されたベクトルに対応し、対象領域70から認識されたオブジェクトのイベントに関する特徴を示すトークンを出力する。
オブジェクトに応じたベクトルは、アイコン抽出部53により抽出された第1特徴ベクトルおよび第2特徴ベクトルである。オブジェクトに応じたベクトルは、単にオブジェクトの種類に応じてあらかじめ定められたベクトルであってもよい。この場合、例えば画像内に表示されるオブジェクトの名前に応じて選択されたベクトルが画像特徴生成部61に入力されてよい。
画像特徴生成部61は、エンコーダ62と、マップ生成部63と、トークン生成部64とを含む。エンコーダ62には、フレーム群に含まれる複数の画像の対象領域70が入力され、エンコーダ62は画像特徴量配列およびマップソースを出力する。エンコーダ62は、ニューラルネットワークを含む機械学習モデルの一種であり、例えば、ResNet(2+1)Dと呼ばれる畳み込みニューラルネットワークであってよい。
マップソースは、アテンションマップの生成に用いられる行列であり、その行列の大きさは、Dk×H×Wである。Dkは第1特徴ベクトルおよび第2特徴ベクトルの要素数であり、H,Wは、アテンションマップの縦横サイズである。マップソースは、縦横に並ぶ(H×W)個の単位領域のそれぞれに配置されるDk次元の内部ベクトルを含むものと考えることができる。Dk,H,Wは例えばそれぞれ64、6、10であり、画像のサイズは例えば180×320である。
画像特徴量配列は、アテンションマップとともにトークンの生成に用いられる行列であり、その大きさはDt×H×Wである。Dtは、トークンのベクトルの要素数であり、チャネルの数でもある。Dtは例えば256である。アテンションマップは、画像における当該オブジェクトに関する領域を示すマップであり、アテンションマップの数はオブジェクトの数と同じである。図6の例では、第1のマップおよび第2のマップの2つのアテンションマップが生成される。
マップソースが出力されると、マップ生成部63は、画像特徴生成部61に入力されたオブジェクトの特徴を示すベクトルと、マップソースとに基づいて、アテンションマップを生成する。より具体的には、マップ生成部63は、アテンションマップを構成する単位領域(H×W個)のそれぞれについて、マップソースの内部ベクトルと第1特徴ベクトルとの内積(類似度)を求め、求められた内積をSoftmax関数に入力して得られた値(重み)を取得することにより、第1のアテンションマップを生成する。マップ生成部63は、アテンションマップを構成する単位領域のそれぞれについて、マップソースの内部ベクトルと第2特徴ベクトルとの内積を求め、求められた内積をSoftmax関数に入力して得られた値(重み)を取得することにより、第2のアテンションマップを生成する。
アテンションマップが生成されると、トークン生成部64は、生成されたアテンションマップと画像特徴量配列とに基づいて、トークンを生成する。トークンはオブジェクトのイベントに関する特徴を示し、その数はオブジェクトの数と同じである。この処理においては、アテンションマップを用いて画像特徴量配列の空間的に注目すべき領域を限定するものである。トークン生成部64は、さらに画像特徴量配列が含む複数のチャネルのうち、注目すべきチャンネルを限定する。図6の例では、第1のオブジェクトの特徴を示す第1トークンと、第2のオブジェクトの特徴を示す第2トークンとからなる2つのトークンが生成される。第1トークンおよび第2トークンは1次元のベクトルであり、その要素数はDtである。
トークン生成部64は、より具体的には、画像特徴量配列のDt個のチャネルのそれぞれについて、そのチャネルのH×Wの要素のそれぞれの値に、アテンションマップの対応する位置の重みをかけた値の空間方向(H×W)の総和を、Dt次元の中間ベクトルの要素の値として算出する。そしてトークン生成部64は中間ベクトルと、チャネル重みベクトルとの要素積を、Dt次元のトークンのベクトルの値として算出する。第1トークンの生成における要素の算出では、アテンションマップのうち第1のマップが用いられ、第2トークンの生成における要素の算出では、アテンションマップのうち第2のマップが用いられる。
チャネル重みベクトルは、第1トークンの生成の際に用いられる第1チャネル重みベクトルと、第2トークンの生成の際に用いられる第2チャネル重みベクトルとを含む。第1チャネル重みベクトル、第2チャネル重みベクトルはともにDt次元のベクトルであり、それぞれ、オブジェクトの特徴を示す第1特徴ベクトルおよび第2特徴ベクトルに基づいて生成される。各要素があらかじめ定められた値(例えばランダム値)を有するDt×Dkのパラメータ行列との内積(線形写像)によりDt次元のチャネル重みベクトルが生成されてもよい。またDtとDkとが同じ値である場合には、第1特徴ベクトルおよび第2特徴ベクトルがそのまま第1チャネル重みベクトルおよび第2チャネル重みベクトルになってもよい。
ここで、トークン生成部64は、アテンションマップの各領域の位置に応じた値を有する配列と、トークンの生成に用いたアテンションマップとに基づいて、PEベクトルを生成する。PEベクトルは、トークンとともにイベント予測部66(第1予測器67,第2予測器68)に入力される。トークンとPEベクトルとのセットが入力される第1予測器67,第2予測器68はLSTM(Long Short Term Memory)モデルを有する。なお、第1予測器67,第2予測器68はTransformerモデルを有してもよい。
PEベクトルは、以下に示すPositional Encodingの処理により生成される。はじめに、トークン生成部64は、アテンションマップと同じ縦横サイズを有し、左上側の要素に[-1,-1]、右下側の要素に[1,1]を有するグリッドの配列(大きさ2×H×W)を生成する。グリッドの要素は2次元ベクトルである。次にトークン生成部64は、グリッドの各要素[u,v]に対して、以下のベクトルを算出する。
Figure 2023076341000002
ここで、Lはハイパーパラメータであり、例えばL=10としている。すると、この例では、算出されるベクトルの次元Fは4×10=40である。トークン生成部64は、算出されたベクトルをグリッド状に並べたF×H×Wの配列を生成する。トークン生成部64は、配列のうち算出されたベクトルの各要素に対応するH×Wの要素のそれぞれの値に、アテンションマップの対応する位置の重みをかけた値の空間方向(H×W)の総和をとることで、4×L次元のベクトルを得る。これがPEベクトルである。
本実施形態では、画像特徴生成部61がアテンションマップを用いてトークンを生成している。一方、教師データには、アテンションマップを生成するためのオブジェクトの明示的な位置情報は存在しない。マップ生成部63が、オブジェクトに応じてマップソースからアテンションマップを生成する構成を含み、その構成を含む全体学習モデル54の学習によってイベント発生予測に重要な部位にアテンションマップが注目するようになるからである。この構成により、複数のオブジェクトが存在するような場合であっても、そのオブジェクトの位置を明示的に指定せずにアテンションマップを利用することが可能になる。オブジェクトごとのアテンションマップを用いることで、例えばオブジェクトの位置が左右反転しうるような状況であっても、複数のオブジェクトが存在する動画から特定のオブジェクトに着目した特徴をより容易に検出することができる。
動画コンテンツのクリップから取得された複数のフレーム群のそれぞれについてトークンが生成されると、イベント予測部66は、それらのトークンに基づいて、オブジェクトのそれぞれについて生じるイベントの有無または種類を示すイベント情報を出力する。イベント情報は、第1のオブジェクトに生じるイベントの有無または種類を示す第1イベント情報と、第2のオブジェクトに生じるイベントの有無または種類を示す第2イベント情報と、を含む。第1予測器67は第1イベント情報を出力し、第2予測器68は第2イベント情報を出力する。なお、第1トークンおよび第2トークンに基づいて、第1イベント情報が生成される。第2イベント情報も第1トークンおよび第2トークンに基づいて生成される。
図7は、イベント予測部66の処理を説明する図である。イベント予測部66は、複数のフレーム群のそれぞれについて画像特徴生成部61から出力された第1トークンおよび第2トークンから、第1予測器67に入力する第1連結情報と、第2予測器68に入力する第2連結情報とを生成する。第1連結情報は、第1トークンの要素と第2トークンの要素とが並ぶベクトルであってよく、第2連結情報は、第1連結情報における第1トークンの要素と第2トークンの要素とが交換された情報であってよい。例えば、第1連結情報は、順に並ぶ第1トークンの要素の後ろに、順に並ぶ第2トークンの要素が付加されたものであってよく、第2連結情報は、順に並ぶ第2トークンの要素の後ろに、順に並ぶ第1トークンの要素が付加されたものであってよい。さらにいえば、上記の並べられる第1トークンの要素の直後に、その第1トークンとともに生成されたPEベクトルの要素が配置され、その並べられる第2トークンの要素の直後にその第1トークンとともに生成されたPEベクトルの要素が配置されてよい。
なお、1つのクリップについて時系列の複数の第1連結情報および複数の第2連結情報が生成され、複数の第1連結情報が一度に第1予測器67に入力され、複数の第2連結情報が一度に第2予測器68に入力されてよい。
第1予測器67および第2予測器68のそれぞれは機械学習モデルの一種であり、いわゆるTransformerモデルまたはRNNを含んでよい。第1予測器67は時系列の複数の第1連結情報に基づいて発生するイベントを示す第1イベント情報をラベルとして出力し、第2予測器68は時系列の複数の第2連結情報に基づいて発生するイベントを示す第2イベント情報をラベルとして出力する。第1イベント情報、第2イベント情報は、それぞれ第1オブジェクト、第2オブジェクトにイベントが生じる可能性を示す予測スコアであって良い。時系列の第1連結情報、第2連結情報により、第1予測器67および第2予測器68が状況の時間変化に基づいてイベントを予測できる。
ここで、第1予測器67および第2予測器68は同じ内部構成を有し、学習パラメータが共通である。第1連結情報と第2連結情報とのデータの特徴から、内部構成および学習パラメータが同じであっても正常に学習させることができる。同一の予測器が、情報の連結順序に応じて予測対象となるオブジェクトを切り替える(例えば、常に連結された前側の情報に対応するオブジェクトのイベントを予測する)構成にすることで、第1、第2オブジェクトに関する情報の形式が同じになるよう学習される。これにより、学習によって、トークン内にオブジェクト固有の情報を持たなくなり、アテンションマップがオブジェクトの識別を担い、トークンが(オブジェクトに依存しない)イベントに関する情報を保持する、という役割分担をすることが期待される。
学習制御部55は、イベント予測部66の出力と、正解生成部52により生成された正解データとに基づいて、全体学習モデル54に含まれる機械学習モデル(エンコーダ62、第1予測器67、第2予測器68)の学習パラメータを調整する。学習パラメータは例えばニューラルネットワークにおける重みであり、その調整においては、いわゆるバックプロパゲーションが用いられてよい。
本実施形態では、機械学習モデルの学習のための正解データは人出で作成されるものではなく、同じ動画コンテンツに含まれる情報から主にルールベースで生成される。これにより、学習データの作成が容易になり、機械学習モデルを用いて動画中のイベントに関する特徴をより容易に検出することができる。またゲームのプレイ動画のような動画コンテンツにおいて、画像中の特定の領域や音声の変化はイベントと関連する蓋然性が高い。これらの情報から正解データを生成することで、正解データの一定の質を確保することもできる。
イベント予測部66は、これまでに説明したものでなくてもよく、例えば入力されたトークンに基づいて音声のメルスペクトログラムを予測する機械学習モデルであってもよい。この場合には、全体学習モデル54は、クリップから取得されるフレーム群およびオブジェクトの特徴を示すベクトルと、正解生成部52が正解データとして取得したメルスペクトログラムとを含む学習データに基づいて学習されてよい。
またオブジェクトの種類が少ない場合には、オブジェクトの特徴を示す特徴量が用いられなくてもよい。より具体的には、情報抽出部51は、アイコン領域の抽出や、ステップS105の処理は行われず、また画像特徴生成部61に特徴量が入力されなくてよい。この場合、画像特徴生成部61の構成はアテンションマップを用いる公知の構成を用いてよい。このような構成、または、全体学習モデル54がトークンを出力せず、直接的にイベントを予測する構成であっても、本実施形態に示される学習手法により、正解データを明示的に生成することなく学習できる。
次に、学習済の機械学習モデルの利用方法について説明する。図8は、検索部57による動画コンテンツの検索に関する処理を示すフロー図である。図8において、ステップS301からS304の処理は、インデックス作成処理であり、ステップS306からS310の処理は、検索処理である。インデックス作成処理は、検索対象となる動画コンテンツから、その動画コンテンツに含まれるフレーム群についてのトークンを抽出し、動画コンテンツ中のフレーム群を示す情報(例えば動画コンテンツ中のそのフレーム群に対応する区間を示す情報)とトークンとを関連付けてストレージ12に格納する処理である。検索処理は、ストレージ12に格納されたトークンと、学習済の画像特徴生成部61とを用いて、クエリ動画についてテンプレートトークンを取得し、その取得されたテンプレートトークンとストレージ中のトークンとの類似度に基づいて、類似する動画コンテンツとその動画コンテンツ中の区間を検出する処理である。
はじめに、情報抽出部51は、検索対象となる動画コンテンツから複数のフレーム群を生成し、フレーム群に含まれる1または複数の画像の対象領域70およびアイコン領域を抽出する(ステップS301)。フレーム群は、これまでに説明されたものと同様である。次に、アイコン抽出部53は、アイコン領域からオブジェクトの種類を示す特徴量を抽出する(ステップS302)。ステップS301,S302の処理の詳細は、図3のステップS102,S103,S106の処理と同様である。なお、付属情報の抽出および付属情報に基づく正解データの生成は行われない。
そして、学習済の画像特徴生成部61には、複数のフレーム群に含まれる画像の対象領域70および特徴量が入力され、画像特徴生成部61は、その入力された複数の対象領域70および特徴量に対してトークンを出力する(ステップS303)。検索部57は、フレーム群のそれぞれについて出力されたトークンを、動画コンテンツ中の抽出の対象となった画像を含むフレーム群を示す情報(例えばフレーム群の先頭の時間的位置)と関連付けてストレージ12に格納する(ステップS304)。ステップS301からS304の処理は、動画コンテンツに含まれるフレーム群のそれぞれに対して行われてよく、さらに、複数の動画コンテンツのそれぞれについて行われてよい。
動画コンテンツに含まれるフレーム群について出力されたトークンがストレージ12に格納されたのちに、検索部57はクエリ動画から複数のフレーム群を取得する(ステップS306)。そして情報抽出部51は、クエリとなるフレーム群に含まれる画像のそれぞれから対象領域70およびアイコン領域を抽出する(ステップS307)。またアイコン抽出部53は、アイコン領域からオブジェクトの種類を示す特徴量を抽出する(ステップS308)。対象領域70およびアイコン領域の抽出の手法は図3のステップS102,S103と同じであり、特徴量を抽出する手法はステップS105と同じである。
そして、フレーム群ごとに、学習済の画像特徴生成部61には、クエリとなるフレーム群に含まれる画像の対象領域70および特徴量が入力され、画像特徴生成部61は、その入力されたフレーム群についてトークン(テンプレートトークン)を出力する(ステップS309)。
検索部57は、ストレージ12に格納されたトークンと、出力されたテンプレートトークンとの類似度に基づいて、クエリ動画に類似する、検索対象となる動画コンテンツを取得する(ステップS310)。より具体的には、検索部57は、クエリ動画からの複数のテンプレートトークンと、検索対象となる動画コンテンツ中のフレーム群に関連付けて記憶された複数のトークンとの類似度を算出し、その類似度に基づくスコアを算出する。そして、検索部57はそのスコアが閾値より大きいフレーム群(類似するフレーム群)を示す情報に基づいて、そのフレーム群を含む動画コンテンツおよびその動画コンテンツ中の位置を取得する。
また検索部57は、取得された動画コンテンツの区間を示す情報を出力する。出力される情報は、単位動画の時間的位置を示す情報であってもよいし、動画コンテンツのその単位動画の前後を含む動画データの出力であってもよい。
本実施形態では、動画コンテンツから生成される正解データとしてのイベントを用いて全体学習モデル54を学習させているが、学習済の機械学習モデルのうち一部だけを学習後の検索に用いている。言い換えると、学習済の全体学習モデル54の一部である画像特徴生成部61から出力されるトークンを用いて類似する動画コンテンツ中のタイミングを検出している。これは、これまでに説明した学習手法により、トークンが動画コンテンツにおけるイベントに関する情報を含むことにより可能になっている。このような手法により、動画コンテンツの各場面における状況を自動的に識別することも可能となる。
1 情報処理装置、11 プロセッサ、12 ストレージ、13 通信インタフェース、14 入出力インタフェース、15 表示コントローラ、51 情報抽出部、52 正解生成部、53 アイコン抽出部、54 全体学習モデル、55 学習制御部、57 検索部、61 画像特徴生成部、62 エンコーダ、63 マップ生成部、64 トークン生成部、66 イベント予測部、67 第1予測器、68 第2予測器、70 対象領域、71 第1アイコン領域、72 第2アイコン領域、75 第1付属領域、76 第2付属領域、81 第1オブジェクト、82 第2オブジェクト。

Claims (10)

  1. 画像が入力され画像特徴量とマップソースとを出力する画像解析のための機械学習モデルと、
    オブジェクトに応じたベクトルと前記出力されたマップソースとに基づいて、前記画像における当該オブジェクトに関する領域を示すアテンションマップを生成するマップ生成手段と、
    前記生成されたアテンションマップと前記画像特徴量とに基づいて、前記オブジェクトのイベントに関する特徴を示すトークンを生成するトークン生成手段と、
    を含む画像解析システム。
  2. 請求項1に記載の画像解析システムにおいて、
    前記生成されたトークンが入力され予測されたイベントを出力するイベント予測器、
    をさらに含む画像解析システム。
  3. 請求項2に記載の画像解析システムにおいて、
    前記機械学習モデルおよび前記イベント予測器を、画像、前記画像の内にあるオブジェクトであって前記イベントの予測の対象となるオブジェクトに応じた情報、および、前記オブジェクトのイベントを示すラベルとを含む教師データを用いて学習させる学習手段、
    をさらに含む画像解析システム。
  4. 請求項3に記載の画像解析システムにおいて、
    前記トークン生成手段は、前記アテンションマップと、前記画像特徴量と、前記オブジェクトに応じたベクトルとに基づいて、前記オブジェクトのイベントに関する特徴を示すトークンを生成する、
    画像解析システム。
  5. 請求項3または4に記載の画像解析システムにおいて、
    前記オブジェクトは、第1のオブジェクトおよび第2のオブジェクトを含み、
    前記トークン生成手段は、前記生成されたアテンションマップと前記画像特徴量とに基づいて、前記第1のオブジェクトおよび前記第2のオブジェクトのそれぞれについてイベントに関する特徴を示すトークンを生成し、
    前記イベント予測器は、第1のオブジェクトのイベントを予測する第1のイベント予測器と第2のオブジェクトのイベントを予測する第2のイベント予測器とを含み、
    前記第1のイベント予測器は、前記第1のオブジェクトについて生成されるトークンと、前記第2のオブジェクトについて生成されるトークンとが並べられた第1の連結情報を入力し、前記第1のオブジェクトの予測されたイベントを出力し、
    前記第2のイベント予測器は、前記第1の連結情報における第1のオブジェクトのトークンおよび第2のオブジェクトのトークンが互いに交換された第2の連結情報を入力し、前記第2のオブジェクトの予測されたイベントを出力し、
    前記第1のイベント予測器および前記第2のイベント予測器に含まれる学習パラメータは共通である、
    画像解析システム。
  6. 請求項1から5のいずれか1項に記載の画像解析システムにおいて、
    前記トークン生成手段は、前記オブジェクトのイベントに関連する特徴を示す複数のトークンを出力する、
    画像解析システム。
  7. 請求項1から6のいずれか1項に記載の画像解析システムにおいて、
    前記マップソースは縦横に並ぶ複数の単位領域のそれぞれについて所定の要素数の内部ベクトルを含み、アテンションマップは、前記複数の点のそれぞれにおける、前記オブジェクトに応じたベクトルと前記内部ベクトルの内積に基づいて生成される、
    画像解析システム。
  8. 請求項1に記載の画像解析システムにおいて、
    前記機械学習モデルは、前記生成されたトークンが入力され予測されたイベントを出力するイベント予測器とともに、画像、前記画像の内にあるオブジェクトであって前記イベントの予測の対象となるオブジェクトに応じた情報、および、前記オブジェクトのイベントを示すラベルとを含む教師データを用いて学習される、
    画像解析システム。
  9. 画像が入力され画像特徴量とマップソースとを出力する画像解析のための機械学習モデルから出力されるマップソースと、オブジェクトに応じたベクトルとに基づいて、前記画像における当該オブジェクトに関する領域を示すアテンションマップを生成するステップと、
    前記生成されたアテンションマップと前記画像特徴量とに基づいて、前記オブジェクトのイベントに関する特徴を示すトークンを生成するステップと、
    を含む画像解析方法。
  10. 画像が入力され画像特徴量とマップソースとを出力する画像解析のための機械学習モデル、
    オブジェクトに応じたベクトルと前記出力されたマップソースとに基づいて、前記画像における当該オブジェクトに関する領域を示すアテンションマップを生成するマップ生成手段、および、
    前記生成されたアテンションマップと前記画像特徴量とに基づいて、前記オブジェクトのイベントに関する特徴を示すトークンを生成するトークン生成手段、
    としてコンピュータを機能させるためのプログラム。
JP2021189704A 2021-11-22 2021-11-22 画像解析システム、画像解析方法およびプログラム Active JP7216176B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021189704A JP7216176B1 (ja) 2021-11-22 2021-11-22 画像解析システム、画像解析方法およびプログラム
US17/951,684 US20230162499A1 (en) 2021-11-22 2022-09-23 Image analysis system, image analysis method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021189704A JP7216176B1 (ja) 2021-11-22 2021-11-22 画像解析システム、画像解析方法およびプログラム

Publications (2)

Publication Number Publication Date
JP7216176B1 JP7216176B1 (ja) 2023-01-31
JP2023076341A true JP2023076341A (ja) 2023-06-01

Family

ID=85111683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021189704A Active JP7216176B1 (ja) 2021-11-22 2021-11-22 画像解析システム、画像解析方法およびプログラム

Country Status (2)

Country Link
US (1) US20230162499A1 (ja)
JP (1) JP7216176B1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019509566A (ja) * 2016-03-11 2019-04-04 クゥアルコム・インコーポレイテッドQualcomm Incorporated ビデオ理解のための動きベースアテンションを用いたリカレントネットワーク

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019509566A (ja) * 2016-03-11 2019-04-04 クゥアルコム・インコーポレイテッドQualcomm Incorporated ビデオ理解のための動きベースアテンションを用いたリカレントネットワーク

Also Published As

Publication number Publication date
JP7216176B1 (ja) 2023-01-31
US20230162499A1 (en) 2023-05-25

Similar Documents

Publication Publication Date Title
CN110472531B (zh) 视频处理方法、装置、电子设备及存储介质
EP2877254B1 (en) Method and apparatus for controlling augmented reality
CN111243626A (zh) 一种说话视频生成方法及系统
CN112560605B (zh) 交互方法、装置、终端、服务器和存储介质
KR101936692B1 (ko) 댄스 키모션 자동생성을 이용한 댄스 트레이닝 장치 및 방법
CN114651284A (zh) 轻量级多分支和多尺度人员重识别
JP7009997B2 (ja) 動画生成システムおよび動画表示システム
JP7127659B2 (ja) 情報処理装置、仮想・現実合成システム、学習済みモデルの生成方法、情報処理装置に実行させる方法、プログラム
US20150194070A1 (en) Evaluation method, and evaluation apparatus
JP6649231B2 (ja) 検索装置、検索方法およびプログラム
JP5247569B2 (ja) 人物追跡装置、人物追跡方法及びプログラム
CN109348277A (zh) 运动像素视频特效添加方法、装置、终端设备及存储介质
CN113223123A (zh) 图像处理方法和图像处理装置
JP2017093803A (ja) 評価プログラム、評価方法及び評価装置
CN117152843B (zh) 数字人的动作控制方法及其系统
JP7216176B1 (ja) 画像解析システム、画像解析方法およびプログラム
JP7216175B1 (ja) 画像解析システム、画像解析方法およびプログラム
CN116958861A (zh) 面向乒乓球比赛视频的多任务数据实时检测方法和装置
JP2021026744A (ja) 情報処理装置、画像認識方法及び学習モデル生成方法
US12100244B2 (en) Semi-supervised action-actor detection from tracking data in sport
CN112434629B (zh) 一种在线时序动作检测方法及设备
CN113544700A (zh) 神经网络的训练方法和装置、关联对象的检测方法和装置
US20230148112A1 (en) Sports Neural Network Codec
CN116896654B (zh) 一种视频处理方法和相关装置
Wang et al. A real-time basketball referee gesture recognition system based on multi-scale spatio-temporal features

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230119

R150 Certificate of patent or registration of utility model

Ref document number: 7216176

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117