JPWO2020039476A1 - メッセージ出力装置、学習装置、メッセージ出力方法、学習方法及びプログラム - Google Patents

メッセージ出力装置、学習装置、メッセージ出力方法、学習方法及びプログラム Download PDF

Info

Publication number
JPWO2020039476A1
JPWO2020039476A1 JP2020537908A JP2020537908A JPWO2020039476A1 JP WO2020039476 A1 JPWO2020039476 A1 JP WO2020039476A1 JP 2020537908 A JP2020537908 A JP 2020537908A JP 2020537908 A JP2020537908 A JP 2020537908A JP WO2020039476 A1 JPWO2020039476 A1 JP WO2020039476A1
Authority
JP
Japan
Prior art keywords
learning
message
input data
data
data including
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020537908A
Other languages
English (en)
Other versions
JP7014913B2 (ja
Inventor
弘孝 浅山
弘孝 浅山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JPWO2020039476A1 publication Critical patent/JPWO2020039476A1/ja
Priority to JP2022008101A priority Critical patent/JP7285349B2/ja
Application granted granted Critical
Publication of JP7014913B2 publication Critical patent/JP7014913B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • H04L51/046Interoperability with other network applications or services
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/67Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/69Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by enabling or updating specific game elements, e.g. unlocking hidden features, items, levels or versions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/87Communicating with other players during game play, e.g. by e-mail or chat
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Data Mining & Analysis (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Security & Cryptography (AREA)
  • Business, Economics & Management (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

コミュニケーションが行われているかのような気分をユーザが味わうことができるメッセージ出力装置、学習装置、メッセージ出力方法、学習方法及びプログラムを提供する。入力部(66)は、連続する複数のフレームの学習画像を含む学習入力データと、学習入力データに対応付けられるメッセージを含む教師データと、を含む学習データを用いた学習が実行された学習済の機械学習モデル(50)に、連続する複数のフレームのターゲット画像を少なくとも含むターゲット入力データを入力する。メッセージ特定部(68)は、ターゲット入力データを機械学習モデル(50)に入力した際の出力に応じたメッセージを特定する。メッセージ出力部(70)は、特定されるメッセージを出力する。

Description

本発明は、メッセージ出力装置、学習装置、メッセージ出力方法、学習方法及びプログラムに関する。
例えばゲーム実況や映像によるスポーツ観戦などにおいて、プレイヤや観客などのユーザによって投稿されたメッセージの文字列や発せられたメッセージの音声が共有されるようにすることでコミュニケーションを促進する技術が知られている。
ここでプレイヤや観客などのユーザが例えば一人でいる状況でも上述のコミュニケーションが行われているかのような気分を味わうことができれば、当該ユーザはよりゲーム実況や映像によるスポーツ観戦などを楽しめるものと期待できる。
本発明は上記課題に鑑みてなされたものであって、その目的の1つは、コミュニケーションが行われているかのような気分をユーザが味わうことができるメッセージ出力装置、学習装置、メッセージ出力方法、学習方法及びプログラムを提供することを目的とする。
上記課題を解決するために、本発明に係るメッセージ出力装置は、連続する複数のフレームの学習画像を含む学習入力データと、前記学習入力データに対応付けられるメッセージを含む教師データと、を含む学習データを用いた学習が実行された学習済の機械学習モデルと、連続する複数のフレームのターゲット画像を少なくとも含むターゲット入力データを前記機械学習モデルに入力する入力部と、前記ターゲット入力データを前記機械学習モデルに入力した際の出力に応じたメッセージを特定するメッセージ特定部と、特定される前記メッセージを出力するメッセージ出力部と、を含む。
本発明の一態様では、前記入力部は、ゲームのプレイ中に生成される、当該ゲームのプレイ状況を表す連続する複数のフレームの前記ターゲット画像を少なくとも含む前記ターゲット入力データを前記機械学習モデルに入力し、前記メッセージ出力部は、特定される前記メッセージを、前記ゲームのプレイ中に出力する。
この態様では、前記学習入力データは、前記学習画像に対応付けられるプレイヤの情報をさらに含み、前記ターゲット入力データは、前記ゲームをプレイしているプレイヤの情報をさらに含んでいてもよい。
ここで、前記プレイヤの情報には、前記プレイヤによるコントローラ入力の情報が含まれていてもよい。
この場合、前記プレイヤの情報には、コントローラの入力頻度を示す値が含まれていてもよい。
また、この態様では、前記プレイヤの情報には、前記プレイヤの顔を撮影した画像が含まれていてもよい。
また、本発明の一態様では、前記学習入力データは、前記教師データが示すメッセージとは異なるメッセージをさらに含み、前記ターゲット入力データは、前記メッセージ出力部により既に出力されたメッセージをさらに含む。
また、本発明に係る学習装置は、連続する複数のフレームの学習画像を含む学習入力データと、前記学習入力データに対応付けられるメッセージを含む教師データと、を含む学習データを取得する学習データ取得部と、前記学習データを用いて機械学習モデルの学習を実行する学習部と、を含む。
本発明の一態様では、現在配信中である、あるいは、過去に配信された、ゲームの配信の状況を示す配信データに基づいて、前記学習データを生成する学習データ生成部、をさらに含む。
また、本発明に係るメッセージ出力方法は、連続する複数のフレームの学習画像を含む学習入力データと、前記学習入力データに対応付けられるメッセージを含む教師データと、を含む学習データを用いた学習が実行された学習済の機械学習モデルに、連続する複数のフレームのターゲット画像を少なくとも含むターゲット入力データを入力するステップと、前記ターゲット入力データを前記機械学習モデルに入力した際の出力に応じたメッセージを特定するステップと、特定される前記メッセージを出力するステップと、を含む。
また、本発明に係る学習方法は、連続する複数のフレームの学習画像を含む学習入力データと、前記学習入力データに対応付けられるメッセージを含む教師データと、を含む学習データを取得するステップと、前記学習データを用いて機械学習モデルの学習を実行するステップと、を含む。
また、本発明に係るプログラムは、連続する複数のフレームの学習画像を含む学習入力データと、前記学習入力データに対応付けられるメッセージを含む教師データと、を含む学習データを用いた学習が実行された学習済の機械学習モデルに、連続する複数のフレームのターゲット画像を少なくとも含むターゲット入力データを入力する手順、前記ターゲット入力データを前記機械学習モデルに入力した際の出力に応じたメッセージを特定する手順、特定される前記メッセージを出力する手順、をコンピュータに実行させる。
また、本発明に係る別のプログラムは、連続する複数のフレームの学習画像を含む学習入力データと、前記学習入力データに対応付けられるメッセージを含む教師データと、を含む学習データを取得する手順、前記学習データを用いて機械学習モデルの学習を実行する手順、をコンピュータに実行させる。
本発明の一実施形態に係るエンタテインメントシステムの全体構成の一例を示す図である。 本発明の一実施形態に係るエンタテインメント装置の構成の一例を示す図である。 ゲーム画面の一例を示す図である。 本発明の一実施形態に係るエンタテインメント装置で実装される機能の一例を示す機能ブロック図である。 学習データの一例を模式的に示す図である。 本発明の一実施形態に係るエンタテインメント装置で行われる学習処理の流れの一例を示すフロー図である。 本発明の一実施形態に係るエンタテインメント装置で行われるメッセージ出力処理の流れの一例を示すフロー図である。
以下、本発明の一実施形態について図面に基づき詳細に説明する。
図1は、本発明の一実施形態に係るエンタテインメントシステム10の全体構成の一例を示す図である。本実施形態に係るエンタテインメントシステム10は、エンタテインメント装置12、ディスプレイ14、カメラ16、マイク18、コントローラ20などを含んでいる。
本実施形態に係るエンタテインメント装置12は、例えばゲームコンソール、DVDプレイヤ、Blu−ray(登録商標)プレイヤなどといったコンピュータである。本実施形態に係るエンタテインメント装置12は、例えば記憶されている、あるいは、光ディスクに記録された、ゲームプログラムの実行やコンテンツの再生などによって映像や音声を生成する。そして本実施形態に係るエンタテインメント装置12は、生成される映像を表す映像信号や生成される音声を表す音声信号を、ディスプレイ14に出力する。
本実施形態に係るエンタテインメント装置12には、例えば図2に示すように、プロセッサ30、記憶部32、通信部34、入出力部36が含まれる。
プロセッサ30は、例えばエンタテインメント装置12にインストールされるプログラムに従って動作するCPU等のプログラム制御デバイスである。本実施形態に係るプロセッサ30には、CPUから供給されるグラフィックスコマンドやデータに基づいてフレームバッファに画像を描画するGPU(Graphics Processing Unit)も含まれている。
記憶部32は、例えばROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部32には、プロセッサ30によって実行されるプログラムなどが記憶される。また、本実施形態に係る記憶部32には、GPUにより画像が描画されるフレームバッファの領域が確保されている。
通信部34は、例えば無線LANモジュールなどの通信インタフェースなどである。
入出力部36は、HDMI(登録商標)(High-Definition Multimedia Interface)ポート、USBポートなどの入出力ポートである。
ディスプレイ14は、例えば液晶ディスプレイ等であり、エンタテインメント装置12から出力される映像信号が表す映像などを表示させる。またディスプレイ14は、エンタテインメント装置12から出力される音声信号が表す音声を出力する。
カメラ16は、例えば被写体を撮像した画像などといった、カメラ16の周辺の様子を表すデータをエンタテインメント装置12に出力するデジタルカメラ等のデバイスである。
マイク18は、周囲の音声を取得して当該音声を表す音声データをエンタテインメント装置12に出力するデバイスである。
エンタテインメント装置12とディスプレイ14とは、例えば、HDMIケーブルなどを介して接続されている。エンタテインメント装置12とカメラ16やマイク18とは、例えば、AUXケーブルなどを介して接続されている。
コントローラ20は、エンタテインメント装置12に対する操作入力を行うための操作入力装置である。ユーザは、コントローラ20が備える方向キーやボタンを押下したり、操作スティックを傾けたりすることで、コントローラ20を用いて各種の操作入力を行うことができる。そして本実施形態では、コントローラ20は、操作入力に対応付けられる入力データをエンタテインメント装置12に出力する。また本実施形態に係るコントローラ20は、USBポートを備えている。そしてコントローラ20は、USBケーブルでエンタテインメント装置12と接続することで、有線で入力データをエンタテインメント装置12に出力することができる。また本実施形態に係るコントローラ20は、無線通信モジュール等を備えており、無線で入力データをエンタテインメント装置12に出力することができるようにもなっている。
またコントローラ20が、加速度センサや感圧センサやタッチパッドなどのセンサを備えていてもよい。そしてコントローラ20は、コントローラ20が備えるセンサによる測定値を示すセンシングデータをエンタテインメント装置12に送信してもよい。
本実施形態では例えば、エンタテインメント装置12でゲームプログラムが実行されることにより、ゲームのプレイ状況を表す映像や音声が生成される。そして当該映像が、当該ゲームのプレイヤが見るディスプレイ14に表示され、当該音声がディスプレイ14から出力される。
図3は、本実施形態においてディスプレイ14に表示されるゲーム画面40の一例を示す図である。図3の例ではゲーム画面40の左側にゲームのプレイ状況を表すフレーム画像であるプレイ状況画像42が配置されている。またゲーム画面40の右上隅には、例えばゲームのプレイ状況を実況するキャラクタ44の画像が配置される。そしてゲームのプレイ状況に応じたメッセージを表す文字列が、当該キャラクタ44が発するセリフとして右下のメッセージ領域46に表示されたり、当該メッセージを表す音声がディスプレイ14から出力されたりする。
そして本実施形態では例えば、ニューラルネットワークやサポートベクタマシンなどといった学習済の機械学習モデルを用いて特定されるメッセージが出力される。以下、当該機械学習モデルの学習、及び、学習済の当該機械学習モデルを用いたメッセージの出力を中心に、本実施形態に係るエンタテインメント装置12の機能、及び、エンタテインメント装置12で実行される処理について説明する。
図4は、本実施形態に係るエンタテインメント装置12で実装される機能の一例を示す機能ブロック図である。なお、本実施形態に係るエンタテインメント装置12で、図4に示す機能のすべてが実装される必要はなく、また、図4に示す機能以外の機能が実装されていても構わない。
図4に示すように、エンタテインメント装置12は、機能的には例えば、機械学習モデル50、配信データ取得部52、学習データ生成部54、学習データ記憶部56、学習データ取得部58、学習部60、ターゲット入力データ生成部62、ターゲット入力データ取得部64、入力部66、メッセージ特定部68、メッセージ出力部70、を含んでいる。
機械学習モデル50は、プロセッサ30及び記憶部32を主として実装される。配信データ取得部52は、プロセッサ30及び通信部34を主として実装される。学習データ生成部54、学習データ取得部58、学習部60、ターゲット入力データ生成部62、ターゲット入力データ取得部64、入力部66、メッセージ特定部68は、プロセッサ30を主として実装される。学習データ記憶部56は、記憶部32を主として実装される。メッセージ出力部70は、プロセッサ30及び入出力部36を主として実装される。
機械学習モデル50、配信データ取得部52、学習データ生成部54、学習データ記憶部56、学習データ取得部58、学習部60の機能は、機械学習モデル50の学習を実行する学習装置としての機能に相当する。
機械学習モデル50、ターゲット入力データ生成部62、ターゲット入力データ取得部64、入力部66、メッセージ特定部68、メッセージ出力部70の機能は、学習済の機械学習モデル50を用いたメッセージの出力を実行するメッセージ出力装置の機能に相当する。
以上の機能は、コンピュータであるエンタテインメント装置12にインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ30で実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介してエンタテインメント装置12に供給されてもよい。
機械学習モデル50は、本実施形態では例えば、ニューラルネットワークやサポートベクタマシンなどの機械学習モデルである。
配信データ取得部52は、本実施形態では例えば、ゲーム実況映像の配信サイトなどから、現在配信中である、あるいは、過去に配信された、ゲームの配信の状況を示す配信データを取得する。
学習データ生成部54は、本実施形態では例えば、図5に模式的に示されている学習データ80を生成する。ここで例えば、配信データ取得部52が取得する配信データに基づいて、学習データ80が生成されてもよい。
学習データ生成部54は例えば、配信データから、プレイヤや観客などのユーザにより投稿されて画面に表示されたメッセージの文字列や、プレイヤや観客などのユーザが発した音声のメッセージなどといった、発生したメッセージを抽出する。以下、当該メッセージを学習メッセージ82と呼ぶこととする。ここで例えば、直前のメッセージが発生したタイミングから所定時間以上が経過してから発生したメッセージが学習メッセージ82として抽出されてもよい。また例えば、直前のメッセージが発生したタイミングから所定時間以上が経過してから連続して発生した所定数のメッセージが学習メッセージ82として抽出されてもよい。あるいは例えば、所定時間内に発生した一連のメッセージが学習メッセージ82として抽出されてもよい。
そして学習データ生成部54は、例えば、抽出されたメッセージが発生したタイミングに相当するフレームを特定する。ここで複数のメッセージが抽出される場合には、例えば最初のメッセージが発生したタイミングに相当するフレームが特定されてもよい。ここでは、特定されるフレームのフレーム番号がnであるとする。そして学習データ生成部54は、フレーム番号が(n−a+1)以上(n+b)以下である、(a+b)個のフレーム画像を配信データから抽出する。以下、このようにして抽出されるフレーム画像を学習画像84と呼ぶこととする。
そして学習データ生成部54は例えば、連続する複数のフレームの学習画像84を学習入力データとして含み、抽出された学習メッセージ82を教師データとして含む学習データ80を生成する。ここで学習データ生成部54は、ゲームのプレイ状況を表す連続する所定数のフレームの学習画像84を学習入力データとして含み、抽出された学習メッセージ82を教師データとして含む学習データ80を生成してもよい。ここでは例えば、(a+b)個の学習画像84を学習入力データとして含む学習データ80が生成される。この例では、学習データ80に含まれる教師データである学習メッセージ82は、当該学習データ80に含まれる、連続する(a+b)個のフレームの学習画像84が表示されている期間に発せられたメッセージであることとなる。そして、学習データ生成部54は、生成される学習データ80を学習データ記憶部56に記憶させる。
なお後述するように、学習データ80に含まれる教師データに、当該メッセージが発せられた際の感情を表すラベルが含まれていてもよい。
また学習データ80に含まれる教師データに、メッセージが発生したか否かを示すラベルが含まれていてもよい。
この場合、学習データ生成部54は例えば、連続する複数のフレームの学習画像84を学習入力データとして含み、抽出された学習メッセージ82、及び、メッセージが発生したことを示すラベルを教師データとして含む学習データ80を生成してもよい。
また学習データ生成部54は例えば、配信データから、メッセージが発生していない期間における複数のフレーム画像(例えば(a+b)個のフレーム画像)を学習画像84として抽出してもよい。そして、学習データ生成部54は、抽出される学習画像84を学習入力データとして含み、メッセージが発生していないことを示すラベルを教師データとして含む学習データ80を生成してもよい。
学習データ記憶部56は、本実施形態では例えば、学習入力データと教師データとを含む学習データ80を記憶する。ここで学習入力データには、連続する複数のフレームの学習画像84が含まれていてもよい。また教師データには、当該学習入力データに対応付けられる学習メッセージ82(例えば、当該学習画像84が表示されている期間に発せられた学習メッセージ82)が含まれていてもよい。
学習データ取得部58は、本実施形態では例えば、学習データ記憶部56が記憶する学習データ80を取得する。
学習部60は、本実施形態では例えば、学習データ取得部58が取得する学習データ80を用いて機械学習モデル50の学習を実行する。ここで例えば学習データ80に含まれる学習入力データを機械学習モデル50に入力した際の出力と当該学習データ80に含まれる教師データとの差に基づいて、機械学習モデル50に設定されているパラメータの値が更新される教師あり学習が実行されてもよい。
ターゲット入力データ生成部62は、本実施形態では例えば、連続する複数のフレームのターゲット画像を少なくとも含むターゲット入力データを生成する。ここでターゲット入力データ生成部62は、ゲームのプレイ中に生成される、当該ゲームのプレイ状況を表す連続する所定数のフレームのターゲット画像を少なくとも含むターゲット入力データを生成してもよい。ここで例えば表示されているプレイ状況画像42のフレーム番号がmであるとする。この場合、フレーム番号が(m−a−b+1)以上m以下である、直近に表示された(a+b)個のフレームのプレイ状況画像42が取得される。そして当該(a+b)個のフレームのプレイ状況画像42をターゲット画像として含むターゲット入力データが生成される。
ターゲット入力データ取得部64は、本実施形態では例えば、ターゲット入力データ生成部62が生成するターゲット入力データを取得する。
入力部66は、本実施形態では例えば、ターゲット入力データ取得部64が取得するターゲット入力データを学習済の機械学習モデル50に入力する。
メッセージ特定部68は、本実施形態では例えば、ターゲット入力データ取得部64が取得するターゲット入力データを学習済の機械学習モデル50に入力した際の出力に応じたメッセージを特定する。
メッセージ出力部70は、本実施形態では例えば、メッセージ特定部68が特定するメッセージを出力する。ここでメッセージ出力部70は、特定されるメッセージを、ゲームのプレイ中に出力してもよい。メッセージ出力部70は例えば、メッセージ特定部68が特定するメッセージを表す文字列をメッセージ領域46に表示させてもよい。またメッセージ出力部70は、メッセージ特定部68が特定するメッセージに基づいて音声合成技術を用いて生成される音声を出力させてもよい。
本実施形態では、プレイヤや観客などのユーザによって投稿されたメッセージの文字列や発せられたメッセージの音声などを学習した学習済の機械学習モデル50を用いた、ゲームのプレイ状況に応じたメッセージの出力が行われる。このようにして本実施形態によれば、例えばプレイヤが一人でゲームをプレイしている状況などにおいても、ゲームのプレイ中におけるコミュニケーションが行われているかのような気分をプレイヤが味わうことができる。
なお、本発明の適用範囲は、プレイヤに対するメッセージの出力には限定されない。例えば、ゲームのプレイ映像を視聴している観客に対するプレイの状況に応じたメッセージの出力や、スポーツの試合映像を鑑賞している視聴者に対する試合の状況に応じたメッセージの出力などに本実施形態が応用されてもよい。これらの場合もコミュニケーションが行われているかのような気分を観客や視聴者などのユーザは味わうことができる。
なお、機械学習モデル50に入力可能な画像の数が固定である場合には、学習入力データに含まれる学習画像84の数と、ターゲット入力データに含まれるターゲット画像の数と、は同じ所定数にする必要がある。ここで、機械学習モデル50がニューラルネットワークである場合にニューラルネットワークの種類によっては入力可能な画像のフレーム数が可変なことがある。このような場合には、複数の学習データ80のそれぞれに含まれる学習画像84の数やターゲット入力データに含まれるターゲット画像の数は同じでなくてもよい。
ここで上述の配信データに、例えば、ゲームをプレイするプレイヤの情報が含まれていてもよい。当該プレイヤの情報は、例えばゲーム実況映像の配信サイトに接続されたエンタテインメントシステム10から収集されるようにしてもよい。そして例えば学習データ生成部54が、学習画像84に対応付けられるプレイヤの情報をさらに学習入力データに含む学習データ80を生成してもよい。そしてこの場合に、ターゲット入力データ生成部62が、ゲームをプレイしているプレイヤの情報をさらに含むターゲット入力データを生成してもよい。
学習入力データに含まれるプレイヤの情報には、例えば、キーログのデータなどといった、プレイヤによるコントローラ入力の情報が含まれていてもよい。例えば学習データ生成部54が、学習データ80に含まれる複数のフレームの学習画像84が表示された期間におけるプレイヤによるコントローラ入力の情報を特定してもよい。そして特定されるコントローラ入力の情報をさらに学習入力データに含む学習データ80を生成してもよい。
この場合、ターゲット入力データ生成部62が、直近の複数のフレーム(上述の例では(a+b)個のフレーム)のプレイ状況画像42が表示されている期間における、ゲームをプレイしているプレイヤの情報をさらに含むターゲット入力データを生成してもよい。例えば当該期間における、ゲームをプレイしているプレイヤによるコントローラ入力の情報をさらに含むターゲット入力データが生成されてもよい。
また例えば、学習データ生成部54は、学習データ80に含まれる複数のフレームの学習画像84が表示された期間におけるプレイヤによるコントローラ入力の情報に基づいて、当該期間におけるコントローラ20の入力頻度を特定してもよい。ここで例えば、当該期間における、コントローラ20に対する単位時間あたりの入力回数が入力頻度として特定されてもよい。そして学習データ生成部54は、当該入力頻度を示す値をさらに学習入力データに含む学習データ80を生成してもよい。
この場合、ターゲット入力データ生成部62が、直近の複数のフレームのプレイ状況画像42が表示されている期間におけるプレイヤによるコントローラ入力の情報に基づいて、当該期間におけるコントローラ20の入力頻度を特定してもよい。そして学習データ生成部54は、当該入力頻度を示す値をさらに含むターゲット入力データを生成してもよい。
また学習入力データに含まれるプレイヤの情報に、例えば、カメラ16がプレイヤの顔を撮影した画像であるプレイヤ顔画像が含まれていてもよい。例えば学習データ生成部54が、学習データ80に含まれる複数のフレームの学習画像84が表示された期間に撮影されたプレイヤ顔画像をさらに学習入力データに含む学習データ80を生成してもよい。
この場合、ターゲット入力データ生成部62が、直近の複数のフレームのプレイ状況画像42が表示されている期間にカメラ16が撮影したプレイヤ顔画像をさらに含むターゲット入力データを生成してもよい。
また学習入力データに含まれるプレイヤの情報に、例えば、学習データ80に含まれる複数のフレームの学習画像84が表示された期間にコントローラ20が備えるセンサによる測定値を示すセンシングデータが含まれていてもよい。ここで上述のように、当該センサは、例えば加速度センサや感圧センサやタッチパッドなどであってもよい。また上述のように当該センシングデータはコントローラ20からエンタテインメント装置12に送信されてもよい。この場合、ターゲット入力データ生成部62が、直近の複数のフレームのプレイ状況画像42が表示されている期間におけるコントローラ20が備えるセンサによる測定値を示すセンシングデータをさらに含むターゲット入力データを生成してもよい。
また例えば、ヘッドマウントディスプレイ(HMD)を装着してプレイするゲームにおける当該プレイヤの情報に、HMDから取得可能な、HMDが備える視線センサや加速度センサなどのセンサによる測定値を示すセンシングデータが含まれていてもよい。例えば学習データ80に含まれる複数のフレームの学習画像84が表示された期間にHMDから取得されるセンシングデータをさらに学習入力データに含む学習データ80が生成されてもよい。この場合、ターゲット入力データ生成部62が、直近の複数のフレームのプレイ状況画像42が表示されている期間にHMDから取得されるセンシングデータをさらに含むターゲット入力データを生成してもよい。
例えばゲームの状況がのんびりしている場合と緊迫している場合とでは、上述のようにして取得されるプレイヤの情報が異なるものと思われる。具体的には例えば、ゲームの状況がのんびりしている場合よりも緊迫している場合の方がコントローラ20の入力頻度は高くなるものと思われる。また例えばゲームの状況がのんびりしている場合よりも緊迫している場合の方がコントローラ20や視線やHMDの動きは激しくなるものと思われる。また例えば、ゲームの状況がのんびりしている場合よりも緊迫している場合とではプレイヤの表情は違うものと思われる。このようにプレイヤの情報は出力されるべきメッセージに応じたものとなっている可能性が高い。そのため例えば機械学習モデル50の学習に上述のプレイヤの情報を用いることで、機械学習モデル50からより的確なメッセージが出力されるようになるものと期待できる。
また学習入力データに、学習データ80に教師データとして含まれる学習メッセージ82とは異なるメッセージが含まれていてもよい。ここで例えば学習データ生成部54は、学習データ80に教師データとして含まれる学習メッセージ82が発生したタイミングの所定時間前から当該学習メッセージ82が発生したタイミングまでに発生したメッセージを特定してもよい。そして学習データ生成部54は、特定されたメッセージをさらに学習入力データに含む学習データ80を生成してもよい。この場合、ターゲット入力データ生成部62が、所定時間前から現在までにメッセージ出力部70が出力したメッセージをさらに含むターゲット入力データを生成してもよい。
メッセージは、当該メッセージよりも前に発せられたメッセージを受けて発せられることが多い。そのため、例えば機械学習モデル50の学習に当該メッセージよりも前に発生したメッセージ等の、当該メッセージとは異なるメッセージを用いることで、機械学習モデル50からより的確なメッセージが出力されるようになるものと期待できる。
また学習入力データに、プレイされているゲームのタイトルや種類を示すデータが含まれていてもよい。この場合、ターゲット入力データ生成部62が、プレイされているゲームのタイトルや種類を示すデータを含むターゲット入力データを生成してもよい。
また上述したように、学習データ80に含まれる教師データに感情を表すラベルが含まれる場合、メッセージ特定部68は、学習済の機械学習モデル50からの出力に基づいて、感情を特定する。そしてメッセージ出力部70は、特定される感情に応じたメッセージの出力を行ってもよい。例えば特定される感情が表現された音声が出力されてもよい。また例えば特定される感情に応じた動作のキャラクタ44が表示されるようにしてもよい。
ここで例えば、学習データ生成部54は、上述したプレイヤの情報に基づいて感情を推定してもよい。そして、学習データ生成部54は、推定される感情を表すラベルをさらに教師データに含む学習データ80を生成してもよい。
ここで、本実施形態に係るエンタテインメント装置12で行われる機械学習モデル50の学習処理の流れの一例を、図6に例示するフロー図を参照しながら説明する。ここでは例えば、学習データ記憶部56に複数の学習データ80が記憶されていることとする。
まず、学習データ取得部58が、学習データ記憶部56に記憶されている学習データ80のうちから、機械学習モデル50の学習に用いられていないものを1つ取得する(S101)。
そして、学習部60が、S101に示す処理で取得された学習データ80を用いて機械学習モデル50の学習を実行する(S102)。
そして、学習部60が、学習データ記憶部56に記憶されているすべての学習データ80についてS102に示す処理が実行されたか否かを確認する(S103)。
ここですべての学習データ80についてS102に示す処理が実行されていないことが確認された場合は(S103:N)、S101に示す処理に戻る。
すべての学習データ80についてS102に示す処理が実行されたことが確認された場合は(S103:Y)、本処理例に示す処理は終了される。
次に、本実施形態に係るエンタテインメント装置12で行われる学習済の機械学習モデル50を用いたメッセージの出力処理の流れの一例を、図7に例示するフロー図を参照しながら説明する。本処理例ではプレイ状況画像42の表示が行われるフレームレートでS201〜S206に示す処理は繰り返し実行されることとする。
まず、ターゲット入力データ生成部62が、当該フレームにおけるターゲット入力データを生成する(S201)。
そして、ターゲット入力データ取得部64が、S201に示す処理で生成されたターゲット入力データを取得する(S202)。
そして、入力部66が、S202に示す処理で取得されたターゲット入力データを学習済の機械学習モデル50に入力する(S203)。
そして、メッセージ特定部68が、S203に示す処理での入力に応じた機械学習モデル50の出力に基づいて、出力すべきメッセージを特定する(S204)。ここで上述のように感情やメッセージが発生したか否かの判定結果が特定されてもよい。
そして、メッセージ特定部68が、S204に示す処理でメッセージが特定されたか否かを確認する(S205)。メッセージが特定されなかったことが確認された場合は(S205:N)、S201に示す処理に戻る。メッセージが特定されたことが確認された場合は(S205:Y)、メッセージ出力部70が、S204に示す処理で特定されたメッセージを出力して(S206)、S201に示す処理に戻る。ここで上述のように特定された感情に応じた出力が行われてもよい。また、メッセージが発生したか否かの判定結果が出力されてもよい。
上述の処理例において、例えばプレイ状況画像42の最初のフレーム番号が0であることとした場合における、フレーム番号が0以上(a+b−2)以下であるプレイ状況画像42が表示されている期間は、上述の処理が実行されないようにしてもよい。
また上述の処理例のように毎フレームにおいてS201〜S206に示す処理が実行される必要はない。例えばランダムに、あるいは、所定時間間隔でS201〜S206に示す処理が実行されるようにしてもよい。
なお、本発明は上述の実施形態に限定されるものではない。
また、上記の具体的な文字列や数値及び図面中の具体的な文字列や数値は例示であり、これらの文字列や数値には限定されない。

Claims (13)

  1. 連続する複数のフレームの学習画像を含む学習入力データと、前記学習入力データに対応付けられるメッセージを含む教師データと、を含む学習データを用いた学習が実行された学習済の機械学習モデルと、
    連続する複数のフレームのターゲット画像を少なくとも含むターゲット入力データを前記機械学習モデルに入力する入力部と、
    前記ターゲット入力データを前記機械学習モデルに入力した際の出力に応じたメッセージを特定するメッセージ特定部と、
    特定される前記メッセージを出力するメッセージ出力部と、
    を含むことを特徴とするメッセージ出力装置。
  2. 前記入力部は、ゲームのプレイ中に生成される、当該ゲームのプレイ状況を表す連続する複数のフレームの前記ターゲット画像を少なくとも含む前記ターゲット入力データを前記機械学習モデルに入力し、
    前記メッセージ出力部は、特定される前記メッセージを、前記ゲームのプレイ中に出力する、
    ことを特徴とする請求項1に記載のメッセージ出力装置。
  3. 前記学習入力データは、前記学習画像に対応付けられるプレイヤの情報をさらに含み、
    前記ターゲット入力データは、前記ゲームをプレイしているプレイヤの情報をさらに含む、
    ことを特徴とする請求項2に記載のメッセージ出力装置。
  4. 前記プレイヤの情報には、前記プレイヤによるコントローラ入力の情報が含まれる、
    ことを特徴とする請求項3に記載のメッセージ出力装置。
  5. 前記プレイヤの情報には、コントローラの入力頻度を示す値が含まれる、
    ことを特徴とする請求項4に記載のメッセージ出力装置。
  6. 前記プレイヤの情報には、前記プレイヤの顔を撮影した画像が含まれる、
    ことを特徴とする請求項3から5のいずれか一項に記載のメッセージ出力装置。
  7. 前記学習入力データは、前記教師データが示すメッセージとは異なるメッセージをさらに含み、
    前記ターゲット入力データは、前記メッセージ出力部により既に出力されたメッセージをさらに含む、
    ことを特徴とする請求項1から6のいずれか一項に記載のメッセージ出力装置。
  8. 連続する複数のフレームの学習画像を含む学習入力データと、前記学習入力データに対応付けられるメッセージを含む教師データと、を含む学習データを取得する学習データ取得部と、
    前記学習データを用いて機械学習モデルの学習を実行する学習部と、
    を含むことを特徴とする学習装置。
  9. 現在配信中である、あるいは、過去に配信された、ゲームの配信の状況を示す配信データに基づいて、前記学習データを生成する学習データ生成部、をさらに含む、
    ことを特徴とする請求項8のいずれか一項に記載の学習装置。
  10. 連続する複数のフレームの学習画像を含む学習入力データと、前記学習入力データに対応付けられるメッセージを含む教師データと、を含む学習データを用いた学習が実行された学習済の機械学習モデルに、連続する複数のフレームのターゲット画像を少なくとも含むターゲット入力データを入力するステップと、
    前記ターゲット入力データを前記機械学習モデルに入力した際の出力に応じたメッセージを特定するステップと、
    特定される前記メッセージを出力するステップと、
    を含むことを特徴とするメッセージ出力方法。
  11. 連続する複数のフレームの学習画像を含む学習入力データと、前記学習入力データに対応付けられるメッセージを含む教師データと、を含む学習データを取得するステップと、
    前記学習データを用いて機械学習モデルの学習を実行するステップと、
    を含むことを特徴とする学習方法。
  12. 連続する複数のフレームの学習画像を含む学習入力データと、前記学習入力データに対応付けられるメッセージを含む教師データと、を含む学習データを用いた学習が実行された学習済の機械学習モデルに、連続する複数のフレームのターゲット画像を少なくとも含むターゲット入力データを入力する手順、
    前記ターゲット入力データを前記機械学習モデルに入力した際の出力に応じたメッセージを特定する手順、
    特定される前記メッセージを出力する手順、
    をコンピュータに実行させることを特徴とするプログラム。
  13. 連続する複数のフレームの学習画像を含む学習入力データと、前記学習入力データに対応付けられるメッセージを含む教師データと、を含む学習データを取得する手順、
    前記学習データを用いて機械学習モデルの学習を実行する手順、
    をコンピュータに実行させることを特徴とするプログラム。
JP2020537908A 2018-08-20 2018-08-20 メッセージ出力装置、学習装置、メッセージ出力方法、学習方法及びプログラム Active JP7014913B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022008101A JP7285349B2 (ja) 2018-08-20 2022-01-21 メッセージ出力装置、メッセージ出力方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/030658 WO2020039476A1 (ja) 2018-08-20 2018-08-20 メッセージ出力装置、学習装置、メッセージ出力方法、学習方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022008101A Division JP7285349B2 (ja) 2018-08-20 2022-01-21 メッセージ出力装置、メッセージ出力方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2020039476A1 true JPWO2020039476A1 (ja) 2021-05-13
JP7014913B2 JP7014913B2 (ja) 2022-02-01

Family

ID=69591935

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020537908A Active JP7014913B2 (ja) 2018-08-20 2018-08-20 メッセージ出力装置、学習装置、メッセージ出力方法、学習方法及びプログラム

Country Status (4)

Country Link
US (1) US11711328B2 (ja)
JP (1) JP7014913B2 (ja)
CN (1) CN112567734B (ja)
WO (1) WO2020039476A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7093025B2 (ja) 2020-06-12 2022-06-29 株式会社カプコン コンピュータシステム、および音声情報の生成方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014149713A (ja) * 2013-02-01 2014-08-21 Ntt Docomo Inc 画像評価装置
JP2015211290A (ja) * 2014-04-24 2015-11-24 株式会社ドワンゴ 候補抽出装置、コメント配信システム、候補抽出方法及びプログラム
JP2017205189A (ja) * 2016-05-17 2017-11-24 株式会社ドワンゴ コメント配信装置、ゲームサーバ装置、コメント配信方法およびプログラム
JP6337183B1 (ja) * 2017-06-22 2018-06-06 株式会社ドワンゴ テキスト抽出装置、コメント投稿装置、コメント投稿支援装置、再生端末および文脈ベクトル計算装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4077801A (en) 1977-05-04 1978-03-07 Abex Corporation Iron-chromium-nickel heat resistant castings
JP5427343B2 (ja) * 2007-04-20 2014-02-26 任天堂株式会社 ゲームコントローラ
JP5080196B2 (ja) * 2007-10-09 2012-11-21 任天堂株式会社 プログラム、情報処理装置、情報処理システムおよび情報処理方法
US8430750B2 (en) * 2008-05-22 2013-04-30 Broadcom Corporation Video gaming device with image identification
JP5271121B2 (ja) * 2009-03-09 2013-08-21 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP5433545B2 (ja) 2010-09-30 2014-03-05 株式会社東芝 顔認証を利用した情報処理方法および情報表示装置
JP5250132B1 (ja) 2012-05-16 2013-07-31 株式会社コナミデジタルエンタテインメント ゲーム管理装置、ゲームシステム、ゲーム管理方法及びプログラム
JP6320707B2 (ja) 2013-08-27 2018-05-09 株式会社タイトー ゲーム装置
JP2017091431A (ja) * 2015-11-17 2017-05-25 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP6809802B2 (ja) 2016-03-30 2021-01-06 株式会社バンダイナムコエンターテインメント プログラム及びサーバシステム
JP2017182603A (ja) * 2016-03-31 2017-10-05 株式会社バンダイナムコエンターテインメント プログラム及びコンピュータシステム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014149713A (ja) * 2013-02-01 2014-08-21 Ntt Docomo Inc 画像評価装置
JP2015211290A (ja) * 2014-04-24 2015-11-24 株式会社ドワンゴ 候補抽出装置、コメント配信システム、候補抽出方法及びプログラム
JP2017205189A (ja) * 2016-05-17 2017-11-24 株式会社ドワンゴ コメント配信装置、ゲームサーバ装置、コメント配信方法およびプログラム
JP6337183B1 (ja) * 2017-06-22 2018-06-06 株式会社ドワンゴ テキスト抽出装置、コメント投稿装置、コメント投稿支援装置、再生端末および文脈ベクトル計算装置

Also Published As

Publication number Publication date
WO2020039476A1 (ja) 2020-02-27
CN112567734B (zh) 2024-08-16
US20210245063A1 (en) 2021-08-12
CN112567734A (zh) 2021-03-26
US11711328B2 (en) 2023-07-25
JP7014913B2 (ja) 2022-02-01

Similar Documents

Publication Publication Date Title
WO2017175599A1 (ja) 情報処理装置および情報処理方法、並びにプログラム
JP6137935B2 (ja) 身体動作評価装置、カラオケシステム、及びプログラム
CN109416562B (zh) 用于虚拟现实的装置、方法和计算机可读介质
JP2019194879A (ja) フォーリー式触覚コンテンツ作成のためのシステム及び方法
JP2018109984A5 (ja)
US11783007B2 (en) Apparatus and method for generating a recording
US8958686B2 (en) Information processing device, synchronization method, and program
TWI537035B (zh) 遊戲歷程記錄裝置、遊戲歷程記錄方法及遊戲歷程互動方法
TWI650164B (zh) 資訊處理設備,用於控制其之方法及程式
JPWO2016098415A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US20220383849A1 (en) Simulating crowd noise for live events through emotional analysis of distributed inputs
EP4306192A1 (en) Information processing device, information processing terminal, information processing method, and program
JP6688378B1 (ja) コンテンツ配信システム、配信装置、受信装置及びプログラム
JP7014913B2 (ja) メッセージ出力装置、学習装置、メッセージ出力方法、学習方法及びプログラム
US20190324708A1 (en) Sound outputting apparatus, head-mounted display, sound outputting method, and program
JP7285349B2 (ja) メッセージ出力装置、メッセージ出力方法及びプログラム
KR102430547B1 (ko) 게임 플레이 콘텐츠 제작 장치
KR102495213B1 (ko) 증강 현실 기반의 스크린 스포츠 체험 장치 및 방법
GB2612845A (en) Content generation system and method
JP2015008879A (ja) ゲームシステムおよびゲームシステムの制御方法
JP2016208422A (ja) トレーニング実施状況判定方法、サーバ装置及びトレーニング実施状況判定システム
US20240284011A1 (en) Apparatus and methods for content description
US20240024783A1 (en) Contextual scene enhancement
WO2022102550A1 (ja) 情報処理装置及び情報処理方法
JP2024519577A (ja) 機械学習を使用するビデオフレームからのコントローラーアクション認識

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220120