JP7375751B2 - 情報処理装置、および情報処理方法 - Google Patents

情報処理装置、および情報処理方法 Download PDF

Info

Publication number
JP7375751B2
JP7375751B2 JP2020527215A JP2020527215A JP7375751B2 JP 7375751 B2 JP7375751 B2 JP 7375751B2 JP 2020527215 A JP2020527215 A JP 2020527215A JP 2020527215 A JP2020527215 A JP 2020527215A JP 7375751 B2 JP7375751 B2 JP 7375751B2
Authority
JP
Japan
Prior art keywords
behavior
situation
action
user
history information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020527215A
Other languages
English (en)
Other versions
JPWO2020003670A1 (ja
Inventor
亮 中橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020003670A1 publication Critical patent/JPWO2020003670A1/ja
Application granted granted Critical
Publication of JP7375751B2 publication Critical patent/JP7375751B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5375Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for graphically or textually suggesting an action, e.g. by displaying an arrow indicating a turn in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/67Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/803Driving vehicles or craft, e.g. cars, airplanes, ships, robots or tanks
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/303Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display
    • A63F2300/305Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display for providing a graphical or textual hint to the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8017Driving on land or water; Flying
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/807Role playing or strategy games

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Artificial Intelligence (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示は、情報処理装置、および情報処理方法に関する。
コンピュータゲームや実空間で行われるスポーツでは、ユーザがスキルを身につけたときの成功感や達成感が、醍醐味の一つである。しかし、難易度の高いスキルの獲得には、時間を要する場合がある。そこで、1つ1つステップを踏みながら技術を習得させる、トレーニング用のアプリケーションが知られている(例えば、非特許文献1)。
David Silver1他、「Mastering the game of Go with deep neural networks and tree search」、ARTICLE、doi:10.1038/nature16961
しかしながら、トレーニング用のアプリケーションは画一的であり、ユーザの行動に応じたアドバイス情報を提供することは困難であった。
そこで、本開示では、ユーザの行動に応じたアドバイス情報を提供することができる、情報処理装置、および情報処理方法を提案する。
上記の課題を解決するために、本開示に係る一形態の情報処理装置は、ユーザの行動モデルに基づいて、前記ユーザの行動に応じて状況が変化するコンテンツの特定状況を抽出する抽出部と、前記特定状況に関するアドバイス情報を出力する出力制御部と、を備える。
本開示によれば、ユーザの行動に応じたアドバイス情報を提供することができる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示の第1の実施形態、第1の実施形態の変形例、および第2の実施形態に係る情報処理システムの一例を示す模式図である。 本開示の第1の実施形態に係るコンテンツの一例を示す模式図である。 本開示の第1の実施形態および第2の実施形態に係る情報処理装置および端末装置の機能ブロック図の一例を示す図である。 本開示の第1の実施形態に係る第1行動履歴情報および第2行動履歴情報のデータ構成の一例を示す模式図である。 本開示の第1の実施形態に係る発生要因の抽出の一例を示す説明図である。 本開示の第1の実施形態に係る表示画面の一例を示す模式図である。 本開示の第1の実施形態に係る情報処理の手順の一例を示すフローチャートである。 本開示の第1の実施形態に係る出力処理の手順の一例を示すフローチャートである。 本開示の第1の実施形態の変形例に係る情報処理装置および端末装置の機能ブロック図の一例を示す図である。 本開示の第1の実施形態の変形例に係る第3行動履歴情報の生成の一例を示す説明図である。 本開示の第1の実施形態の変形例に係る情報処理の手順の一例を示すフローチャートである。 本開示の第2の実施形態に係る表示画面の一例を示す模式図である。 本開示の第2の実施形態に係る情報処理の手順の一例を示すフローチャートである。 本開示の情報処理装置および端末装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
(第1の実施形態)
[第1の実施形態に係る情報処理システムの構成]
図1は、本実施形態の情報処理システム1の一例を示す模式図である。
情報処理システム1は、情報処理装置10と、端末装置12と、を備える。情報処理装置10と端末装置12とは、ネットワークNを介して通信可能に接続されている。情報処理装置10と端末装置12とは、無線または有線により通信可能に接続されていればよく、通信形態は限定されない。
情報処理装置10は、コンテンツに対する、ユーザUの行動に応じたアドバイス情報を提供する装置である。
コンテンツは、ユーザUの行動に応じて状況が変化する事象である。言い換えると、コンテンツは、入力されたユーザUの行動に応じてコンテンツ内の状況が変化し、変化後の状況を出力するアプリケーションプログラムである。詳細には、コンテンツは、ユーザUの行動に対する状況の変化の集合によって表される。例えば、コンテンツにユーザUの行動を示す行動信号が入力されると、コンテンツは、行動信号に応じた変化後の状況を示す状況情報を出力する。なお、以下では、行動信号を単に行動と称し、状況情報を単に状況と称して説明する場合がある。
具体的には、コンテンツは、コンピュータで実行されるゲームである。ゲームは、現実の事象や体験を仮想的に進行するシミュレーションゲームや、コンピュータゲームを示す。
図2は、コンテンツ32の一例を示す模式図である。例えば、コンテンツ32は、ドライブゲーム32A、アクションゲーム32B、ボードゲーム32C、ボードゲーム32D、スポーツゲーム32E、などである。ドライブゲーム32Aは、仮想空間内で車両を走行させるゲームである。アクションゲーム32Bは、キャラクタの動きによりゲーム内の状況が変化するゲームである。ボードゲーム32Cは、囲碁のボードゲームである。ボードゲーム32Dは、将棋のボードゲームである。スポーツゲーム32Eは、試合や競技などのスポーツを示すゲームである。
なお、コンテンツ32の種類は、これらに限定されない。例えば、コンテンツ32は、現実の世界で行われるスポーツや車両の走行などの現実の事象や体験を、仮想的に実行するシミュレーション用のアプリケーションプログラムであってもよい。また、コンテンツ32は、現実の世界で行われる事象の一部を簡易的に実行するアプリケーションプログラムであってもよい。すなわち、コンテンツ32は、ユーザUが実空間で行うスポーツなどの事象を、該事象の少なくとも一部を模擬的に示すプログラムとして提供したものであってもよい。
図1に戻り説明を続ける。本実施形態の情報処理装置10は、コンテンツ32に対するユーザUの行動に応じたアドバイス情報を出力する。ユーザUの行動およびアドバイス情報の詳細は後述する。本実施形態では、情報処理装置10は、アドバイス情報を端末装置12へ送信することで、アドバイス情報を出力する。情報処理装置10の詳細は後述する。
端末装置12は、情報処理装置10から受信したアドバイス情報を出力する装置である。端末装置12には、コンテンツ32を実現するためのプログラム(以下、ゲームプログラムと称する)が予めインストールされている。端末装置12は、コンテンツ32の実行時や実行前などの所定のタイミングで、アドバイス情報を出力する。
端末装置12は、情報処理装置10から受信したアドバイス情報をユーザUが確認可能な形態で出力可能な装置であればよい。また、コンテンツ32の実行時または実行前などにアドバイス情報を出力する観点から、端末装置12は、コンテンツ32を実行可能な装置であり、且つ、アドバイス情報を出力可能な装置であることが好ましい。図1には、端末装置12の一例として、ゲーム装置12Aと、携帯端末12Bと、を示した。
ゲーム装置12Aは、コンテンツ32の一例であるゲームを実行する装置である。ゲーム装置12Aは、例えば、ROM(Read Only Memory)ドライブを有し、ゲーム用ROMをROMドライブに挿入してゲームプログラムを実行することで、ゲーム装置12Aとして動作する。なお、ゲーム装置12Aは、エミュレータプログラムを起動することで、ゲームプログラムのイメージファイルを実行するエミュレーション装置としても動作できる。なおエミュレータプログラムは、ネットワークNを介して取得してもよく、また出荷時にプリインストールされていてもよい。
ゲーム装置12Aには、出力部14および入力部16が有線または無線により接続されている。入力部16は、ユーザUがゲーム装置12Aに対して操作入力を行うための入力インターフェース装置である。入力部16は、ユーザUの操作指示に応じた動作信号をゲーム装置12Aへ出力する。入力部16は、コントローラ、キーボード、タッチパネル、ポインティングデバイス、マウス、入力ボタンなどである。
出力部14は、各種画像を表示するディスプレイである。出力部14は、例えば、公知のLCD(Liquid Crystal Display)や有機EL(Electro-Luminescence)などである。出力部14は、画像の表示機能に加えて、音を出力するスピーカ機能を更に有していてもよい。
携帯端末12Bは、ユーザUによって携帯可能な端末装置12である。携帯端末12Bは、例えば、タブレット端末やスマートフォンである。携帯端末12Bは、UI(ユーザ・インターフェース)部26を備える。UI部26は、ユーザUによる各種操作入力の受付および各種情報の出力を行う。UI部26は、出力部26Aと、入力部26Bと、を備える。出力部26Aは、各種情報を表示する。出力部26Aは、有機ELやLCDなどである。なお、出力部26Aは、表示機能に加えて、音を出力するスピーカ機能を備えていてもよい。入力部26Bは、ユーザUによる各種操作入力を受付ける。本実施形態では、入力部26Bは、ユーザUの操作指示に応じた動作信号を携帯端末12Bの制御部へ出力する。入力部26Bは、例えば、キーボード、ポインティングデバイス、マウス、入力ボタンなどである。なお、出力部26Aと入力部26Bとを一体的に構成し、タッチパネルとしてもよい。
[第1の実施形態に係る情報処理装置10の構成]
図3は、情報処理装置10および端末装置12の機能ブロック図の一例である。
情報処理装置10は、制御部18と、記憶部20と、通信部22と、を備える。記憶部20および通信部22と、制御部18とは、データや信号を授受可能に接続されている。
通信部22は、ネットワークNを介して端末装置12などの各種装置と通信するための通信インターフェースである。
記憶部20は、各種情報を記憶する。本実施形態では、記憶部20は、第1行動履歴情報20Aと、第2行動履歴情報20Bと、行動モデルDB20Cと、を記憶する。
第1行動履歴情報20Aは、第1ユーザU1の行動の履歴を示す情報である。第2行動履歴情報20Bは、第2ユーザU2の行動の履歴を示す情報である。第1ユーザU1および第2ユーザU2は、ユーザUの一例である。第2ユーザU2は、第1ユーザU1に比べて、コンテンツ32に対する習熟度やスキルの高いユーザUである。なお、第1ユーザU1および第2ユーザU2を総称して説明する場合には、単に、ユーザUと称して説明する。
図4は、第1行動履歴情報20Aおよび第2行動履歴情報20Bのデータ構成の一例を示す模式図である。
第1行動履歴情報20Aおよび第2行動履歴情報20Bは、コンテンツ32の状況sと、状況sに対するユーザUの行動aと、の対応の集合によって表される。
コンテンツ32の状況sとは、コンテンツ32によって提供される環境を示す。状況sは、具体的には、ゲーム中に出力される画面、ゲーム内においてユーザUによる操作指示などに応じて動くキャラクタの位置や活動状態、キャラクタ以外の周辺環境の状態、ゲームの進行状況、およびゲームスコア等によって表される。周辺環境の状態は、ゲーム内における上記キャラクタ以外の物の位置や物の状態、明るさや天候などを含む。なお、上述したように、コンテンツ32が、ユーザUが実空間で行うスポーツなどの事象を、該事象の少なくとも一部を模擬的に示すプログラムとして提供したものである場合がある。この場合、状況sは、実空間の状態を示す情報であってもよい。実空間の状態とは、ユーザUの行動に応じて変化する環境であればよい。
ユーザUの行動aは、ユーザUの行動を示す行動信号によって表される。行動信号は、ユーザUによる入力部16の操作指示などの行動aや、ユーザUの身体の少なくとも一部の動き(行動a)を示す情報である。
すなわち、第1行動履歴情報20Aおよび第2行動履歴情報20Bに示される行動aは、コンテンツ32によって提供される状況sに対してユーザUが入力部16を操作することで入力した行動信号と、実空間におけるユーザUの身体の少なくとも一部の動きを示す行動信号の検出結果と、の少なくとも一方を示す情報であればよい。ユーザUの身体の少なくとも一部の動きを示す行動信号には、例えば、ユーザUの身体の少なくとも一部の動きを検出する公知の画像処理技術や公知のセンサ検知による技術により検出された検出結果を用いればよい。
このように、第1行動履歴情報20Aおよび第2行動履歴情報20Bに示されるユーザUの行動aの履歴情報は、コンテンツ32によって提供されるゲームに対してユーザUが過去に入力部16や入力部26Bなどを用いて操作入力を行ったときの履歴情報であってもよい。また、第1行動履歴情報20Aおよび第2行動履歴情報20Bに示されるユーザUの行動aの履歴情報は、ユーザUが実空間においてコンテンツ32に対応するスポーツなどの動作を行ったときの履歴情報であってもよい。
コンテンツ32は、ユーザUによる入力部16の操作指示や身体の動きなどの行動aにより、コンテンツ32の状況sが次の状況sへと変化する。すなわち、コンテンツ32は、入力された行動aに応じて変化後の状況sを出力する。そして、更に、変化後の状況sに対するユーザUの行動aに応じて、該状況sが次の状況sへと変化する。この繰返しにより、コンテンツ32によって提供されるゲームやストーリなどが進行する。
このため、第1行動履歴情報20Aおよび第2行動履歴情報20Bには、コンテンツ32の状況sと、状況sに対するユーザUの行動aと、の対応の集合が登録される。
なお、第1行動履歴情報20Aおよび第2行動履歴情報20Bの少なくとも一方は、状況sと、ユーザUの行動aと、の対応の時系列集合であってもよい。すなわち、第1行動履歴情報20Aおよび第2行動履歴情報20Bの少なくとも一方は、状況sと行動aとの対応を時系列のタイミングごとに示した時系列集合であってもよい。なお、時系列集合は、連続的または段階的な時系列集合であってもよく、離散的な時系列集合であってもよい。
以下では、第1ユーザU1の行動aを、第1行動aaと称して説明する。また、第2ユーザU2の行動aを、推奨行動abと称して説明する。上述したように、第2ユーザU2は、第1ユーザU1に比べて、コンテンツ32に対する習熟度やスキルの高いユーザUである。このため、本実施形態では、第2ユーザU2の行動aを、状況sに対する推奨される行動a、すなわち推奨行動abと称して説明する。
図4には、第1行動履歴情報20Aの一例として、各タイミングに応じた複数の状況s(状況s1~状況sm(mは2以上の整数))と、各状況sに対して第1ユーザU1の行った行動a(第1行動aa(第1行動aa1~第1行動aam))と、の時系列集合を示した。
また、図4には、第2行動履歴情報20Bの一例として、各タイミングに応じた複数の状況s(状況s1~状況sn(nは2以上の整数))と、各状況sに対して第2ユーザU2の行った行動a(推奨行動ab(推奨行動ab1~推奨行動abn))と、の集合を一例として示した。
なお、第1行動履歴情報20Aは、後述する制御部18で学習した第1行動モデルに、状況sを入力することで導出される第1行動aaの集合であってもよい。この場合、第1行動モデルを用いて仮想的にコンテンツ32をプレイさせることで得られる履歴情報を、第1行動履歴情報20Aとして用いることが可能となる。また、この場合、第1ユーザU1の未経験の状況sに対する第1行動aaを含む、第1行動履歴情報20Aを得ることができる。第1行動モデルの詳細は後述する。
同様に、第2行動履歴情報20Bは、後述する制御部18で学習した第2行動モデルに状況sを入力することで導出される推奨行動abの集合であってもよい。この場合、第2行動モデルを用いて仮想的にコンテンツ32をプレイさせることで得られた履歴情報を、第2行動履歴情報20Bとして用いることが可能となる。また、この場合、第2ユーザU2の未経験の状況sに対する推奨行動abを含む、第2行動履歴情報20Bを得ることができる。第2行動モデルの詳細は後述する。
図3に戻り説明を続ける。情報処理装置10は、ネットワークNを介して1または複数の端末装置12や外部装置などから、第1行動履歴情報20Aおよび第2行動履歴情報20Bを収集し、記憶部20へ記憶すればよい。
また、上述したように、情報処理装置10は、制御部18で行動モデル(第1行動モデル、第2行動モデル)を用いて生成した第1行動履歴情報20Aおよび第2行動履歴情報20Bを、記憶部20へ記憶してもよい。
次に、行動モデルDB20Cについて説明する。行動モデルDB20Cは、制御部18で学習された行動モデルを登録するためのデータベースである。なお、行動モデルDB20Cのデータ形式は、データベースに限定されない。
次に、制御部18について説明する。制御部18は、情報処理装置10を制御する。
制御部18は、第1学習部18Aと、第2学習部18Bと、抽出部18Cと、出力制御部18Dと、を備える。第1学習部18A、第2学習部18B、抽出部18C、および出力制御部18Dの一部またはすべては、例えば、CPUなどの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、IC(Integrated Circuit)などのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。
第1学習部18Aは、第1行動履歴情報20Aに基づいて、第1行動モデルを学習する。
第1行動モデルは、行動モデルの一例である。行動モデルは、状況sから行動aを導出するための学習モデルである。言い換えると、行動モデルは、状況sに応じたユーザUの行動パターンを示すアルゴリズムによって表される分類器や識別器である。
第1行動モデルは、状況sから第1行動aaを導出するための学習モデルである。第1行動モデルは、例えば、下記式(1)で表される。
π(s)→aa 式(1)
式(1)中、sは、コンテンツ32によって提供される状況sを示す。式(1)中、aaは、ある状況sのときの第1ユーザU1の第1行動aaを示す。
なお、第1行動モデルは、ある状況sのときに特定の第1行動aaをとる確率を示す学習モデルであってもよい。この場合、第1行動モデルは、例えば、下記式(2)で表される。
π(aa|s)→[0,1] 式(2)
式(2)中、aaおよびsは、式(1)と同様である。
第1学習部18Aは、第1行動履歴情報20Aに示される各タイミングに対応する状況sと第1行動aaとの対を教師データとして用いる。そして、第1学習部18Aは、該教師データを用いて、ある状況sのときに第1ユーザU1が行う第1行動aaを導出するための行動モデルを学習する。第1学習部18Aは、公知のImitation LearningなどのユーザUの行動模倣を学習する公知の機械学習により、第1行動モデルを学習すればよい。
第2学習部18Bは、第2行動履歴情報20Bに基づいて、第2行動モデルを学習する。第2行動モデルは、行動モデルの一例である。第2行動モデルは、状況sから推奨行動abを導出するための学習モデルである。
第2行動モデルは、例えば、下記式(3)で表される。
π’(s)→ab 式(3)
式(3)中、sは、コンテンツ32によって提供される状況sを示す。式(3)中、abは、ある状況sのときの第2ユーザU2の推奨行動abを示す。
なお、第2行動モデルは、ある状況sのときに特定の推奨行動abをとる確率を示す学習モデルであってもよい。この場合、第2行動モデルは、例えば、下記式(4)で表される。
π’(ab|s)→[0,1] 式(4)
式(4)中、abおよびsは、上記式(3)と同様である。
第2学習部18Bは、第2行動履歴情報20Bに示される各タイミングに対応する状況sと推奨行動abとの対を教師データとして用いる。そして、第2学習部18Bは、該教師データを用いて、ある状況sのときに第2ユーザU2が行う推奨行動abを導出するための行動モデルを学習する。第2学習部18Bは、公知のImitation LearningなどのユーザUの行動模倣を学習する公知の機械学習により、第2行動モデルを学習すればよい。
なお、第1学習部18Aおよび第2学習部18Bは、学習した第1行動モデルおよび第2行動モデルを、これらの行動モデルを分類規則に応じて分類し、各分類規則の識別情報に対応付けて行動モデルDB20Cへ登録してもよい。分類規則は、予め定めればよい。分類規則は、例えば、これらの行動モデルの学習に用いたユーザUごと、ユーザUの属するグループごと、行動モデルの適用対象ごと、などである。なお、分類規則は、これらに限定されない。
次に、抽出部18Cについて説明する。
抽出部18Cは、ユーザUの行動モデルに基づいて、コンテンツ32の特定状況を抽出する。コンテンツ32の特定状況に抽出に用いるユーザUの行動モデルは、第1ユーザU1の第1行動モデル、および、第2ユーザU2の第2行動モデル、の少なくとも一方である。本実施形態では、抽出部18Cは、第1ユーザU1の第1行動モデルに基づいて、特定状況を抽出する。
特定状況とは、コンテンツ32に含まれる状況sの内、特定の1または複数の状況sの集合を示す。特定状況は、連続的または段階的な状況sの時系列集合であってもよいし、離散的な状況sの時系列集合であってもよい。なお、特定状況は、1または複数の状況sの集合であればよく、時系列の集合に限定されない。
特定状況は、具体的には、コンテンツ32で予め規定された異常とされる状況sである。例えば、コンテンツ32がドライブゲーム32A(図2参照)である場合、異常とされる状況sは、例えば、予め定めた走行ルートを外れた状況sや、他の車両と衝突した状況sなどである。
本実施形態では、抽出部18Cは、第1行動モデルから導出した第1行動aaを行動aとしてコンテンツ32に入力したときに、該コンテンツ32から出力される状況sの評価値が第1閾値以下の状況を、特定状況として抽出する。
評価値が高いほど、予め定めた推奨の状況sに近い事を示す。また、評価値が低いほど、予め定めた推奨の状況sからの距離が大きい事を示す。評価値が第1閾値以下の状態とは、コンテンツ32で予め規定した異常とされる状況sである。
第1閾値には、異常な状況sと正常な状況sとを判別するための閾値を予め定めればよい。言い換えると、第1閾値には、異常な状況sとみなす評価値の範囲の上限値を予め定めればよい。なお、抽出部18Cは、コンテンツ32ごとに第1閾値を予め定め、コンテンツ32の識別情報に対応づけて第1閾値を記憶部20へ記憶してもよい。そして、抽出部18Cは、特定状況の抽出時に、特定状況の抽出対象のコンテンツ32の識別情報に対応する第1閾値を記憶部20から読取り、特定状況の抽出に用いればよい。
抽出部18Cは、コンテンツ32によって提供された状況sを、第1行動モデルへ導入することで、該状況sに対する第1行動aaを得る。そして、抽出部18Cは、得られた第1行動aaを、行動aとしてコンテンツ32へ入力することで、変化した次の状況sを得る。そして、抽出部18Cは、この処理を繰り返し実行する。すなわち、抽出部18Cは、第1行動モデルを用いて、コンテンツ32によって実現されるゲームを仮想的に実行する。
コンテンツ32を示すモデルは、例えば、下記式(5)で表される。
T(s,a)→s 式(5)
式(5)は、ある状況sである行動aが入力されると、次の状況sが出力されることを示す。
抽出部18Cは、第1行動aa(行動a)の入力により、コンテンツ32から変化後の新たな状況sが出力されるごとに、該状況sの評価値を算出する。
抽出部18Cは、該状況sの示す内容が該状況sを提供するコンテンツ32において予め定めた推奨される状況sに近いほど、高い評価値を算出する。評価値の算出方法は、コンテンツ32に応じて予め定めればよい。
例えば、抽出部18Cは、状況判定関数を用いて、評価値を算出する。状況判定関数は、例えば、下記式(6)または式(7)で表される。
r(s)→R ・・・式(6)
r(s,a)→R ・・・式(7)
式(6)は、ある状況sに対する評価値Rを導出するための状況判定関数rを示す式である。式(7)は、ある状況sである行動aを行ったときの評価値Rを導出するための状況判定関数rを示す式である。
抽出部18Cは、コンテンツ32から出力された変化後の状況s、または該変化後の状況sと該変化後の状況sに対して入力された第1行動aaとしての行動aを、上記式(6)または式(7)へ導入することで、評価値Rを算出する。
そして、抽出部18Cは、算出した評価値Rが第1閾値以下の状況sを、評価値Rが悪い、すなわち、推奨の状況sからより離れた状況sであると判断し、特定状況として抽出する。
上記処理により抽出部18Cは、第1ユーザU1の第1行動モデルに基づいて、コンテンツ32の特定状況を抽出する。
なお、抽出部18Cは、抽出した特定状況の発生要因を更に抽出してもよい。
この場合、抽出部18Cは、特定状況の発生タイミングより前の期間の状況sと第1行動aaとの対応を、特定状況の発生要因として更に抽出する。
詳細には、抽出部18Cは、第1行動モデルを用いて、コンテンツ32によって実現されるゲームを仮想的に実行する。そして、抽出部18Cは、上述したように、特定状況を特定すると共に、特定状況の発生タイミングを特定する。さらに、抽出部18Cは、特定状況の発生タイミングより前の期間の状況sの時系列集合の内、少なくとも1つの状況sと、該状況sのとき入力された第1行動aaと、の対応を、特定状況の発生要因として抽出する。
図5は、発生要因の抽出の一例を示す説明図である。なお、図5に示すグラフ中、縦軸には状況判定関数r(s,a)によって表される評価値Rを示し、横軸にはタイミングを示した。
例えば、タイミングt4のときの状況s10の評価値Rが第1閾値T1以下の範囲内であったと仮定する。この場合、抽出部18Cは、該タイミングt4のときの状況s10を特定状況として抽出する。また、抽出部18Cは、該タイミングt4を、特定状況の発生タイミングt4として特定する。
そして、抽出部18Cは、特定状況の発生タイミングt4より前の期間Aの状況sの内、該発生タイミングt4より前のタイミングの状況s(図5では、状況s9、状況s8、状況s7)の各々に対する第1行動aaを補正した補正行動を、行動aとしてコンテンツ32へ入力する。
詳細には、抽出部18Cは、発生タイミングt4より前の(過去の)タイミングに向かって、1つずつ状況sを遡り、1つ状況sを遡るごとに、遡った状況sに対して行われた第1行動aaを、該第1行動aaとは異なる値の補正行動に補正する。そして、補正した補正行動を、該状況sの該タイミングに対する行動aとしてコンテンツ32へ入力する。
図5に示す例の場合、抽出部18Cは、タイミングt4から1つ状況sを遡ったタイミングt3の状況s9に対して入力された第1行動aaを、補正行動に補正する。そして、抽出部18Cは、該補正行動を、該タイミングt3に対応する行動aとしてコンテンツ32へ入力することで、補正後の状況s9’を得る。
なお、抽出部18Cは、遡った状況sに対する第2ユーザU2の推奨行動abを、補正行動として用いてもよい。すなわち、抽出部18Cは、遡った状況sに対して入力された第2ユーザU2の推奨行動abを、補正行動として用いてもよい。
この場合、抽出部18Cは、遡った状況sを、第2学習部18Bで学習した第2行動モデルへ入力することで、該状況sに対する推奨行動abを取得すればよい。
なお、抽出部18Cは、遡った状況sに対応する推奨行動abを第2行動履歴情報20Bから読取ることで、該状況sに対する推奨行動abを取得してもよい。抽出部18Cが第2行動履歴情報20Bから推奨行動abを読取る場合には、制御部18は、第2学習部18Bを備えない構成であってもよい。
抽出部18Cは、遡ったタイミングの状況sに対する行動aとして補正行動をコンテンツ32へ入力した後に、特定状況の発生タイミングt4に向かって、上記と同様にして第1行動モデルを用いてコンテンツ32を仮想的に実行する。
そして、抽出部18Cは、特定状況の発生タイミングt4においてコンテンツ32から出力される状況sの評価値Rが第1閾値T1を超えたと判定するまで、発生タイミングt4より前の(過去の)タイミングに向かって、1つずつ状況sを遡り、補正行動のコンテンツ32への入力と発生タイミングt4における状況sの評価値Rの判定を繰返し実行する。
そして、抽出部18Cは、発生タイミングt4においてコンテンツ32から出力される状況sの評価値Rが第1閾値T1を超えたときのタイミングの状況sと、該状況sに対する第1行動aaとの対応を、発生要因として抽出すればよい。
図5に示すように、発生タイミングt4から1つ状況sを遡ったタイミングt3の状況s9を第1行動aaの補正によって状況s9’としたと想定する。そして、この場合、その後の第1行動モデルを用いたコンテンツ32の仮想的な実行によって、発生タイミングt4でコンテンツ32から出力された状況sが、第1閾値T1以下の状況s109であったと想定する。
そして、タイミングt3から更に1つ状況sを遡ったタイミングt2の状況s8の状況s8を第1行動aaの補正によって状況s8’としたと想定する。そして、この場合、その後の第1行動モデルを用いたコンテンツ32の仮想的な実行によって、発生タイミングt4でコンテンツ32から出力された状況sが、第1閾値T1を超える状況s108となったと想定する。
この場合、抽出部18Cは、該タイミングt2の状況s8と、該状況s8に対する第1ユーザU1の第1行動aaと、の対応を、発生タイミングt4の特定状況(状況s10)の発生要因として抽出する。
このように、抽出部18Cは、特定状況の発生タイミングt4より前の期間の状況sに対する第1行動aaを補正した補正行動を、コンテンツ32に入力する。そして、抽出部18Cは、該前の期間に補正行動をコンテンツ32に入力した場合に、発生タイミングt4においてコンテンツ32から出力される状況sの評価値Rが第1閾値T1を超え、且つ発生タイミングt4に最も近いタイミングtの状況sと第1行動aaとの対応を、発生要因として抽出する。
図3に戻り説明を続ける。次に、出力制御部18Dについて説明する。出力制御部18Dは、特定状況に関するアドバイス情報を出力する。
出力制御部18Dは、抽出部18Cから特定状況を受付ける。なお、出力制御部18Dは、抽出部18Cから、特定状況および発生要因の双方を受付けてもよい。そして、抽出部18Cは、特定状況に関するアドバイス情報を出力する。なお、抽出部18Cは、特定状況および発生要因に関するアドバイス情報を出力してもよい。
アドバイス情報とは、第1ユーザU1に対する、特定状況に関するアドバイスとなる情報である。具体的には、アドバイス情報は、特定状況の内容、特定状況の発生要因、および特定状況の回避方法、の少なくとも1つを示す。
特定状況の内容とは、特定状況の示す状況sや、該状況sに対する第1ユーザU1の第1行動aaを示す情報である。特定情報の示す状況sは、例えば、ゲーム中に出力される画面、ゲーム内において第1ユーザU1による操作指示などに応じて動くキャラクタの位置や活動状態、キャラクタ以外の周辺環境の状態、ゲームの進行状況、およびゲームスコア等によって表される。また、特定状況の内容は、コンテンツ32における該特定状況の位置や発生タイミングを示す情報を含んでいてもよい。また、特定状況の内容は、該特定状況の位置や発生タイミングによって示される箇所が、第1ユーザU1の注意を喚起すべき箇所であることを示す情報を含んでいてもよい。
特定状況の発生要因は、抽出部18Cが抽出した発生要因を示す状況sと第1ユーザU1の第1行動aaとの対応を示す情報であればよい。例えば、発生要因は、ある状況sで第1ユーザU1がどのような行動を行うと、発生タイミングにおいて特定状況に示される状況sが発生するかを示す情報であってもよい。
特定状況の回避方法は、特定情報を回避するために第1ユーザU1がとる行動aを示す情報である。特定状況の回避方法は、例えば、特定状況の示す状況sに対応する推奨行動abを示す情報や、発生要因に示される状況sに対応する推奨行動abを示す情報である。
出力制御部18Dは、抽出部18Cから受付けた特定状況、または特定状況および発生要因を用いて、アドバイス情報を生成し、出力すればよい。
本実施形態では、出力制御部18Dは、特定状況に関するアドバイス情報を、第1ユーザU1に該情報を提供可能な端末装置12へ送信することで、該アドバイス情報を出力する。
例えば、出力制御部18Dは、特定状況に関するアドバイス情報を、通信部22およびネットワークNを介して第1ユーザU1の操作する端末装置12へ送信すればよい。この場合、例えば、記憶部20は、第1ユーザU1の識別情報と、該第1ユーザU1の操作する端末装置12の識別情報と、を対応づけて予め記憶すればよい。そして、出力制御部18Dは、提供対象の第1ユーザU1の識別情報に対応する、該第1ユーザU1の操作する端末装置12の識別情報を記憶部20から読取り、該識別情報によって識別される端末装置12へアドバイス情報を送信すればよい。
なお、出力制御部18Dは、特定状況に関するアドバイス情報を、情報処理装置10に直接接続された表示装置などの出力装置に出力してもよい。
[第1の実施形態に係る端末装置の構成]
次に、端末装置12について説明する。端末装置12は、情報処理装置10から受信したアドバイス情報を出力する。
端末装置12は、制御部24と、UI部26と、通信部28と、記憶部30と、を備える。UI部26、通信部28、および記憶部30と、制御部24とは、データや信号を授受可能に接続されている。
UI部26は、上述したように、出力部26Aと入力部26Bとを含む。なお、端末装置12がゲーム装置12Aである場合には、出力部26Aは出力部14に相当し、入力部26Bは入力部16に相当する。
通信部28は、ネットワークNを介して情報処理装置10や他の装置と通信する通信インターフェースである。記憶部30は、各種情報を記憶する。
制御部24は、端末装置12を制御する。制御部24は、取得部24Aと、出力制御部24Bと、を備える。取得部24Aおよび出力制御部24Bの一部またはすべては、例えば、CPUなどの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、ICなどのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。
取得部24Aは、情報処理装置10からアドバイス情報を取得する。出力制御部24Bは、アドバイス情報をUI部26へ出力する。本実施形態では、出力制御部24Bは、アドバイス情報を示す表示画面をUI部26へ表示する。
図6は、表示画面40の一例を示す模式図である。図6には、コンテンツ32がドライブゲーム32A(図2参照)である場合を一例として示した。この場合、端末装置12の出力制御部24Bは、ドライブゲーム32Aで提供されるゲーム画面に、アドバイス情報を示すアイコンPを配置した、表示画面40を生成し、UI部26へ出力する。なお、表示画面40の生成は、情報処理装置10の出力制御部18Dで実行してもよい。
例えば、第1ユーザU1は、UI部26(入力部26Bまたは入力部16)を操作することで、表示画面40におけるアイコンPの表示位置を選択する。出力制御部24Bは、該選択を示す選択信号をUI部26から受付けると、選択されたアイコンPに対応するアドバイス情報の詳細をUI部26へ表示すればよい。なお、アドバイス情報の表示形態は、図6に示す形態に限定されない。
図3に戻り説明を続ける。端末装置12における、アドバイス情報の出力タイミングは限定されない。例えば、制御部24は、第1ユーザU1によるUI部26の操作指示によってゲーム開始指示信号を受付けたときに、アドバイス情報をUI部26へ表示する。また、例えば、制御部24は、端末装置12がコンテンツ32のゲームプログラムを実行中に、アドバイス情報をUI部26へ出力してよい。この場合、制御部24は、コンテンツ32によって提供される状況sがアドバイス情報に示される特定状況や発生要因の状況sとなった場合や特定状況に近づいたときなどに、アドバイス情報をUI部26へ出力すればよい。
[第1の実施形態に係る情報処理手順]
次に、情報処理装置10が実行する情報処理の手順の一例を説明する。
図7は、情報処理装置10が実行する情報処理の手順の一例を示す、フローチャートである。
まず、第1学習部18Aが、記憶部20から第1行動履歴情報20Aを取得する(ステップS100)。次に、第1学習部18Aは、ステップS100で取得した第1行動履歴情報20Aに基づいて、第1行動モデルを学習する(ステップS102)。
次に、第2学習部18Bが、記憶部20から第2行動履歴情報20Bを取得する(ステップS104)。次に、第2学習部18Bは、ステップS104で取得した第2行動履歴情報20Bに基づいて、第2行動モデルを学習する(ステップS106)。
次に、抽出部18Cが、ステップS102で学習した第1行動モデルを用いて、コンテンツ32によって実現されるゲームを仮想的に実行する(ステップS108)。すなわち、ステップ108では、抽出部18Cは、第1行動モデルから導出される第1行動aaを行動aとして、順次コンテンツ32へ入力し、順次出力される状況sを得る。
次に、抽出部18Cは、ステップS102で学習した第1ユーザU1の第1行動モデルに基づいて、ステップS108でコンテンツ32から順次出力される状況sの評価値Rに基づいて、コンテンツ32の特定状況を抽出する(ステップS110)。
次に、抽出部18Cは、ステップS110で抽出した特定状況の発生要因を抽出する(ステップS112)。
次に、出力制御部18Dが、ステップS110で抽出した特定状況およびステップS112で抽出した発生要因に関するアドバイス情報を端末装置12へ出力する(ステップS114)。そして、本ルーチンを終了する。
なお、制御部18は、上記ステップS100~ステップS106の第1行動モデルの学習および第2行動モデルの学習の少なくとも一方の処理を、抽出部18Cによる特定状況の抽出とは異なるタイミングで実行してもよい。具体的には、ステップS100~ステップS106の一連の処理を、ステップS108~ステップS114の一連の処理とは異なるタイミングで実行してもよい。
[第1の実施形態に係る出力処理手順]
次に、端末装置12が実行する出力処理の手順の一例を説明する。
図8は、端末装置12が実行する出力処理の手順の一例を示す、フローチャートである。なお、図8には、端末装置12がゲーム装置12Aであり、コンテンツ32としてゲームプログラムを実行する場合を一例として説明する。
まず、端末装置12の取得部24Aが、入力部16からゲーム開始指示信号を受付けたか否かを判断する(ステップS200)。ステップS200で否定判断すると(ステップS200:No)、本ルーチンを終了する。一方、ステップS200で肯定判断すると(ステップS200:Yes)、ステップS202へ進む。
ステップS202では、取得部24Aは、通信部28を介して情報処理装置10から、アドバイス情報を取得する。なお、端末装置12の制御部24は、情報処理装置10から受信したアドバイス情報を記憶部30へ記憶してもよい。そして、取得部24Aは、記憶部30からアドバイス情報を読取ることで、アドバイス情報を取得してもよい。
そして、出力制御部24Bは、アドバイス情報をUI部26へ出力する(ステップS204)。このため、端末装置12のUI部26には、例えば、図6に示す、アドバイス情報を示すアイコンPを含む表示画面40が表示される。
そして、制御部24は、ステップS200で受付けたゲーム開始指示信号に対応するゲームプログラムを実行する(ステップS206)。そして、制御部24は、入力部16からゲーム終了指示を受付けたと判断するまで否定判断を繰り返し(ステップS208:No)、肯定判断すると(ステップS208:Yes)、本ルーチンを終了する。なお、上述したように、制御部24は、ゲームの実行中に、アドバイス情報をUI部26へ出力してもよい。
以上説明したように、本実施形態の情報処理装置10は、抽出部18Cと、出力制御部18Dと、を備える。抽出部18Cは、ユーザUの行動モデルに基づいて、ユーザUの行動に応じて状況が変化するコンテンツ32の特定状況を抽出する。出力制御部18Dは、特定状況に関するアドバイス情報を出力する。
ここで、従来では、1つ1つステップを踏みながら技術を習得させる、トレーニング用のコンテンツを用意していた。例えば、ドライブゲームの場合、なめらかな加速方法、コーナへの進入方法などのトレーニング用コンテンツが別途用意されていた。しかしながら、トレーニング用のコンテンツは画一的であり、ユーザUの行動に応じたアドバイス情報を提供することは困難であった。
一方、本実施形態では、抽出部18Cが、ユーザUの行動モデルに基づいて、特定状況を抽出する。そして、出力制御部18Dは、このユーザUの行動モデルに基づいて抽出された特定状況に関する、アドバイス情報を出力する。
従って、本実施形態の情報処理装置10は、ユーザUの行動に応じたアドバイス情報を提供することができる。
また、本実施形態では、第1学習部18Aは、状況sとユーザUとしての第1ユーザU1の第1行動aaとの対応を示す第1行動履歴情報20Aに基づいて、状況sから第1行動aaを導出するための行動モデルとして第1行動モデルを学習する。抽出部18Cは、第1行動モデルから導出した第1行動aaを行動aとして入力したときにコンテンツ32から出力される状況sの評価値Rが第1閾値T1以下の状況sを特定状況として抽出する。
このように、本実施形態の情報処理装置10は、第1行動モデルを用いて、コンテンツ32へ入力するための第1ユーザU1の第1行動aaを得る。このため、コンテンツ32によって提供される状況sの少なくとも1つが第1行動履歴情報20Aに未登録の場合であっても、情報処理装置10は、コンテンツ32によって提供される状況sに応じた第1行動aaを得ることができる。そして、情報処理装置10の抽出部18Cは、第1行動モデルから導出した第1行動aaを行動aとして入力したときにコンテンツ32から出力される状況sの評価値Rを用いて、特定状況を抽出する。
このため、本実施形態の情報処理装置10は、上記効果に加えて、精度良く特定状況を抽出することができる。
また、本実施形態では、抽出部18Cは、特定状況の発生タイミングより前の期間の状況sと第1行動aaとの対応を、特定状況の発生要因として更に抽出する。
このように、特定状況の発生要因を更に抽出することで、本実施の形態の情報処理装置10は、上記効果に加えて、ユーザUに対して適切なアドバイス情報を提供することができる。
また、本実施形態では、抽出部18Cは、特定状況の発生タイミングより前の期間の状況sの内、第1行動aaを補正した補正行動を行動aとしてコンテンツ32に入力したときに、発生タイミングにおいてコンテンツ32から出力される状況sの評価値Rが第1閾値T1を超える状況sと第1行動aaとの対応を、発生要因として抽出する。
すなわち、抽出部18Cは、特定状況の発生タイミングより前の期間の状況sの内、状況sに対する第1行動aaを他の行動aである補正行動に変更した場合に、発生タイミングにおける状況sの評価値Rが良好となる状況sと、該状況sに対して行われた第1行動aaと、を発生要因として抽出する。
このため、本実施形態の情報処理装置10は、上記効果に加えて、精度良く発生要因を抽出することができる。
[第1の実施形態の変形例]
本変形例では、第1ユーザU1の第1行動履歴情報20Aを補正した行動履歴情報を生成し、該行動履歴情報に基づいて学習した行動モデルに基づいて、推奨状況を抽出する。
[第1の実施形態の変形例に係る情報処理システムの構成]
図1は、本変形例の情報処理システム1Aの一例を示す模式図である。
情報処理システム1Aは、情報処理装置10Aと、端末装置12と、を備える。情報処理システム1Aは、情報処理装置10に代えて情報処理装置10Aを備える点以外は、第1の実施形態の情報処理システム1と同様である。
[第1の実施形態の変形例に係る情報処理装置の構成]
図9は、情報処理装置10Aおよび端末装置12の機能ブロック図の一例である。端末装置12の機能的構成は、第1の実施形態と同様である。
情報処理装置10Aは、制御部17と、記憶部21と、通信部22と、を備える。記憶部21および通信部22と、制御部17とは、データや信号を授受可能に接続されている。通信部22は、第1の実施形態と同様である。
記憶部21は、各種情報を記憶する。本変形例では、記憶部21は、第1行動履歴情報20Aと、第2行動履歴情報20Bと、第3行動履歴情報20Dと、行動モデルDB20Cと、を記憶する。第1行動履歴情報20A、第2行動履歴情報20B、および行動モデルDB20Cは、第1の実施形態と同様である。
第3行動履歴情報20Dは、第1行動履歴情報20Aを補正した行動履歴情報である。第3行動履歴情報20Dは、制御部17の処理によって生成され、記憶部21に記憶される(詳細後述)。
制御部17は、情報処理装置10Aを制御する。制御部17は、第1学習部18Aと、第2学習部18Bと、生成部17Eと、第3学習部17Fと、抽出部17Cと、出力制御部18Dと、を備える。第1学習部18A、第2学習部18B、生成部17E、第3学習部17F、抽出部17C、および出力制御部18Dの一部またはすべては、例えば、CPUなどの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、ICなどのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。第1学習部18A、第2学習部18B、および出力制御部18Dは、第1の実施形態と同様である。
生成部17Eは、第1ユーザU1の第1行動履歴情報20Aを補正し、第3行動履歴情報20Dを生成する。
図10は、第3行動履歴情報20Dの生成の一例を示す説明図である。
生成部17Eは、第1行動履歴情報20Aと、第2行動履歴情報20Bと、に基づいて、第1行動履歴情報20Aの第1行動aaの内、推奨行動abとの差が所定値以上の第1行動aaを該推奨行動abに置換することにより、第3行動履歴情報20Dを生成する。
詳細には、生成部17Eは、第1行動履歴情報20Aと第2行動履歴情報20Bについて、同じ状況sに対応する第1行動aaと推奨行動abとを比較する。言い換えると、生成部17Eは、第1行動履歴情報20Aと第2行動履歴情報20Bについて、同じ状況sごとに、対応する第1行動aaと推奨行動abとを比較する。
そして、生成部17Eは、第1行動履歴情報20Aに規定された1または複数の状況sにおける、対応する第1行動aaと推奨行動abとの差が所定値以上の状況sを特定する。
ここで、第1行動aaと推奨行動abとの差が小さいほど、第1行動aaは正常または良好な行動aである。また、第1行動aaと推奨行動abとの差が大きいほど、第1行動aaは異常または不良な行動aである。
このため、所定値には、異常または不良な行動aとみなす、第1行動aaと推奨行動abとの差の範囲の下限値を予め定めればよい。なお、生成部17Eは、コンテンツ32やユーザUごとに所定値を予め定め、コンテンツ32およびユーザUの識別情報に対応づけて記憶部21へ予め記憶してもよい。そして、生成部17Eは、第3行動履歴情報20Dの生成時に、処理対象のコンテンツ32およびユーザUの識別情報に対応する所定値を記憶部21から読取り、第3行動履歴情報20Dの生成に用いればよい。
次に、生成部17Eは、第1行動履歴情報20Aに規定された1または複数の状況sに対応する第1行動aaの内、該差が所定値以上であると特定した状況sに対応する第1行動aaを、第2行動履歴情報20Bにおける同じ状況sに対応する推奨行動abに置換する。この置換により、生成部17Eは、第3行動履歴情報20Dを生成する。
具体的には、図10に示すように、第1行動履歴情報20Aの状況s2に対応する第1行動aa2と、第2行動履歴情報20Bの同じ状況s2に対応する推奨行動ab2との差が、所定値以上であったと想定する。また、第1行動履歴情報20Aの状況s3に対応する第1行動aa3と、第2行動履歴情報20Bの同じ状況s3に対応する推奨行動ab3との差が、所定値以上であったと想定する。この場合、生成部17Eは、第1行動履歴情報20Aの第1行動aa2および第1行動aa3(図10中、枠線42A内参照)を、第2行動履歴情報20Bの推奨行動ab2および推奨行動ab3(図10中、枠線42B内参照)に置換する。この処理により、生成部17Eは、第3行動履歴情報20Dを生成する。
図9に戻り説明を続ける。第3学習部17Fは、第3行動履歴情報20Dに基づいて、状況sから該第3行動履歴情報20Dにおける第3行動acを導出するための行動モデルとして、第3行動モデルを学習する。第3行動acは、図10に示すように、第3行動履歴情報20Dに規定された行動aであり、第1行動履歴情報20Aの第1行動aaと、第2行動履歴情報20Bの推奨行動abと、によって表される。
図9に戻り説明を続ける。第3行動モデルは、行動モデルの一例である。第3行動モデルは、状況sから第3行動acを導出するための学習モデルである。
第3学習部17Fは、第3行動履歴情報20Dに示される各タイミングに対応する状況sと第3行動acとの対応を示す教師データを用いて、第1学習部18Aと同様にして、第3行動モデルを学習すればよい。
次に、抽出部17Cについて説明する。
抽出部17Cは、第3行動モデルから導出した第3行動acを行動aとして入力したときにコンテンツ32から出力される状況sの評価値Rが第3閾値を超える状況sを、特定状況として抽出する。
すなわち、抽出部17Cは、第1行動モデルおよび第2行動モデルに代えて、第3行動モデルを用いて評価値Rを算出する点以外は、第1の実施形態の抽出部18Cと同様にして、特定状況を抽出する。
ここで、上述したように、第3行動履歴情報20Dは、第1行動履歴情報20Aにおける、推奨行動abとの差が所定値以上の第1行動aaを該推奨行動abに置換することにより生成された行動履歴情報である。
このため、本変形例では、抽出部17Cは、第1行動aaを推奨行動abに置換することで評価値Rの向上した状況sを、特定状況として抽出する。
すなわち、本変形例では、抽出部17Cは、評価値Rの判断に、第3閾値を用いる。第3閾値には、第1行動aaを推奨行動abに置換することで状況sが向上したと判別するための評価値Rの範囲の下限値を定めればよい。そして、抽出部17Cは、評価値Rが第3閾値以上の状況sを、特定状況として抽出すればよい。
なお、抽出部17Cは、第1の実施形態の抽出部18Cと同様に、特定状況の発生要因を更に抽出してもよい。特定状況の発生要因の抽出は、抽出部18Cと同様に実行すればよい。
[第1の実施形態の変形例に係る情報処理手順]
次に、情報処理装置10Aが実行する情報処理の手順の一例を説明する。
図11は、情報処理装置10が実行する情報処理の手順の一例を示す、フローチャートである。
まず、第1学習部18Aが、記憶部21から第1行動履歴情報20Aを取得する(ステップS300)。次に、第1学習部18Aは、ステップS300で取得した第1行動履歴情報20Aに基づいて、第1行動モデルを学習する(ステップS302)。
次に、第2学習部18Bが、記憶部21から第2行動履歴情報20Bを取得する(ステップS304)。次に、第2学習部18Bは、ステップS304で取得した第2行動履歴情報20Bに基づいて、第2行動モデルを学習する(ステップS306)。
次に、生成部17Eが、第1行動履歴情報20Aおよび第2行動履歴情報20Bを用いて第3行動履歴情報20Dを生成する(ステップS308)。次に、第3学習部17Fが、ステップS308で生成した第3行動履歴情報20Dに基づいて、第3行動モデルを学習する(ステップS310)。
次に、抽出部17Cが、ステップS310で学習した第3行動モデルを用いて、コンテンツ32によって実現されるゲームを仮想的に実行する(ステップS312)。すなわち、ステップ312では、抽出部17Cは、第3行動モデルから導出される第3行動acを行動aとして、順次コンテンツ32へ入力する。
次に、抽出部17Cは、ステップS310で学習した第3行動モデルに基づいて、ステップS312でコンテンツ32から順次出力される状況sの評価値Rに基づいて、コンテンツ32の特定状況を抽出する(ステップS314)。
次に、抽出部18Cは、ステップS314で抽出した特定状況の発生要因を抽出する(ステップS316)。
次に、出力制御部18Dが、ステップS316で抽出した特定状況およびステップS316で抽出した発生要因に関するアドバイス情報を端末装置12へ出力する(ステップS318)。そして、本ルーチンを終了する。
以上説明したように、本変形例では、生成部17Eが、第1行動履歴情報20Aと第2行動履歴情報20Bとに基づいて、第1行動履歴情報20Aの第1行動aaの内、第2行動履歴情報20Bの推奨行動abとの差が所定値以上の第1行動aaを該推奨行動abに置換した第3行動履歴情報20Dを生成する。第3学習部17Fは、第3行動履歴情報20Dに基づいて、状況sから第3行動履歴情報20Dにおける第1行動aaおよび推奨行動abとしての第3行動acを導出するための行動モデルとして第3行動モデルを学習する。抽出部17Cは、第3行動モデルから導出した第3行動acを行動aとして入力したときにコンテンツ32から出力される状況sの評価値Rが第3閾値以上の状況sを、特定状況として抽出する。
このように、本変形例では、生成部17Eが、第1ユーザU1の第1行動履歴情報20Aを、第1ユーザU1よりコンテンツ32に対する習熟度やスキルの高い第2ユーザU2の第2行動履歴情報20Bを用いて補正した、第3行動履歴情報20Dを生成する。そして、抽出部17Cは、この第3行動履歴情報20Dから学習された、ユーザUの第3行動モデルに基づいて、特定状況を抽出する。
このため、本変形例の情報処理装置10Aは、ユーザUの行動aに応じたアドバイス情報を提供することができる。
(第2の実施形態)
本実施形態では、第1ユーザU1の第1行動履歴情報20Aに規定された第1行動aaと、第2ユーザU2の第2行動モデルから導出した推奨行動abと、の差に基づいて、特定状況を抽出する形態を説明する。
[第2の実施形態に係る情報処理システムの構成]
図1は、本変形例の情報処理システム1Bの一例を示す模式図である。
情報処理システム1Bは、情報処理装置10Bと、端末装置12と、を備える。情報処理システム1Bは、情報処理装置10に代えて情報処理装置10Bを備える点以外は、第1の実施形態の情報処理システム1と同様である。
[第2の実施形態に係る情報処理装置の構成]
図3は、情報処理装置10Bおよび端末装置12の機能ブロック図の一例である。端末装置12の機能的構成は、第1の実施形態と同様である。
情報処理装置10Bは、制御部19と、記憶部20と、通信部22と、を備える。記憶部21および通信部22と、制御部19とは、データや信号を授受可能に接続されている。記憶部20および通信部22は、第1の実施形態と同様である。
制御部19は、情報処理装置10Bを制御する。制御部19は、第1学習部18Aと、第2学習部18Bと、抽出部19Cと、出力制御部18Dと、を備える。第1学習部18A、第2学習部18B、抽出部19C、および出力制御部18Dの一部またはすべては、例えば、CPUなどの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、ICなどのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。第1学習部18A、第2学習部18B、および出力制御部18Dは、第1の実施形態と同様である。
抽出部19Cは、状況sと第1ユーザU1の第1行動aaとの対応を示す第1行動履歴情報20Aと、第2行動モデルと、に基づいて、第1行動aaと推奨行動abとの差が第2閾値以上の状況sを、特定状況として抽出する。
詳細には、本実施形態では制御部19の第2学習部18Bが、第1の実施形態と同様にして、第2行動履歴情報20Bから第2行動モデルを学習する。
そして、抽出部19Cは、第1行動履歴情報20Aに示される状況sの各々を、第2行動モデルへ導入することで、該状況sに対する推奨行動abを得る。
ここで、第1行動履歴情報20Aに示される状況sと、第2行動履歴情報20Bに示される状況sとは、少なくとも一部が不一致の場合がある。上述したように、コンテンツ32は、入力されたユーザUの行動aに応じて、出力する状況sが変化する。このため、ある状況sに対する第1ユーザU1と第2ユーザU2の行動aが異なる場合、コンテンツ32から出力される変化後の状況sは、異なるものとなる。このため、第1行動履歴情報20Aに示される状況sと、第2行動履歴情報20Bに示される状況sと、の少なくとも一部が不一致の場合がある。
すると、第1行動履歴情報20Aに示される複数の状況sの内、少なくとも一部の状況sが、第2行動履歴情報20Bには示されない場合がある。言い換えると、第1ユーザU1による第1行動aaによって変化した状況sには、第2ユーザU2による推奨行動abによっては生じない状況sが含まれる場合がある。
そこで、本実施形態では、抽出部19Cは、第1行動履歴情報20Aに示される状況sの各々を、第2行動モデルへ導入することで、該状況sに対応する推奨行動abを導出する。
そして、抽出部19Cは、第1行動履歴情報20Aに示される状況sごとに、対応する第1行動aaと、第2行動モデルを用いて導出した該対応する推奨行動abと、の差を算出する。
そして、抽出部19Cは、この第1行動aaと推奨行動abとの差が第2閾値以上の状況sを、特定状況として抽出する。
ここで、第1行動aaと推奨行動abとの差が小さいほど、第1行動aaは正常または良好な行動aである。また、第1行動aaと推奨行動abとの差が大きいほど、第1行動aaは異常または不良な行動である。
このため、第2閾値には、異常または不良な行動aとみなす、第1行動aaと推奨行動abとの差の範囲の下限値を予め定めればよい。なお、抽出部19Cは、コンテンツ32や第1ユーザU1や第2ユーザU2ごとに第2閾値を予め定め、これらの識別情報に対応づけて記憶部20へ予め記憶してもよい。そして、抽出部19Cは、特定状況の抽出時に、処理対象の第1ユーザU1、第2ユーザU2、およびコンテンツ32の識別情報に対応する第2閾値を記憶部20から読取り、特定状況の抽出に用いればよい。
上記処理により抽出部19Cは、第1ユーザU1の第1行動履歴情報20Aと、第2ユーザU2の第2行動モデルと、に基づいて、第1行動aaと推奨行動abとの差が第2閾値以上の状況sを、特定状況として抽出する。
なお、抽出部19Cは、第1行動履歴情報20Aにおける連続した第1行動aaの集合と、第2行動履歴情報20Bにおける連続した推奨行動abの集合と、の乖離度合を、該差として算出し、該差が第2閾値以上の状況sを、特定状況として抽出してもよい。
なお、抽出部19Cは、第1の実施形態の抽出部18Cと同様に、抽出した特定状況の発生要因を更に抽出してもよい。発生要因の抽出は、第1の実施形態と同様に、第1学習部18Aで学習した第1行動モデルを用いて実行すればよい。なお、情報処理装置10Bが、特定状況の発生要因の抽出を行わない場合には、制御部19は、第1学習部18Aを備えない構成であってもよい。
出力制御部18Dは、第1の実施形態と同様に、特定状況に関するアドバイス情報を出力する。
ここで、本実施形態では、特定状況は、第1行動aaと推奨行動abとの差が第2閾値以上の状況sである。このため、アドバイス情報は、第1ユーザU1の第1行動aaと第2ユーザU2の推奨行動abとの差を示す情報を更に含んでいてもよい。
具体的には、アドバイス情報は、特定状況の内容、特定状況の発生要因、特定状況に対するユーザUの行動aと推奨行動abとの差、および、特定状況の回避方法、の少なくとも1つを示す情報であればよい。
アドバイス情報が、特定状況に関する情報として、第1ユーザU1の第1行動aaと第2ユーザU2の推奨行動abとの差を示す情報を含むため、端末装置12で出力される情報は、該差を示す情報を含んだものであってもよい。
図12は、アドバイス情報を含む表示画面44の一例を示す模式図である。図12には、コンテンツ32がドライブゲーム32A(図2参照)である場合を一例として示した。例えば、端末装置12の制御部24は、ドライブゲーム32Aで提供されるゲーム画面に、アドバイス情報を示すラインP1およびラインP2を配置した、表示画面44をUI部26へ出力する。
ラインP1は、第1ユーザU1の第1行動aaを示す画像である。ラインP2は、第2ユーザU2の推奨行動abを示す画像である。端末装置12は、これらのラインP1およびラインP2を示す表示画面44を表示することで、第1ユーザU1の第1行動aaと第2ユーザU2の推奨行動abとの差を示す情報を出力してもよい。
なお、第1の実施形態と同様に、表示画面44は、情報処理装置10B側で生成してもよいし、端末装置12側で生成してもよい。
[第2の実施形態に係る情報処理手順]
次に、情報処理装置10Bが実行する情報処理の手順の一例を説明する。
図13は、情報処理装置10Bが実行する情報処理の手順の一例を示す、フローチャートである。
まず、第1学習部18Aが、記憶部20から第1行動履歴情報20Aを取得する(ステップS400)。次に、第1学習部18Aは、ステップS400で取得した第1行動履歴情報20Aに基づいて、第1行動モデルを学習する(ステップS402)。
次に、第2学習部18Bが、記憶部20から第2行動履歴情報20Bを取得する(ステップS404)。次に、第2学習部18Bは、ステップS404で取得した第2行動履歴情報20Bに基づいて、第2行動モデルを学習する(ステップS406)。
次に、抽出部19Cが、第1行動履歴情報20Aに示される状況sの各々を、ステップS406で学習した第2行動モデルへ入力することで、該状況sに対応する推奨行動abを導出する(ステップS408)。
そして、抽出部19Cは、第1行動履歴情報20Aに示される状況sごとに、対応する第1行動aaと、ステップS408で第2行動モデルを用いて導出した対応する推奨行動abと、の差が第2閾値以上の状況sを、特定状況として抽出する(ステップS410)。
次に、抽出部19Cが、ステップS402で学習した第1行動モデルと、ステップS410で抽出した特定状況と、に基づいて、第1の実施形態の抽出部18Cと同様にして、ステップS410で抽出した特定状況の発生要因を抽出する(ステップS412)。
次に、出力制御部18Dが、ステップS410で抽出した特定状況およびステップS412で抽出した発生要因に関するアドバイス情報を端末装置12へ出力する(ステップS414)。そして、本ルーチンを終了する。
以上説明したように、本実施形態の情報処理装置10Bでは、第2学習部18Bが、第2行動履歴情報20Bに基づいて、状況sから推奨行動abを導出するための行動モデルとして第2行動モデルを学習する。抽出部19Cは、第1行動履歴情報20Aと第2行動モデルとに基づいて、第1行動aaと推奨行動abとの差が第2閾値以上の状況sを特定状況として抽出する。
このように、本実施形態の情報処理装置10Bは、第1ユーザU1の第1行動履歴情報20Aに示される状況sに対応する第1行動aaと、第2行動モデルから導出した該状況sに対応する推奨行動abと、の差が第2閾値以上の状況sを、特定状況として抽出する。
このため、第1行動履歴情報20Aに示される状況sと、第2行動履歴情報20Bに示される状況sと、の少なくとも一部が不一致の場合であっても、第1行動履歴情報20Aに示される状況sの各々に対応する第2ユーザU2の推奨行動abを導出することができる。
従って、本実施形態の情報処理装置10Bは、上記実施形態の効果に加えて、精度良く、ユーザUの行動に応じたアドバイス情報を提供することができる。
また、アドバイス情報は、特定状況の内容、特定状況の発生要因、特定状況に対するユーザUの行動aと推奨行動abとの差、および、特定状況の回避方法、の少なくとも1つを示す。
このため、本実施形態の情報処理装置10Bは、上記効果に加えて、ユーザUの行動に応じた適切なアドバイス情報を提供することができる。
なお、上記には、本開示の実施形態および変形例を説明したが、上述した各実施形態および変形例に係る処理は、上記各実施形態および変形例以外にも種々の異なる形態にて実施されてよい。また、上述してきた各実施形態および変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
また、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
[上記実施形態および変形例の抽出装置および情報処理装置の適用対象]
上記実施形態および変形例に係る情報処理装置10、10A、10Bの適用対象は限定されない。例えば、ゲーム装置12Aを用いたシステムや、ゲーム開発者向けの開発ツールキットや、実空間のユーザUの行動に対するアドバイス情報を提供する各種システムなどに適用することができる。
ゲーム開発者向けの開発ツールキットに適用した場合、上記実施形態および変形例の効果に加えて、ゲーム内で動作するキャラクタやアバターなどの育成ゲームや、ゲームに搭載されたAI(Artificial Intelligence)の開発効率化を図ることができる。
(ハードウェア構成)
図14は、上記実施形態および変形例に係る情報処理装置10、10A、10Bおよび端末装置12の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。
コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェース1500、及び入出力インターフェース1600を有する。コンピュータ1000の各部は、バス1050によって接続される。
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。例えば、CPU1100は、ROM1300又はHDD1400に格納されたプログラムをRAM1200に展開し、各種プログラムに対応した処理を実行する。
ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるBIOS(Basic Input Output System)等のブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を非一時的に記録する、コンピュータが読み取り可能な記録媒体である。具体的には、HDD1400は、プログラムデータ1450の一例である本開示に係るプログラムなどを記録する記録媒体である。
通信インターフェース1500は、コンピュータ1000が外部ネットワーク1550(例えばインターネット)と接続するためのインターフェースである。例えば、CPU1100は、通信インターフェース1500を介して、他の機器からデータを受信したり、CPU1100が生成したデータを他の機器へ送信する。
入出力インターフェース1600は、入出力デバイス1650とコンピュータ1000とを接続するためのインターフェースである。例えば、CPU1100は、入出力インターフェース1600を介して、キーボードやマウス等の入力デバイスからデータを受信する。また、CPU1100は、入出力インターフェース1600を介して、ディスプレイやスピーカやプリンタ等の出力デバイスにデータを送信する。また、入出力インターフェース1600は、所定の記録媒体(メディア)に記録されたプログラム等を読み取るメディアインターフェイスとして機能してもよい。メディアとは、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が第1の実施形態に係る情報処理装置10として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされた情報処理プログラムを実行することにより、抽出部18C等の機能を実現する。また、HDD1400には、本開示に係る情報処理プログラムや、記憶部20や記憶部21内のデータが格納される。なお、CPU1100は、プログラムデータ1450をHDD1400から読み取って実行するが、他の例として、外部ネットワーク1550を介して、他の装置からこれらのプログラムを取得してもよい。
なお、本技術は以下のような構成も取ることができる。
(1)
ユーザの行動モデルに基づいて、前記ユーザの行動に応じて状況が変化するコンテンツの特定状況を抽出する抽出部と、
前記特定状況に関するアドバイス情報を出力する出力制御部と、
を備える情報処理装置。
(2)
前記状況と前記ユーザとしての第1ユーザの第1行動との対応を示す第1行動履歴情報に基づいて、前記状況から前記第1行動を導出するための前記行動モデルとして第1行動モデルを学習する第1学習部を備え、
前記抽出部は、
前記第1行動モデルから導出した前記第1行動を前記行動として入力したときに前記コンテンツから出力される前記状況の評価値が第1閾値以下の前記状況を、前記特定状況として抽出する、
前記(1)に記載の情報処理装置。
(3)
前記抽出部は、
前記特定状況の発生タイミングより前の期間の前記状況と前記第1行動との対応を、前記特定状況の発生要因として更に抽出する、
前記(2)に記載の情報処理装置。
(4)
前記抽出部は、
前記特定状況の発生タイミングより前の期間の前記状況の内、前記第1行動を補正した補正行動を前記行動として前記コンテンツに入力したときに、前記発生タイミングにおいて前記コンテンツから出力される前記状況の前記評価値が前記第1閾値を超える前記状況と前記第1行動との対応を、前記発生要因として抽出する、
前記(3)に記載の情報処理装置。
(5)
前記状況と前記ユーザとしての第2ユーザの推奨行動との対応を示す第2行動履歴情報に基づいて、前記状況から前記推奨行動を導出するための前記行動モデルとして第2行動モデルを学習する第2学習部を備え、
前記抽出部は、
前記状況と前記ユーザとしての第1ユーザの第1行動との対応を示す第1行動履歴情報と、前記第2行動モデルと、に基づいて、前記第1行動と前記推奨行動との差が第2閾値以上の前記状況を前記特定状況として抽出する、
前記(1)に記載の情報処理装置。
(6)
前記状況と前記ユーザとしての第1ユーザの第1行動との対応を示す第1行動履歴情報と、前記状況と前記ユーザとしての第2ユーザの推奨行動との対応を示す第2行動履歴情報と、に基づいて、
前記第1行動履歴情報の前記第1行動の内、前記推奨行動との差が所定値以上の前記第1行動を前記推奨行動に置換した第3行動履歴情報を生成する生成部と、
前記第3行動履歴情報に基づいて、前記状況から該第3行動履歴情報における前記第1行動および前記推奨行動としての第3行動を導出するための前記行動モデルとして第3行動モデルを学習する第3学習部と、
を備え、
前記抽出部は、
前記第3行動モデルから導出した前記第3行動を前記行動として入力したときに前記コンテンツから出力される前記状況の評価値が第3閾値以上の前記状況を、前記特定状況として抽出する、
前記(1)に記載の情報処理装置。
(7)
前記アドバイス情報は、
前記特定状況の内容、前記特定状況の発生要因、前記特定状況に対するユーザの行動と推奨行動との差、および、前記特定状況の回避方法、の少なくとも1つを示す、
前記(1)~前記(6)の何れか1つに記載の情報処理装置。
(8)
コンピュータが、
ユーザの行動モデルに基づいて、前記ユーザの行動に応じて状況が変化するコンテンツの特定状況を抽出し、
前記特定状況に関するアドバイス情報を出力する、
情報処理方法。
10、10A、10B 情報処理装置
17E 生成部
17F 第3学習部
18A 第1学習部
18B 第2学習部
18C、19C 抽出部
18D 出力制御部

Claims (6)

  1. ユーザの行動モデルに基づいて、前記ユーザの行動に応じて状況が変化するコンテンツの特定状況を抽出する抽出部と、
    前記特定状況に関するアドバイス情報を出力する出力制御部と、
    前記状況と前記ユーザとしての第1ユーザの第1行動との対応を示す第1行動履歴情報に基づいて、前記状況から前記第1行動を導出するための前記行動モデルとして第1行動モデルを学習する第1学習部と、
    を備え、
    前記抽出部は、
    前記第1行動モデルから導出した前記第1行動を前記行動として入力することで、仮想的に前記コンテンツを前記ユーザがプレイしたものとして得られる履歴情報に基づいて、前記特定状況を抽出する、
    情報処理装置であって、
    前記抽出部は、
    前記第1行動モデルから導出した前記第1行動を前記行動として入力したときに前記コンテンツから出力される前記状況の評価値が第1閾値以下の前記状況を、前記特定状況として抽出するとともに、前記特定状況の発生タイミングより前の期間の前記状況の内、前記第1行動を補正した補正行動を前記行動として前記コンテンツに入力したときに、前記発生タイミングにおいて前記コンテンツから出力される前記状況の前記評価値が前記第1閾値を超える前記状況と前記第1行動との対応を、前記特定状況の発生要因として抽出する、
    情報処理装置。
  2. 前記状況と前記ユーザとしての第2ユーザの推奨行動との対応を示す第2行動履歴情報に基づいて、前記状況から前記推奨行動を導出するための前記行動モデルとして、前記第1行動モデルとは異なる第2行動モデルを学習する第2学習部を備え、
    前記抽出部は、
    前記状況と前記ユーザとしての第1ユーザの第1行動との対応を示す第1行動履歴情報と、前記第2行動モデルと、に基づいて、前記第1行動と前記推奨行動との差が第2閾値以上の前記状況を前記特定状況として抽出する、
    請求項1に記載の情報処理装置。
  3. ユーザの行動モデルに基づいて、前記ユーザの行動に応じて状況が変化するコンテンツの特定状況を抽出する抽出部と、
    前記特定状況に関するアドバイス情報を出力する出力制御部と、
    前記状況と前記ユーザとしての第1ユーザの第1行動との対応を示す第1行動履歴情報に基づいて、前記状況から前記第1行動を導出するための前記行動モデルとして第1行動モデルを学習する第1学習部と、
    を備え、
    前記抽出部は、
    前記第1行動モデルから導出した前記第1行動を前記行動として入力することで、仮想的に前記コンテンツを前記ユーザがプレイしたものとして得られる履歴情報に基づいて、前記特定状況を抽出する、
    情報処理装置であって、さらに、
    記状況と前記ユーザとしての第1ユーザの第1行動との対応を示す第1行動履歴情報と、前記状況と前記ユーザとしての第2ユーザの推奨行動との対応を示す第2行動履歴情報と、に基づいて、
    前記第1行動履歴情報の前記第1行動の内、前記推奨行動との差が所定値以上の前記第1行動を前記推奨行動に置換した第3行動履歴情報を生成する生成部と、
    前記第3行動履歴情報に基づいて、前記状況から該第3行動履歴情報における前記第1行動および前記推奨行動としての第3行動を導出するための前記行動モデルとして、前記第1行動モデルとは異なる第3行動モデルを学習する第3学習部と、
    を備え、
    前記抽出部は、
    前記第3行動モデルから導出した前記第3行動を前記行動として入力したときに前記コンテンツから出力される前記状況の評価値が第3閾値以上の前記状況を、前記特定状況として抽出する
    報処理装置。
  4. 前記アドバイス情報は、
    前記特定状況の内容、前記特定状況の発生要因、前記特定状況に対するユーザの行動と推奨行動との差、および、前記特定状況の回避方法、の少なくとも1つを示す、
    請求項1または3に記載の情報処理装置。
  5. コンピュータが、
    ユーザの行動モデルに基づいて、前記ユーザの行動に応じて状況が変化するコンテンツの特定状況を抽出し、
    前記特定状況に関するアドバイス情報を出力し、
    前記状況と前記ユーザとしての第1ユーザの第1行動との対応を示す第1行動履歴情報に基づいて、前記状況から前記第1行動を導出するための前記行動モデルとして第1行動モデルを学習する、
    情報処理方法であって、
    前記第1行動モデルから導出した前記第1行動を前記行動として入力することで、仮想的に前記コンテンツを前記ユーザがプレイしたものとして得られる履歴情報に基づいて、前記特定状況を抽出し、さらに、前記第1行動モデルから導出した前記第1行動を前記行動として入力したときに前記コンテンツから出力される前記状況の評価値が第1閾値以下の前記状況を、前記特定状況として抽出するとともに、前記特定状況の発生タイミングより前の期間の前記状況の内、前記第1行動を補正した補正行動を前記行動として前記コンテンツに入力したときに、前記発生タイミングにおいて前記コンテンツから出力される前記状況の前記評価値が前記第1閾値を超える前記状況と前記第1行動との対応を、前記特定状況の発生要因として抽出する、
    情報処理方法。
  6. コンピュータが、
    ユーザの行動モデルに基づいて、前記ユーザの行動に応じて状況が変化するコンテンツの特定状況を抽出し、
    前記特定状況に関するアドバイス情報を出力し、
    前記状況と前記ユーザとしての第1ユーザの第1行動との対応を示す第1行動履歴情報に基づいて、前記状況から前記第1行動を導出するための前記行動モデルとして第1行動モデルを学習する、
    情報処理方法であって、
    前記第1行動モデルから導出した前記第1行動を前記行動として入力することで、仮想的に前記コンテンツを前記ユーザがプレイしたものとして得られる履歴情報に基づいて、前記特定状況を抽出し、さらに、
    前記状況と前記ユーザとしての第1ユーザの第1行動との対応を示す第1行動履歴情報と、前記状況と前記ユーザとしての第2ユーザの推奨行動との対応を示す第2行動履歴情報と、に基づいて、
    前記第1行動履歴情報の前記第1行動の内、前記推奨行動との差が所定値以上の前記第1行動を前記推奨行動に置換した第3行動履歴情報を生成し、
    前記第3行動履歴情報に基づいて、前記状況から該第3行動履歴情報における前記第1行動および前記推奨行動としての第3行動を導出するための前記行動モデルとして、前記第1行動モデルとは異なる第3行動モデルを学習し、前記第3行動モデルから導出した前記第3行動を前記行動として入力したときに前記コンテンツから出力される前記状況の評価値が第3閾値以上の前記状況を、前記特定状況として抽出する、
    情報処理方法。
JP2020527215A 2018-06-29 2019-03-28 情報処理装置、および情報処理方法 Active JP7375751B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018124453 2018-06-29
JP2018124453 2018-06-29
PCT/JP2019/013846 WO2020003670A1 (ja) 2018-06-29 2019-03-28 情報処理装置、および情報処理方法

Publications (2)

Publication Number Publication Date
JPWO2020003670A1 JPWO2020003670A1 (ja) 2021-08-02
JP7375751B2 true JP7375751B2 (ja) 2023-11-08

Family

ID=68987000

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020527215A Active JP7375751B2 (ja) 2018-06-29 2019-03-28 情報処理装置、および情報処理方法

Country Status (3)

Country Link
US (1) US20210260482A1 (ja)
JP (1) JP7375751B2 (ja)
WO (1) WO2020003670A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113163955A (zh) * 2018-11-29 2021-07-23 提爱思科技股份有限公司 座椅系统和座椅型体验装置
JP7417451B2 (ja) 2020-03-24 2024-01-18 株式会社 ディー・エヌ・エー 電子ゲーム情報処理装置及び電子ゲーム情報処理プログラム
KR20230073684A (ko) * 2021-11-19 2023-05-26 현대자동차주식회사 추천 알고리즘 기반 문제 조치 제안 시스템 및 그 방법
US20230249074A1 (en) * 2022-02-08 2023-08-10 Sony Group Corporation Artificial intelligence for driving lines in racing games

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013066550A (ja) 2011-09-21 2013-04-18 Univ Of Fukui 分析システム、分析方法及び分析プログラム
JP2013084175A (ja) 2011-10-12 2013-05-09 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2014018324A (ja) 2012-07-13 2014-02-03 Konami Digital Entertainment Co Ltd ゲーム管理装置、ゲームシステム、ゲーム管理方法及びプログラム
JP2014228725A (ja) 2013-05-23 2014-12-08 ソニー株式会社 情報処理装置及び記憶媒体

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5555454B2 (ja) * 2009-08-04 2014-07-23 株式会社タイトー ゲーム装置、ゲームサーバ、ゲームプログラム
WO2018150654A1 (ja) * 2017-02-15 2018-08-23 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
US11406907B2 (en) * 2020-03-31 2022-08-09 Sony Interactive Entertainment Inc. Player feedback to increase spectatorship in a video game
US11400378B2 (en) * 2020-06-30 2022-08-02 Sony Interactive Entertainment LLC Automatic separation of abusive players from game interactions

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013066550A (ja) 2011-09-21 2013-04-18 Univ Of Fukui 分析システム、分析方法及び分析プログラム
JP2013084175A (ja) 2011-10-12 2013-05-09 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2014018324A (ja) 2012-07-13 2014-02-03 Konami Digital Entertainment Co Ltd ゲーム管理装置、ゲームシステム、ゲーム管理方法及びプログラム
JP2014228725A (ja) 2013-05-23 2014-12-08 ソニー株式会社 情報処理装置及び記憶媒体

Also Published As

Publication number Publication date
JPWO2020003670A1 (ja) 2021-08-02
WO2020003670A1 (ja) 2020-01-02
US20210260482A1 (en) 2021-08-26

Similar Documents

Publication Publication Date Title
JP7375751B2 (ja) 情報処理装置、および情報処理方法
US10357718B2 (en) Realtime dynamic modification and optimization of gameplay parameters within a video game application
JP6082101B2 (ja) 身体動作採点装置、ダンス採点装置、カラオケ装置及びゲーム装置
KR101701073B1 (ko) 게임기, 그것에 사용하는 제어 방법 및 기억 매체
Laraba et al. Dance performance evaluation using hidden Markov models
JP2017055913A (ja) 動作フォーム判定装置、判定方法、判定プログラム、判定システム
CN112672795B (zh) 游戏内资源呈现平台
US20210170230A1 (en) Systems and methods for training players in a sports contest using artificial intelligence
US20230177755A1 (en) Predicting facial expressions using character motion states
US20230024586A1 (en) Learning device, learning method, and recording medium
KR102183894B1 (ko) 가상 현실을 이용한 컴퓨터 기반 학습 평가 시스템 및 이의 동작 방법
KR102031177B1 (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
US11468270B2 (en) Electronic device and feedback information acquisition method therefor
JP6103683B2 (ja) ロールプレイングゲームの攻略法算出装置、算出方法、算出プログラム及びこのプログラムを記録した記録媒体
WO2021049254A1 (ja) 情報処理方法、情報処理装置及びプログラム
CA3087629C (en) System for managing user experience and method therefor
US20160225273A1 (en) Methods and systems for evaluating user
US20090083127A1 (en) Analysis apparatus, program and analysis method
US20230080056A1 (en) Systems and methods for evaluating game elements
JP7322878B2 (ja) 情報処理装置、および情報処理方法
US20140113719A1 (en) Computing device and video game direction method
CN112131426B (zh) 游戏教学视频推荐方法、装置、电子设备和存储介质
EP3077069B1 (en) Program, recording medium, information processing apparatus, and control method
CN113476833B (zh) 游戏动作识别方法、装置、电子设备和存储介质
JPH11309273A (ja) ゲーム装置、ゲーム処理方法および記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231009

R151 Written notification of patent or utility model registration

Ref document number: 7375751

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151