JP2019159389A - 情報処理装置、情報処理方法、及び記録媒体 - Google Patents

情報処理装置、情報処理方法、及び記録媒体 Download PDF

Info

Publication number
JP2019159389A
JP2019159389A JP2018040920A JP2018040920A JP2019159389A JP 2019159389 A JP2019159389 A JP 2019159389A JP 2018040920 A JP2018040920 A JP 2018040920A JP 2018040920 A JP2018040920 A JP 2018040920A JP 2019159389 A JP2019159389 A JP 2019159389A
Authority
JP
Japan
Prior art keywords
information processing
processing apparatus
estimation
information
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018040920A
Other languages
English (en)
Inventor
拓也 池田
Takuya Ikeda
拓也 池田
文彦 飯田
Fumihiko Iida
文彦 飯田
健太郎 井田
Kentaro Ida
健太郎 井田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2018040920A priority Critical patent/JP2019159389A/ja
Priority to PCT/JP2018/044471 priority patent/WO2019171685A1/ja
Priority to US16/964,030 priority patent/US11361541B2/en
Priority to DE112018007232.0T priority patent/DE112018007232T5/de
Publication of JP2019159389A publication Critical patent/JP2019159389A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F7/00Indoor games using small moving playing bodies, e.g. balls, discs or blocks
    • A63F7/06Games simulating outdoor ball games, e.g. hockey or football
    • A63F7/0604Type of ball game
    • A63F7/0632Hockey
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F7/00Indoor games using small moving playing bodies, e.g. balls, discs or blocks
    • A63F7/06Games simulating outdoor ball games, e.g. hockey or football
    • A63F7/07Games simulating outdoor ball games, e.g. hockey or football in which the playing bodies contact, or are supported by, the playing surface continuously, e.g. using air-cushion support
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/812Ball games, e.g. soccer or baseball
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F9/00Games not otherwise provided for
    • A63F9/24Electric games; Games using electronic circuits not otherwise provided for
    • A63F2009/2448Output devices
    • A63F2009/245Output devices visual
    • A63F2009/2461Projection of a two-dimensional real image
    • A63F2009/2463Projection of a two-dimensional real image on a screen, e.g. using a video projector
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2250/00Miscellaneous game characteristics
    • A63F2250/10Miscellaneous game characteristics with measuring devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】より好適なユーザ体験を提供する。【解決手段】所定の対象物の時系列に沿った位置の検出結果の履歴と、前記対象物の周囲の環境の認識結果と、に応じた、当該対象物の動きの推定結果を示す情報を取得する取得部と、前記推定結果に応じた表示態様で表示情報が提示されるように制御する制御部と、を備える、情報処理装置。【選択図】図1

Description

本開示は、情報処理装置、情報処理方法、及び記録媒体に関する。
ユーザ入力に応じて各種情報を提示することで、ユーザに多様な体験を提供可能とする技術が各種提案されている。例えば、特許文献1には、所謂エアホッケーゲーム装置において、盤面上のパックの動きに応じて、予測されるパックの進路を示す演出画像を提示することでゲームを盛り上げる技術の一例が開示されている。
特開2012−29750号公報
一方で、実空間内の物体の動きが当該物体の周囲の環境に応じて変化するような状況も想定され得る。このような状況を鑑みると、例えば、実空間内の所定の対象物(物体)の動きの変化に応じてユーザへの各種情報の提示が制御されることで、当該ユーザに対して新たな体験を提供可能となる効果が期待される。
そこで、本開示では、より好適なユーザ体験を提供することが可能な技術を提案する。
本開示によれば、所定の対象物の時系列に沿った位置の検出結果の履歴と、前記対象物の周囲の環境の認識結果と、に応じた、当該対象物の動きの推定結果を示す情報を取得する取得部と、前記推定結果に応じた表示態様で表示情報が提示されるように制御する制御部と、を備える、情報処理装置が提供される。
また、本開示によれば、コンピュータが、所定の対象物の時系列に沿った位置の検出結果の履歴と、前記対象物の周囲の環境の認識結果と、に応じた、当該対象物の動きの推定結果を示す情報を取得することと、前記推定結果に応じた表示態様で表示情報が提示されるように制御することと、を含む、情報処理方法が提供される。
また、本開示によれば、コンピュータに、所定の対象物の時系列に沿った位置の検出結果の履歴と、前記対象物の周囲の環境の認識結果と、に応じた、当該対象物の動きの推定結果を示す情報を取得することと、前記推定結果に応じた表示態様で表示情報が提示されるように制御することと、を実行させるプログラムが記録された記録媒体が提供される。
以上説明したように本開示によれば、より好適なユーザ体験を提供することが可能な技術が提供される。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係る情報処理システムのシステム構成の一例について説明するための説明図である。 同実施形態に係る情報処理システムの機能構成の一例を示したブロック図である。 対象物の位置の検出方法の一例について説明するための説明図である。 対象物の位置の検出結果の履歴に応じて、当該対象物の動きを推定する処理の概要について説明するための説明図である。 同実施形態に係る情報処理装置による対象物の動きの推定方法の一例について説明するための説明図である。 撮像部と出力部との間における座標変換の概要について説明するための説明図である。 対象物に重畳するように提示される表示情報の一例について説明するための説明図である。 同実施形態に係る情報処理システムの一連の処理の流れの一例について示したフローチャートである。 変形例1に係る対象物の動きの推定方法の一例について概要を説明するための説明図である。 変形例1に係る情報処理システムの一連の処理の流れの一例について示したフローチャートである。 変形例1に係る情報処理システムの一連の処理の流れの一例について示したフローチャートである。 変形例2に係る情報処理装が対象物の動きの推定結果に応じて提示する情報の提示態様の一例について説明するための説明図である。 変形例2に係る情報処理装置が対象物の動きの推定結果に応じて提示する情報の提示態様の他の一例について説明するための説明図である。 変形例2に係る情報処理装置が対象物の動きの推定結果に応じて提示する情報の提示態様の他の一例について説明するための説明図である。 変形例2に係る情報処理装置が対象物の動きの推定結果に応じて提示する情報の提示態様の他の一例について説明するための説明図である。 変形例3に係る情報処理装置による対象物の動きの推定方法の一例について説明するための説明図である。 変形例3に係る情報処理装置による対象物の動きの推定方法の他の一例について説明するための説明図である。 同実施形態に係る情報処理システムの応用例1について概要を説明するための説明図である。 応用例1に係る情報処理システムにおける、対象物の動きの推定結果に応じた情報の提示態様の一例について説明するための説明図である。 応用例1に係る情報処理システムにおける、対象物の動きの推定結果に応じた情報の提示態様の他の一例について説明するための説明図である。 応用例1に係る情報処理システムにおける、対象物の動きの推定結果に応じた情報の提示態様の他の一例について説明するための説明図である。 応用例1に係る情報処理システムにおける、対象物の動きの推定結果に応じた情報の提示態様の他の一例について説明するための説明図である。 同実施形態に係る情報処理システムの応用例2について概要を説明するための説明図である。 同実施形態に係る情報処理システムの応用例2の他の一態様について説明するための説明図である。 同実施形態に係る情報処理システムの応用例3について概要を説明するための説明図である。 応用例3に係る情報処理システムにおいてユーザに視認される情報の一例について説明するための説明図である。 応用例3に係る情報処理システムにおいてユーザに視認される情報の他の一例について説明するための説明図である。 本開示の一実施形態に係る情報処理システムを構成する情報処理装置のハードウェア構成の一例を示す機能ブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.システム構成
2.機能構成
3.処理
4.変形例
4.1.変形例1:対象物の動きの推定方法の他の一例
4.2.変形例2:ビジュアル表現の一例
4.3.変形例3:対象物の動きの推定に係る制御の一例
5.応用例
5.1.応用例1:3次元的な処理への拡張例
5.2.応用例2:手書き入力システムへの応用例
5.3.応用例3:AR技術への応用例
6.ハードウェア構成
7.むすび
<<1.システム構成>>
まず、図1を参照して、本開示の一実施形態に係る情報処理システムのシステム構成の一例について説明する。図1は、本開示の一実施形態に係る情報処理システムのシステム構成の一例について説明するための説明図である。図1に示す例では、本実施形態に係る情報処理システムを、所謂エアホッケーのゲームシステムとして実現した場合の一例を示している。具体的には、情報処理システム1は、所定の形状のステージM105に配置されたパックM101を所定の対象物として認識し、当該パックM101の動きの認識結果に応じて、当該ステージM105上に映像を投影することで、ユーザに対して新たな体験を提供する。
具体的には、図1に示すように本実施形態に係る情報処理システム1は、情報処理装置100と、撮像部151と、出力部155とを含む。また、情報処理システム1は、投光部153を含んでもよい。
撮像部151は、所定の領域内(即ち、撮像範囲内)の被写体の画像を撮像し、撮像した当該画像を情報処理装置100に出力する。図1において、参照符号R101は、撮像部151の撮像範囲(換言すると、撮像部151の画角)を模式的に示している。即ち、図1に示す例では、ステージM105は、撮像部151の撮像範囲R101内に位置するように配設される。このような構成により、ステージM105にパックM101が配置された状況下では、当該パックM101が被写体として上記画像中に撮像されることとなる。即ち、当該画像を解析することで、ステージM105におけるパックM101の位置を検出することも可能となる。
また、パックM101の検出に、赤外光(IR)等のような所定の波長の光が利用されてもよい。例えば、投光部153は、赤外光を発光する光源を備え、所定の領域内に当該赤外光を投光する。図1に示す例では、ステージM105は、投光部153が赤外光を投光する範囲内に位置するように配設される。また、図1に示す例では、パックM101の表面に対して、赤外光を反射する再帰性反射マーカM103が付されている。このような構成により、ステージM105に向けて投光部153から赤外光が投光されると、当該赤外光のうちの一部がパックM101に付された再帰性反射マーカM103で反射し、反射光(赤外光)が撮像部151により検出(撮像)される。即ち、撮像部151の撮像範囲内(画角内)における当該反射光が検出された位置に応じて、ステージM105におけるパックM101の位置を検出することも可能となる。
出力部155は、所謂プロジェクタに相当し、所定の領域内に情報を映像(表示情報)として投影することで、当該情報を提示する。図1において、参照符号R103は、出力部155により映像が投影される範囲(以下、「出力範囲」とも称する)を模式的に示している。例えば、図1に示す例では、ステージM105は、出力部155の出力範囲R103内に位置するように配設される。このような構成により、出力部155は、ステージM105の所望の位置に映像を投影することが可能となる。
また、出力部155は、映像の投影とは異なる他の方法で情報を提示するための構成を備えていてもよい。具体的な一例として、出力部155は、スピーカ等のような音響出力部を備えてもよい。このような構成により、出力部155は、音響(例えば、楽曲や効果音等)や音声として情報を提示することも可能となる。
以上のような構成の基で、情報処理装置100は、撮像部151により撮像された画像に対して上述したような解析処理を施すことで、当該画像中に被写体として撮像された所定の対象物(即ち、パックM101)を認識する。また、このとき情報処理装置100は、撮像部151により逐次撮像された画像を逐次解析することで、パックM101の時系列に沿った位置の検出結果の履歴を取得してもよい。このようにして取得された履歴を解析することで、情報処理装置100は、パックM101の画像が撮像されたタイミング(即ち、パックM101の位置を検出したタイミング)以降における当該パックM101の動きを推定する。そして、情報処理装置100は、パックM101の動きの推定結果に応じて、ステージM105の所望の位置に所望の映像が投影されるように出力部155の動作を制御する。このような制御により、例えば、ステージM105内を動き回るパックM101に対して所望の映像が重畳するように、出力部155による当該映像の投影を制御することが可能となる。なお、以降の説明では、図1に示すパックM101のように、情報処理装置100が、動きの推定の対象とする物体を便宜上、単に「対象物」と称する場合がある。そのため、以降の説明では、「対象物」と記載した場合には、特に説明が無い限りは、情報処理装置100が動きの推定の対象とする物体を示すものとする。
また、本実施形態に係る情報処理装置100は、対象物(例えば、パックM101)の周囲の環境を認識することで、当該環境を加味して、当該対象物の動きを推定してもよい。例えば、図1に示す例の場合には、情報処理装置100は、撮像部151により撮像された画像の解析によりステージM105の外壁を認識することで、当該外壁に対するパックM101の衝突に応じた、当該パックM101の動きの変化を推定することも可能となる。このような構成により、情報処理装置100は、壁面への衝突に応じたパックM101の動きの変化を加味して、当該パックM101に対して所望の映像が重畳するように制御することが可能となる。また、他の一例として、情報処理装置100は、パックM101が壁面に衝突するタイミングに同期して、当該パックM101と壁面とが衝突する位置に所望の映像(例えば、衝突を演出する映像)を投影したり、パックM101に重畳させた映像の表示態様を制御することも可能となる。
また、情報処理装置100は、ステージM105の底面の認識結果に応じて、当該底面の材質を推定し、当該材質の推定結果に応じて、動き回るパックM101と当該底面との間の摩擦を推定してもよい。これにより、情報処理装置100は、パックM101と、ステージM105の底面との間に働く摩擦力に応じた、当該パックM101の動きの変化を推定することも可能となる。
以上のように、本開示の一実施形態に係るシステム1において、情報処理装置100は、実空間内の対象物の時系列に沿った位置の検出結果の履歴を利用することで、当該対象物の動きを推定する。また、このとき情報処理装置100は、上記対象物の周囲の環境を認識することで、当該環境の認識結果、特に、上記対象物の運動に影響を及ぼすことが推定される外的要因の認識結果に応じて、当該対象物の動きを推定してもよい。そして、情報処理装置100は、上記対象物の動きの推定結果に応じて情報(例えば、映像等の表示情報)が提示されるように制御する。具体的な一例として、情報処理装置100は、対象物の動きの推定結果に応じた位置に表示情報が提示されるように制御してもよい。また、他の一例として、情報処理装置100は、対象物の動きの推定結果に応じた表示態様で表示情報が提示されるように制御してもよい。このような構成により、本実施形態に係る情報処理システムは、ユーザに対して多様な体験をより好適な態様で提供することが可能となる。
なお、図1に示したシステム構成はあくまで一例であり、必ずしも本実施形態に係る情報処理システム1のシステム構成を限定するものではない。具体的な一例として、情報処理システム1の各構成のうち少なくとも2以上の構成が一体的に構成されていてもよい。具体的な一例として、撮像部151、投光部153、及び出力部155が一体的に構成されていてもよい。また、情報処理装置100の機能が、互いに連携して動作する複数の装置により実現されてもよい。
以上、図1を参照して、本開示の一実施形態に係る情報処理システムのシステム構成の一例について説明した。
<<2.機能構成>>
続いて、本開示の一実施形態に係る情報処理システムの機能構成の一例について、特に、情報処理装置100の機能構成に着目して説明する。例えば、図2は、本実施形態に係る情報処理システムの機能構成の一例を示したブロック図である。
図2において、情報処理装置100、撮像部151、投光部153、及び出力部155は、図1に示す情報処理装置100、撮像部151、投光部153、及び出力部155にそれぞれ相当する。また、図2に示すように、情報処理装置100は、収集処理部101と、環境情報生成部103と、記憶部105と、対象物検出部107と、推定処理部109と、出力制御部111とを含む。
収集処理部101は、所定の領域内の対象物や、当該対象物の周囲の環境を認識するための情報を収集する。具体的な一例として、収集処理部101は、撮像部151に撮像される画像を当該撮像部151から所定のフレームごとに逐次取得する。また、収集処理部101は、撮像部151が画像を撮像するタイミングにあわせて、投光部153が当該撮像部151の撮像範囲内に赤外光を投光するように、当該投光部153の動作を制御してもよい。このような構成により、例えば、図1に示す例のように、対象物となるパックM101に対して再帰性反射マーカM103が付されている場合には、当該再帰性反射マーカM103で反射した赤外光が画像中に撮像されることとなる。そして、収集処理部101は、収集した情報(例えば、撮像部151により撮像された画像)を、環境情報生成部103及び対象物検出部107に出力する。
なお、以降では、主に撮像部151により撮像された画像に基づき対象物等のような実空間内の物体や、当該物体の周囲の環境を認識するものとして説明するが、当該物体や当該環境を認識することが可能であればそのための構成は特に限定されない。具体的な一例として、デプスセンサや測距センサ等を利用して、実空間内の物体までの距離を測定することで、当該物体や、当該物体の周囲の環境を認識することも可能である。なお、実空間内の物体との間の距離を測定(推定)する手法としては、例えば、マルチカメラステレオ、移動視差、TOF(Time Of Flight)、Structured Light等の技術に基づく手法が挙げられる。また、上記では、投光部153により投光され対象物で反射した赤外光を撮像部151により検出する例について説明したが、当該赤外光を検出する構成が撮像部151とは別に設けられていてもよい。具体的な一例として、可視光を遮断するフィルタが用いられた撮像部を別途設けることで、対象物で反射した赤外光を効率よく検出することも可能である。また、光センサや磁気センサ等の各種センサが、実空間内の物体(例えば、上記対象物)や当該物体の周囲の環境を認識するための情報の取得に利用されてもよい。また、複数種類の情報を実空間内の物体や当該物体の周囲の環境の認識に利用することで、当該認識の精度をより向上させることも可能である。
環境情報生成部103は、収集処理部101により収集された各種情報に基づき、所定の領域内(例えば、撮像部151の撮像範囲内)における、対象物の周囲の環境を認識する。具体的な一例として、環境情報生成部103は、上記対象物以外の他の物体等のように、当該対象物の運動に影響を及ぼすことが推定される外的要因を認識してもよい。より具体的な一例として、環境情報生成部103は、撮像部151により撮像された画像に対して画像解析を施すことで、当該画像に被写体として撮像されたステージM105の外壁を、対象物であるパックM101の周囲の環境(即ち、当該パックM101の運動に影響を及ぼすことが推定される外的要因)として認識してもよい。また、あらかじめ生成された環境情報が参照されてもよい。あらかじめ環境情報を生成する方法としては、例えば、CADデータなど寸法データを取り込む方法や、類似環境での環境情報を流用する方法等が挙げられる。なお、環境情報生成部103が認識の対象とする上記外的要因に応じて、当該外的要因の認識に利用される情報(即ち、収集処理部101により収集される情報)や、当該認識の方法は適宜変更されてもよい。
また、図1に示す例では、撮像部151、投光部153、及び出力部155が所定の位置に固定的に保持されているが、撮像部151、投光部153、及び出力部155が移動可能に保持される場合も想定され得る。このような場合においては、所謂自己位置推定技術を利用することで、撮像部151、投光部153、及び出力部155の周囲の環境を認識することで、対象物の周囲の環境を認識してもよい。
ここで、自己位置推定に係る技術のより具体的な一例として、SLAM(simultaneous localization and mapping)と称される技術について概要を説明する。SLAMとは、カメラ等の撮像部、各種センサ、エンコーダ等を利用することにより、自己位置推定と環境地図の作成とを並行して行う技術である。より具体的な一例として、SLAM(特に、Visual SLAM)では、撮像部により撮像された動画像に基づき、撮像されたシーン(または、被写体)の3次元形状を逐次的に復元する。そして、撮像されたシーンの復元結果を、撮像部の位置及び姿勢の検出結果と関連付けることで、周囲の環境の地図の作成と、当該環境における撮像部の位置及び姿勢の推定とが行われる。なお、撮像部の位置及び姿勢については、例えば、当該撮像部が保持された装置に加速度センサや角速度センサ等の各種センサを設けることで、当該センサの検出結果に基づき相対的な変化を示す情報として推定することが可能である。もちろん、撮像部の位置及び姿勢を推定可能であれば、その方法は、必ずしも加速度センサや角速度センサ等の各種センサの検知結果に基づく方法のみには限定されない。
そして、環境情報生成部103は、所定の領域内おける、所定の対象物の周囲の環境の認識結果に応じた情報を、所定の記憶領域(例えば、記憶部105)に記憶させる。
記憶部105は、各種データを一時的または恒常的に記憶するための記憶領域である。例えば、記憶部105には、情報処理装置100が各種機能を実行するためのデータが記憶されていてもよい。具体的な一例として、記憶部105には、各種アプリケーションを実行するためのデータ(例えば、ライブラリ)や各種設定等を管理するための管理データ等が記憶されていてもよい。また、上述の通り、記憶部105には、環境情報生成部103による環境の認識結果に応じた情報が記憶されてもよい。
対象物検出部107は、収集処理部101により収集された各種情報に基づき、所定の領域内(例えば、撮像部151の撮像範囲内)における、対象物の位置を検出する。また、このとき対象物検出部107は、対象物検出部107により所定のフレームごとに逐次収集される情報に基づき、上記対象物の位置を逐次検出し、フレームごとの当該対象物の位置の検出結果を時系列に沿って履歴として記録してもよい。
ここで、図3を参照して、所定の領域内における対象物の位置の検出方法の一例として、投光部153により投光され対象物で反射した赤外光の検出結果を利用して対象物の位置を検出する方法の一例について説明する。図3は、対象物の位置の検出方法の一例について説明するための説明図である。具体的には、図3に示す例では、対象物の位置を検出するための情報として、可視光を遮断するフィルタが用いられた撮像部により撮像された、上記所定の領域内のIR画像を利用している。例えば、図3において参照符号V11が付された入力画像は、当該IR画像の一例を示している。図3に示すように、入力画像V11には、対象物で反射した赤外光が被写体として撮像されている。
対象物検出部107は、入力画像V11に対して2値化の処理を施す。例えば、参照符号V12は、入力画像V11に対して2値化の処理が施された画像(以下、「2値化画像V12」とも称する)を示している。以上のように2値化が施されることで、入力画像V11に比べて、被写体として撮像された反射光(赤外光)の輪郭がより強調される。このような特性を利用し、対象物検出部107は、2値化画像V12に対して画像解析を施すことで、被写体として撮像された赤外光の輪郭を抽出する。例えば、参照符号V13は、2値化画像V12からの被写体として撮像された反射光の輪郭の抽出結果を示している。次いで、対象物検出部107は、輪郭の抽出結果V13に基づき、被写体として撮像された反射光の重心の位置を特定する。参照符号V14は、輪郭の抽出結果に基づき特定された当該輪郭の重心を模式的に示している。対象物検出部107は、以上のようにして特定した重心の位置を、対象物(例えば、図1に示すパックM101)の位置として検出する。
なお、図3を参照して説明した例はあくまで一例であり、対象物検出部107による対象物の位置の検出に係る処理の内容を限定するものではない。具体的な一例として、対象物に対してカラーマーカを付したうえで、対象物検出部107は、撮像部により撮像されたカラー画像から色抽出処理等により当該カラーマーカを抽出することで、当該対象物の位置を検出してもよい。また、他の一例として、対象物検出部107は、対象物の特徴的な形状(例えば、エッジ等)の特徴量等に基づき、撮像部により撮像された画像から対象物を抽出することで、当該対象物の位置を検出してもよい。
また、対象物を追従するように位置を検出する場合には、検出対象となる画像中における対象物(被写体)の探索範囲が制御されてもよい。例えば、対象物検出部107は、あるフレームについて対象物の位置を検出する場合に、当該フレームより前のフレームにおいて検出された対象物の位置を基点として、当該基点のより近傍から優先的に探索を行ってもよい。また、他の一例として、対象物検出部107は、あるフレームについて対象物の位置を検出する場合に、当該フレームより前のフレームにおける対象物の位置の検出結果に基づき当該対象物の動きをベクトルとして算出し、当該ベクトル方向を優先して探索を行ってもよい。以上のような制御により、対象物検出部107は、画像全体を探索せずとも、当該画像中から対象物(被写体)を効率よく検出することが可能となる。
そして、対象物検出部107は、所定の領域内における対象物の位置の検出結果に応じた情報(換言すると、対象物の位置の検出結果の履歴に応じた情報)を、上記所定のフレームごとに推定処理部109に逐次出力する。
推定処理部109は、所定のフレームごとに対象物検出部107から逐次出力される、対象物の位置の検出結果に応じた情報に基づき、当該位置が検出された最新のフレーム(即ち、検出された位置に実際に対象物が位置していたタイミング)以降における対象物の動きを推定する。例えば、図4は、対象物の位置の検出結果の履歴に応じて、当該対象物の動きを推定する処理の概要について説明するための説明図である。
図4において、参照符号t−3、t−2、t−1、t、t+1のそれぞれは、対象物の位置の検出に利用される情報が取得されるフレーム(換言すると、位置が検出されるタイミング)を模式的に示しており、この順序で順次新しくなる。なお、以降の説明では、便宜上、フレームtを、対象物の位置が検出された最新のフレーム(換言すると、対象物の位置の検出タイミングのうち最新のタイミング)とする。また、図4において、参照符号t、t−1、t−2、及びt−3のそれぞれが関連付けられたマーカは、フレームt、t−1、t−2、及びt−3それぞれにおける対象物の位置の検出結果を模式的に示している。
ここで、フレームt−1及びt間、フレームt−3及びt−2間、及びフレームt−2及びt−1間における対象物の速度の変化をそれぞれΔV、ΔV、及びΔVとし、隣接するフレーム間の時間差をΔTとする。このとき、フレームt−1及びt間、フレームt−3及びt−2間、及びフレームt−2及びt−1間のそれぞれにおける対象物の加速度a、a、及びaは、以下に(式1−1)〜(式1〜3)として示す計算式で表される。
Figure 2019159389
また、最新のフレームtからnフレーム先における対象物の位置を予測点とした場合に、予測点の座標P(x,y)は、以下に(式2)として示す計算式で表される。なお、(式2)において、x及びyは、フレームtにおける対象物の位置のx座標及びy座標に相当する。同様に、x−1及びy−1は、フレームt−1における対象物の位置のx座標及びy座標に相当する。
Figure 2019159389
以上のようにして、推定処理部109は、最新のフレームt以降における対象物の位置を推定する(即ち、予測点を算出する)。もちろん、上述した予測点の推定方法はあくまで一例であり、対象物の位置の検出結果に基づき予測点を推定することが可能であれば、予測点の推定方法は特に限定されない。
また、推定処理部109は、予測点の算出に際し、対象物の周囲の環境の認識結果を加味してもよい。具体的には、推定処理部109は、所定の記憶領域(例えば、記憶部105)に記憶された対象物の周囲の環境の認識結果に応じた情報を、予測点の算出に利用してもよい。
例えば、図5は、本実施形態に係る情報処理装置による対象物の動きの推定方法の一例について説明するための説明図であり、対象物の周囲の環境を加味した当該対象物の動きの推定方法の一例について示している。図5に示す例では、対象物となるパックM101が障害物(例えば、図1に示すステージM105の壁面)に衝突し、当該パックM101の動きが変化する場合の一例を示している。
例えば、フレームtでは、パックM101は、壁面に向けて直進している。フレームtに対応する図面において、参照符号P101は、検出されたパックM101の位置(以下、「検出点」とも称する)のうち最新のものを示している。また、参照符号P103は、検出点の履歴から算出された予測点を示している。
なお、図5に示すように、対象物であるパックM101の位置が検出されてから当該パックM101の動き(換言すると、予測点)が推定されるまでの間には遅延が生じ、パックM101が運動している場合には、この遅延期間中においてもパックM101の位置が変化する。そのため、算出される予測点の中には、実質的には、過去におけるパックM101の位置を示すものも含まれ得る。なお、各予測点がどのタイミング(フレーム)におけるパックM101の位置を示しているかについては、例えば、パックM101の速度や加速度の変化に応じて推定することが可能である。
即ち、フレームtでは、推定処理部109は、検出点P101の検出結果に基づく予測点P103の算出結果と、パックM101の周囲の環境の認識結果と、に基づき、当該パックM101が直線運動を行っていることを推定することとなる。
次いで、フレームtでは、パックM101が壁面に衝突している。フレームtに対応する図面において、参照符号P105は、検出点のうち最新のものを示している。また、参照符号P107は、検出点の履歴から算出された予測点を示している。この場合には、推定処理部109は、検出点P105の検出結果に基づく予測点P107の算出結果と、パックM101の周囲の環境の認識結果と、に基づき、直線運動する当該パックM101が壁面に衝突することを推定する。
次いで、フレームtでは、パックM101が壁面に衝突し、当該パックM101の運動方向が変化している。フレームtに対応する図面において、参照符号P109は、検出点のうち最新のものを示している。また、参照符号P111及びP113は、検出点の履歴から算出された予測点を示している。なお、検出点P109に基づき算出される予測点P111及びP113のうち、予測点P113については、パックM101が衝突する壁面の位置と略一致するか、または当該壁面よりも奥側に位置する(即ち、オーバーシュートする)こととなる。このような場合には、推定処理部109は、パックM101の周囲の環境の認識結果に基づき、壁面でのパックM101の反射による当該パックM101の運動方向の変化を推定し、当該推定結果に応じて、壁面よりも奥側に位置する予測点P113の位置を補正してもよい。例えば、参照符号P115は、当該補正後の予測点を示している。なお、壁面での反射によるパックM101の運動方向の変化については、例えば、壁面の形状の認識結果、当該壁面とパックM101との位置関係、及びパックM101の運動方向等に基づき推定することが可能である。
以上のような制御により、推定処理部109は、対象物(例えば、パックM101)が壁面や他の物体と衝突することで当該対象物の動きが変化するような状況下においても、対象物の動きをより正確に推定する(ひいては、予測する)ことが可能となる。
なお、上記では、対象物が障害物に衝突することにより当該対象物の運動方向が変化する場合について説明したが、対象物の運動に影響を及ぼすことが推定される外的要因は、上述のような障害物等の存在のみには限定されない。具体的な一例として、エアや水流等の外力が対象物に働くことで当該対象物の動きが変化する場合や、対象物に働く摩擦力により当該対象物の動きが変化する場合が挙げられる。また、対象物が車両等のように複数の部品が連動することで移動可能に構成されている場合には、当該部品間に働く摩擦力についても、対象物の運動に影響を及ぼす可能性のある外的要因としてみなすことが可能である。このような場合においても、当該外的要因が検出可能なものであれば、当該外的要因の影響を加味して対象物の動きの変化を推定することが可能である。なお、外的要因の影響による対象物の動きの変化の推定方法については特に限定されない。例えば、対象物のサイズや重量等の既知の情報を加味して、運動方程式等のような物理法則を示す公式に基づき、当該対象物の動きが推定されてもよい。また、対象物の動きの推定に、所謂機械学習が利用されてもよい。この場合には、変化前の対象物の動き、外的要因の影響、及び当該外的要因の影響による変化後の対象物の動き等の情報を、機械学習のための教師データの生成に利用することが可能である。また、外的要因に応じた推定方法が適宜利用されてもよい。
そして、推定処理部109は、対象物の動きの推定結果を示す情報(例えば、対象物の周囲の環境の影響を加味した予測点の算出結果)を出力制御部111に出力する。なお、推定処理部109が、対象物の動きを推定する「推定部」の一例に相当する。
出力制御部111は、出力部155に所望の情報を出力させることでユーザに当該情報を提示する。例えば、図1に示す例のように、出力部155がプロジェクタとして構成されている場合には、出力制御部111は、当該出力部155に表示情報を映像として投影させることで、当該表示情報をユーザに提示する。
また、出力制御部111は、推定処理部109から対象物の動きの推定結果を示す情報を取得し、当該推定結果に応じて、出力部155を介した情報の提示を制御してもよい。具体的な一例として、出力制御部111は、図1に示す例のように、所定の領域内(例えば、ステージM105内)を運動するパックM101に対して表示情報が重畳するように、出力部155が表示情報を投影する位置を制御してもよい。なお、前述したように、対象物(例えば、パックM101)の位置が検出されてから(即ち、検出点が特定されてから)予測点が算出されるまでの間に遅延が生じ得る。そのため、例えば、出力制御部111は、当該遅延を加味したうえで、表示情報が投影される位置に相当する予測点を決定してもよい。このような制御により、例えば、ステージM105内を動き回るパックM101に表示情報が重畳するように、当該表示情報の投影位置を当該パックM101の動きに追従させることが可能となる。換言すると、表示情報の投影位置の制御をパックM101の動きに同期させることが可能となる。
なお、上述した例では、推定処理部109から取得される情報は、撮像部151により撮像された画像に基づき推定された対象物の動きを示している。そのため、予測点の位置等については、撮像部151に関連付けられた座標系に基づき算出されている。一方で、撮像部151と出力部155とのそれぞれの設置位置は必ずしも一致するとは限らない。そのため、撮像部151に関連付けられた座標系と、出力部155に関連付けられた座標系との間には、当該撮像部151と当該出力部155との間の相対的な位置関係に応じてずれが生じる場合がある。このような状況を鑑み、出力制御部111は、推定処理部109から取得される情報に基づく対象物の位置の推定結果を、出力部155の座標系における位置に変換したうえで、当該座標系における当該対象物の位置に応じて表示情報が投影される位置を制御してもよい。
例えば、図6は、撮像部151と出力部155との間における座標変換の概要について説明するための説明図である。図6に示すように、撮像部151による撮像画像中の位置(即ち、撮像部151の座標系における位置)をPcam(xcam,ycam)とし、出力部155による投影画像中の位置(即ち、出力部155の座標系における位置)をPprj(xprj,yprj)とする。このとき、以下に(式3)として示す、撮像部151と出力部155との間の射影変換行列Hを利用した変換式に基づき、撮像画像中の位置Pcam(xcam,ycam)を、投影画像中の位置Pprj(xprj,yprj)に変換することが可能である。なお、射影変換行列Hは、撮像部151と出力部155との間の相対的な位置関係に応じて算出され、例えば、以下に示す(式4)のように表される。
Figure 2019159389
また、図7は、対象物に重畳するように提示される表示情報の一例について説明するための説明図であり、図1に示すパックM101を対象物とした場合における、表示情報の投影によるビジュアル表現の一例を示している。図7の左側の図は、映像が投影される前のパックM101の状態を示している。これに対して、図7の中心の図は、パックM101の表面(上面)の少なくとも一部(例えば、当該表面全体)が塗りつぶされるように、当該パックM101に対して映像V101を重畳させた場合の一例を示している。また、図7の右側の図は、パックM101の輪郭がより強調されるように、当該パックM101に対してリング状の映像V103を重畳させた場合の一例を示している。もちろん、上記はあくまで一例であり、本実施形態に係る情報処理システム1において対象物の動きの推定結果に応じて提示される情報は必ずしも図7に示す例には限定されない。
また、出力制御部111は、対象物の動きの推定結果に応じて、出力部155に提示させる表示情報の表示態様を制御してもよい。具体的な一例として、出力制御部111は、対象物が他の物体(例えば、障害物)に衝突する等により、対象物の動きが変化することが推定(予測)される場合には、当該動きの変化のタイミングに同期して表示情報の表示態様(例えば、サイズ、色、及び形状のうち少なくともいずれか)を制御してもよい。なお、表示態様の制御の一例については、具体例を別途後述する。
なお、出力制御部111が、対象物の動きの推定結果に応じた表示態様で表示情報が提示されるように制御する「制御部」の一例に相当する。また、出力制御部111のうち、対象物の動きの推定結果に関する情報を推定処理部109から取得する部分が、「取得部」の一例に相当する。
また、上述した機能構成はあくまで一例であり、必ずしも本実施形態に係る情報処理システム1の機能構成を限定するものではない。具体的な一例として、情報処理装置100、撮像部151、投光部153、及び出力部155のうち少なくとも2以上の構成が一体的に構成されていてもよい。また、情報処理装置100の各構成のうち、一部の構成が情報処理装置100の外部に設けられていてもよい。具体的な一例として、記憶部105として、情報処理装置100に外付けされた記憶装置や、情報処理装置100とネットワークを介して接続された記憶装置が利用されてもよい。また、情報処理装置100の各機能が、互いに連携して動作する複数の装置により実現されてもよい。
以上、図2〜図7を参照して、本開示の一実施形態に係る情報処理システムの機能構成の一例について、特に、情報処理装置100の機能構成に着目して説明した。
<<3.処理>>
続いて、本開示の一実施形態に係る情報処理システムの一連の処理の流れの一例について、特に、情報処理装置100の処理に着目して説明する。例えば、図8は、本開示の一実施形態に係る情報処理システムの一連の処理の流れの一例について示したフローチャートである。
図8に示すように、情報処理装置100(対象物検出部107)は、撮像部151により所定の領域が撮像された画像等に基づき、当該領域中における対象物の位置を検出する。このとき、情報処理装置100は、所定のフレームごとに逐次撮像される上記画像に基づき、上記対象物の位置を逐次検出し、フレームごとの当該対象物の位置の検出結果を時系列に沿って履歴として記録してもよい。このような制御により、情報処理装置100は、所定の領域内を運動する対象物の追跡を試みる(S101)。
対象物の位置検出及び追跡に成功すると(S103、YES)、情報処理装置100(環境情報生成部103)は、撮像部151により所定の領域が撮像された画像等に基づき、対象物の周囲の環境を認識する(S105)。
次いで、情報処理装置100(推定処理部109)は、対象物の位置検出及び追跡の結果に基づき、当該位置が検出された最新のフレーム以降における当該対象物の動きを推定する。換言すると、情報処理装置100は、予測点を算出する。また、このとき情報処理装置100は、対象物の周囲の環境の認識結果を加味して、当該対象物の動きを推定してもよい。具体的な一例として、情報処理装置100は、算出した予測点のうち少なくとも一部の予測点を、対象物の周囲の環境の認識結果に応じて補正してもよい(S107)。
そして、情報処理装置100(出力制御部111)は、対象物の動きの推定結果に応じて、所定の出力部を介した情報の提示を制御する。具体的な一例として、情報処理装置100は、対象物の動きの推定結果に応じた位置(例えば、対象物の位置)に表示情報が提示されるように、当該表示情報の提示位置を制御してもよい。これにより、例えば、運動する対象物に対して映像が投影されるように制御することが可能となる。また、情報処理装置100は、対象物の動きの推定結果に応じて、表示情報の表示態様を制御してもよい。具体的な一例として、情報処理装置100は、対象物が他の物体に衝突する等により、当該対象物の動きが変化することが推定(予測)された場合に、当該対象物の動きが変化するタイミングに同期して表示情報の表示態様を制御してもよい。これにより、例えば、対象物が障害物と衝突するタイミングに同期して、当該衝突を演出するような映像を提示することも可能となる。
なお、情報処理装置100は、対象物の位置検出及び追跡に失敗した場合には(S103、NO)、参照符号S105〜S109で示した処理については実行しなくてもよい。以上のようにして、情報処理装置100は、一連の処理の終了が指示されない限り(S111、NO)、参照符号S101〜S109で示した一連の処理を逐次実行する。そして、一連の処理の終了が指示されると(S111、YES)、情報処理装置100は、参照符号S101〜S109で示した一連の処理の実行を終了する。
以上、図8を参照して、本開示の一実施形態に係る情報処理システムの一連の処理の流れの一例について、特に、情報処理装置100の処理に着目して説明した。
<<4.変形例>>
続いて、本開示の一実施形態に係る情報処理システムの変形例について説明する。
<4.1.変形例1:対象物の動きの推定方法の他の一例>
まず、変形例1として、対象物の動きの推定方法の一例として、図5を参照して説明した環境に応じて予測点の推定結果を補正する例とは異なる他の一例について説明する。なお、以降の説明では、図5を参照して説明した対象物の動きの推定方法を「第1の推定方法」とも称し、本変形例に係る対象物の動きの推定方法を「第2の推定方法」とも称する。また、第1の推定方法に係る処理が「第1の処理」の一例に相当し、第2の推定方法に係る処理が「第2の処理」の一例に相当する。
第1の推定方法では、対象物の周囲の環境の認識結果を加味して、一般的な物理法則に基づき対象物の動きを推定している。そのため、第1の推定方法では、予測点の算出に係る遅延を加味したうえで、さらに未来における対象物の動きを予測することが可能である。一方で、対象物の運動に影響を及ぼすことが推定される外的要因が複数存在するような状況下では、当該外的要因を加味した対象物の動きの予測に係る処理が複雑化し、ひいては当該予測の精度が低下するような状況も想定され得る。
これに対して、第2の推定方法では、第1の推定方法に比べて、対象物の動きに対する追従性により重点をおいている。例えば、図9は、変形例1に係る対象物の動きの推定方法の一例について概要を説明するための説明図である。図9に示す例では、図5を参照して説明した例のように、対象物となるパックM101が障害物となる壁面に衝突し、当該パックM101の動きが変化する場合の一例を示している。
例えば、フレームtでは、パックM101は、壁面に向けて直進している。フレームtに対応する図面において、参照符号P151は、検出点のうち最新のものを示している。また、参照符号P153は、検出点の履歴から算出された予測点のうち、当該フレームtにおいて情報の提示(例えば、映像の投影)に利用される予測点(即ち、適用される予測点)を示している。また、フレームtにおいて、パックM101が壁面に衝突している。フレームtに対応する図面において、参照符号P155は、検出点のうち最新のものを示している。また、参照符号P157は、検出点の履歴から算出された予測点のうち、当該フレームtにおいて適用される予測点を示している。フレームt〜フレームtまでの期間T201においては、パックM101が直線運動しており、算出される一連の予測点のいずれも壁面を超えていない。そのため、情報処理装置100は、算出された予測点のうちパックM101の位置に相当する予測点(即ち、予測点P153及びP157)を適用している。
これに対して、フレームtでは、フレームtに比べて最新の検出点P159の位置がさらに壁面に近づいている。即ち、フレームtでは、検出点の履歴から算出された予測点のうち一部(例えば、参照符号P181で示した予測点)が、壁面の位置と重なるか、または当該壁面よりも奥側に位置する(即ち、オーバーシュートする)こととなっている。この場合には、情報処理装置100は、情報の提示に利用する予測点として、算出された予測点のうち壁面の手前側に位置する予測点(即ち、オーバーシュートする予測点もよりも予測量の小さい予測点)を適用する。例えば、図9に示す例では、フレームtにおいて、壁面よりも手前側に位置する予測点のうち、最新の予測点P161(即ち、より予測量の大きい予測点)が適用されている。また、フレームtでは、最新の検出点P163の位置が壁面に近接し、検出点の履歴から算出された予測点の全て(即ち、参照符号P183で示した予測点)が、壁面の位置と重なるか、または当該壁面よりも奥側に位置する(即ち、オーバーシュートする)こととなっている。この場合には、情報処理装置100は、最新の検出点P163を、情報の提示に利用する予測点として適用する。即ち、情報処理装置100は、フレームt〜フレームtの期間T202においては、対象物の動きの推定に係る時系列に沿った範囲(以下、「推定範囲」とも称する)を制限することで、パックM101が壁面の奥側に位置するような予測の適用を防止している。
なお、期間T202においては、壁面への衝突によりパックM101の動きが既に変化しているのに対して、最新の検出点(即ち、検出点P159及びP163)は、パックM101が壁面に衝突する前の状態に相当する。この期間T202においては、対象物でパックM101が壁面への衝突後にも反射された方向に直線運動を継続しているのに対して、適用される予測点の位置は、当該パックM101が当該壁面に衝突する直前の位置に維持される。即ち、適用される予測点が、パックM101よりも徐々に遅延することとなる。
次いで、フレームt及びtに着目する。フレームtでは、最新の検出点P165として、パックM101が壁面で反射した後の位置が検出されている。また、フレームtでは、フレームtに比べて最新の検出点P169の位置が、パックM101の動きに追従するように、さらに壁面から離間している。このように、最新の検出点として、壁面等の外的要因により動きが変化した後の対象物(例えば、パックM101)の位置が検出された後においては、情報処理装置100は、制限していた推定範囲を、制限前の状態に戻すことで、当該制限により生じていた適用される予測点と対象物との間との遅延を解消する。例えば、フレームtに対応する図面において、参照符号P167は、検出点の履歴から算出された予測点のうちの、当該フレームtにおいて情報の提示に利用される予測点(即ち、適用される予測点)を示している。また、フレームtに対応する図面において、参照符号P171は、当該フレームtにおいて適用される予測点を示している。即ち、情報処理装置100は、フレームt〜フレームtの期間T203においては、期間T202とは逆に、予測量が徐々に大きくなるように情報の提示に利用する予測点(即ち、適用する予測点)を決定することで、上記遅延を解消する。例えば、図9に示す例では、フレームtにおいて、パックM101の位置と、適用される予測点P171の位置とが略一致しており、適用される当該予測点P171と当該パックM101との間の遅延が解消されていることがわかる。
以上、図9を参照して、変形例1に係る対象物の動きの推定方法(即ち、第2の推定方法)の一例について概要を説明した。
次いで、図10及び図11を参照して、変形例1に係る情報処理システムの一連の処理の流れの一例について、特に、情報処理装置100の処理に着目して説明する。例えば、図10及び図11は、変形例1に係る情報処理システムの一連の処理の流れの一例について示したフローチャートである。
まず、図10を参照して、情報処理装置100により実行される一連の処理の流れについて説明する。なお、図10において、参照符号S201〜S205、S209〜S211で示した処理については、図8を参照して説明した例と実質的に同様であるため詳細な説明は省略する。
図10に示すように、情報処理装置100(対象物検出部107)は、撮像部151により所定の領域が撮像された画像等に基づき、当該領域中における対象物の位置検出及び追跡を試みる(S201)。対象物の位置検出及び追跡に成功すると(S203、YES)、情報処理装置100(環境情報生成部103)は、撮像部151により所定の領域が撮像された画像等に基づき、対象物の周囲の環境を認識する(S205)。
次いで、情報処理装置100(推定処理部109)は、対象物の位置検出及び追跡の結果に基づき、当該位置が検出された最新のフレーム以降における当該対象物の動きを推定する。換言すると、情報処理装置100は、予測点を算出する(S207)。
続いて、情報処理装置100(推定処理部109)は、算出した予測点のうち、情報の提示に利用する予測点(即ち、適用する予測点)を決定する(S230)。なお、当該処理の詳細については、別途後述する。
そして、情報処理装置100(出力制御部111)は、対象物の動きの推定結果に応じて、所定の出力部を介した情報の提示を制御する(S209)。
なお、情報処理装置100は、対象物の位置検出及び追跡に失敗した場合には(S203、NO)、参照符号S205、S207、S230、及びS209で示した処理については実行しなくてもよい。以上のようにして、情報処理装置100は、一連の処理の終了が指示されない限り(S211、NO)、参照符号S201〜S207、S230、及びS209で示した一連の処理を逐次実行する。そして、一連の処理の終了が指示されると(S111、YES)、情報処理装置100は、参照符号号S201〜S207、S230、及びS209で示した一連の処理の実行を終了する。
以上、図10を参照して、情報処理装置100により実行される一連の処理の流れについて説明した。
次いで、図11を参照して、図10において参照符号S230で示された、情報処理装置100が、算出した予測点の中から情報の提示に利用する予測点(即ち、適用する予測点)を決定する処理の一例について説明する。
なお、本説明では、便宜上、算出される予測点の数をn個とし、検出点に最も近い予測点から予測量がより大きくなる方向に向けた順に、予測点1、予測点2、・・・、予測点nとも称する。また、予測点nは、対象物の位置と略一致する予測点(即ち、対象物に対して遅延が生じていない予測点)であるものとする。また、係数acurは、現フレームについて適用される予測点を示すための係数に相当する。具体的には、予測点n−acur(0<acur<n)が、現フレームについて適用される予測点に相当する。また、係数apreは、前フレーム(現フレームの直前のフレーム)で適用された予測点を示すための係数に相当する。具体的には、予測点n−apre(0<apre<n)が、前フレームで適用された予測点に相当する。
図11に示すように、情報処理装置100(推定処理部109)は、対象物の位置検出及び追跡の結果(換言すると、検出点の履歴)に基づき1以上の予測点を算出すると、少なくとも一部の予測点において対象物が他の物体と衝突するか否かを判定する(S231)。
予測点が他物体と衝突する場合には(S231、YES)、情報処理装置100(推定処理部109)は、現フレームの予測点n−acurとして、他の物体と重複しない予測点、または、当該物体で遮蔽された領域を超えない(即ち、オーバーシュートしない)予測点を適用する(S233)。そして、情報処理装置100は、現フレームの予測点n−acurの適用結果に応じて係数apreを更新する。具体的な一例として、情報処理装置100は、予測点n−acurの適用結果に応じて、係数apreを当該acurに更新する(S241)。このような制御により、例えば、対象物が他の物体と衝突する前の状態について検出された検出点が、当該他の物体により近接するほど、より予測量の小さい予測点が適用されることとなる。
一方で、予測点が他物体と衝突しない場合には(S231、YES)、情報処理装置100(推定処理部109)は、現フレームにおける係数apreの値に応じて、現フレームの予測点n−acurを決定する。
具体的には、係数apre==0ではない場合(S235、NO)には、情報処理装置100(推定処理部109)は、n−apre<n−acurの条件を満たすように、現フレームにおいて適用する予測点n−acurを決定する(S237)。そして、情報処理装置100は、現フレームの予測点n−acurの適用結果に応じて係数apreを更新する(S241)。このような制御により、例えば、対象物が他の物体と衝突した後の状態について検出された検出点が、当該他の物体からより離間するほど、より予測量の大きい予測点が適用されることとなる。即ち、実際の対象物の位置と、適用される予測点(即ち、現フレームの予測点n−acur)との間に生じた遅延が徐々に解消されることとなる。
また、係数apre==0の場合(S235、YES)には、情報処理装置100(推定処理部109)は、acur==0の条件を満たすように、現フレームにおいて適用する予測点n−acurを決定する。即ち、情報処理装置100は、予測点nを適用することとなる(S241)。そして、情報処理装置100は、現フレームの予測点n−acurの適用結果に応じて係数apreを更新する(S241)。なお、この場合には、対象物の位置と、現フレームの予測点n−acurの位置とが略一致する(即ち、対象物に当該予測点n−acurが重畳する)こととなる。
以上、図11を参照して、図10において参照符号S230で示された、情報処理装置100が、算出した予測点の中から情報の提示に利用する予測点(即ち、適用する予測点)を決定する処理の一例について説明した。なお、上記は主に対象物が障害物と衝突する場合に着目して説明したが、上述した実施形態と同様に、対象物の運動に影響を及ぼすことが推定される外的要因は、上述のような障害物等の存在のみには限定されない。即ち、エアや水流等の外力が対象物に働くことで当該対象物の動きが変化する場合や、対象物に働く摩擦力により当該対象物の動きが変化する場合が挙げられる。このような場合においても、上記外的要因の影響を加味した対象物の動きの変化の推定結果に応じて適用される予測点が決定されてもよい。
以上説明したように、第2の推定方法においては、対象物が他の物体に衝突する等のように当該対象物の動きが変化するタイミングにおいて、適用される予測点と対象物との間に遅延が生じる場合がある。一方で、第2の推定方法においては、第1の推定方法のように周囲の環境を加味した対象物の動きの予測(例えば、障害物で反射した後の対象物の動きの予測)が制限されている。そのため、複数の外的要因の影響により対象物の動きの変化の予測が困難な状況下においても、誤った予測が適用される事態の発生を防止し、適用される予測点を対象物の動きにより正確に追従させることが可能となる。
<4.2.変形例2:ビジュアル表現の一例>
続いて、変形例2として、対象物の動きの推定結果に応じて情報を提示する態様の一例(即ち、ビジュアル表現の一例)について説明する。前述したように、本実施形態に係る情報処理装置100は、対象物の動きの変化が予測される場合に、当該対象物の動きが変化するタイミングに同期して提示する表示情報の表示態様を制御することも可能である。
(ビジュアル表現例1:衝突時にバウンドする表現)
例えば、図12は、変形例2に係る情報処理装置100が対象物の動きの推定結果に応じて提示する情報の提示態様の一例について説明するための説明図である。図12に示す例では、フレームt〜フレームtの期間中に、対象物であるパックM101が壁面(例えば、図1のステージM105の壁面)に衝突して反射している状況を示している。図12に、おいて、参照符号P201、P203、P205、P207、P209、及びP211は、それぞれフレームt、t、t、t、t、及びtにおける検出点を示している。
具体的には、フレームt〜フレームtの期間T211では、パックM101が壁面に向けて直進運動をしている。この場合には、対象物M101に対して表示情報V111が重畳するように当該表示情報V111が提示される。即ち、期間T211においては、運動するパックM101(対象物)の軌跡と、当該パックM101に重畳するように提示される表示情報V111の軌跡とが略一致することとなる。
次いで、フレームt〜フレームtの期間T212において、パックM101が壁面で反射し、当該パックM101の動きが変化している。この場合には、情報処理装置100は、検出点(例えば、検出点P205及びP207)に基づく予測点の算出結果に応じて、パックM101が壁面に衝突することを予測することとなる。そして、図12に示す例では、情報処理装置100は、当該予測の結果に基づき、パックM101が壁面に衝突するタイミングに同期して、あたかも表示情報V111が壁面でバウンドしているように、当該表示情報V111の形状を変化させている。このような制御により、表示情報V111が、壁面への衝突に伴い、当該壁面でバウンドしているような表現を演出することが可能となる
また、フレームt〜フレームtの期間T213は、パックM101が壁面で反射した後の状態を示している。なお、フレームtにおいては、表示情報V111の提示位置は、バウンドを演出したビジュアル表現の提示により、パックM101に対して遅延が生じている。このような場合においても、情報処理装置100は、徐々に予測量の大きい予測点が適用されるように制御することで、表示情報V111がパックM101に追い付いた後に当該パックM101に再度重畳するように当該表示情報V111を提示することが可能となる。
(ビジュアル表現例2:衝突時に斥力が働く軌道表現)
また、図13は、変形例2に係る情報処理装置100が対象物の動きの推定結果に応じて提示する情報の提示態様の他の一例について説明するための説明図である。図13に示す例では、図12に示す例と同様に、フレームt〜フレームtの期間中に、対象物であるパックM101が壁面に衝突して反射している状況を示している。図13に、おいて、参照符号P251、P253、P255、P257、P259、及びP261は、それぞれフレームt、t、t、t、t、及びtにおける検出点を示している。
具体的には、フレームt〜フレームtの期間T221では、パックM101が壁面に向けて直進運動をしている。この場合には、対象物M101に対して表示情報V113が重畳するように当該表示情報V113が提示される。即ち、期間T221においては、運動するパックM101(対象物)の軌跡と、当該パックM101に重畳するように提示される表示情報V113の軌跡とが略一致することとなる。
次いで、フレームt〜フレームtの期間T222において、パックM101が壁面で反射し、当該パックM101の動きが変化している。この場合には、情報処理装置100は、検出点(例えば、検出点P255及びP257)に基づく予測点の算出結果に応じて、パックM101が壁面に衝突することを予測することとなる。そして、図13に示す例では、情報処理装置100は、当該予測の結果に基づき、パックM101が壁面に衝突するタイミングに同期して、表示情報V113が壁面に衝突しないように、当該表示情報V111の軌道(即ち、表示情報V113の提示位置)を制御している。例えば、図13の下図に示した参照符号V113aは、期間T222における表示情報V113の軌道の一例を示している。このような制御により、あたかも壁面から斥力により表示情報V113の軌道が変化しているような表現を演出することが可能となる。
また、フレームt〜フレームtの期間T223は、パックM101が壁面で反射した後の状態を示している。なお、フレームtにおいては、表示情報V113の提示位置は、斥力による軌道変化を演出したビジュアル表現の提示により、パックM101の位置との間にずれが生じている。このような場合においても、情報処理装置100は、表示情報V113が提示される位置を徐々に予測点に近づけるように制御することで、表示情報V113がパックM101に追い付いた後に当該パックM101に再度重畳するように当該表示情報V113を提示することが可能となる。
(ビジュアル表現例3:衝突時にエフェクトサイズを変化させる表現)
また、図14は、変形例2に係る情報処理装置100が対象物の動きの推定結果に応じて提示する情報の提示態様の他の一例について説明するための説明図である。図14に示す例では、図12に示す例と同様に、フレームt〜フレームtの期間中に、対象物であるパックM101が壁面に衝突して反射している状況を示している。図14に、おいて、参照符号P301、P303、P305、P307、P309、及びP301は、それぞれフレームt、t、t、t、t、及びtにおける検出点を示している。
図14に示す例では、情報処理装置100は、運動するパックM101(対象物)に対して重畳するように表示情報V115を提示し、パックM101が壁面等に衝突した場合に、当該表示情報V115のサイズを制御する。
具体的には、フレームt〜フレームtの期間T231では、パックM101が壁面に向けて直進運動をしている。この場合には、表示情報V115のサイズが、パックM101のサイズと略一致するように制御される。
次いで、フレームt〜フレームtの期間T232において、パックM101が壁面で反射し、当該パックM101の動きが変化している。この場合には、情報処理装置100は、検出点(例えば、検出点P305及びP307)に基づく予測点の算出結果に応じて、パックM101が壁面に衝突することを予測することとなる。そして、図14に示す例では、情報処理装置100は、当該予測の結果に基づき、パックM101が壁面に衝突するタイミングに同期して、表示情報V115のサイズが従前よりも拡大するように(即ち、パックM101よりもサイズが大きくなるように)制御している。
また、フレームt〜フレームtの期間T233は、パックM101が壁面で反射した後の状態を示している。この場合には、情報処理装置100は、拡大させた表示情報V115のサイズが元のサイズに戻るように(即ち、パックM101のサイズと略一致するように)、当該表示情報V115のサイズを徐々に縮小させてもよい。また、表示情報V115のサイズを変化させる演出により、当該表示情報V115が提示される位置と、パックM101の位置との間にずれが生じる場合も想定され得る。このような場合においても、情報処理装置100は、表示情報V115が提示される位置を徐々に予測点に近づけるように制御することで、表示情報V115が提示される位置と、パックM101の位置との間のずれを補正することが可能である。
(ビジュアル表現例4:環境側のビジュアル表現の例)
前述した例では、対象物の動きに追従するように提示される表示情報の表示態様を制御する場合の一例について説明した。これに対して、対象物の周囲の環境(例えば、他の物体等)に重畳するように表示情報が提示されてもよいし、対象物の動きの推定結果に応じて、当該表示情報の表示態様が制御されてもよい。
例えば、図15は、変形例2に係る情報処理装置100が対象物の動きの推定結果に応じて提示する情報の提示態様の他の一例について説明するための説明図である。図15に示す例では、対象物の動きの推定結果に応じて、当該対象物の周囲の環境に重畳するように提示される表示情報を制御する場合の一例を示している。
例えば、図15の左側の図は、壁面等のような対象物とは異なる他の物体が、あたかも弾力を有しているかのように、当該他の物体に関連付けて表示情報を提示する場合の一例である。より具体的な一例として、情報処理装置100は、対象物が壁面に衝突することを予測した場合に、当該壁面に当該対象物が近接するタイミングに同期して、当該壁面があたかも弾力を有しているように、当該壁面に重畳させる表示情報の表示態様を制御してもよい。
また、図15の右側の図は、壁面等のような対象物とは異なる他の物体から、あたかも斥力が発生しているかのように、当該他の物体に関連付けて表示情報を提示する場合の一例である。より具体的な一例として、情報処理装置100は、対象物が壁面に衝突することを予測した場合に、当該壁面に当該対象物が近接するタイミングに同期して、当該壁面から斥力が発生しているように、当該壁面の近傍に提示させる表示情報の表示態様を制御してもよい。
もちろん、なお上述した例はあくまで一例であり、必ずしも本開示の一実施形態に係る情報処理装置100による情報の提示態様を限定するものではない。具体的な一例として、対象物が壁面等の障害物に衝突する際に、当該障害物から飛沫が飛び散る等のような衝突を演出する表示情報が表示されるように制御されてもよい。また、衝突に限らず、対象物の動きが変化した場合には、当該変化に応じて情報が提示されてもよい。具体的な一例として、対象物の速度が低下した場合に、当該速度の低下を演出する情報が提示されてもよい。より具体的な一例として、対象物の速度が低下した場合に、対象物の進行方向とは逆側(即ち、後方)に向けてあたかもゴム等の弾性体が伸びるように、当該対象物に重畳するように提示されている表示情報の形状が制御されてもよい。また、対象物の周囲に当該対象物の速度を低下させ得る外的要因が存在する場合には、当該外的要因が存在する位置に関連付けて対象物の速度の低下を示唆する情報が提示されてもよい。具体的な一例として、対象物の速度が低下する可能性のある場所に対して、坂道のような傾斜を示す情報(即ち、速度の低下を印象付ける)が提示されてもよい。
以上、変形例2として、図12〜図15を参照して、対象物の動きの推定結果に応じて情報を提示する態様の一例(即ち、ビジュアル表現の一例)について説明した。
<4.3.変形例3:対象物の動きの推定に係る制御の一例>
続いて、変形例3として、対象物の動きの推定に係る制御の一例として、状況に応じて、上述した第1の推定方法及び第2の推定方法を選択的に切り替える制御について説明する。
前述したように、第1の推定方法では、対象物の周囲の環境に応じて対象物の動きが変化する場合に、当該環境による影響を加味して、一般的な物理法則に基づき対象物の動きを推定する。そのため、第1の推定方法では、予測点の算出に係る遅延を加味したうえで、さらに未来における対象物の動きを予測することが可能である。一方で、第1の推定法においては、対象物の運動に影響を及ぼすことが推定される外的要因が複数存在するような状況下では、当該外的要因を加味した対象物の動きの予測に係る処理が複雑化し、ひいては当該予測の精度が低下するような状況も想定され得る。また、一部の外的要因が、ユーザにより操作される等により、一般的な物理法則に従った動作を行わないような状況も想定され得る。このような場合においても、第1の推定方法では、対象物の動きの予測に係る精度が低下する場合がある。
これに対して、第2の推定方法では、第1の推定方法に比べて、対象物の動きに対する追従性により重点をおいている。そのため、第2の推定方法においては、対象物が他の物体に衝突する等のように当該対象物の動きが変化するタイミングにおいて、適用される予測点と対象物との間に遅延が生じる場合がある。このような遅延は、対象物の速度がより高いほど、より顕在化しやすい傾向にある。一方で、第2の推定方法においては、第1の推定方法のように周囲の環境を加味した対象物の動きの予測(例えば、障害物で反射した後の対象物の動きの予測)が制限されている。そのため、複数の外的要因の影響により対象物の動きの変化の予測が困難な状況下においても、誤った予測が適用される事態の発生を防止し、適用される予測点を対象物の動きにより正確に追従させることが可能となる。そのため、一部の外的要因が、ユーザにより操作される等により、一般的な物理法則に従った動作を行わないような場合においても、第2の推定方法では、適用される予測点を対象物の動きにより正確に追従させることが可能である。
以上のような特性を鑑み、変形例3に係る情報処理装置100は、対象物の動きの推定に係る処理を、状況に応じて、第1の推定方法に係る第1の処理と、第2の推定方法に係る第2の処理との間で選択的に切り替える。
例えば、図16は、変形例3に係る情報処理装置100による対象物の動きの推定方法の一例について説明するための説明図である。図16に示す例では、情報処理装置100は、対象物の動きの検出対象となる一連の領域を複数の部分領域に分けて、当該部分領域ごとに対象物の動きの推定に係る処理を選択的に切り替える。
具体的には、参照符号R201で示された部分領域は、障害物等のような対象物の運動に影響を及ぼすことが推定される外的要因が少なく、対象物の動きが変化した場合においても、当該対象物の動きの変化を予測することが比較的容易である。そのため、情報処理装置100は、対象物が部分領域R201に位置する場合には、当該対象物の動きの推定に係る処理として、上記第1の処理を適用する。
これに対して、参照符号R203a〜R203dで示された部分領域は、周囲を囲う壁面が複雑な形状を有しており、当該壁面での反射に伴い対象物の動きも複雑に変化することが推定される。そのため、情報処理装置100は、対象物が部分領域R203a〜R203dのうちのいずれかに位置する場合には、当該対象物の動きの推定に係る処理として、上記第2の処理を適用する。
また、図17は、変形例3に係る情報処理装置100による対象物の動きの推定方法の他の一例について説明するための説明図である。図17に示す例では、対象物の動きの検出対象となる領域R211内に、複雑な形状を有する物体M211が載置されている。このような場合には、物体M211への衝突に伴い対象物の動きが複雑に変化することが推定される。そのため、情報処理装置100は、領域R211のうち、物体M211の近傍の部分領域では、対象物の動きの推定に係る処理として、上記第2の処理を適用してもよい。また、情報処理装置100は、領域R211のうち、物体M211から離間した部分領域においては、対象物の動きの推定に係る処理として、上記第1の処理を適用してもよい。
上述のように、情報処理装置100は、物理法則に基づき対象物の動きの推定に係る処理の煩雑さや、当該処理の負荷の高さ、ひいては対象物の動きの予測が可能か否か等に応じて、第1の処理と第2の処理とのうちのいずれを適用するかを決定してもよい。
もちろん、上記はあくまで一例であり、変形例3に係る情報処理装置100による第1の処理と第2の処理との間の切り替えに係る制御を限定するものではない。即ち、情報処理装置100が、対象物の動きの推定に係る処理を、各種状況に応じて第1の処理と第2の処理との間で選択的に切り替えることが可能であれば、そのための条件は特に限定されない。
具体的な一例として、対象物の速度に応じて、当該対象物の動きの推定に係る処理を切り替えてもよい。より具体的には、対象物の速度が閾値以上の場合には第1の処理が適用され、当該速度が閾値未満の場合には第2の処理が適用されてもよい。また、ユーザからの指示に基づき、対象物の動きの推定に係る処理が、第1の処理と第2の処理とのいずれかに切り替えられてもよい。また、対象物の動きの推定に係る処理の信頼度に応じて、第1の処理と第2の処理とのいずれを適用するかが決定されてもよい。具体的な一例として、アプリケーションの起動直後等は、検出点のサンプル数が少なく、対象物の動きの推定に係る信頼度が低くなる傾向にあるため第2の処理を適用し、その後、信頼度の向上に伴い、第1の処理に切り替えられてもよい。また、対象物に応じて、当該対象物の動きの推定に係る処理が決定されてもよい。例えば、図1に示すエアホッケーゲームを想定した場合には、物理法則に従って運動するパックの動きの推定には第1の処理が適用し、ユーザが把持するマレッとの動きの推定には第2の処理が適用されてもよい。
また、上記では、第1の処理と第2の処理とを切り替える場合の一例について説明したが、第1の処理及び第2の処理のうち少なくともいずれかを含む複数の処理が状況に応じて選択的に切り替えられれば、切り替えの対象となる処理の一覧は特に限定されない。
以上、変形例3として、図16及び図17を参照して、対象物の動きの推定に係る制御の一例として、状況に応じて、上述した第1の推定方法及び第2の推定方法を選択的に切り替える制御について説明した。
<<5.応用例>>
上記では、主に、本実施形態に係る情報処理システムを、所謂エアホッケーのゲームシステムとして実現する場合の一例について説明した。一方で、所定の対象物の動きを推定し、当該対象物の動きの推定結果に応じて情報を提示するようなシステムであれば、本開示に係る技術を応用することが可能である。そこで、以下に、本開示の一実施形態に係る情報処理システムの応用例について説明する。
<5.1.応用例1:3次元的な処理への拡張例>
まず、応用例1として、本開示の一実施形態に係る情報処理システムによる対象物の動きの推定に係る処理や、当該推定の結果に応じた情報の提示に係る処理を、3次元的な処理に拡張する場合の一例について説明する。なお、本応用例では、本実施形態に係る情報処理システムが、所謂卓球のゲームシステムとして実現する場合の一例について説明する。
例えば、図18は、本開示の一実施形態に係る情報処理システムの応用例1について概要を説明するための説明図であり、当該応用例に係る情報処理システムの概略的なシステム構成の一例を示している。
図18において、参照符号151、153、及び155で示した構成は、図1に示す例における撮像部151、投光部153、及び出力部155に相当する。即ち、参照符号R101は、撮像部151の撮像範囲を模式的に示している。また、参照符号R103は、出力部155の出力範囲を模式的に示している。また、図18では明示的に図示はしていないが、図1に示す例における情報処理装置100が含まれ、当該情報処理装置100により、撮像部151、投光部153、及び出力部155の動作が制御される。
このような構成の基で、図18に示す例では、所謂ピンポン玉に相当するボールM301が対象物に相当し、当該ボールM301の動きの推定結果に応じて、卓球台M303を含む領域内(即ち、出力範囲R103内)に表示情報が提示される。例えば、図18に示す例では、ボールM301に重畳するように、表示情報V301が提示されている。また、図18に示す例では、卓球台M303やラケットM305a及びM305bが、対象物であるボールM301の運動に影響を及ぼすことが推定される外的要因(即ち、ボールM301の周囲の環境)として認識される。
なお、図18に示す例では、ボールM301は、水平方向に加えて垂直方向(即ち、高さ方向)にも位置が変化する。そのため、ボールM301の位置を検出するための構成として、所謂デプスセンサ等のように、撮像部151や出力部155に対する深度情報を検出するための構成が設けられていてもよい。このような構成により、撮像部151や出力部155とボールM301との間の距離を検出することで、当該距離の検出結果から、当該ボールM301の鉛直方向の位置を検出することも可能となる。これは、卓球台M303やラケットM305a及びM305bの位置(特に、鉛直方向の位置)を検出する場合についても同様である。
以上のような構成の基で、応用例1に係る情報処理システムにおける、対象物の動きの推定結果に応じた情報の提示態様の一例(即ち、ビジュアル表現の一例)について説明する。
例えば、図19は、応用例1に係る情報処理システムにおける、対象物の動きの推定結果に応じた情報の提示態様の一例について説明するための説明図である。図19に示す例では、フレームt〜フレームtの期間中に、対象物であるボールM301が卓球台M303の底面に衝突して反射(バウンド)している状況を示している。具体的には、フレームtにおいてボールM301が卓球台M303の底面でバウンドしており、フレームt及びフレームtは、それぞれ当該バウンドの前後のタイミングを示している。
図19に示す例では、ボールM301が卓球台M303の底面に衝突する前のフレームtにおいて、表示情報V311が当該ボールM301に重畳するように当該表示情報V311が提示される。次いで、フレームtにおいて、ボールM301が卓球台M303の底面に衝突すると、当該衝突のタイミングに同期して、当該ボールM301が衝突する位置に上記表示情報V311が一時的に表示される。そして、フレームtにおいて、卓球台M303の底面で反射したボールM301が当該底面から離間するように運動すると、当該底面に提示されていた上記表示情報V311が当該ボールM301に追従するように(即ち、ボールM301に重畳するように)提示位置が制御される。
また、図20は、応用例1に係る情報処理システムにおける、対象物の動きの推定結果に応じた情報の提示態様の他の一例について説明するための説明図である。図20に示す例では、図19に示す例と同様に、フレームt〜フレームtの期間中に、対象物であるボールM301が卓球台M303の底面に衝突して反射(バウンド)している状況を示している。具体的には、フレームtにおいてボールM301が卓球台M303の底面でバウンドしており、フレームt及びフレームtは、それぞれ当該バウンドの前後のタイミングを示している。
図20に示す例では、フレームtにおいて、ボールM301が卓球台M303の底面に衝突すると、当該衝突のタイミングに同期して、当該ボールM301が衝突する位置に表示情報V315が提示される。当該表示情報V315は、例えば、あたかも波紋が広がるように、時間の経過に応じて徐々に広がり、時間の経過に応じて消えるように表示態様が制御される。
また、図21は、応用例1に係る情報処理システムにおける、対象物の動きの推定結果に応じた情報の提示態様の他の一例について説明するための説明図である。図21に示す例では、図19に示す例と同様に、フレームt〜フレームtの期間中に、対象物であるボールM301が卓球台M303の底面に衝突して反射(バウンド)している状況を示している。具体的には、フレームtにおいてボールM301が卓球台M303の底面でバウンドしており、フレームt及びフレームtは、それぞれ当該バウンドの前後のタイミングを示している。
図21に示す例では、ボールM301が卓球台M303の底面に衝突することが予測された場合に、当該衝突が予測される位置に情報が提示される。例えば、図21に示す例では、フレームtにおいて、卓球台M303の底面のうちのボールM301の衝突が予測される位置に表示情報V317が提示されている。表示情報V317は、フレームtとして示すように、ボールM301が卓球台M303の底面に衝突するまで提示され、フレームtとして示すように、当該衝突後は提示が終了する。
また、図22は、応用例1に係る情報処理システムにおける、対象物の動きの推定結果に応じた情報の提示態様の他の一例について説明するための説明図である。図22に示す例では、図19に示す例と同様に、フレームt〜フレームtの期間中に、対象物であるボールM301が卓球台M303の底面に衝突して反射(バウンド)している状況を示している。具体的には、フレームtにおいてボールM301が卓球台M303の底面でバウンドしており、フレームt及びフレームtは、それぞれ当該バウンドの前後のタイミングを示している。
図22に示す例では、ボールM301が卓球台M303の底面に衝突する前のフレームtにおいて、表示情報V319が当該ボールM301に重畳するように当該表示情報V319が提示される。次いで、フレームtにおいて、ボールM301が卓球台M303の底面に衝突すると、当該衝突のタイミングに同期して、上記表示情報V319の提示が一時的に制限される(例えば、表示情報V319が一時的に消える)。そして、フレームtにおいて、卓球台M303の底面で反射したボールM301が当該底面から離間するように運動すると、上記制限が解除され、ボールM301に重畳するように表示情報V319が再度提示される。
なお、図19〜図22を参照して説明した表示情報の提示態様(即ち、ビジュアル表現)はあくまで一例であり、対象物であるボールM301の動きの推定結果に応じて情報の提示が制御されれば、当該情報の提示態様は特に限定されない。具体的な一例として、図15を参照して説明した例と同様の思想に基づき、卓球台M303やラケットM305a及びM305bに関連付けて情報が提示されてもよい。
また、上記では、本開示の一実施形態に係る情報処理システムを、卓球のゲームシステムとして実現した場合の一例について説明したが、本実施形態に係る情報処理システムの応用先を限定するものではない。具体的な一例として、本実施形態に係る技術を、ビリヤード、ボーリング、パターゴルフ等のような他のスポーツや遊戯のためのシステムの構築に応用することも可能である。
以上、応用例1として、図18〜図22を参照して、本開示の一実施形態に係る情報処理システムによる対象物の動きの推定に係る処理や、当該推定の結果に応じた情報の提示に係る処理を、3次元的な処理に拡張する場合の一例について説明した。
<5.2.応用例2:手書き入力システムへの応用例>
続いて、応用例2として、本開示の一実施形態に係る情報処理システムを、所謂手書き入力システムとして実現する場合の一例について説明する。
例えば、図23は、本開示の一実施形態に係る情報処理システムの応用例2について概要を説明するための説明図であり、当該応用例に係る情報処理システムの概略的なシステム構成の一例を示している。
図23において、参照符号151、153、及び155で示した構成は、図1に示す例における撮像部151、投光部153、及び出力部155に相当する。即ち、参照符号R101は、撮像部151の撮像範囲を模式的に示している。また、参照符号R103は、出力部155の出力範囲を模式的に示している。また、図23では明示的に図示はしていないが、図1に示す例における情報処理装置100が含まれ、当該情報処理装置100により、撮像部151、投光部153、及び出力部155の動作が制御される。
このような構成の基で、図23に示す例では、所謂ペンやスタイラスのように手書き入力を行うための入力デバイスM331が対象物に相当し、当該入力デバイスM331の動きの推定結果に応じて、スクリーンM333の投影面(換言すると、出力範囲R103内)に表示情報が提示される。
なお、図23に示す例では、対象物である入力デバイスM331自体に赤外光を発光する発光部が設けられていてもよい。この場合には、投光部153は設けられていなくてもよい。
また、図24は、本開示の一実施形態に係る情報処理システムの応用例2の他の一態様について説明するための説明図であり、当該応用例に係る情報処理システムの概略的なシステム構成の他の一例を示している。図23に示す手書き入力システムを、所謂リアプロジェクション方式で実現した場合の一例である。この場合には、例えば、図23に示す例におけるスクリーンM333に替えて、赤外光を透過するスクリーンM335を適用すればよい。これにより、例えば、入力デバイスM331で反射した赤外光(もしくは、入力デバイスM331が発行した赤外光)を、スクリーンM335の背面に位置する検出部(例えば、撮像部151)により検出することが可能である。
以上、応用例2として、図23及び図24を参照して、本開示の一実施形態に係る情報処理システムを、所謂手書き入力システムとして実現する場合の一例について説明した。
<5.3.応用例3:AR技術への応用例>
続いて、応用例3として、本開示の一実施形態に係る技術をAR技術に応用した場合の一例について説明する。
例えば、図25は、本開示の一実施形態に係る情報処理システムの応用例3について概要を説明するための説明図であり、当該応用例に係る情報処理システムの概略的なシステム構成の一例を示している。
図25に示すように、応用例3に係る情報処理システムは、入出力装置400を含む。入出力装置400は、各種入力情報の取得や、当該入出力装置400を保持するユーザに対して各種出力情報の提示を行うための構成である。入出力装置400は、ユーザが頭部の少なくとも一部に装着して使用する、所謂頭部装着型デバイスとして構成されている。例えば、図25に示す例では、入出力装置400は、所謂アイウェア型(メガネ型)のデバイスとして構成されており、左右のレンズのうち少なくともいずれかが透過型のディスプレイ(出力部415)として構成されている。また、入出力装置400は、実空間上の物体の認識に係る入力情報を取得するための構成として、撮像部411及び投光部413を含んでもよい。撮像部411及び投光部413は、例えば、図1に示す例における撮像部151及び投光部153に相当する。また、図25において参照符号R401で示した領域は、入出力装置400(撮像部411)により入力情報が取得される範囲を模式的に示している。なお、実空間上の物体(特に、本開示に係る対象物)を認識することが可能であれば、当該認識のための構成は、必ずしも撮像部411や投光部413には限定されない。
また、入出力装置400は、所謂自己位置推定の技術により、実空間内における自身の位置や姿勢を認識可能に構成されていてもよい。当該自己位置推定の技術の一例としては、例えば、前述したSLAMと称される技術が挙げられる。もちろん、入出力装置400が、実空間内における自身の位置や姿勢を認識可能であれば、そのために適用される技術は限定されず、適用される技術に応じて入出力装置400の構成が適宜変更されてもよい。
以上のように、入出力装置400は、例えば、自己位置推定の技術を利用することで、自身の周囲に位置する対象物や、当該対象物とは異なる他の物体を、自身の周囲の環境として認識することが可能となる。
また、本応用例に係る情報処理システムは、入出力装置400とは別の装置として、入出力装置400と所定のネットワークを介して通信可能に構成された、当該入出力装置400の動作を制御するための装置(例えば、図1に示す例における情報処理装置100相当の装置)を含んでもよい。
以上のような構成の基で、例えば、実空間上の運動する物体に対してAR技術に基づき映像を重畳表示させるような状況下において、上述した本開示の一実施形態に係る技術を応用することが可能である。より具体的な一例として、図25に示す例では、運動するボールM401が対象物に相当し、当該ボールM401の動きの推定結果に応じて、表示情報が当該ボールM401に重畳するように、出力部415に当該表示情報が提示される。また、図25に示す例では、壁面M403が、対象物であるボールM401の運動に影響を及ぼすことが推定される外的要因(即ち、ボールM401の周囲の環境)として認識される。例えば、図25に示す例では、壁面M403上の位置P401においてボールM401が当該壁面M401に衝突することで、当該ボールM401の動きが変化している状況を示している。
次いで、本応用例における情報処理システムにおける、入出力装置400の出力部415を介したユーザへの情報の提示態様の一例について説明する。
例えば、図26は、応用例3に係る情報処理システムにおいてユーザに視認される情報の一例について説明するための説明図であり、対象物の動きの推定に係る処理として第1の処理を適用した場合における情報の提示態様の一例を示している。即ち、図26に示す例では、ボールM401の位置の検出結果の履歴に応じて、当該ボールM401が壁面M415上の位置P401に衝突して反射(バウンド)することと、当該反射後における当該ボールM401の動きとが予測される。そして、当該予測の結果に応じて、ボールM401に表示情報V401が重畳するように、出力部415に当該表示情報V401が表示される。
また、図27は、応用例3に係る情報処理システムにおいてユーザに視認される情報の他の一例について説明するための説明図であり、対象物の動きの推定に係る処理として第2の処理を適用した場合における情報の提示態様の一例を示している。即ち、図27に示す例では、ボールM401の位置の検出結果の履歴に応じて、当該ボールM401が壁面M415上の位置P401に衝突して反射(バウンド)することが推定される。そして当該推定の結果を加味して、所謂オーバーシュートが発生しないように、当該ボールM401の動きに表示情報V401が追従するように(ひいては、当該ボールM401に表示情報V401が重畳するように)、出力部415に当該表示情報V401が表示される。
また、詳細な説明は省略するが、本応用例においても、前述した実施形態、変形例、及び他の応用例と同様に、各種制御や各種ビジュアル表現を適用することが可能である。
以上、応用例3として、図25〜図27を参照して、本開示の一実施形態に係る技術をAR技術に応用した場合の一例について説明する。
<<6.ハードウェア構成>>
次に、図28を参照しながら、前述した情報処理装置100ように、本実施形態に係る情報処理システムを構成する情報処理装置900のハードウェア構成について、詳細に説明する。図28は、本開示の一実施形態に係る情報処理システムを構成する情報処理装置900のハードウェア構成の一例を示す機能ブロック図である。
本実施形態に係る情報処理システム1を構成する情報処理装置900は、主に、CPU901と、ROM903と、RAM905と、を備える。また、情報処理装置900は、更に、ホストバス907と、ブリッジ909と、外部バス911と、インタフェース913と、入力装置915と、出力装置917と、ストレージ装置919と、ドライブ921と、接続ポート923と、通信装置925とを備える。
CPU901は、演算処理装置及び制御装置として機能し、ROM903、RAM905、ストレージ装置919又はリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般又はその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM905は、CPU901が使用するプログラムや、プログラムの実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバス等の内部バスにより構成されるホストバス907により相互に接続されている。なお、図2を参照して前述した、収集処理部101、環境情報生成部103、対象物検出部107、推定処理部109、及び出力制御部111は、例えば、CPU901により実現され得る。
ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。また、外部バス911には、インタフェース913を介して、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923及び通信装置925が接続される。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、レバー及びペダル等、ユーザが操作する操作手段である。また、入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール手段(いわゆる、リモコン)であってもよいし、情報処理装置900の操作に対応した携帯電話やPDA等の外部接続機器929であってもよい。さらに、入力装置915は、例えば、上記の操作手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。情報処理装置900のユーザは、この入力装置915を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置917は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で構成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置や、プリンタ装置等がある。出力装置917は、例えば、情報処理装置900が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置900が行った各種処理により得られた結果を、テキスト又はイメージで表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して出力する。なお、図2を参照して前述した、出力部155は、例えば、出力装置917により実現され得る。
ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ等を格納する。
ドライブ921は、記録媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク又は半導体メモリ等のリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク又は半導体メモリ等のリムーバブル記録媒体927に記録を書き込むことも可能である。リムーバブル記録媒体927は、例えば、DVDメディア、HD−DVDメディア又はBlu−ray(登録商標)メディア等である。また、リムーバブル記録媒体927は、コンパクトフラッシュ(登録商標)(CF:CompactFlash)、フラッシュメモリ又はSDメモリカード(Secure Digital memory card)等であってもよい。また、リムーバブル記録媒体927は、例えば、非接触型ICチップを搭載したICカード(Integrated Circuit card)又は電子機器等であってもよい。なお、図2を参照して前述した記憶部105は、例えば、RAM905及びストレージ装置919の少なくともいずれかにより実現され得る。
接続ポート923は、情報処理装置900に直接接続するためのポートである。接続ポート923の一例として、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポート等がある。接続ポート923の別の例として、RS−232Cポート、光オーディオ端子、HDMI(登録商標)(High−Definition Multimedia Interface)ポート等がある。この接続ポート923に外部接続機器929を接続することで、情報処理装置900は、外部接続機器929から直接各種のデータを取得したり、外部接続機器929に各種のデータを提供したりする。
通信装置925は、例えば、通信網(ネットワーク)931に接続するための通信デバイス等で構成された通信インタフェースである。通信装置925は、例えば、有線若しくは無線LAN(Local Area Network)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置925は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。また、通信装置925に接続される通信網931は、有線又は無線によって接続されたネットワーク等により構成され、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信又は衛星通信等であってもよい。
以上、本開示の実施形態に係る情報処理システム1を構成する情報処理装置900の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。なお、図28では図示しないが、本実施形態に係る情報処理システム1を構成する情報処理装置900に対応する各種の構成を当然備える。
なお、上述のような本実施形態に係る情報処理システム1を構成する情報処理装置900の各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。また、当該コンピュータプログラムを実行させるコンピュータの数は特に限定されない。例えば、当該コンピュータプログラムを、複数のコンピュータ(例えば、複数のサーバ等)が互いに連携して実行してもよい。なお、単数のコンピュータ、または、複数のコンピュータが連携するものを、「コンピュータシステム」とも称する。
<<7.むすび>>
以上説明したように、本開示の一実施形態に係る情報処理装置100は、所定の対象物の時系列に沿った位置の検出結果の履歴と、当該対象物の周囲の環境の認識結果と、に応じた、当該対象物の動きの推定結果を示す情報を取得する。そして、情報処理装置100は、上記推定結果に応じた表示態様で表示情報が提示されるように制御する。以上のような構成により、本実施形態に係る情報処理装置100は、例えば、対象物の周囲の環境に応じた当該対象物の動きの変化を加味してユーザに情報を提示することが可能となる。より具体的な一例として、情報処理装置100は、障害物や外力等の外的要因により対象物の動きの変化が推定される場合に、当該対象物の動きの変化に同期して、当該動きの変化を演出するような映像をユーザに提示することも可能となる。このように、本実施形態に係る情報処理装置100は、ユーザに対してより好適な体験を提供することが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、ユーザに対して情報を提示するための出力部の構成は特に限定されない。具体的な一例として、所謂一般的なディスプレイ等のような表示装置が出力部として利用されてもよい。この場合には、例えば、テーブルトップ型のディスプレイ上に対象物が載置された場合に、当該対象物の位置や動きに応じて当該ディスプレイ上の所望の位置に映像を表示させるような制御も可能である。また、ユーザに対して提示される情報は、映像等のような表示情報には限定されない。具体的な一例として、他の物体との衝突等に応じて対象物の動きが変化した場合に、当該対象物の動きが変化するタイミングに同期して、効果音や音声等のような音響が提示されてもよいし、振動等により触覚や力覚が提示されてもよい。また、対象物が所定の位置(例えば、ユーザの位置)に向けて運動する場合に、当該対象物の接近状況に応じて上述した各種情報が提示されてもよい。
また、対象物の周囲の環境が動的に変化するような状況も想定され得る。このような場合には、対象物の周囲の環境の認識をリアルタイムで実施し、当該環境の認識結果を、当該対象物の動きの推定に係る処理に適宜適用すればよい。また、前述したように、対象物の動きを認識するための装置(例えば、撮像部等)や、ユーザに情報を提示するための装置(例えば、出力部等)の位置や姿勢が変化する場合も想定され得る。このような場合には、これらの装置(即ち、撮像部や出力部)の自己位置を推定し、当該自己位置の推定結果に応じて当該装置の周囲の環境(ひいては、対象物の周囲の環境)を動的に認識すればよい。
また、対象物の動きを推定するための方法や、当該推定のための情報を取得する構成等についても限定されない。具体的な一例として、障害物等のような対象物とは異なる他の物体に対して各種センサ(例えば、振動センサ等)を設けることで、当該センサの検知結果に基づき、当該他の物体への対象物の衝突が検出されてもよい。また、マイクロフォン等の集音部により周囲の環境から衝突音が集音された場合に、対象物が他の物体に衝突したのと判定されてもよい。また、このとき集音部の指向性を制御することで、当該集音部が衝突音を集音する領域を制限することも可能である。このような構成により、衝突音が集音された集音部の設置位置に応じて、対象物と他の物体との衝突が発生した位置を推定することも可能である。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
所定の対象物の時系列に沿った位置の検出結果の履歴と、前記対象物の周囲の環境の認識結果と、に応じた、当該対象物の動きの推定結果を示す情報を取得する取得部と、
前記推定結果に応じた表示態様で表示情報が提示されるように制御する制御部と、
を備える、情報処理装置。
(2)
前記対象物の時系列に沿った位置の検出結果の履歴と、前記環境の認識結果と、に応じて、前記対象物の動きを推定する推定部を備える、前記(1)に記載の情報処理装置。
(3)
前記推定部は、前記環境の認識結果に応じた前記対象物の未来の動きを予測し、
前記制御部は、前記予測の結果に応じた表示態様で前記表示情報が提示されるように制御する、
前記(2)に記載の情報処理装置。
(4)
前記推定部は、前記対象物の運動に影響を及ぼすことが推定される外的要因の認識結果に応じて、前記対象物の未来の動きを予測する、前記(3)に記載の情報処理装置。
(5)
前記推定部は、前記対象物と他の物体との間の位置関係と、前記対象物に働く摩擦力と、前記対象物に働く外力と、の少なくともいずれかに応じて、当該対象物の未来の動きを予測する、前記(4)に記載の情報処理装置。
(6)
前記推定部は、前記対象物と前記他の物体とが衝突することが予測される場合には、当該衝突に伴う当該対象物の運動方向の変化の推定結果に応じて、当該対象物の未来の動きを予測する、前記(5)に記載の情報処理装置。
(7)
前記推定部は、
前記環境の認識結果に応じた前記対象物の未来の動きを予測する第1の処理と、
前記対象物の位置の検出結果と、前記環境の認識結果と、に応じて、当該位置の検出タイミング以降における、当該対象物の動きの推定に係る時系列に沿った範囲を制御する第2の処理と、
を、所定の条件に応じて選択的に切り替える、
前記(3)〜(6)のいずれか一項に記載の情報処理装置。
(8)
前記推定部は、前記対象物と他の物体との間の位置関係に応じて、前記第1の処理と前記第2の処理とを選択的に切り替える、前記(7)に記載の情報処理装置。
(9)
前記推定部は、前記対象物の位置の検出結果と、前記環境の認識結果と、に応じて、当該位置の検出タイミング以降における、当該対象物の動きの推定に係る時系列に沿った範囲を制御する、前記(2)に記載の情報処理装置。
(10)
前記推定部は、前記対象物が他の物体との間の位置関係と、前記対象物に働く摩擦力と、前記対象物に働く外力と、の少なくともいずれかに応じて、前記検出タイミング以降における、当該対象物の動きの推定に係る時系列に沿った範囲を制限する、前記(9)に記載の情報処理装置。
(11)
前記推定部は、前記対象物が他の物体に衝突することが推定される場合に、当該対象物の動きの推定に係る時系列に沿った範囲を、前記衝突が推定されるタイミング以前までに制限する、前記(10)に記載の情報処理装置。

(12)
前記制御部は、前記推定結果に応じた位置に前記表示情報が提示されるように制御する、前記(1)〜(11)のいずれか一項に記載の情報処理装置。
(13)
前記制御部は、前記推定結果に応じて、前記対象物に前記表示情報が重畳するように制御する、前記(1)〜(12)のいずれか一項に記載の情報処理装置。
(14)
前記制御部は、前記推定結果に応じて、以降に前記対象物が到達することが推定される位置に前記表示情報が提示されるように制御する、前記(1)〜(13)のいずれか一項に記載の情報処理装置。
(15)
前記制御部は、前記表示態様として、前記表示情報のサイズ、色、及び形状うち少なくともいずれかを制御する、前記(1)〜(14)のいずれか一項に記載の情報処理装置。
(16)
前記制御部は、前記推定結果に応じて、前記対象物の動きに同期して前記表示態様を制御する、前記(1)〜(15)のいずれか一項に記載の情報処理装置。
(17)
前記制御部は、前記対象物の運動の変化の推定結果に応じて、前記表示態様を制御する、前記(16)に記載の情報処理装置。
(18)
前記制御部は、前記推定結果に基づき、前記対象物の運動に影響を及ぼすことが推定される外的要因に応じて、前記表示情報が提示されるように制御する、前記(1)〜(12)のいずれか一項に記載の情報処理装置。
(19)
前記制御部は、前記表示情報を投影する投影部の動作を制御する、前記(1)〜(18)のいずれか一項に記載の情報処理装置。
(20)
前記対象物の位置を逐次検出する検出部と、
前記環境を認識する認識部と、
のうち少なくともいずれかを備える、
前記(1)〜(19)のいずれか一項に記載の情報処理装置。
(21)
前記検出部は、所定の領域内に所定の波長の光を投光し、前記対象物で反射した前記光を検出することで、当該対象物の位置を検出する、前記(20)に記載の情報処理装置。
(22)
コンピュータが、
所定の対象物の時系列に沿った位置の検出結果の履歴と、前記対象物の周囲の環境の認識結果と、に応じた、当該対象物の動きの推定結果を示す情報を取得することと、
前記推定結果に応じた表示態様で表示情報が提示されるように制御することと、
を含む、情報処理方法。
(23)
コンピュータに、
所定の対象物の時系列に沿った位置の検出結果の履歴と、前記対象物の周囲の環境の認識結果と、に応じた、当該対象物の動きの推定結果を示す情報を取得することと、
前記推定結果に応じた表示態様で表示情報が提示されるように制御することと、
を実行させるプログラムが記録された記録媒体。
1 情報処理システム
100 情報処理装置
101 収集処理部
103 環境情報生成部
105 記憶部
107 対象物検出部
109 推定処理部
111 出力制御部
151 撮像部
153 投光部
155 出力部

Claims (20)

  1. 所定の対象物の時系列に沿った位置の検出結果の履歴と、前記対象物の周囲の環境の認識結果と、に応じた、当該対象物の動きの推定結果を示す情報を取得する取得部と、
    前記推定結果に応じた表示態様で表示情報が提示されるように制御する制御部と、
    を備える、情報処理装置。
  2. 前記対象物の時系列に沿った位置の検出結果の履歴と、前記環境の認識結果と、に応じて、前記対象物の動きを推定する推定部を備える、請求項1に記載の情報処理装置。
  3. 前記推定部は、前記環境の認識結果に応じた前記対象物の未来の動きを予測し、
    前記制御部は、前記予測の結果に応じた表示態様で前記表示情報が提示されるように制御する、
    請求項2に記載の情報処理装置。
  4. 前記推定部は、前記対象物の運動に影響を及ぼすことが推定される外的要因の認識結果に応じて、前記対象物の未来の動きを予測する、請求項3に記載の情報処理装置。
  5. 前記推定部は、前記対象物と他の物体との間の位置関係と、前記対象物に働く摩擦力と、前記対象物に働く外力と、の少なくともいずれかに応じて、当該対象物の未来の動きを予測する、請求項4に記載の情報処理装置。
  6. 前記推定部は、前記対象物と前記他の物体とが衝突することが予測される場合には、当該衝突に伴う当該対象物の運動方向の変化の推定結果に応じて、当該対象物の未来の動きを予測する、請求項5に記載の情報処理装置。
  7. 前記推定部は、
    前記環境の認識結果に応じた前記対象物の未来の動きを予測する第1の処理と、
    前記対象物の位置の検出結果と、前記環境の認識結果と、に応じて、当該位置の検出タイミング以降における、当該対象物の動きの推定に係る時系列に沿った範囲を制御する第2の処理と、
    を、所定の条件に応じて選択的に切り替える、
    請求項3に記載の情報処理装置。
  8. 前記推定部は、前記対象物と他の物体との間の位置関係に応じて、前記第1の処理と前記第2の処理とを選択的に切り替える、請求項7に記載の情報処理装置。
  9. 前記推定部は、前記対象物の位置の検出結果と、前記環境の認識結果と、に応じて、当該位置の検出タイミング以降における、当該対象物の動きの推定に係る時系列に沿った範囲を制御する、請求項2に記載の情報処理装置。
  10. 前記推定部は、前記対象物が他の物体との間の位置関係と、前記対象物に働く摩擦力と、前記対象物に働く外力と、の少なくともいずれかに応じて、前記検出タイミング以降における、当該対象物の動きの推定に係る時系列に沿った範囲を制限する、請求項9に記載の情報処理装置。
  11. 前記推定部は、前記対象物が他の物体に衝突することが推定される場合に、当該対象物の動きの推定に係る時系列に沿った範囲を、前記衝突が推定されるタイミング以前までに制限する、請求項10に記載の情報処理装置。
  12. 前記制御部は、前記推定結果に応じた位置に前記表示情報が提示されるように制御する、請求項1に記載の情報処理装置。
  13. 前記制御部は、前記推定結果に応じて、前記対象物に前記表示情報が重畳するように制御する、請求項1に記載の情報処理装置。
  14. 前記制御部は、前記推定結果に応じて、以降に前記対象物が到達することが推定される位置に前記表示情報が提示されるように制御する、請求項1に記載の情報処理装置。
  15. 前記制御部は、前記表示態様として、前記表示情報のサイズ、色、及び形状うち少なくともいずれかを制御する、請求項1に記載の情報処理装置。
  16. 前記制御部は、前記推定結果に応じて、前記対象物の動きに同期して前記表示態様を制御する、請求項1に記載の情報処理装置。
  17. 前記制御部は、前記対象物の運動の変化の推定結果に応じて、前記表示態様を制御する、請求項16に記載の情報処理装置。
  18. 前記制御部は、前記推定結果に基づき、前記対象物の運動に影響を及ぼすことが推定される外的要因に応じて、前記表示情報が提示されるように制御する、請求項1に記載の情報処理装置。
  19. コンピュータが、
    所定の対象物の時系列に沿った位置の検出結果の履歴と、前記対象物の周囲の環境の認識結果と、に応じた、当該対象物の動きの推定結果を示す情報を取得することと、
    前記推定結果に応じた表示態様で表示情報が提示されるように制御することと、
    を含む、情報処理方法。
  20. コンピュータに、
    所定の対象物の時系列に沿った位置の検出結果の履歴と、前記対象物の周囲の環境の認識結果と、に応じた、当該対象物の動きの推定結果を示す情報を取得することと、
    前記推定結果に応じた表示態様で表示情報が提示されるように制御することと、
    を実行させるプログラムが記録された記録媒体。

JP2018040920A 2018-03-07 2018-03-07 情報処理装置、情報処理方法、及び記録媒体 Pending JP2019159389A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018040920A JP2019159389A (ja) 2018-03-07 2018-03-07 情報処理装置、情報処理方法、及び記録媒体
PCT/JP2018/044471 WO2019171685A1 (ja) 2018-03-07 2018-12-04 情報処理装置、情報処理方法、及び記録媒体
US16/964,030 US11361541B2 (en) 2018-03-07 2018-12-04 Information processing apparatus, information processing method, and recording medium
DE112018007232.0T DE112018007232T5 (de) 2018-03-07 2018-12-04 Informationsverarbeitungsgerät, informationsverarbeitungsverfahren und aufzeichnungsmedium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018040920A JP2019159389A (ja) 2018-03-07 2018-03-07 情報処理装置、情報処理方法、及び記録媒体

Publications (1)

Publication Number Publication Date
JP2019159389A true JP2019159389A (ja) 2019-09-19

Family

ID=67846970

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018040920A Pending JP2019159389A (ja) 2018-03-07 2018-03-07 情報処理装置、情報処理方法、及び記録媒体

Country Status (4)

Country Link
US (1) US11361541B2 (ja)
JP (1) JP2019159389A (ja)
DE (1) DE112018007232T5 (ja)
WO (1) WO2019171685A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021167864A (ja) * 2020-04-09 2021-10-21 三菱プレシジョン株式会社 学習用データ生成装置及びシミュレータ

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113196290A (zh) * 2019-09-26 2021-07-30 松下电器(美国)知识产权公司 信息处理方法、程序以及信息处理装置
US11648480B2 (en) 2020-04-06 2023-05-16 Electronic Arts Inc. Enhanced pose generation based on generative modeling
US11816772B2 (en) * 2021-12-13 2023-11-14 Electronic Arts Inc. System for customizing in-game character animations by players

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9430923B2 (en) * 2009-11-30 2016-08-30 Innovative Signal Analysis, Inc. Moving object detection, tracking, and displaying systems
JP2012029750A (ja) 2010-07-29 2012-02-16 Konami Digital Entertainment Co Ltd 遊技台装置、表示制御方法、および、プログラム
JP2015215278A (ja) * 2014-05-13 2015-12-03 古野電気株式会社 情報表示装置
JP6390260B2 (ja) * 2014-08-15 2018-09-19 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021167864A (ja) * 2020-04-09 2021-10-21 三菱プレシジョン株式会社 学習用データ生成装置及びシミュレータ
JP7321966B2 (ja) 2020-04-09 2023-08-07 三菱プレシジョン株式会社 学習用データ生成装置及びシミュレータ

Also Published As

Publication number Publication date
US20210042526A1 (en) 2021-02-11
DE112018007232T5 (de) 2021-01-14
US11361541B2 (en) 2022-06-14
WO2019171685A1 (ja) 2019-09-12

Similar Documents

Publication Publication Date Title
WO2019171685A1 (ja) 情報処理装置、情報処理方法、及び記録媒体
TWI786313B (zh) 目標跟蹤方法、裝置、介質以及設備
KR102110811B1 (ko) Hci 시스템 및 방법
JP6897668B2 (ja) 情報処理方法および情報処理装置
CN102663722B (zh) 使用深度图像的活动对象分割
JP7003628B2 (ja) 物体追跡プログラム、物体追跡装置、及び物体追跡方法
US9075444B2 (en) Information input apparatus, information input method, and computer program
JP5790692B2 (ja) 情報処理装置、情報処理方法および記録媒体
CN109325456B (zh) 目标识别方法、装置、目标识别设备及存储介质
JP7017689B2 (ja) 情報処理装置、情報処理システムおよび情報処理方法
US10825197B2 (en) Three dimensional position estimation mechanism
JP6771996B2 (ja) ユーザーインターフェースのリアルタイムインタラクティブ操作のためのシステム及び方法
KR102203810B1 (ko) 사용자 입력에 대응되는 이벤트를 이용한 유저 인터페이싱 장치 및 방법
KR102355135B1 (ko) 정보 처리 장치, 정보 처리 방법, 및 프로그램
CN105830093A (zh) 用于产生与非均匀大小的空间区相关的元数据的系统、方法及设备
CN104487915A (zh) 维持扩增的连续性
KR101868903B1 (ko) 손 추적 장치 및 방법
KR20150130483A (ko) 평면의 자연스러운 특성 타겟들의 인시츄 생성
JP2004246578A (ja) 自己画像表示を用いたインタフェース方法、装置、およびプログラム
KR20160129000A (ko) 모바일 디바이스를 위한 실시간 3d 제스처 인식 및 트랙킹 시스템
CN106708037A (zh) 自主移动式设备定位的方法、装置及自主移动式设备
CN103003843A (zh) 用于跟踪具有动态变化部分的目标的数据集创建
US8970479B1 (en) Hand gesture detection
WO2020145224A1 (ja) 映像処理装置、映像処理方法、及び映像処理プログラム
WO2020110547A1 (ja) 情報処理装置、情報処理方法およびプログラム