JP7243708B2 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP7243708B2
JP7243708B2 JP2020504853A JP2020504853A JP7243708B2 JP 7243708 B2 JP7243708 B2 JP 7243708B2 JP 2020504853 A JP2020504853 A JP 2020504853A JP 2020504853 A JP2020504853 A JP 2020504853A JP 7243708 B2 JP7243708 B2 JP 7243708B2
Authority
JP
Japan
Prior art keywords
detection target
information processing
collision
processing apparatus
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020504853A
Other languages
English (en)
Other versions
JPWO2019171830A1 (ja
Inventor
健太郎 井田
文彦 飯田
拓也 池田
嘉人 大木
実穂 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2019171830A1 publication Critical patent/JPWO2019171830A1/ja
Application granted granted Critical
Publication of JP7243708B2 publication Critical patent/JP7243708B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0021Tracking a path or terminating locations
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F7/00Indoor games using small moving playing bodies, e.g. balls, discs or blocks
    • A63F7/06Games simulating outdoor ball games, e.g. hockey or football
    • A63F7/0604Type of ball game
    • A63F7/0632Hockey
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0003Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
    • A63B24/0006Computerised comparison for qualitative assessment of motion sequences or the course of a movement
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F1/00Card games
    • A63F1/06Card games appurtenances
    • A63F1/18Score computers; Miscellaneous indicators
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F7/00Indoor games using small moving playing bodies, e.g. balls, discs or blocks
    • A63F7/06Games simulating outdoor ball games, e.g. hockey or football
    • A63F7/0664Electric
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F7/00Indoor games using small moving playing bodies, e.g. balls, discs or blocks
    • A63F7/06Games simulating outdoor ball games, e.g. hockey or football
    • A63F7/07Games simulating outdoor ball games, e.g. hockey or football in which the playing bodies contact, or are supported by, the playing surface continuously, e.g. using air-cushion support
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F17/00Coin-freed apparatus for hiring articles; Coin-freed facilities or services
    • G07F17/32Coin-freed apparatus for hiring articles; Coin-freed facilities or services for games, toys, sports, or amusements
    • G07F17/3202Hardware aspects of a gaming system, e.g. components, construction, architecture thereof
    • G07F17/3204Player-machine interfaces
    • G07F17/3209Input means, e.g. buttons, touch screen
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F17/00Coin-freed apparatus for hiring articles; Coin-freed facilities or services
    • G07F17/32Coin-freed apparatus for hiring articles; Coin-freed facilities or services for games, toys, sports, or amusements
    • G07F17/3202Hardware aspects of a gaming system, e.g. components, construction, architecture thereof
    • G07F17/3216Construction aspects of a gaming system, e.g. housing, seats, ergonomic aspects
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F17/00Coin-freed apparatus for hiring articles; Coin-freed facilities or services
    • G07F17/32Coin-freed apparatus for hiring articles; Coin-freed facilities or services for games, toys, sports, or amusements
    • G07F17/3202Hardware aspects of a gaming system, e.g. components, construction, architecture thereof
    • G07F17/3216Construction aspects of a gaming system, e.g. housing, seats, ergonomic aspects
    • G07F17/322Casino tables, e.g. tables having integrated screens, chip detection means
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F17/00Coin-freed apparatus for hiring articles; Coin-freed facilities or services
    • G07F17/32Coin-freed apparatus for hiring articles; Coin-freed facilities or services for games, toys, sports, or amusements
    • G07F17/3225Data transfer within a gaming system, e.g. data sent between gaming machines and users
    • G07F17/3232Data transfer within a gaming system, e.g. data sent between gaming machines and users wherein the operator is informed
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F17/00Coin-freed apparatus for hiring articles; Coin-freed facilities or services
    • G07F17/32Coin-freed apparatus for hiring articles; Coin-freed facilities or services for games, toys, sports, or amusements
    • G07F17/3241Security aspects of a gaming system, e.g. detecting cheating, device integrity, surveillance
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F17/00Coin-freed apparatus for hiring articles; Coin-freed facilities or services
    • G07F17/32Coin-freed apparatus for hiring articles; Coin-freed facilities or services for games, toys, sports, or amusements
    • G07F17/326Game play aspects of gaming systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0021Tracking a path or terminating locations
    • A63B2024/0028Tracking the path of an object, e.g. a ball inside a soccer pitch
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0021Tracking a path or terminating locations
    • A63B2024/0053Tracking a path or terminating locations for locating an object, e.g. a lost ball
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F9/00Games not otherwise provided for
    • A63F9/24Electric games; Games using electronic circuits not otherwise provided for
    • A63F2009/2401Detail of input, input devices
    • A63F2009/243Detail of input, input devices with other kinds of input
    • A63F2009/2435Detail of input, input devices with other kinds of input using a video camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F9/00Games not otherwise provided for
    • A63F9/24Electric games; Games using electronic circuits not otherwise provided for
    • A63F2009/2448Output devices
    • A63F2009/245Output devices visual
    • A63F2009/2461Projection of a two-dimensional real image

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Computer Security & Cryptography (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Position Input By Displaying (AREA)

Description

本開示は、情報処理装置、情報処理方法、およびプログラムに関する。
従来から、空間内における物体認識の手法として、赤外光(infrared)を利用した物体検出手法が存在している。赤外光を利用した物体手法の一例としては、近年、奥行の距離情報(デプスマップ)から物体の存在を検出することが行われている。
また、再帰性反射マーカーを体に付けて動きを捉えるモーションキャプチャーシステムも存在している。
例えば下記特許文献1では、対象物のマーカーを認識してプロジェクションにより対象物に投影するシステムが開示されている。
特開2015-90524号公報
しかしながら、従来の手法では、複数のマーカーや物体が近接した際に、誤認識や対象物をロストしてしまう可能性が高かった。
そこで、本開示では、複数の検出対象の位置をより確実に認識することが可能な情報処理装置、情報処理方法、およびプログラムを提案する。
本開示によれば、同一面に存在する第1の検出対象と第2の検出対象の位置をセンシングする制御部を備え、前記制御部は、前記第1の検出対象を第1の方向から認識する第1のセンサによるセンシングデータに基づいて、前記第1の検出対象の位置を認識し、前記同一面を介した前記第1の方向と逆の方向から、前記第2の検出対象をセンシングする第2のセンサによるセンシングデータに基づいて、前記第2の検出対象の位置を認識する、情報処理装置を提案する。
本開示によれば、プロセッサが、第1の検出対象を第1の方向からセンシングする第1のセンサによるセンシングデータに基づいて、前記第1の検出対象の位置を認識することと、前記第1の検出対象が存在する面を介した前記第1の方向と逆の方向から、前記面に存在する第2の検出対象をセンシングする第2のセンサによるセンシングデータに基づいて、前記第2の検出対象の位置を認識することと、を含む、情報処理方法を提案する。
本開示によれば、コンピュータを、同一面に存在する第1の検出対象と第2の検出対象の位置を認識する制御部として機能させ、前記制御部は、前記第1の検出対象を第1の方向からセンシングする第1のセンサによるセンシングデータに基づいて、前記第1の検出対象の位置を認識し、前記同一面を介した前記第1の方向と逆の方向から、前記第2の検出対象をセンシングする第2のセンサによるセンシングデータに基づいて、前記第2の検出対象の位置を認識する、プログラムを提案する。
以上説明したように本開示によれば、複数の検出対象の位置をより確実に認識することが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態による情報処理システムの概要について説明する図である。 複数の検出対象を認識しようとする際における誤認識や検出対象のロストについて説明する図である。 本実施形態による情報処理装置の構成の一例を示すブロック図である。 本実施形態による撮像画像からの輝点の検出と、対応する画像オブジェクトを投影する映像の生成の一例について説明する図である。 本実施形態による制御処理の一例を示すフローチャートである。 本実施形態による上下カメラからの各撮像画像のマージの一例を示す図である。 本実施形態による衝突判定およびすれ違い判定の一例を示す図である。 本実施形態によるパックとマレットとの衝突に応じたインタラクションの一例を示す図である。 本実施形態によるパックと外周壁との衝突に応じたインタラクションの一例を示す図である。 本実施形態によるマレットの仮想的なサイズにおける衝突に基づくインタラクションの一例を示す図である。 本実施形態によるパックの仮想的なサイズにおける衝突に基づくインタラクションの一例を示す図である。 本実施形態によるバーチャルパックと物理的なパックとの衝突に応じたフィードバックの一例を示す図である。 本実施形態によるバーチャルパックと物理的なパックとで軌跡制御を変える場合の一例を示す図である。 本実施形態による所定のアイテムの上を通過した際のバーチャルパックの性質の変化の一例を示す図である。 本実施形態によるインタラクションの制御処理の流れの一例を示すフローチャートである。 本実施形態の第1の応用例について説明する図である。 本実施形態の第2の応用例について説明する図である。 本実施形態の第3の応用例について説明する図である。 本実施形態の第3の応用例の他の例について説明する図である。 本開示の実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による情報処理システムの概要
2.構成例
2-1.出力装置20
2-2.入力装置30
2-3.情報処理装置10
3.動作処理
4.インタラクション例
4-1.パック43とマレット40との衝突に応じたインタラクション
4-2.パック43と外周壁との衝突に応じたインタラクション
4-3.パック43/マレット40の仮想的なサイズでの衝突に応じたフィードバック
4-4.バーチャルパックの衝突に応じたフィードバック
4-5.盤面画像の記録
4-6.インタラクション制御処理の流れ
5.応用例
5-1.部屋などにおける人の位置検出
5-2.カードゲームにおけるカードの位置と裏表検出
5-3.ボルダリングへの応用
6.ハードウェア構成例
7.まとめ
<1.本開示の一実施形態による情報処理システムの概要>
図1は、本開示の一実施形態による情報処理システムの概要について説明する図である。図1に示すように、本実施形態による情報処理システム1は、同一面における2種類の検出対象を識別して誤認識することなく検出し、トラッキングする技術の一例として、例えばエアホッケーに適用した場合について説明する。
エアホッケーは、マレットと呼ばれる器具(以下、マレット40)をユーザが把持し、盤上でプラスチック製等のパックと呼ばれる円盤(以下、パック43)を打ち合う遊戯であり、パック43は盤面上に噴出したエアーによって浮上している。
本実施形態による情報処理システム1は、図1に示すように、ホッケー台50の盤上におけるパック43を検知する上面カメラ301と、パック43と同一面上にあるマレット40(マレット40A、40B)を検知する下面カメラ302と、上面カメラ301による撮像画像と下面カメラ302による撮像画像とに基づいてパック43とマレット40の各位置を検出する処理を行う情報処理装置10とを含む。例えば、パック43が第1の検出対象、マレット40が第2の検出対象の一例であって、上面カメラ301が第1のセンサ、下面カメラ302が第2のセンサの一例である。また、ホッケー台50は、第1の検出対象と第2の検出対象が位置する面を形成する部材の一例である。
さらに、情報処理システム1は、ホッケー台50の盤上に映像を投影するプロジェクタ201を含み、情報処理装置10は、パック43やマレット40の位置検出の結果に応じて、プロジェクタ201による投影を制御することも可能である。
(背景)
ここで、上述したように、例えば検出対象のマーカーを検出し、物体認識を行うシステムにおいて、複数の検出対象を認識しようとする際、誤認識や検出対象のロストが発生してしまうという問題があった。具体的には、例えば図2左に示すように、複数の検出対象に貼付されたマーカーを検知するカメラにより取得した撮像画像800から移動するマーカー801、802を検出して検出対象の位置をトラッキングしている際に、マーカー801、802が接近すると、図2中央の撮像画像810に示すように、近付いた2つのマーカーが1つに見える(2つのマーカーが繋がって一体化した1つのマーカー811として認識されてしまう)。この場合、図2右に示すように、複数のマーカーが衝突したのか(図2の認識結果820a)、すれ違ったのか(図2の認識結果820b参照)が不明となり、誤認識や検出対象のロストが生じてしまう。
特に、図1に示すようなエアホッケーに適用する場合において、各ユーザが把持して打つマレットとパックをそれぞれ認識し、各々が衝突する瞬間や、移動するパックに逐次プロジェクションマッピングを行うことを考慮すると、パックやマレット各々をより確実に認識、トラッキングする必要がある。従来技術では、マレットとパックが衝突した瞬間に認識が入れ替わったり、いずれかを見失ってしまう可能性が高く、ユーザ体験を阻害する要因となる。
そこで、本実施形態では、複数の検出対象の位置をより確実に認識することを可能とする仕組みを提案する。
具体的には、本実施形態による情報処理システム1は、各種の検出対象をセンシングするセンサを分離し、盤面の上面と下面の2方向からセンシングしたデータを用いることで、誤認識を防ぐことを可能とする。例えば図1に示すようなエアホッケーに適用した例では、パック43とマレット40の各々を撮像するカメラを上面カメラ301と下面カメラ302に分離し、図1に示すようにホッケー台50の上面側と下面側にそれぞれ配置する。これにより、上面カメラ301はホッケー台50の上面側から第1の検出対象(例えばパック43)を撮像し、下面カメラ302はホッケー台50の下面側から第2の検出対象(例えばマレット40)を撮像することとなる。このように2方向から2種の検出対象をそれぞれセンシングし、2方向からのセンシングデータである撮像画像を用いて位置検出を行うことで、パック43とマレット40の位置の混同や誤認識を防ぐことを可能とする。
またこの方式を応用し、検出対象に貼付されているマーカーを任意に手で隠すことにより、その検出対象を把持していることの検出にも利用できる。
図1に示すエアホッケーへの適用例についてさらに詳細に説明する。ホッケー台50の天板は、少なくとも発光素子42から発光される波長(検出波長)を透過する部材により形成される。例えば、発光素子42がIR LEDにより実現される場合、ホッケー台50の天板は、IR光を透過するアクリル板等で構築する。さらにホッケー台50の天板は可視光を通さない部材とすることで、ホッケー台50の天板(盤面)にプロジェクタ201による映像投影を可能とする。また、ホッケー台50の内部には、ホッケー台50の天板を下側から撮像する上向きのカメラ(下面カメラ302)を設置する。また、天板上部には、天吊り状態でホッケー台50の天板を上側から撮像する下向きのカメラ(上面カメラ301)を設置する。
複数種類の検出対象のうちの一つであるパック43は、上面に反射材44を添付し、上方に設定された上面カメラ301により検知する。反射材44は、例えば、再帰性反射マーカーであってもよい。再帰性反射マーカーは光が当てられた方向に強く反射する特性があるマーカーであり、カメラ(上面カメラ301)の横に投射機(照明装置300)を設置することにより、照明装置300からの光を照明装置300のすぐ横にある上面カメラ301の方向に強く反射光を返すことが可能となる。照明装置300は、IR照明装置であってもよい。また、上面カメラ301には、可視光カットフィルタを設けてもよい。ここでは一例としてパック43に反射材44を貼付しているが、発光素子を設けてもよい。ただし、エアホッケーにおいて用いるパック43は、盤面上に噴出したエアーによって浮上させるため、軽く、かつワイヤレスで実現することが好ましいため、電源が必要となるIR LED等の発光素子よりも再帰性反射マーカー等の反射材44の方が適している。
複数種類の検出対象のうちの一つであるマレット40は、底面に発光素子42を取り付け、下方に設置された下面カメラ302により検知する。発光素子42は、例えばIR光を発光するLED(IR LED)であってもよい。マレット40は複数あってもよい。マレット40とパック43は、ホッケー台50の天板上において同一面に存在する。上述したように、ホッケー台50の天板は、発光素子42から発光される波長を透過する部材により形成されるため、天板上に置かれたマレット40の底面に取り付けられた発光素子42からの発光を、ホッケー台50の天板を介して下方から下面カメラ302により撮像することが可能である。
なお、一例としてマレット40にIR LED等による発光素子42を搭載する場合について説明したが、本実施形態はこれに限定されず、パック43の検知手法と同様に、マレット40に再帰性反射マーカー等の反射材を設け、下面カメラ302の横に投射機(照明装置)を設置する方法を用いてもよい。
以上、本開示の一実施形態による情報処理システムについて説明した。続いて、本実施形態による情報処理システムに含まれる各装置の具体的な構成について図面を参照して説明する。
<2.構成例>
図3は、本実施形態による情報処理システム1の構成の一例を示すブロック図である。図3に示すように、情報処理システム1は、情報処理装置10、出力装置20、入力装置30を含む。
(2-1.出力装置20)
出力装置20は、情報処理装置10の制御に従って、音声や画像等の出力情報を出力する機能を有する。例えば出力装置20は、プロジェクタ201により出力情報(映像等)を図1に示すようにホッケー台50に対して投影してもよい。また、出力装置20は、ホッケー台50の全面やホッケー台50の周辺等にディスプレイ(不図示)が設けられている場合は当該ディスプレイに出力情報(映像等)を表示してもよい。また、出力装置20は、ホッケー台50の周辺等に設置されている音響装置(不図示)から音声を出力してもよい。
(2-2.入力装置30)
入力装置30は、検出対象をセンシングするセンサであって、センシングデータを情報処理装置10に出力する。例えば入力装置30は、上面カメラ301、下面カメラ302を含む。上面カメラ301は、図1に示すように、ホッケー台の上面から撮像し、IR投光機等の照明装置300により発光されたIR光がパック43の反射材44で反射した光を検出する機能を有する。上面カメラ301には、可視光フィルタが設けられていてもよい。また、下面カメラ302は、ホッケー台の下面から撮像し、マレット40の底面に設けられた発光素子42からの発光を検出する機能を有する。
(2-3.情報処理装置10)
情報処理装置10は、図3に示すように、I/F部110、発光認識部120、管理部130、記憶部140、座標変換部150、および映像生成部160を有する。また、管理部130は、軌跡管理部131および映像管理部132として機能する。
入力装置30により取得されたセンシングデータ(具体的には、上面カメラ301や下面カメラ302で撮像された撮像画像)は、I/F部110を介して発光認識部120に送られる。I/F部110は、例えば有線または無線により出力装置20や入力装置30等の外部装置と接続し、データの送受信を行い得る。また、I/F部110は、インターネットに接続することも可能である。I/F部110は、例えば有線/無線LAN(Local Area Network)、Wi-Fi(登録商標)、Bluetooth(登録商標)、携帯通信網(LTE(Long Term Evolution)、3G(第3世代の移動体通信方式))等により外部装置と通信接続する。
発光認識部120は、撮像画像から輝点を検出し、検出した輝点の座標を管理部130の軌跡管理部131に送る。また、発光認識部120は、検出した輝点の移動を追跡し、輝点の軌跡を取得する機能も有する。例えば発光認識部120は、上面カメラ301により取得された撮像画像から、パック43の軌跡を取得する(パック43の位置をトラッキング)。
軌跡管理部131は、発光認識部120により取得された軌跡の履歴を記憶部140に保存し、軌跡の管理を行う。
映像管理部132は、取得された軌跡に合わせたホッケー台50の天板上におけるプロジェクションマッピングのデータ等のコンテンツの管理を行う。例えば映像管理部132は、映像生成部160からの要求に応じて、所定の画像オブジェクトを記憶部140や外部装置から取得し、映像生成部160に出力する。
座標変換部150は、映像生成部160からの要求に応じて、記憶部140から対象の軌跡の情報を呼び出し、軌跡の情報から当該対象に対する映像を表示する座標を算出し、算出した座標を映像生成部160に出力する。
映像生成部160は、パック43等の軌跡に合わせてプロジェクションマッピングを行うための映像を生成する。具体的には、映像生成部160は、映像管理部132から取得した画像オブジェクトと、座標変換部150から取得した当該対象に対する映像を表示する座標とに基づいて、当該座標に合わせて画像オブジェクトを投影する映像を生成する。生成された映像は、I/F部110を介してプロジェクタ201に送られ、ホッケー台50の天板上に投影される。
ここで図4を参照し、撮像画像からの輝点の検出と、対応する画像オブジェクトを投影する映像の生成の一例について説明する。図4に示すように、まず、発光認識部120は、例えば上面カメラ301から取得された撮像画像500から、パック43に貼付された反射材44の反射光に相当する輝点501を認識する。発光認識部120は、トラッキングしていた輝点501の軌跡を管理部130の軌跡管理部131に出力する。
次いで、映像生成部160は、座標変換部150から取得した表示座標511の情報と、パック43の位置に投影する画像オブジェクト520とを合わせて、投影映像530を生成する。これにより、投影映像530をプロジェクタ201からホッケー台50の天板上に投影することで、パック43の位置に画像オブジェクト520を投影することが可能となる。なお、軌跡部分512にも何らかの画像オブジェクトを併せて投影する映像を生成してもよい。
ここでは、基本的な単数の検出対象に対する位置認識処理と投影映像の生成について説明したが、本実施形態ではさらに、複数の検出対象に対しても安定した位置認識処理を実現し、複数の検出対象の動きに応じた投影映像の生成を行うことが可能である。例えば管理部130は、複数の検出対象の位置や軌跡に応じて、衝突判定を行うことが可能である。また、映像生成部160は、衝突の有無に応じた投影映像を生成することが可能である。このような複数の検出対象の認識に関する詳細については、図5~図7を参照して後述する。
以上説明した発光認識部120、管理部130、座標変換部150、および映像生成部160は、情報処理装置10に設けられる制御部により実現され得る。制御部は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置10内の動作全般を制御する。制御部は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
以上、本実施形態による情報処理装置10の構成について具体的に説明した。なお情報処理装置10の構成は、図3に示す例に限定されない。例えば、情報処理装置10は、複数の装置により構成されていてもよい。また、情報処理装置10は、PC、スマートフォン、エッジサーバ、中間サーバ、またはクラウドサーバ等により実現されてもよい。
<3.動作処理>
続いて、本実施形態による情報処理システムの動作処理について、図5を用いて具体的に説明する。図5は、本実施形態による制御処理の一例を示すフローチャートである。
図5に示すように、まず、情報処理装置10は、上面カメラ301および下面カメラ302から、それぞれ映像(撮像画像)を取得する(ステップS103)。
次に、情報処理装置10の発光認識部120は、上面カメラ301により取得された撮像画像から輝点の検出を行い(ステップS106)、輝点の検出が出来た場合(ステップS106/Yes)、軌跡管理部131は、検出した輝点の過去点(前回検出した輝点)と最新点(今回検出した輝点)とを繋げて、パック43の軌跡として保存する(ステップS109)。
次いで、発光認識部120は、下面カメラ302により取得された撮像画像から輝点の検出を行い(ステップS112)、輝点の検出が出来た場合(ステップS112/Yes)、軌跡管理部131は、検出した輝点の過去点(前回検出した輝点)と最新点(今回検出した輝点)とを繋げて、マレット40の軌跡として保存する(ステップS115)。
次に、各々のカメラで検出した対象をマージする(ステップS118)。ここで、図6に、撮像画像のマージの一例を示す。図6に示す撮像画像60は、上面カメラ301により取得した撮像画像であり、パック43に貼付した反射材44(再帰性反射材)により入力装置30からのIR発光を反射したものを捉えている。また、図6に示す撮像画像61は、下面カメラ302から取得した撮像画像であり、ホッケー台50の天板部材(例えばアクリル板)越しに、マレット40A、40Bの底面に設けられた発光素子42A、42B(IR LED)からの発光を直接検出している。
これら各々の撮像画像から輝点を検出し、パック43とマレット40の検出座標とする。例えば図6に示す例では、撮像画像60から取得した輝点601が、パック43の検出座標であり、撮像画像61から取得した輝点611、612が、マレット40A、40Bの検出座標である。なお複数のマレット40A、40Bに対応する輝点611、612の個別認識は、例えば図1に示すようなエアホッケーゲームではある程度競技者の位置が決まっており、マレット40は各競技者が把持して操作するものであるため、撮像画像61を概ねの領域に分けて、例えば右側に位置する輝点611はユーザBの操作するマレット40Bの輝点、左側に位置する輝点612はユーザAの操作するマレット40Aの輝点と判断することが可能である。
そして、このような検出座標結果に基づいて、発光認識部120は、図6の下段に示すように、2つの検出結果(輝点検出の行われた撮像画像60、61)を合成した合成画像63を生成する。これにより、発光認識部120は、ホッケー台50の天板上(同一面)におけるパック43とマレット40の位置を認識し得る。このように、本実施形態では、上下方向に分離した各々のカメラで各種の検出対象をセンシングし、各センシングデータからそれぞれの位置検出を行っているため、輝点が接近しても図2に示すような認識対象の一体化が起こらず、安定して位置認識を行うことができ、また、後述する衝突、すれ違いも誤認なく判定することができる。すなわち、複数の物体が近接した場合に、図2の撮像画像910に示すように2つの輝点が一体化して1つの輝点として検出されてしまい、各々の物体が衝突したのか、すれ違ったのか、その後の挙動が分からず、トラッキング対象が入れ替わる等の不安定さが改善される。これにより、その後のパック43やマレット40のトラッキングの安定さも保証される。
また、従来、検出対象が手などで覆われて遮蔽され、発光を安定して検出できないといった問題もあったが、本実施形態では、手で把持するマレット40の底面に設けた発光素子42からの光を、ホッケー台50の天板越しに下側に設置された下面カメラ302で検出し、また、覆い隠される恐れのないパック43からの反射光は上側に設置された上面カメラ301で検出するシステム構成とすることで、より確実に位置認識を行うことが可能となる。
続いて、軌跡管理部131は、各々の認識点(認識した輝点、すなわち検出座標)の衝突判定を行う。具体的には、例えば軌跡管理部131は、各々の認識点間の距離と所定の閾値とを比較し、衝突が発生したか否か(接近したが衝突が発生していない場合を、本実施形態では、「すれ違い判定」と称す)を判定する(ステップS121)。
次に、軌跡管理部131は、各々の認識点間の距離dが所定の閾値を下回る場合(ステップS121/Yes)、2点が衝突した(衝突有り)と判定し(ステップS124)、各々の認識点間の距離dが所定の閾値を上回る場合(ステップS121/No)、2点がすれ違った(衝突無し)と判定する(ステップS127)。ここで、図7に、衝突判定およびすれ違い判定の一例を示す。図7の上段には輝点P1と輝点P2の衝突例を、図7の下段には輝点P1と輝点P2のすれ違う例を、それぞれの軌跡と共に示す。各画像は、上面カメラ301から取得した撮像画像の輝点検出結果と下面カメラ302から取得した撮像画像の輝点検出結果とを合成した画像である。軌跡管理部131は、例えば輝点P1と輝点P2の距離dに基づいて、衝突したか否か(すれ違ったか)を判定する。具体的には、軌跡管理部131は、距離d1は所定の閾値を下回るため衝突と判定し、距離d2は所定の閾値を上回るためすれ違いと判定する。このように、2点が接近した場合に衝突したのかすれ違ったのかを確実に判定することで、その後接近地点から離れていく2点の輝点のトラッキングも、検出対象が入れ替わることなく、正確に行うことができる。
次いで、映像生成部160は、各判定に対応したプロジェクションマッピングする映像を映像管理部132により記憶部140から読み出す(ステップS130)。本実施形態では、例えば衝突の有無によってパック43やホッケー台50の盤面上に投影する映像を切り替えることも可能となる。衝突の有無に応じた投影映像の制御については、後述の「4.インタラクション例」において詳細に説明する。
次に、映像生成部160は、座標変換部150により記憶部140からこれまでの軌跡を取得する(ステップS133)。
そして、映像生成部160は、軌跡の座標と映像とを合わせてプロジェクタの映像を生成する(ステップS136)。生成した映像はI/F部110からプロジェクタ201に送信され、ホッケー台50に投影される。
以上、本実施形態による動作処理の一例を説明した。なお図5に示す動作処理は一例であって、本開示は図5に示す例に限定されない。例えば、本開示は、図5に示すステップの順序に限定されない。少なくともいずれかのステップが並列に処理されてもよいし、逆の順番で処理されてもよい。例えば、ステップS106~S109の処理とステップS112~S115の処理は並列に処理されてもよいし、逆の順番で処理されてもよい。
<4.インタラクション例>
以上説明した実施形態により、検出対象の衝突や、位置、盤面外周の位置関係を、リアルタイムに高精度で検出できるため、これらの検出結果に応じて、ホッケー台50の盤面上(投影面上)に投影する映像をリアルタイムで変化させて様々な効果や演出を加えることも可能となる。
本実施形態では、一例として図1に示すようにエアホッケーに適用した場合における検出結果に応じた投影制御等によるインタラクションについて説明する。本実施形態によれば、例えばエアホッケーのプレイ内容を反映した盤面の画像を投影面上にリアルタイムに生成でき、また、その投影画像の記録や再生を行うことも可能とする。
以下、図8~図14を参照してエアホッケーのプレイ内容に応じた具体的なインタラクションについて説明する。
(4-1.パック43とマレット40との衝突に応じたインタラクション)
図8は、パック43とマレット40との衝突に応じたインタラクションの一例を示す図である。図8に示すように、例えば各マレット40A、40B、40Cには、それぞれ所定の色(または柄)が設定されており、色画像700a~700cがそれぞれ投影されている。色画像700a~700cは、各マレット40A、40B、40Cの位置変化に応じてリアルタイムで追従し、常に各マレット40A、40B、40Cに投影される。
次いで、情報処理装置10は、マレット40とパック43の衝突を検出した場合、すなわちユーザがマレット40でパック43を打った場合、パック43に投影する画像のパラメータ(色、形、大きさ)を変化させる。例えば、情報処理装置10は、衝突したパック43に設定されている色をマレット40に設定するようにしてもよい。例えば図8に示す例では、まず、マレット40Aにより打たれたパック43がマレット40Aの色画像700aと同じ色の色画像710aが投影された状態において、次にマレット40Bがパック43を打った場合、パック43にはマレット40Bの色画像700bと同じ色の色画像710bが投影される。このように、パック43の色や柄を、衝突したマレット40の色や柄と同じものに変化させる例が挙げられる。
また、情報処理装置10は、衝突したパック43に投影する画像のサイズを変化させてもよい。例えば、一時的に画像のサイズを変化させて衝突のフィードバックを返したり、衝突毎に徐々に画像のサイズを大きくするようにしてもよい。
また、情報処理装置10は、パック43の位置情報を連続して記録し、パック43の軌跡を表示している場合に、当該軌跡の色を衝突に応じて変化させてもよい。具体的には、例えば情報処理装置10は、パック43とその軌跡の色を、衝突したマレット40に設定された色に変更する。
また、情報処理装置10は、パック43とマレット40との衝突に応じて、フィードバック音や触覚を提示するようにしてもよい。触覚提示は、例えばマレット40で行うことが可能である。マレット40にアクチュエーター等を搭載しておくことで、情報処理装置10は、衝突に応じて所定の刺激出力信号を対象のマレット40に送信し、マレット40において刺激出力(振動、温度等)を提示することが可能となる。
また、情報処理装置10は、マレット40がパック43を打った速度に応じて、フィードバックする視覚(色や形、大きさ)や音、触覚のパラメータを変化させてもよい。
(4-2.パック43と外周壁との衝突に応じたインタラクション)
また、情報処理装置10は、パック43が、プレイエリア(ホッケー台50の盤上)の外周壁との衝突に応じたインタラクションも可能である。例えば情報処理装置10は、パック43が外周壁と衝突した瞬間にパック43や、パック43の軌跡に投影する画像のパラメータ(色、形、大きさ)を変えてもよい。
図9は、パック43と外周壁との衝突に応じたインタラクションの一例を示す図である。図9に示すように、例えばホッケー台50の盤面上に、各ユーザの陣地に相当するエリア720a~730cが投影されている場合に(エリア720a~720cの投影パラメータは、各ユーザのマレット40の投影パラメータと同じまたは関連したものとする)、情報処理装置10は、衝突した外周壁の領域の色等のパラメータを、パック43やパック43の軌跡に投影する。例えば図9に示す例では、パック43がエリア720aの外周壁に衝突した場合、エリア720aの投影パラメータと同様の投影パラメータの軌跡730を表示する。
また、情報処理装置10は、パック43の色(打ったプレイヤーのマレット40の色)と異なる色のエリア720a~720cの外周壁(他プレイヤーのゴールに相当する)とパック43が衝突した場合、パック43の色のエリア720(パック43を打ったプレイヤーの陣地)の面積が増えるよう制御してもよい。例えば図9に示す例において、パック43がエリア720bの外周壁に衝突した場合(すなわち、エリア720bを守るべきプレイヤーがパック43を跳ね返せず自陣のゴールを守れなかった場合)、パック43を打ったプレイヤーのエリア720a(パック43の色と同じ色のエリア)の面積が増える。これにより、各プレイヤーは、競技をしながら感覚的に自分の勝ち負け具合を自陣のエリア720の大きさにより把握し、スコアを確認しなくとも直感的に勝敗を把握することができる。
また、情報処理装置10は、パック43が外周壁と衝突した瞬間に、フィードバック音や触覚を提示してもよい。
また、情報処理装置10は、パック43が外周壁と衝突した速度に応じてフィードバックする視覚(色や形、大きさ)や音、触覚のパラメータを変化させてもよい。
(4-3.パック43/マレット40の仮想的なサイズに基づく衝突に応じたフィードバック)
情報処理装置10は、投影画像により、パックやマレットのサイズを実際の物理的なサイズとは異なる仮想的なサイズに変更(拡大または縮小。仮想的な衝突判定領域の設定)することが可能である。そして、情報処理装置10は、仮想的なサイズのパックやマレットの衝突を判定し、映像の変化や音、触覚などのフィードバックを行う。
ここで、図10に、マレットの仮想的なサイズに基づく衝突に応じたインタラクションの一例を示す。また、図11に、パックの仮想的なサイズにおける衝突に基づくインタラクションの一例を示す。
図10に示す例では、実物体のマレット40Bのサイズを、仮想サイズ画像740の投影により仮想的に大きくしている。情報処理装置10は、パック43と仮想サイズ画像740との衝突を判定し、衝突タイミングに応じて、映像の変化や音、触覚などのフィードバックを行う。例えば情報処理装置10は、上述した実施形態によりパック43とマレット40Bの位置をリアルタイムで精度よく検出できるため、マレット40Bの設定された仮想サイズに基づいて、パック43がマレット40Bの設定された仮想サイズの領域の輪郭に衝突した瞬間をリアルタイムで判定することが可能となる。図10に示す例では、パック43の投影パラメータ(例えば、色)を、衝突した仮想サイズ画像740の投影パラメメータ(例えば、色)と同じものに変化させるフィードバックを行っている。
また、図11に示す例も同様に、実物体のパック43のサイズを、仮想サイズ画像750の投影により仮想的に大きくしている。情報処理装置10は、仮想サイズ画像750とマレット40Bとの衝突を判定し、衝突タイミングに応じて、映像の変化や音、触覚などのフィードバックを行う。図11に示す例では、仮想サイズ画像750の投影パラメータ(例えば、色)を、衝突したマレット40Bの投影パラメメータ(例えば、色)と同じものに変化させるフィードバックを行っている。
このように、情報処理装置10は、実際は実物体のマレット40B/パック43に衝突した場合であっても、仮想サイズの領域の輪郭との衝突のタイミングでフィードバックを行ったり、仮想サイズの領域の輪郭との衝突位置で跳ね返った軌跡を表示することで、あたかも物理的なパックやマレットの大きさが変化したかのような効果をユーザに与えることができる。
(4-4.バーチャルパックの衝突に応じたフィードバック)
また、情報処理装置10は、物理的なパック43以外にも、投影された映像のみからなる仮想的なパック(本明細書において、バーチャルパックと称す)を導入し、バーチャルパックとマレット40との衝突に基づく一連のフィードバックを与えることができる。
図12は、バーチャルパック760と物理的なマレット40Bとの衝突に応じたフィードバックの一例を示す図である。情報処理装置10は、上述した実施形態によりマレット40の位置をリアルタイムで精度よく検出できるため、プロジェクタ201により盤上に投影するバーチャルパック760の動き(位置の変化)に基づいて、バーチャルパック760がマレット40Bに衝突した瞬間をリアルタイムで判定することが可能となる。図12に示す例では、バーチャルパック760の投影パラメータ(例えば、色)を、衝突したマレット40Bの投影パラメメータ(例えば、色)と同じものに変化させるフィードバックを行っている。
また、情報処理装置10は、バーチャルパック760のマレット40Bに対する衝突速度や角度等から跳ね返る方向や速度等を算出し、バーチャルパック760の動きをよりリアルに制御し得る。
このように、本実施形態による情報処理装置10は、バーチャルパック760と物理的なマレット40との衝突時に、映像の変化や、音、触覚などのフィードバックを行うことで、あたかも物理的なパックが衝突したかのような感覚をユーザに与えることが可能となる。
また、かかるフィードバックは、物理的なパック43との衝突時と同じにすることであたかも実在するパックを打っているかのようにプレイヤーに錯覚させることもできるし、物理的なパック43との衝突時とは異なるフィードバックを与えることで、物理的なパック43との峻別を容易にすることも可能である。
例えば、情報処理装置10は、物理的なパック43と衝突した場合と、バーチャルパック760と衝突した場合とで、触覚提示を変えるようにしてもよい(軽い/重い、柔らかい/硬い等)。
また、情報処理装置10は、物理的なパック43とバーチャルパックとで、軌跡制御を変えるようにしてもよい。例えば図13に示すように、情報処理装置10は、物理的なパック43の軌跡はパック43の投影色と同じ色に変更し、バーチャルパック770の軌跡は色の消去を行うようにしてもよい。すなわち、図13に示す例では、物理的なパック43には盤面に色を付加する役割を与えているのに対し、バーチャルパック770には盤面に生成された色を消していく役割を与えている。
また、バーチャルパックは物理的な制約を受けないため、個数やサイズ、速度、反発係数、摩擦係数などを動的に変化(性質変化)させることが可能である。例えば、情報処理装置10は、バーチャルパックを打つたびにバーチャルパックのサイズを大きくしたり、バーチャルパックの移動速度を速くしたりする制御を行ってもよい。また、情報処理装置10は、バーチャルパックが強く打たれた際に複数に分裂させるようにしてもよい。また、情報処理装置10は、特定条件下でバーチャルパックが直線的でない動きをするように制御してもよい。また、情報処理装置10は、一定時間が経過した際にバーチャルパックを瞬間移動させたり、合体/消滅させたりするようにしてもよい。
また、情報処理装置10は、バーチャルパックの性質の変化(サイズアップ、分裂等)を、物理的なパックやマレットとの直接的なインタラクションによって起こしてもよいし、所定のアイテムを介して行われるようにしてもよい。例えば情報処理装置10は、決められた条件下で盤面上に表示されるアイテムの上をバーチャルパックが通過した際に、特定の性質が変化するようにしてもよい。図14に示す例では、バーチャルパック790がスプリッタと称されるアイテム780の領域の上を通過した際に、バーチャルパック791とバーチャルパック792の2つに分裂する。
なお、物理的なパック43に関しては、このようなアイテムを用いてその速度や物性を動的に制御することは困難であるが、パック43に重畳表示する投影画像の色を変えたり、衝突判定領域のサイズを変えたりすることで、アイテムに応じてパック43のサイズが変化している等の錯覚を与えることは可能である。
さらに、バーチャルパックと物理的なパックとの間の衝突判定も可能であるため、両者を組み合わせたインタラクションも提示することができる。具体的には、例えば情報処理装置10は、物理的なパックにバーチャルパックが衝突するとバーチャルパックだけが跳ね返るようにしてもよいし、物理的なパックにバーチャルパックが衝突するとバーチャルパックが分裂するようにしてもよい。また、物理的なパックを強く打った際に、物理的なパックからバーチャルパックが生成されるようにしてもよい。また、情報処理装置10は、一定時間が経過するとバーチャルパックが物理パックに吸収されるようにしてもよい。
(4-5.盤面画像の記録)
また、情報処理装置10は、盤面画像を記憶部140に蓄積し、盤面上において再生(投影表示)することが可能である。また、情報処理装置10は、盤面画像の生成過程のログを再生(すなわち、パックやマレットの軌跡を時間経過に応じて再生)することも可能である。
(4-6.インタラクション制御処理の流れ)
次いで、以上説明した本実施形態によるインタラクションの制御処理の流れについて、図15を参照して説明する。図15は、本実施形態によるインタラクションの制御処理の流れの一例を示すフローチャートである。
図15に示すように、まず、情報処理装置10は、盤面上への投影に関する投影パラメータを初期化する(ステップS203)。投影パラメータとは、例えば、各マレット40やパック43、また、盤面に投影する映像の色、形、大きさなどである。
次に、情報処理装置10は、軌跡情報の記録を開始する(ステップS206)。
具体的には、まず、情報処理装置10は、発光認識部120により、下面カメラ302から取得した撮像画像に基づいて、物理的なパック43の位置を検出し(ステップS209)、仮想判定領域を設定している場合はパック43に対応する仮想判定領域(例えば図11に示す仮想サイズ画像750)を更新する(ステップS212)。例えば情報処理装置10は、固定値または時間に連動して変化させてもよいし(例えば最初はパックサイズを小さくし、ゲームプレイ時間が増えるほど大きくなるようにする)、ゲーム状況に連動して変化させてもよい(例えばスコアが負けているプレイヤーのマレットを大きくする等)。
また、情報処理装置10は、発光認識部120により、上面カメラ301から取得した撮像画像に基づいて、物理的なマレット40の位置を検出し(ステップS215)、仮想判定領域を設定している場合はマレット40に対応する仮想判定領域(例えば図10に示す仮想サイズ画像740)を更新する(ステップS218)。
また、情報処理装置10は、バーチャルパックを導入している場合はバーチャルパックの位置を更新する(ステップS221)。
次に、情報処理装置10は、衝突判定を行う(ステップS224)。具体的には、情報処理装置10は、上述した実施形態で説明したように、上面カメラ301から取得した撮像画像と下面カメラ302から取得した撮像画像とを合成し、マレット40とパック43に対応する各輝点の認識点間の距離に応じて、衝突判定を行い得る。また、情報処理装置10は、マレット40やパック43に仮想判定領域を設定している際は、仮想判定領域を考慮して衝突判定を行い得る。また、情報処理装置10は、バーチャルパックを導入している場合は、バーチャルパックの位置を考慮して衝突判定を行い得る。
次いで、衝突したと判定された場合(ステップS224/Yes)、情報処理装置10は、衝突に応じて投影パラメータ(色、形、大きさなど)を変更する(ステップS227)。
次に、情報処理装置10は、衝突に応じてバーチャルパックパラメータを更新する(ステップS230)。バーチャルパックパラメータとは、バーチャルパックの性質であって、例えば速度、個数、サイズ、反発係数、摩擦係数などである。情報処理装置10は、衝突に応じて、バーチャルパックの速度変化や、分裂/吸収(個数の増減)を制御する。
次いで、情報処理装置10は、衝突に応じたフィードバック音や触覚生成を行う(ステップS233)。生成したフィードバック音や触覚は、音響装置やマレット40により提示される。
次に、情報処理装置10は、軌跡情報を更新する(ステップS236)。
次いで、情報処理装置10は、上記ステップS209~S236に示す軌跡情報の記録処理を、ゲームが終了するまで繰り返す(ステップS239)。
そして、ゲームが終了した場合(ステップS239/Yes)、情報処理装置10は、(最終的な)盤面画像を記録する(ステップS242)。
以上、本実施形態による動作処理の一例を説明した。なお図15に示す動作処理は一例であって、本開示は図15に示す例に限定されない。例えば、本開示は、図15に示すステップの順序に限定されない。少なくともいずれかのステップが並列に処理されてもよいし、逆の順番で処理されてもよい。例えば、ステップS227~S239の処理は並列に処理されてもよいし、異なる順番で処理されてもよい。
<5.応用例>
以上、本実施形態による情報処理システム1について、エアホッケーに適用した場合に、検出対象の一例として各マレット40とパック43との位置をより確実に検出する位置検出と、検出結果に基づく衝突判定、および、衝突判定に応じた映像や音、触覚等によるインタラクションについて説明した。しかし、本開示による位置検出技術は、エアホッケーの他にも、様々なシーンに適用され得る。以下、いくつかの具体例を用いて、本実施形態の応用例について説明する。
(5-1.部屋などにおける人の位置検出)
本実施形態による情報処理システム1は、例えば、部屋などにおける人の位置検出を行うことも可能である。図16に、本実施形態の第1の応用例について説明する図を示す。
図16に示すように、例えば部屋の床面55を、所定の検出波長を透過する部材(例えばIRを透過するアクリルなど)で構築すると共に、ユーザの靴底に再帰性反射マーカー等の反射材421を貼付し、床下から投射機(照明装置303a)によりIRの投射を行い、その反射を撮像装置302aでセンシングして得られたセンシングデータから人の位置を認識する。
かかるシステムは、例えばエンターテインメントなどにおいて、巨大な迷路でユーザがどこにいるのかを検出し、ユーザの方向にロボットなどの敵を自律走行で近付けていく処理などを可能とする。ロボットの位置は、例えばロボットの頭に貼付した再帰性反射マーカー等の反射材に対して、天井から投射機(照明装置300a)でIRの投射を行って、その反射光を撮像装置301aでセンシングして得たセンシングデータから算出される。
また、床面55に貼付した再帰性反射マーカー等の反射材431に対して天井から投射機(照明装置300a)でIRの投射を行い、その反射光を撮像装置301aでセンシングしてもよい。かかるセンシングにより得たセンシングデータに基づいて、ユーザが床面55の反射材431の上を歩いて反射光を遮蔽した場合に罠を発火する処理などを可能とする。
また、図16に示す例では、ユーザの位置や罠の発火等に応じて、天井に設置したプロジェクタ201aにより所定の映像を床面55に投影することも可能である。
(5-2.カードゲームへの応用)
本実施形態による情報処理システム1は、例えば、カードゲームにおけるカードの位置と裏表検出を行うことも可能である。図17に、本実施形態の第2の応用例について説明する図を示す。
図17に示すように、例えばテーブル天面57を、所定の検出波長を透過する部材(例えばIRを透過するアクリルなど)で作成すると共に、カード45の両面にはそれぞれユニークなマーカー(反射材)432、433を貼付する。
そして、テーブル天面57の下からは、投射機(照明装置303b)でIRの投射を行って、マーカーの反射光を撮像装置302bでセンシングし、得たセンシングデータからカードの位置および裏表を検出する。一方、上側からは、投射機(照明装置300b)でIRの投射を行って、その反射光を撮像装置301bでセンシングし、得たセンシングデータに基づいてユーザが手をかざしているカードをマーカーからの反射光の遮蔽箇所から認識する。
これにより、例えば手をかざしているカードにプロジェクションなどのエフェクトをプロジェクタ201bにより投影することや、他のカードとの位置関係や裏表を反映したゲーム性のあるエフェクトを投影することが可能となる。
(5-3.ボルダリングへの応用)
本実施形態による情報処理システム1は、例えば、ボルダリングの壁にあるホールドの位置とユーザ位置の認識に応用することも可能である。図18に、本実施形態の第3の応用例について説明する図を示す。
図18に示すように、例えばボルダリングの壁58を、所定の検出波長を透過する部材(例えばIRを透過するアクリルなど)で構築すると共に、各ホールド435の両面に、再帰性反射マーカー等の反射材436、437を貼付し、各ホールド435を前後面から反射材436、437の反射光を撮像装置301c、302cでセンシングし(例えば再帰性反射)、センシングデータに基づいて、表側はユーザが把持したことを反射光の遮蔽箇所により認識し、裏面は安定してホールドの位置を認識することが可能となる。また、前後のセンシングデータの差分から、ユーザの把持しているホールドをより確実に認識することが可能となる。
これにより、例えばユーザの位置やホールド場所に応じてプロジェクションなどのエフェクトをプロジェクタ201cにより投影することが可能となる。
また、ボルダリングへの応用の他の例として、ボルダリングの壁における人の位置および姿勢の検出も可能である。図19は、本実施形態の第3の応用例の他の例について説明する図である。
図19に示すように、例えばボルダリングの壁59を、所定の検出波長を透過する部材(例えばIRを透過するアクリルなど)で構築すると共に、壁59の前面に再帰性反射材等による格子パターン450を貼付する。情報処理装置10は、IR投射機(照明装置300d)と撮像装置301dにより、格子パターン450をセンシング(例えば再帰性反射で検出)し、そのセンシングデータに基づく遮蔽状況から人のシルエットが抽出できるため、これにより人の位置や姿勢を認識することが可能となる。なお裏面からは、IR投射機(照明装置303d)と撮像装置302dを用いて得たセンシングデータに基づいて、各ホールド460の(固定)位置を認識することが可能となる。
これにより、例えばユーザの位置やホールド場所に応じてプロジェクションなどのエフェクトをプロジェクタ201dにより投影することが可能となる。
<6.ハードウェア構成例>
次に、図20を参照して、本開示の実施形態に係る情報処理装置10のハードウェア構成について説明する。図20は、本開示の実施形態に係る情報処理装置10のハードウェア構成例を示すブロック図である。
図20に示すように、情報処理装置10は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理装置10は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。情報処理装置10は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)またはASIC(Application Specific Integrated Circuit)と呼ばれるような処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置10内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時的に記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
ストレージ装置919は、情報処理装置10の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置10に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
接続ポート923は、機器を情報処理装置10に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどであり得る。また、接続ポート923は、RS-232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置10と外部接続機器929との間で各種のデータが交換され得る。
通信装置925は、例えば、ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどであり得る。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続されるネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
以上、情報処理装置10のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
<7.まとめ>
上述したように、本開示の実施形態による情報処理システムでは、複数の検出対象の位置をより確実に認識することが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上述した情報処理装置10に内蔵されるCPU、ROM、およびRAM等のハードウェアに、情報処理装置10の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、本技術は以下のような構成も取ることができる。
(1)
同一面に存在する第1の検出対象と第2の検出対象の位置を認識する制御部を備え、
前記制御部は、
前記第1の検出対象を第1の方向からセンシングする第1のセンサによるセンシングデータに基づいて、前記第1の検出対象の位置を認識し、
前記同一面を介した前記第1の方向と逆の方向から、前記第2の検出対象をセンシングする第2のセンサによるセンシングデータに基づいて、前記第2の検出対象の位置を認識する、情報処理装置。
(2)
前記第1の検出対象と前記第2の検出対象が位置する面を形成する部材は、前記第1のセンサと前記第2のセンサの間に位置し、前記第2のセンサによる検出用の波長を透過する部材である、前記(1)に記載の情報処理装置。
(3)
前記第1のセンサは、前記第1の検出対象に設けられた反射材により反射される光または発光部により発光される光を検知し、
前記第2のセンサは、前記第2の検出対象に設けられた反射材により反射される光または発光部により発光される光を検知する、前記(1)または(2)に記載の情報処理装置。
(4)
前記制御部は、
前記認識した前記第1の検出対象の位置と、前記第2の検出対象の位置とに基づいて、前記第1の検出対象と前記第2の検出対象との衝突の有無を判定する衝突判定を行う、前記(1)に記載の情報処理装置。
(5)
前記制御部は、
前記第1のセンサにより取得された第1の撮像画像と、前記第2のセンサにより取得された第2の撮像画像とに基づいて、前記第1の撮像画像から認識された前記第1の検出対象の位置と、前記第2の撮像画像から認識された前記第2の検出対象との位置とを含む合成画像を生成し、前記衝突判定を行う、前記(4)に記載の情報処理装置。
(6)
前記制御部は、
前記第1の検出対象の位置および前記第2の検出対象の位置の間の距離と、所定の閾値との比較結果に基づいて、前記衝突判定を行う、前記(5)に記載の情報処理装置。
(7)
前記制御部は、
前記第1の検出対象の位置と前記第2の検出対象の位置の間の距離が、前記所定の閾値を下回る場合、前記第1の検出対象と前記第2の検出対象との衝突が有ったと判定する、前記(6)に記載の情報処理装置。
(8)
前記制御部は、
前記衝突の有無に応じたインタラクション制御を行う、前記(4)~(7)のいずれか1項に記載の情報処理装置。
(9)
前記制御部は、
前記衝突が有った場合に、前記第1の検出対象、前記第2の検出対象、または前記第1の検出対象および前記第2の検出対象が位置する面上の少なくともいずれかに対する表示制御、音声出力、または前記第1の検出対象または前記第2の検出対象への触覚提示の制御を行う、前記(8)に記載の情報処理装置。
(10)
前記制御部は、
ユーザに操作される前記第1の検出対象に前記第2の検出対象が衝突した場合、前記第2の検出対象に対する投影色を変化させる、前記(8)または(9)に記載の情報処理装置。
(11)
前記制御部は、
ユーザに操作される前記第1の検出対象に前記第2の検出対象が衝突した場合、前記第2の検出対象に対する投影画像の表示サイズを変化させる、前記(8)から10のいずれか1項に記載の情報処理装置。
(12)
前記制御部は、
ユーザに操作される前記第1の検出対象との衝突により面上を自由移動する前記第2の検出対象と、面上の外周壁との衝突を判定し、
前記外周壁との衝突が有った場合に、前記第2の検出対象への投影色、または前記第2の検出対象の面上における移動軌跡の表示色を少なくとも変化させる、前記(8)から11のいずれか1項に記載の情報処理装置。
(13)
前記制御部は、
前記第2の検出対象が、前記第2の検出対象の投影色と異なる投影色の前記外周壁と衝突した場合、前記面上において、前記第2の検出対象の投影色と同じ投影色の領域を増やす、前記(12)に記載の情報処理装置。
(14)
前記制御部は、
前記第1の検出対象または第2の検出対象の少なくともいずれかに対して仮想的な衝突判定領域を設定し、
前記仮想的な衝突判定領域を投影画像により明示する、前記(8)から13のいずれか1項に記載の情報処理装置。
(15)
前記制御部は、
ユーザに操作される前記第1の検出対象との衝突により面上を自由移動する仮想物体画像を前記面上に投影し、
前記第1の検出対象との衝突に応じて前記仮想物体画像を変化させる、前記(8)から14のいずれか1項に記載の情報処理装置。
(16)
前記制御部は、
前記第1の検出対象との衝突に応じて前記仮想物体画像の色、サイズ、個数、または移動速度を変化させる、前記(15)に記載の情報処理装置。
(17)
前記制御部は、
前記第1の検出対象が、前記第2の検出対象または前記仮想物体画像のいずれに衝突したかに応じて、前記インタラクション制御の内容を変更する、前記(15)または(16)に記載の情報処理装置。
(18)
前記制御部は、
ユーザに操作される前記第1の検出対象との衝突により面上を自由移動する前記第2の検出対象の動きに応じて前記面上に画像を生成し、
前記生成した前記面上の画像の生成過程を記録する、
前記(8)~(17)のいずれか1項に記載の情報処理装置。
(19)
プロセッサが、
第1の検出対象を第1の方向からセンシングする第1のセンサによるセンシングデータに基づいて、前記第1の検出対象の位置を認識することと、
前記第1の検出対象が存在する面を介した前記第1の方向と逆の方向から、前記面に存在する第2の検出対象をセンシングする第2のセンサによるセンシングデータに基づいて、前記第2の検出対象の位置を認識することと、
を含む、情報処理方法。
(20)
コンピュータを、
同一面に存在する第1の検出対象と第2の検出対象の位置を認識する制御部として機能させ、
前記制御部は、
前記第1の検出対象を第1の方向からセンシングする第1のセンサによるセンシングデータに基づいて、前記第1の検出対象の位置を認識し、
前記同一面を介した前記第1の方向と逆の方向から、前記第2の検出対象をセンシングする第2のセンサによるセンシングデータに基づいて、前記第2の検出対象の位置を認識する、プログラム。
1 情報処理システム
10 情報処理装置
20 出力装置
30 入力装置
40 マレット
42 発光素子
43 パック
44 反射材
50 ホッケー台
110 I/F部
120 発光認識部
130 管理部
131 軌跡管理部
132 映像管理部
140 記憶部
150 座標変換部
160 映像生成部
201 プロジェクタ
300 照明装置
301 上面カメラ
301a~301d 撮像装置
302 下面カメラ
302a~302d 撮像装置
760、770 バーチャルパック

Claims (18)

  1. 同一面に存在する第1の検出対象と第2の検出対象の位置を認識する制御部を備え、
    前記制御部は、
    前記第1の検出対象を第1の方向からセンシングする第1のセンサによるセンシングデータに基づいて、前記第1の検出対象の位置を認識し、
    前記同一面を介した前記第1の方向と逆の方向から、前記第2の検出対象をセンシングする第2のセンサによるセンシングデータに基づいて、前記第2の検出対象の位置を認識
    前記認識した前記第1の検出対象の位置と、前記第2の検出対象の位置とに基づいて、前記第1の検出対象と前記第2の検出対象との衝突の有無を判定する衝突判定を行い、
    前記第1のセンサにより取得された第1の撮像画像と、前記第2のセンサにより取得された第2の撮像画像とに基づいて、前記第1の撮像画像から認識された前記第1の検出対象の位置と、前記第2の撮像画像から認識された前記第2の検出対象との位置とを含む合成画像を生成し、前記衝突判定を行う、
    情報処理装置。
  2. 前記第1の検出対象と前記第2の検出対象が位置する面を形成する部材は、前記第1のセンサと前記第2のセンサの間に位置し、前記第2のセンサによる検出用の波長を透過する部材である、請求項1に記載の情報処理装置。
  3. 前記第1のセンサは、前記第1の検出対象に設けられた反射材により反射される光または発光部により発光される光を検知し、
    前記第2のセンサは、前記第2の検出対象に設けられた反射材により反射される光または発光部により発光される光を検知する、請求項1に記載の情報処理装置。
  4. 前記制御部は、
    前記第1の検出対象の位置および前記第2の検出対象の位置の間の距離と、所定の閾値との比較結果に基づいて、前記衝突判定を行う、請求項に記載の情報処理装置。
  5. 前記制御部は、
    前記第1の検出対象の位置と前記第2の検出対象の位置の間の距離が、前記所定の閾値を下回る場合、前記第1の検出対象と前記第2の検出対象との衝突が有ったと判定する、請求項に記載の情報処理装置。
  6. 前記制御部は、
    前記衝突の有無に応じたインタラクション制御を行う、請求項に記載の情報処理装置。
  7. 前記制御部は、
    前記衝突が有った場合に、前記第1の検出対象、前記第2の検出対象、または前記第1の検出対象および前記第2の検出対象が位置する面上の少なくともいずれかに対する表示制御、音声出力、または前記第1の検出対象または前記第2の検出対象への触覚提示の制御を行う、請求項に記載の情報処理装置。
  8. 前記制御部は、
    ユーザに操作される前記第1の検出対象に前記第2の検出対象が衝突した場合、前記第2の検出対象に対する投影色を変化させる、請求項に記載の情報処理装置。
  9. 前記制御部は、
    ユーザに操作される前記第1の検出対象に前記第2の検出対象が衝突した場合、前記第2の検出対象に対する投影画像の表示サイズを変化させる、請求項に記載の情報処理装置。
  10. 前記制御部は、
    ユーザに操作される前記第1の検出対象との衝突により面上を自由移動する前記第2の検出対象と、面上の外周壁との衝突を判定し、
    前記外周壁との衝突が有った場合に、前記第2の検出対象への投影色、または前記第2の検出対象の面上における移動軌跡の表示色を少なくとも変化させる、請求項に記載の情報処理装置。
  11. 前記制御部は、
    前記第2の検出対象が、前記第2の検出対象の投影色と異なる投影色の前記外周壁と衝突した場合、前記面上において、前記第2の検出対象の投影色と同じ投影色の領域を増やす、請求項10に記載の情報処理装置。
  12. 前記制御部は、
    前記第1の検出対象または前記第2の検出対象の少なくともいずれかに対して仮想的な衝突判定領域を設定し、
    前記仮想的な衝突判定領域を投影画像により明示する、請求項に記載の情報処理装置。
  13. 前記制御部は、
    ユーザに操作される前記第1の検出対象との衝突により面上を自由移動する仮想物体画像を前記面上に投影し、
    前記第1の検出対象との衝突に応じて前記仮想物体画像を変化させる、請求項に記載の情報処理装置。
  14. 前記制御部は、
    前記第1の検出対象との衝突に応じて前記仮想物体画像の色、サイズ、個数、または移動速度を変化させる、請求項13に記載の情報処理装置。
  15. 前記制御部は、
    前記第1の検出対象が、前記第2の検出対象または前記仮想物体画像のいずれに衝突したかに応じて、前記インタラクション制御の内容を変更する、請求項13に記載の情報処理装置。
  16. 前記制御部は、
    ユーザに操作される前記第1の検出対象との衝突により面上を自由移動する前記第2の検出対象の動きに応じて前記面上に画像を生成し、
    前記生成した前記面上の画像の生成過程を記録する、
    請求項に記載の情報処理装置。
  17. プロセッサが、
    第1の検出対象を第1の方向からセンシングする第1のセンサによるセンシングデータに基づいて、前記第1の検出対象の位置を認識することと、
    前記第1の検出対象が存在する面を介した前記第1の方向と逆の方向から、前記面に存在する第2の検出対象をセンシングする第2のセンサによるセンシングデータに基づいて、前記第2の検出対象の位置を認識することと、
    前記認識した前記第1の検出対象の位置と、前記第2の検出対象の位置とに基づいて、前記第1の検出対象と前記第2の検出対象との衝突の有無を判定する衝突判定を行うことと、
    を含み、
    前記第1のセンサにより取得された第1の撮像画像と、前記第2のセンサにより取得された第2の撮像画像とに基づいて、前記第1の撮像画像から認識された前記第1の検出対象の位置と、前記第2の撮像画像から認識された前記第2の検出対象との位置とを含む合成画像を生成し、前記衝突判定を行う、
    情報処理方法。
  18. コンピュータを、
    同一面に存在する第1の検出対象と第2の検出対象の位置を認識する制御部として機能させ、
    前記制御部は、
    前記第1の検出対象を第1の方向からセンシングする第1のセンサによるセンシングデータに基づいて、前記第1の検出対象の位置を認識し、
    前記同一面を介した前記第1の方向と逆の方向から、前記第2の検出対象をセンシングする第2のセンサによるセンシングデータに基づいて、前記第2の検出対象の位置を認識
    前記認識した前記第1の検出対象の位置と、前記第2の検出対象の位置とに基づいて、前記第1の検出対象と前記第2の検出対象との衝突の有無を判定する衝突判定を行い、
    前記第1のセンサにより取得された第1の撮像画像と、前記第2のセンサにより取得された第2の撮像画像とに基づいて、前記第1の撮像画像から認識された前記第1の検出対象の位置と、前記第2の撮像画像から認識された前記第2の検出対象との位置とを含む合成画像を生成し、前記衝突判定を行う、
    プログラム。
JP2020504853A 2018-03-08 2019-01-29 情報処理装置、情報処理方法、およびプログラム Active JP7243708B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018041392 2018-03-08
JP2018041392 2018-03-08
PCT/JP2019/002860 WO2019171830A1 (ja) 2018-03-08 2019-01-29 情報処理装置、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2019171830A1 JPWO2019171830A1 (ja) 2021-05-13
JP7243708B2 true JP7243708B2 (ja) 2023-03-22

Family

ID=67846045

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020504853A Active JP7243708B2 (ja) 2018-03-08 2019-01-29 情報処理装置、情報処理方法、およびプログラム

Country Status (3)

Country Link
US (1) US11491372B2 (ja)
JP (1) JP7243708B2 (ja)
WO (1) WO2019171830A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022131221A1 (ja) * 2020-12-15 2022-06-23 エンゼルグループ株式会社 管理システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008086744A (ja) 2006-09-04 2008-04-17 Ip Solutions Inc 情報出力装置
US20110021256A1 (en) 2009-07-27 2011-01-27 Obscura Digital, Inc. Automated enhancements for billiards and the like
JP2012029750A (ja) 2010-07-29 2012-02-16 Konami Digital Entertainment Co Ltd 遊技台装置、表示制御方法、および、プログラム
WO2016092656A1 (ja) 2014-12-10 2016-06-16 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008086744A (ja) 2006-09-04 2008-04-17 Ip Solutions Inc 情報出力装置
US20110021256A1 (en) 2009-07-27 2011-01-27 Obscura Digital, Inc. Automated enhancements for billiards and the like
JP2012029750A (ja) 2010-07-29 2012-02-16 Konami Digital Entertainment Co Ltd 遊技台装置、表示制御方法、および、プログラム
WO2016092656A1 (ja) 2014-12-10 2016-06-16 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム

Also Published As

Publication number Publication date
JPWO2019171830A1 (ja) 2021-05-13
WO2019171830A1 (ja) 2019-09-12
US11491372B2 (en) 2022-11-08
US20210106871A1 (en) 2021-04-15

Similar Documents

Publication Publication Date Title
US8740702B2 (en) Action trigger gesturing
JP7403452B2 (ja) 双方向ビデオゲームシステム
US8657683B2 (en) Action selection gesturing
US8597142B2 (en) Dynamic camera based practice mode
US20060192852A1 (en) System, method, software arrangement and computer-accessible medium for providing audio and/or visual information
EP2714215B1 (en) Shape trace gesturing
TW201936241A (zh) 增強比賽系統及方法
KR20080033352A (ko) 상호 작용식 오락 시스템과 이의 작동 방법
JP2010017362A (ja) ゲームシステム、ゲーム装置の制御方法、及びプログラム
JP2011194073A (ja) ゲーム装置、ゲーム装置の制御方法、及びプログラム
JP7243708B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP5656387B2 (ja) ゲーム装置、およびこのゲーム装置を実現するためのゲームプログラム
KR102054148B1 (ko) 운동 유도를 위한 스포츠 인터렉티브 컨텐츠 실행 시스템
JP5638797B2 (ja) ゲーム装置およびゲームプログラム
KR20090046088A (ko) 체감형 가상현실 비디오 게임시스템
JP5767732B2 (ja) ゲーム装置、およびこのゲーム装置を実現するためのゲームプログラム
JP5583398B2 (ja) ゲームプログラム及びゲーム装置
JP5977309B2 (ja) ゲーム装置およびゲームプログラム
JP5993917B2 (ja) ゲーム装置およびゲームプログラム
JP2024519710A (ja) マルチプレイヤ・インタラクティブ・システムおよびその使用方法
JP5883913B2 (ja) ゲーム装置、およびこのゲーム装置を実現するためのゲームプログラム
JP5758521B2 (ja) ゲーム装置

Legal Events

Date Code Title Description
AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20201124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210115

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230220

R151 Written notification of patent or utility model registration

Ref document number: 7243708

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151