JP5806469B2 - 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法 - Google Patents

画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法 Download PDF

Info

Publication number
JP5806469B2
JP5806469B2 JP2011007852A JP2011007852A JP5806469B2 JP 5806469 B2 JP5806469 B2 JP 5806469B2 JP 2011007852 A JP2011007852 A JP 2011007852A JP 2011007852 A JP2011007852 A JP 2011007852A JP 5806469 B2 JP5806469 B2 JP 5806469B2
Authority
JP
Japan
Prior art keywords
image
voice
captured image
virtual
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011007852A
Other languages
English (en)
Other versions
JP2012094101A (ja
Inventor
泰幸 大八木
泰幸 大八木
達也 高寺
達也 高寺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2011007852A priority Critical patent/JP5806469B2/ja
Publication of JP2012094101A publication Critical patent/JP2012094101A/ja
Application granted granted Critical
Publication of JP5806469B2 publication Critical patent/JP5806469B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/424Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving acoustic input signals, e.g. by using the results of pitch or rhythm extraction or voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/216Input arrangements for video game devices characterised by their sensors, purposes or types using geographical information, e.g. location of the game device or player using GPS
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5252Changing parameters of virtual cameras using two or more virtual cameras concurrently or sequentially, e.g. automatically switching between fixed virtual cameras when a character changes room or displaying a rear-mirror view in a car-driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/825Fostering virtual characters
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1081Input via voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • A63F2300/6676Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera by dedicated player input
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • A63F2300/695Imported photos, e.g. of the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8058Virtual breeding, e.g. tamagotchi
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Acoustics & Sound (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像処理プログラム、画像処理装置、画像処理システム、および画像処理方
法に関し、より特定的には、実世界画像に仮想世界画像を合成して表示する画像処理プロ
グラム、画像処理装置、画像処理システム、および画像処理方法に関する。
従来、コンピュータがつくり出す文字や仮想物体等の各種情報を、撮像された現実空間
に付加表示する技術である拡張現実(AR;Augmented Reality)の分
野において、現実空間およびコンピュータ間のインタラクティブなインターフェイスとし
て、仮想物体等を表示するための基準座標判別に関する研究が行われている。例えば、カ
メラによって撮像された画像におけるマーカの位置および姿勢に基づいて、実世界におけ
るマーカとカメラとの相対位置および相対姿勢を計算する方法が開示されている(例えば
、非特許文献1参照)。
加藤博一、Mark Billinghurst、浅野浩一、橘啓八郎共著、「マーカ追跡に基づく拡張現実感システムとそのキャリブレーション」,日本バーチャルリアリティ学会論文誌、Vol4、No.4,1999年、p.606−616
しかしながら、上記非特許文献1に記載された方法は、カメラを移動させて視点を移動
させることによってのみ、撮像された現実空間内に付加表示される仮想物体等を動かすこ
とができる。したがって、ユーザは、上記仮想物体等を操作するようなことができない。
また、自らの視点と撮像画像の内容とを一致させるために、ユーザは、実世界を撮像する
撮像装置を把持するまたは身につけることが必要となる。そして、把持している撮像装置
や身につけた撮像装置に対してユーザの手指で入力操作することを考えた場合、物理的な
制限のために撮像しながら入力操作することが困難となる。そのため、拡張現実の分野で
用いられている従来の入力方法では、拡張現実とのインタラクティブ性も低く、また、入
力できる内容のバリエーションが乏しいため、興趣性や操作性に欠けていた。
それ故に、本発明の目的は、実世界画像に仮想世界画像を合成した画像を表示する際に
、実世界画像に付加表示された仮想物体や文字等に対して新たな入力方法を用いて操作す
ることができる画像処理プログラム、画像処理装置、画像処理システム、および画像処理
方法を提供することである。
上記目的を達成するために、本発明は例えば以下のような構成を採用し得る。なお、特
許請求の範囲の記載を解釈する際に、特許請求の範囲の記載によってのみその範囲が解釈
されるべきであることが理解され、特許請求の範囲の記載と本欄の記載とが矛盾する場合
には、特許請求の範囲の記載が優先する。
本発明の画像処理プログラムの一構成例は、表示装置に画像を表示する画像処理装置の
コンピュータを、撮像画像取得手段、位置姿勢算出手段、音声データ取得手段、音声認識
手段、設定手段、画像生成手段、および表示制御手段として機能させる。撮像画像取得手
段は、実カメラによって撮像された撮像画像を繰り返し取得する。位置姿勢算出手段は、
実空間における実カメラの位置および姿勢にしたがって決められる位置姿勢情報を繰り返
し算出する。音声データ取得手段は、音声入力デバイスから音声信号を示す音声データを
取得する。音声認識手段は、音声入力デバイスに入力された音声を認識する。設定手段は
、撮像画像に付加表示する仮想オブジェクトまたは文字を付加表示物として設定し、音声
認識手段の音声認識結果に基づいて、当該付加表示物の表示位置、姿勢、および表示態様
から成る群から選ばれた少なくとも1つを設定する。画像生成手段は、撮像画像における
位置姿勢情報に応じた位置を基準として、設定手段が設定した付加表示物を重畳して合成
画像を繰り返し生成する。表示制御手段は、合成画像を表示装置に繰り返し表示する。
上記によれば、撮像画像に付加表示物を付加表示する際、付加表示物に対して音声で操
作することができ、実世界画像に付加表示された仮想物体や文字等に対して新たな入力方
法を用いて簡便性の高い操作を行うことができる。
また、上記位置姿勢算出手段は、撮像画像に含まれる特定の撮像対象物または特徴点を
検出し、当該検出結果に基づいて当該撮像対象物または当該特徴点と実カメラとの間の相
対的な位置および姿勢を示す情報を位置姿勢情報として算出してもよい。
上記によれば、実空間に配置された所定のマーカ等の撮像対象物や自然特徴点を用いる
ことによって、実空間における実カメラの位置や姿勢を正確に認識することができる。
また、上記位置姿勢算出手段は、実空間における実カメラの地理的な位置および実カメ
ラの撮像方向の方位の少なくとも一方を用いて、位置姿勢情報を算出してもよい。
上記によれば、GPS等による実カメラの地理的な位置および磁気センサ等による実カ
メラの撮像方向の方位の少なくとも一方を用いることによって、実空間における実カメラ
の位置や姿勢を正確に認識することができる。
また、上記設定手段は、仮想オブジェクトを付加表示物として設定してもよい。また、
上記画像生成手段は、仮想カメラ設定手段、仮想オブジェクト配置手段、および仮想世界
画像生成手段を含んでいてもよい。仮想カメラ設定手段は、仮想世界において、位置姿勢
情報に基づいて仮想カメラの位置および姿勢を設定する。仮想オブジェクト配置手段は、
仮想世界に設定手段が設定した仮想オブジェクトを配置する。仮想世界画像生成手段は、
仮想カメラから見た仮想世界の画像を仮想世界画像として生成する。この場合、上記画像
生成手段は、撮像画像に仮想世界画像を重畳した画像を合成画像として生成してもよい。
上記によれば、実空間における実カメラの位置および姿勢にしたがって決められる位置
姿勢情報に基づいて設定された仮想カメラから見た仮想世界内の仮想オブジェクトが仮想
世界画像として撮像画像に合成されるため、仮想オブジェクトがあたかも実世界に本当に
存在しているかのように見える画像を表示することができる。
また、上記設定手段は、音声入力デバイスに入力された音声が第1の音声であると認識
され、かつ、位置姿勢情報が第1の条件を満たす場合に第1の動作に基づいて仮想オブジ
ェクトの表示位置、姿勢、および表示態様から成る群から選ばれた少なくとも1つを設定
し、音声入力デバイスに入力された音声が当該第1の音声であると認識され、かつ、位置
姿勢情報が当該第1の条件を満たさない場合に第2の動作に基づいて仮想オブジェクトの
表示位置、姿勢、および表示態様から成る群から選ばれた少なくとも1つを変更してもよ
い。
上記によれば、同じ音声を入力したとしても、実空間における実カメラの位置および姿
勢によって仮想オブジェクトの動作が異なるため、さらに拡張現実とのインタラクティブ
性が高い操作が可能となる。
また、上記位置姿勢算出手段は、撮像対象物と実カメラとの間の相対的な位置および姿
勢を示す情報を位置姿勢情報として算出してもよい。上記設定手段は、仮想オブジェクト
を付加表示物として設定してもよい。上記画像生成手段は、仮想カメラ設定手段、仮想オ
ブジェクト配置手段、および仮想世界画像生成手段を含んでいてもよい。仮想カメラ設定
手段は、位置姿勢情報に基づいて撮像対象物に対応する位置および方向を仮想世界内に設
定し、位置姿勢情報に基づいて当該仮想世界において当該撮像対象物に対応する位置およ
び方向を基準として仮想カメラの位置および姿勢を設定する。仮想オブジェクト配置手段
は、仮想世界に設定手段が設定した仮想オブジェクトを、撮像対象物に対応する位置を基
準として配置する。仮想世界画像生成手段は、仮想カメラから見た仮想世界の画像を仮想
世界画像として生成する。この場合、上記設定手段は、音声入力デバイスに入力された音
声が第1の音声であると認識された場合、仮想世界における撮像対象物に対応する方向を
基準として動作する第1の動作に基づいて仮想オブジェクトの表示位置、姿勢、および表
示態様から成る群から選ばれた少なくとも1つを設定し、音声入力デバイスに入力された
音声が第2の音声であると認識された場合、仮想世界における仮想カメラへの方向を基準
として動作する第2の動作に基づいて仮想オブジェクトの表示位置、姿勢、および表示態
様から成る群から選ばれた少なくとも1つを変更してもよい。上記画像生成手段は、撮像
画像に仮想世界画像を重畳した画像を合成画像として生成してもよい。
上記によれば、異なる音声入力を行うことによって、仮想オブジェクトが実空間に配置
された所定のマーカ等の撮像対象物の方向を基準として動作する場合と、仮想オブジェク
トが仮想カメラの方向、すなわち実空間における実カメラの方向をあたかも基準としたよ
うな動作をする場合があるため、さらに拡張現実とのインタラクティブ性が高く興趣性に
富んだ操作が可能となる。
また、上記設定手段は、音声入力デバイスに音声が入力されていない場合、または音声
認識手段が認識した音声が付加表示物を設定する対象ではない場合、付加表示物の表示位
置、姿勢、および表示態様から成る群から選ばれた少なくとも1つを、予め定められた内
容に設定してもよい。
上記によれば、ユーザが音声入力をしなくても付加表示物の表示位置、姿勢、および表
示態様が自動的に変化することがあり得るため、付加表示物自体が自由に行動しているか
のような画像が表示できる。
また、上記画像処理プログラムは、撮影保存手段として、さらにコンピュータを機能さ
せてもよい。撮影保存手段は、ユーザによる撮影指示に応じて、画像生成手段が現時点で
生成している最新の合成画像を記憶手段に保存する。
上記によれば、撮像画像に付加表示物を重畳させた状態で撮影した画像を保存できるた
め、当該状態を再表示することが可能となる。
また、上記撮像画像取得手段は、第1の実カメラおよび当該第1の実カメラから所定の
距離離れた位置に設けられた第2の実カメラによってそれぞれ撮像された第1の撮像画像
および第2の撮像画像を繰り返し取得してもよい。上記位置姿勢算出手段は、実空間にお
ける第1の実カメラの位置および姿勢にしたがって決められる第1の位置姿勢情報および
実空間における第2の実カメラの位置および姿勢にしたがって決められる第2の位置姿勢
情報をそれぞれ繰り返し算出してもよい。上記画像生成手段は、第1の撮像画像における
第1の位置姿勢情報に応じた位置を基準として、設定手段が設定した付加表示物を重畳し
て第1の合成画像を繰り返し生成し、第2の撮像画像における第2の位置姿勢情報に応じ
た位置を基準として、設定手段が設定した付加表示物を重畳して第2の合成画像を繰り返
し生成してもよい。上記表示制御手段は、立体視可能な表示装置に第1の合成画像および
第2の合成画像を出力して、付加表示物を合成した撮像画像を繰り返し立体表示してもよ
い。
上記によれば、立体視可能な表示装置に立体表示された撮像画像に付加表示物を付加表
示して表示することができる。
また、上記音声認識手段は、音声入力デバイスに入力された音声を予め登録音声として
登録されている音声と少なくとも照合することによって、音声入力デバイスに入力された
音声が第1の音声であるか否かを判別し、音声入力デバイスに入力された音声波形のレベ
ルのみに基づいて、音声入力デバイスに入力された音声が第2の音声であるか否かを判別
してもよい。
上記によれば、予め登録された登録音声と照合することによって話し言葉として発する
音声(言語)等を用いて操作したり、音声波形のレベルによって拍手の音等を用いて操作
したりすることができる。
また、上記音声認識手段は、音声入力デバイスに入力された音声入力パターンから得ら
れる特徴パラメータ時系列に対する予め登録音声として登録されている特徴パラメータ時
系列の尤度に基づいて、音声入力デバイスに入力された音声が第1の音声であるか否かを
判別し、音声入力デバイスに入力された音声波形のレベルおよびスペクトル情報の少なく
とも一方のみに基づいて、音声入力デバイスに入力された音声が第3の音声であるか否か
を判別してもよい。
上記によれば、入力された音声入力パターンから得られる特徴パラメータ時系列に対す
る予め登録されている特徴パラメータ時系列の尤度に基づいて音声認識することによって
、話し言葉として発する音声(言語)等を用いて操作したり、入力された音声波形のレベ
ルおよびスペクトル情報の少なくとも一方のみに基づいて音声認識することによって、拍
手の音、口笛の音、息の音等を用いて操作したりすることができる。
また、上記画像処理プログラムは、音声登録手段として、さらにコンピュータを機能さ
せてもよい。音声登録手段は、付加表示物に対する指示に対応する音声をユーザに入力さ
せ、当該音声に応じた音声データを当該指示に対応する登録音声として記憶手段に登録す
る。この場合、上記音声認識手段は、音声登録手段が登録音声として登録した音声データ
を用いて、音声入力デバイスに入力された音声が第1の音声であるか否かを判別してもよ
い。上記設定手段は、音声認識手段が音声入力デバイスに入力された音声が第1の音声で
ある場合、当該第1の音声に対応して音声登録手段が予め登録した指示に基づいて、付加
表示物の表示位置、姿勢、および表示態様から成る群から選ばれた少なくとも1つを設定
してもよい。
上記によれば、指示に対応する話し言葉として発する音声(言語)を予めユーザが音声
入力して音声データを登録することによって、音声認識の誤認識が防止されるとともに、
ユーザが好む言語を予め登録することも可能となる。
また、上記設定手段は、位置姿勢情報が示す実カメラの地理的な位置および実カメラの
撮像方向の方位の少なくとも一方に基づいて、撮像画像に撮像されている被写体を推定し
、当該被写体に関する情報を示す文字を付加表示物として設定してもよい。上記画像生成
手段は、撮像画像における位置姿勢情報に応じた位置を基準として、設定手段が設定した
被写体に対応する文字を重畳して合成画像を繰り返し生成してもよい。上記設定手段は、
音声認識手段が音声認識した言語に一致する文字が付加表示物として設定されている場合
、当該文字が選択指示されたことを示す表示態様に変更して当該文字を設定してもよい。
上記画像生成手段は、言語に一致する文字を設定手段が変更した表示態様で撮像画像に重
畳して合成画像を生成してもよい。
上記によれば、撮像装置で撮像されている撮像画像を表示装置に表示しながら、当該撮
像装置が撮像している場所や被写体(建物や看板等)に関連する複数の文字情報を付加情
報として当該撮像画像に重畳して表示される場合、音声によって文字情報を選択すること
ができるため、拡張現実とのインタラクティブ性および操作性が高い入力方法を提供する
ことができる。
また、上記撮像画像取得手段は、画像処理装置を構成する筐体に内蔵される実カメラか
ら撮像画像を取得してもよい。上記音声データ取得手段は、筐体に内蔵される音声入力デ
バイスから音声データを取得してもよい。上記表示制御手段は、筐体に内蔵される表示装
置に合成画像を表示してもよい。
上記によれば、同じ筐体内に画像処理装置、実カメラ、表示装置、および音声入力デバ
イスを内蔵することによって、あたかも表示装置を介して実空間を見ているかのような拡
張現実を実現することができるとともに、当該実空間内に音声を発して指示しているよう
な操作感や臨場感を与えることができる。
また、本発明は、上記各手段を備える画像処理装置および画像処理システムや上記各手
段で行われる動作を含む画像処理方法の形態で実施されてもよい。
本発明によれば、撮像画像に付加表示物を付加表示する際、付加表示物に対して音声で
操作することができ、実世界画像に付加表示された仮想物体や文字等に対して新たな入力
方法を用いて簡便性の高い操作を行うことができる。
開いた状態におけるゲーム装置10の一例を示す正面図 開いた状態におけるゲーム装置10の一例を示す側面図 閉じた状態におけるゲーム装置10の一例を示す左側面図 閉じた状態におけるゲーム装置10の一例を示す正面図 閉じた状態におけるゲーム装置10の一例を示す右側面図 閉じた状態におけるゲーム装置10の一例を示す背面図 ゲーム装置10の内部構成の一例を示すブロック図 ユーザがゲーム装置10を両手で把持する様子の一例を示す図 外側撮像部23の撮像対象となるマーカMKの一例を示す図 ユーザがゲーム装置10に向かって音声を入力している様子の一例を概説する図解図 上側LCD22に表示される表示形態例を示す図 上側LCD22に表示される表示形態例を示す図 上側LCD22に表示される表示形態例を示す図 上側LCD22に表示される表示形態例を示す図 画像処理プログラムを実行することに応じて、メインメモリ32に記憶される各種データの一例を示す図 図12の音声動作対応テーブルデータDiの一例を示す図 画像処理プログラムを実行することによってゲーム装置10が画像処理する動作の一例を示すフローチャート 図14のステップ54で行われる音声認識処理の詳細な動作の一例を示すサブルーチン 図14のステップ55で行われる画像合成処理の詳細な前半の動作の一例を示すサブルーチン 図14のステップ55で行われる画像合成処理の詳細な後半の動作の一例を示すサブルーチン 仮想キャラクタCと左仮想カメラとの位置関係の一例を示す図 仮想キャラクタCと右仮想カメラとの位置関係の一例を示す図 左目用画像の生成方法の一例を示す図 文字情報が付加情報として撮像画像に重畳して表示される一例を示す図
図面を参照して、本発明の一実施形態に係る画像処理プログラムを実行する画像処理装
置について説明する。本発明の画像処理プログラムは、任意のコンピュータシステムで実
行されることによって適用することができるが、画像処理装置の一例として携帯型のゲー
ム装置10を用い、ゲーム装置10で実行される画像処理プログラムを用いて説明する。
なお、図1〜図3Dは、ゲーム装置10の外観の一例を示す平面図である。ゲーム装置1
0は、一例として携帯型のゲーム装置であり、図1〜図3Dに示すように折り畳み可能に
構成されている。図1は、開いた状態(開状態)におけるゲーム装置10の一例を示す正
面図である。図2は、開状態におけるゲーム装置10の一例を示す右側面図である。図3
Aは、閉じた状態(閉状態)におけるゲーム装置10の一例を示す左側面図である。図3
Bは、閉状態におけるゲーム装置10の一例を示す正面図である。図3Cは、閉状態にお
けるゲーム装置10の一例を示す右側面図である。図3Dは、閉状態におけるゲーム装置
10の一例を示す背面図である。ゲーム装置10は、撮像部を内蔵しており、当該撮像部
によって画像を撮像し、撮像した画像を画面に表示したり、撮像した画像のデータを保存
したりすることが可能である。また、ゲーム装置10は、交換可能なメモリカード内に記
憶され、または、サーバや他のゲーム装置から受信したゲームプログラムを実行可能であ
り、仮想空間に設定された仮想カメラから見た仮想空間画像等のコンピュータグラフィッ
クス処理により生成された画像を画面に表示することもできる。
図1〜図3Dにおいて、ゲーム装置10は、下側ハウジング11および上側ハウジング
21を有する。下側ハウジング11と上側ハウジング21とは、開閉可能(折り畳み可能
)に連結されている。図1の例では、下側ハウジング11および上側ハウジング21は、
それぞれ横長の長方形の板状で形成され、互いの長辺部分で回動可能に連結されている。
通常、ユーザは、開状態でゲーム装置10を使用する。そして、ユーザは、ゲーム装置1
0を使用しない場合には閉状態としてゲーム装置10を保管する。また、ゲーム装置10
は、上記閉状態および開状態のみでなく、下側ハウジング11と上側ハウジング21との
なす角度が閉状態と開状態との間の任意の角度において、連結部分に発生する摩擦力など
によってその開閉角度を維持することができる。つまり、上側ハウジング21を下側ハウ
ジング11に対して任意の角度で静止させることができる。
図1および図2に示されるように、下側ハウジング11の上側長辺部分には、下側ハウ
ジング11の内側面(主面)11Bに対して垂直な方向に突起する突起部11Aが設けら
れる。また、上側ハウジング21の下側長辺部分には、上側ハウジング21の下側面から
当該下側面に垂直な方向に突起する突起部21Aが設けられる。下側ハウジング11の突
起部11Aと上側ハウジング21の突起部21Aとが連結されることにより、下側ハウジ
ング11と上側ハウジング21とが、折り畳み可能に接続される。
下側ハウジング11には、下側LCD(Liquid Crystal Displa
y:液晶表示装置)12、タッチパネル13、各操作ボタン14A〜14L(図1、図3
A〜図3D)、アナログスティック15、LED16A〜16B、挿入口17、および、
マイクロフォン用孔18が設けられる。以下、これらの詳細について説明する。
図1に示すように、下側LCD12は下側ハウジング11に収納される。下側LCD1
2は横長形状であり、長辺方向が下側ハウジング11の長辺方向に一致するように配置さ
れる。下側LCD12は、下側ハウジング11の中央に配置される。下側LCD12は、
下側ハウジング11の内側面(主面)に設けられ、下側ハウジング11の内側面に設けら
れた開口部から下側LCD12の画面が露出する。そして、ゲーム装置10を使用しない
場合には上記閉状態としておくことによって、下側LCD12の画面が汚れたり傷ついた
りすることを防止することができる。下側LCD12の画素数は、一例として、256d
ot×192dot(横×縦)である。他の例として、下側LCD12の画素数は、32
0dot×240dot(横×縦)である。下側LCD12は、後述する上側LCD22
とは異なり、画像を(立体視可能ではなく)平面的に表示する表示装置である。なお、本
実施形態では表示装置としてLCDを用いているが、例えばEL(Electro Lu
minescence:電界発光)を利用した表示装置など、他の任意の表示装置を利用
してもよい。また、下側LCD12として、任意の解像度の表示装置を利用することがで
きる。
図1に示されるように、ゲーム装置10は、入力装置として、タッチパネル13を備え
ている。タッチパネル13は、下側LCD12の画面上を覆うように装着されている。な
お、本実施形態では、タッチパネル13は、例えば抵抗膜方式のタッチパネルが用いられ
る。ただし、タッチパネル13は、抵抗膜方式に限らず、例えば静電容量方式等、任意の
押圧式のタッチパネルを用いることができる。本実施形態では、タッチパネル13として
、下側LCD12の解像度と同解像度(検出精度)のものを利用する。ただし、必ずしも
タッチパネル13の解像度と下側LCD12の解像度とが一致している必要はない。また
、下側ハウジング11の上側面には挿入口17(図1および図3Dに示す点線)が設けら
れている。挿入口17は、タッチパネル13に対する操作を行うために用いられるタッチ
ペン28を収納することができる。なお、タッチパネル13に対する入力は通常タッチペ
ン28を用いて行われるが、タッチペン28に限らずユーザの指でタッチパネル13に対
する入力をすることも可能である。
各操作ボタン14A〜14Lは、所定の入力を行うための入力装置である。図1に示さ
れるように、下側ハウジング11の内側面(主面)には、各操作ボタン14A〜14Lの
うち、十字ボタン14A(方向入力ボタン14A)、ボタン14B、ボタン14C、ボタ
ン14D、ボタン14E、電源ボタン14F、セレクトボタン14J、HOMEボタン1
4K、およびスタートボタン14Lが設けられる。十字ボタン14Aは、十字の形状を有
しており、上下左右の方向を指示するボタンを有している。ボタン14B、ボタン14C
、ボタン14D、およびボタン14Eは、十字状に配置される。ボタン14A〜14E、
セレクトボタン14J、HOMEボタン14K、およびスタートボタン14Lには、ゲー
ム装置10が実行するプログラムに応じた機能が適宜割り当てられる。例えば、十字ボタ
ン14Aは選択操作等に用いられ、各操作ボタン14B〜14Eは例えば決定操作やキャ
ンセル操作等に用いられる。また、電源ボタン14Fは、ゲーム装置10の電源をオン/
オフするために用いられる。
アナログスティック15は、方向を指示するデバイスであり、下側ハウジング11の内
側面の下側LCD12より左側領域の上部領域に設けられる。図1に示すように、十字ボ
タン14Aが下側LCD12より左側領域の下部領域に設けられ、アナログスティック1
5が十字ボタン14Aの上方に設けられる。また、アナログスティック15および十字ボ
タン14Aは、下側ハウジング11を把持した左手の親指で操作可能な位置に設計される
。また、アナログスティック15を上部領域に設けたことにより、下側ハウジング11を
把持する左手の親指が自然と位置するところにアナログスティック15が配され、十字ボ
タン14Aは、左手の親指を少し下にずらした位置に配される。アナログスティック15
は、そのキートップが、下側ハウジング11の内側面に平行にスライドするように構成さ
れている。アナログスティック15は、ゲーム装置10が実行するプログラムに応じて機
能する。例えば、3次元仮想空間に所定のオブジェクトが登場するゲームがゲーム装置1
0によって実行される場合、アナログスティック15は、当該所定のオブジェクトを3次
元仮想空間内で移動させるための入力装置として機能する。この場合において、所定のオ
ブジェクトは、アナログスティック15のキートップがスライドした方向に移動される。
なお、アナログスティック15として、上下左右および斜め方向の任意の方向に所定量だ
け傾倒することでアナログ入力を可能としたものを用いてもよい。
十字状に配置される、ボタン14B、ボタン14C、ボタン14D、およびボタン14
Eの4つのボタンは、下側ハウジング11を把持する右手の親指が自然と位置するところ
に配置される。また、これらの4つのボタンとアナログスティック15とは、下側LCD
12を挟んで、左右対称に配置される。これにより、ゲームプログラムによっては、例え
ば、左利きの人が、これらの4つのボタンを使用して方向指示入力をすることも可能であ
る。
また、下側ハウジング11の内側面には、マイクロフォン用孔18が設けられる。マイ
クロフォン用孔18の下部には後述する音声入力装置としてのマイク(図4参照)が設け
られ、当該マイクがゲーム装置10の外部の音を検出する。
図3Bおよび図3Dに示されるように、下側ハウジング11の上側面には、Lボタン1
4GおよびRボタン14Hが設けられている。Lボタン14Gは、下側ハウジング11の
上面の左端部に設けられ、Rボタン14Hは、下側ハウジング11の上面の右端部に設け
られる。後述のように、Lボタン14GおよびRボタン14Hは、撮像部のシャッターボ
タン(撮影指示ボタン)として機能する。また、図3Aに示されるように、下側ハウジン
グ11の左側面には、音量ボタン14Iが設けられる。音量ボタン14Iは、ゲーム装置
10が備えるスピーカの音量を調整するために用いられる。
図3Aに示されるように、下側ハウジング11の左側面には開閉可能なカバー部11C
が設けられる。このカバー部11Cの内側には、ゲーム装置10とデータ保存用外部メモ
リ46とを電気的に接続するためのコネクタ(図示せず)が設けられる。データ保存用外
部メモリ46は、上記コネクタに着脱自在に装着される。データ保存用外部メモリ46は
、例えば、ゲーム装置10によって撮像された画像のデータを記憶(保存)するために用
いられる。なお、上記コネクタおよびそのカバー部11Cは、下側ハウジング11の右側
面に設けられてもよい。
図3Dに示されるように、下側ハウジング11の上側面にはゲーム装置10とゲームプ
ログラムを記録した外部メモリ45を挿入するための挿入口11Dが設けられ、その挿入
口11Dの内部には、外部メモリ45と電気的に着脱自在に接続するためのコネクタ(図
示せず)が設けられる。外部メモリ45がゲーム装置10に接続されることにより、所定
のゲームプログラムが実行される。なお、上記コネクタおよび挿入口11Dは、下側ハウ
ジング11の他の側面(例えば、右側面等)に設けられてもよい。
図1に示されるように、下側ハウジング11の下側面には、ゲーム装置10の電源のO
N/OFF状況をユーザに通知する第1LED16Aが設けられる。また、図3Cに示さ
れるように、下側ハウジング11の右側面には、ゲーム装置10の無線通信の確立状況を
ユーザに通知する第2LED16Bが設けられる。ゲーム装置10は、他の機器との間で
無線通信を行うことが可能であり、第2LED16Bは、他の機器との無線通信が確立し
ている場合に点灯する。ゲーム装置10は、例えば、IEEE802.11.b/gの規
格に準拠した方式により、無線LANに接続する機能を有する。下側ハウジング11の右
側面には、この無線通信の機能を有効/無効にする無線スイッチ19が設けられる(図3
C参照)。
なお、図示は省略するが、下側ハウジング11には、ゲーム装置10の電源となる充電
式電池が収納され、下側ハウジング11の側面(例えば、上側面)に設けられた端子を介
して当該電池を充電することができる。
上側ハウジング21には、上側LCD22、2つの外側撮像部23(外側左撮像部23
aおよび外側右撮像部23b)、内側撮像部24、3D調整スイッチ25、および3Dイ
ンジケータ26が設けられる。以下、これらの詳細について説明する。
図1に示すように、上側LCD22は、上側ハウジング21に収納される。上側LCD
22は、横長形状であり、長辺方向が上側ハウジング21の長辺方向に一致するように配
置される。上側LCD22は、上側ハウジング21の中央に配置される。上側LCD22
の画面の面積は、一例として下側LCD12の画面の面積よりも大きく設定される。具体
的には、上側LCD22の画面は、下側LCD12の画面よりも横長に設定される。すな
わち、上側LCD22の画面のアスペクト比における横幅の割合は、下側LCD12の画
面のアスペクト比における横幅の割合よりも大きく設定される。
上側LCD22の画面は、上側ハウジング21の内側面(主面)21Bに設けられ、上
側ハウジング21の内側面に設けられた開口部から上側LCD22の画面が露出する。ま
た、図2に示すように、上側ハウジング21の内側面は、透明なスクリーンカバー27に
よって覆われている。スクリーンカバー27は、上側LCD22の画面を保護するととも
に、上側LCD22と上側ハウジング21の内側面と一体的にさせ、これにより統一感を
持たせている。上側LCD22の画素数は、一例として640dot×200dot(横
×縦)である。他の例として、上側LCD22の画素数は、800dot×240dot
(横×縦)である。なお、本実施形態では、上側LCD22が液晶表示装置であるとした
が、例えばELを利用した表示装置などが利用されてもよい。また、上側LCD22とし
て、任意の解像度の表示装置を利用することができる。
上側LCD22は、立体視可能な画像を表示することが可能な表示装置である。上側L
CD22は、実質的に同一の表示領域を用いて左目用画像と右目用画像とを表示すること
が可能である。具体的には、上側LCD22は、左目用画像と右目用画像とが所定単位で
(例えば、1列ずつ)横方向に交互に表示される方式の表示装置である。一例として、上
側LCD22の画素数が800dot×240dotで構成される場合、横の800ピク
セルを左目用画像と右目用画像とに交互にそれぞれ400ピクセル割り当てることによっ
て立体視が可能となる。なお、上側LCD22は、左目用画像と右目用画像とが交互に表
示される方式の表示装置であってもよい。また、上側LCD22は、裸眼立体視可能な表
示装置である。この場合、上側LCD22は、横方向に交互に表示される左目用画像と右
目用画像とを左目および右目のそれぞれに分解して見えるようにレンチキュラー方式やパ
ララックスバリア方式(視差バリア方式)のものが用いられる。本実施形態では、上側L
CD22は、パララックスバリア方式のものとする。上側LCD22は、右目用画像と左
目用画像とを用いて、裸眼で立体視可能な画像(立体画像)を表示する。すなわち、上側
LCD22は、視差バリアを用いてユーザの左目に左目用画像をユーザの右目に右目用画
像をそれぞれ視認させることにより、ユーザにとって立体感のある立体画像(立体視可能
な画像)を表示することができる。また、上側LCD22は、上記視差バリアを無効にす
ることが可能であり、視差バリアを無効にした場合は、画像を平面的に表示することがで
きる(上述した立体視とは反対の意味で平面視の画像を表示することができる。すなわち
、表示された同一の画像が右目にも左目にも見えるような表示モードである。)。このよ
うに、上側LCD22は、立体視可能な画像を表示する立体表示モードと、画像を平面的
に表示する(平面視画像を表示する)平面表示モードとを切り替えることが可能な表示装
置である。この表示モードの切り替えは、後述する3D調整スイッチ25によって行われ
る。
外側撮像部23は、上側ハウジング21の外側面(上側LCD22が設けられた主面と
反対側の背面)21Dに設けられた2つの撮像部(外側左撮像部23aおよび外側右撮像
部23b)の総称である。外側左撮像部23aおよび外側右撮像部23bの撮像方向は、
いずれも外側面21Dの外向きの法線方向である。また、外側左撮像部23aおよび外側
右撮像部23bは、いずれも、上側LCD22の表示面(内側面)の法線方向と180度
反対の方向に設計される。すなわち、外側左撮像部23aの撮像方向および外側右撮像部
23bの撮像方向は、平行である。外側左撮像部23aと外側右撮像部23bとは、ゲー
ム装置10が実行するプログラムによって、ステレオカメラとして使用することが可能で
ある。また、プログラムによっては、2つの外側撮像部(外側左撮像部23aおよび外側
右撮像部23b)のいずれか一方を単独で用いて、外側撮像部23を非ステレオカメラと
して使用することも可能である。また、プログラムによっては、2つの外側撮像部(外側
左撮像部23aおよび外側右撮像部23b)で撮像した画像を合成してまたは補完的に使
用することにより撮像範囲を広げた撮像を行うことも可能である。本実施形態では、外側
撮像部23は、外側左撮像部23aおよび外側右撮像部23bの2つの撮像部で構成され
る。外側左撮像部23aおよび外側右撮像部23bは、それぞれ所定の共通の解像度を有
する撮像素子(例えば、CCDイメージセンサやCMOSイメージセンサ等)と、レンズ
とを含む。レンズは、ズーム機構を有するものでもよい。
図1の破線および図3Bの実線で示されるように、外側撮像部23を構成する外側左撮
像部23aおよび外側右撮像部23bは、上側LCD22の画面の横方向と平行に並べら
れて配置される。すなわち、2つの外側左撮像部23aおよび外側右撮像部23bを結ん
だ直線が上側LCD22の画面の横方向と平行になるように、外側左撮像部23aおよび
外側右撮像部23bが配置される。図1の破線23aおよび23bは、上側ハウジング2
1の内側面とは反対側の外側面に存在する外側左撮像部23aおよび外側右撮像部23b
をそれぞれ表している。図1に示すように、ユーザが上側LCD22の画面を正面から視
認した場合に、外側左撮像部23aは左側に外側右撮像部23bは右側にそれぞれ位置す
る。外側撮像部23をステレオカメラとして機能させるプログラムが実行されている場合
、外側左撮像部23aは、ユーザの左目で視認される左目用画像を撮像し、外側右撮像部
23bは、ユーザの右目で視認される右目用画像を撮像する。外側左撮像部23aおよび
外側右撮像部23bの間隔は、人間の両目の間隔程度に設定され、例えば、30mm〜7
0mmの範囲で設定されてもよい。なお、外側左撮像部23aおよび外側右撮像部23b
の間隔は、この範囲に限らない。
なお、本実施例においては、外側左撮像部23aおよび外側右撮像部23bは、ハウジ
ングに固定されており、撮像方向を変更することはできない。
外側左撮像部23aおよび外側右撮像部23bは、上側LCD22(上側ハウジング2
1)の左右方向に関して中央から対称となる位置にそれぞれ配置される。すなわち、外側
左撮像部23aおよび外側右撮像部23bは、上側LCD22を左右に2等分する線に対
して対称の位置にそれぞれ配置される。また、外側左撮像部23aおよび外側右撮像部2
3bは、上側ハウジング21を開いた状態において、上側ハウジング21の上部であって
、上側LCD22の画面の上端よりも上方の位置の裏側に配置される。すなわち、外側左
撮像部23aおよび外側右撮像部23bは、上側ハウジング21の外側面であって、上側
LCD22を外側面に投影した場合、投影した上側LCD22の画面の上端よりも上方に
配置される。
このように、外側撮像部23の2つの撮像部(外側左撮像部23aおよび外側右撮像部
23b)が上側LCD22の左右方向に関して中央から対称の位置に配置されることによ
り、ユーザが上側LCD22を正視した場合に、外側撮像部23それぞれの撮像方向をユ
ーザの左右の目それぞれの視線方向と一致させることができる。また、外側撮像部23は
、上側LCD22の画面の上端より上方の裏側の位置に配置されるため、外側撮像部23
と上側LCD22とが上側ハウジング21の内部で干渉することがない。したがって、外
側撮像部23を上側LCD22の画面の裏側に配置する場合と比べて、上側ハウジング2
1を薄く構成することが可能となる。
内側撮像部24は、上側ハウジング21の内側面(主面)21Bに設けられ、当該内側
面の内向きの法線方向を撮像方向とする撮像部である。内側撮像部24は、所定の解像度
を有する撮像素子(例えば、CCDイメージセンサやCMOSイメージセンサ等)と、レ
ンズとを含む。レンズは、ズーム機構を有するものでもよい。
図1に示すように、内側撮像部24は、上側ハウジング21を開いた状態において、上
側ハウジング21の上部であって、上側LCD22の画面の上端よりも上方に配置され、
上側ハウジング21の左右方向に関して中央の位置(上側ハウジング21(上側LCD2
2の画面)を左右に2等分する線の線上)に配置される。具体的には、図1および図3B
に示されるように、内側撮像部24は、上側ハウジング21の内側面であって、外側左撮
像部23aおよび外側右撮像部23bの中間の裏側の位置に配置される。すなわち、上側
ハウジング21の外側面に設けられた外側左撮像部23aおよび外側右撮像部23bを上
側ハウジング21の内側面に投影した場合、当該投影した外側左撮像部23aおよび外側
右撮像部23bの中間に、内側撮像部24が設けられる。図3Bで示される破線24は、
上側ハウジング21の内側面に存在する内側撮像部24を表している。
このように、内側撮像部24は、外側撮像部23とは反対方向を撮像する。内側撮像部
24は、上側ハウジング21の内側面であって、2つの外側撮像部23の中間位置となる
裏側に設けられる。これにより、ユーザが上側LCD22を正視した際、内側撮像部24
でユーザの顔を正面から撮像することができる。また、外側左撮像部23aおよび外側右
撮像部23bと内側撮像部24とが上側ハウジング21の内部で干渉することがないため
、上側ハウジング21を薄く構成することが可能となる。
3D調整スイッチ25は、スライドスイッチであり、上述のように上側LCD22の表
示モードを切り替えるために用いられるスイッチである。また、3D調整スイッチ25は
、上側LCD22に表示された立体視可能な画像(立体画像)の立体感を調整するために
用いられる。図1〜図3Dに示されるように、3D調整スイッチ25は、上側ハウジング
21の内側面および右側面の端部に設けられ、ユーザが上側LCD22を正視した場合に
、当該3D調整スイッチ25を視認できる位置に設けられる。3D調整スイッチ25は、
所定方向(例えば、上下方向)の任意の位置にスライド可能なスライダを有しており、当
該スライダの位置に応じて上側LCD22の表示モードが設定される。
例えば、3D調整スイッチ25のスライダが最下点位置に配置されている場合、上側L
CD22が平面表示モードに設定され、上側LCD22の画面には平面画像が表示される
。なお、上側LCD22を立体表示モードのままとして、左目用画像と右目用画像とを同
一の画像とすることにより平面表示してもよい。一方、上記最下点位置より上側にスライ
ダが配置されている場合、上側LCD22は立体表示モードに設定される。この場合、上
側LCD22の画面には立体視可能な画像が表示される。ここで、スライダが上記最下点
位置より上側に配置されている場合、スライダの位置に応じて、立体画像の見え方が調整
される。具体的には、スライダの位置に応じて、右目用画像および左目用画像における横
方向の位置のずれ量が調整される。
3Dインジケータ26は、上側LCD22が立体表示モードか否かを示す。例えば、3
Dインジケータ26は、LEDであり、上側LCD22の立体表示モードが有効の場合に
点灯する。図1に示されるように、3Dインジケータ26は、上側ハウジング21の内側
面に設けられ、上側LCD22の画面近傍に設けられる。このため、ユーザが上側LCD
22の画面を正視した場合、ユーザは3Dインジケータ26を視認しやすい。したがって
、ユーザは、上側LCD22の画面を視認している状態でも、上側LCD22の表示モー
ドを容易に認識することができる。
また、上側ハウジング21の内側面には、スピーカ孔21Eが設けられる。後述するス
ピーカ44からの音声がこのスピーカ孔21Eから出力される。
次に、図4を参照して、ゲーム装置10の内部構成を説明する。なお、図4は、ゲーム
装置10の内部構成の一例を示すブロック図である。
図4において、ゲーム装置10は、上述した各構成部に加えて、情報処理部31、メイ
ンメモリ32、外部メモリインターフェイス(外部メモリI/F)33、データ保存用外
部メモリI/F34、データ保存用内部メモリ35、無線通信モジュール36、ローカル
通信モジュール37、リアルタイムクロック(RTC)38、加速度センサ39、角速度
センサ40、電源回路41、およびインターフェイス回路(I/F回路)42等の電子部
品を備えている。これらの電子部品は、電子回路基板上に実装されて下側ハウジング11
(または上側ハウジング21でもよい)内に収納される。
情報処理部31は、所定のプログラムを実行するためのCPU(Central Pr
ocessing Unit)311、画像処理を行うGPU(Graphics Pr
ocessing Unit)312等を含む情報処理手段である。本実施形態では、所
定のプログラムがゲーム装置10内のメモリ(例えば外部メモリI/F33に接続された
外部メモリ45やデータ保存用内部メモリ35)に記憶されている。情報処理部31のC
PU311は、当該所定のプログラムを実行することによって、後述する画像処理やゲー
ム処理を実行する。なお、情報処理部31のCPU311によって実行されるプログラム
は、他の機器との通信によって他の機器から取得されてもよい。また、情報処理部31は
、VRAM(Video RAM)313を含む。情報処理部31のGPU312は、情
報処理部31のCPU311からの命令に応じて画像を生成し、VRAM313に描画す
る。そして、情報処理部31のGPU312は、VRAM313に描画された画像を上側
LCD22および/または下側LCD12に出力し、上側LCD22および/または下側
LCD12に当該画像が表示される。
情報処理部31には、メインメモリ32、外部メモリI/F33、データ保存用外部メ
モリI/F34、およびデータ保存用内部メモリ35が接続される。外部メモリI/F3
3は、外部メモリ45を着脱自在に接続するためのインターフェイスである。また、デー
タ保存用外部メモリI/F34は、データ保存用外部メモリ46を着脱自在に接続するた
めのインターフェイスである。
メインメモリ32は、情報処理部31(CPU311)のワーク領域やバッファ領域と
して用いられる揮発性の記憶手段である。すなわち、メインメモリ32は、画像処理やゲ
ーム処理で用いられる各種データを一時的に記憶したり、外部(外部メモリ45や他の機
器等)から取得されるプログラムを一時的に記憶したりする。本実施形態では、メインメ
モリ32として例えばPSRAM(Pseudo−SRAM)を用いる。
外部メモリ45は、情報処理部31によって実行されるプログラムを記憶するための不
揮発性の記憶手段である。外部メモリ45は、例えば読み取り専用の半導体メモリで構成
される。外部メモリ45が外部メモリI/F33に接続されると、情報処理部31は外部
メモリ45に記憶されたプログラムを読み込むことができる。情報処理部31が読み込ん
だプログラムを実行することにより、所定の処理が行われる。データ保存用外部メモリ4
6は、不揮発性の読み書き可能なメモリ(例えばNAND型フラッシュメモリ)で構成さ
れ、所定のデータを格納するために用いられる。例えば、データ保存用外部メモリ46に
は、外側撮像部23で撮像された画像や他の機器で撮像された画像が記憶される。データ
保存用外部メモリ46がデータ保存用外部メモリI/F34に接続されると、情報処理部
31はデータ保存用外部メモリ46に記憶された画像を読み込み、上側LCD22および
/または下側LCD12に当該画像を表示することができる。
データ保存用内部メモリ35は、読み書き可能な不揮発性メモリ(例えばNAND型フ
ラッシュメモリ)で構成され、所定のデータを格納するために用いられる。例えば、デー
タ保存用内部メモリ35には、無線通信モジュール36を介した無線通信によってダウン
ロードされたデータやプログラムが格納される。
無線通信モジュール36は、例えばIEEE802.11.b/gの規格に準拠した方
式により、無線LANに接続する機能を有する。また、ローカル通信モジュール37は、
所定の通信方式(例えば赤外線通信)により同種のゲーム装置との間で無線通信を行う機
能を有する。無線通信モジュール36およびローカル通信モジュール37は、情報処理部
31に接続される。情報処理部31は、無線通信モジュール36を用いてインターネット
を介して他の機器との間でデータを送受信したり、ローカル通信モジュール37を用いて
同種の他のゲーム装置との間でデータを送受信したりすることができる。
情報処理部31には、加速度センサ39が接続される。加速度センサ39は、3軸(本
実施形態では、xyz軸)方向に沿った直線方向の加速度(直線加速度)の大きさを検出
する。加速度センサ39は、例えば下側ハウジング11の内部に設けられる。加速度セン
サ39は、図1に示すように、下側ハウジング11の長辺方向をx軸、下側ハウジング1
1の短辺方向をy軸、下側ハウジング11の内側面(主面)に対して垂直な方向をz軸と
して、ゲーム装置10の各軸方向へ生じる直線加速度の大きさをそれぞれ検出する。なお
、加速度センサ39は、例えば静電容量式の加速度センサとするが、他の方式の加速度セ
ンサを用いるようにしてもよい。また、加速度センサ39は、1軸または2軸方向を検出
する加速度センサであってもよい。情報処理部31は、加速度センサ39が検出した加速
度を示すデータ(加速度データ)を受け取って、ゲーム装置10の姿勢や動きを算出する
情報処理部31には、角速度センサ40が接続される。角速度センサ40は、ゲーム装
置10の3軸(本実施形態では、xyz軸)周りに生じる角速度をそれぞれ検出し、検出
した角速度を示すデータ(角速度データ)を情報処理部31へ出力する。角速度センサ4
0は、例えば下側ハウジング11の内部に設けられる。情報処理部31は、角速度センサ
40から出力された角速度データを受け取って、ゲーム装置10の姿勢や動きを算出する
情報処理部31には、RTC38および電源回路41が接続される。RTC38は、時
間をカウントして情報処理部31に出力する。情報処理部31は、RTC38によって計
時された時間に基づき現在時刻(日付)を計算する。電源回路41は、ゲーム装置10が
有する電源(下側ハウジング11に収納される上記充電式電池)からの電力を制御し、ゲ
ーム装置10の各部品に電力を供給する。
情報処理部31には、I/F回路42が接続される。I/F回路42には、マイク43
、スピーカ44、およびタッチパネル13が接続される。具体的には、I/F回路42に
は、図示しないアンプを介してスピーカ44が接続される。マイク43は、ユーザの音声
を検知して音声信号をI/F回路42に出力する。アンプは、I/F回路42からの音声
信号を増幅し、音声をスピーカ44から出力させる。I/F回路42は、マイク43およ
びスピーカ44(アンプ)の制御を行う音声制御回路と、タッチパネル13の制御を行う
タッチパネル制御回路とを含む。音声制御回路は、音声信号に対するA/D変換およびD
/A変換を行ったり、音声信号を所定の形式の音声データに変換したりする。タッチパネ
ル制御回路は、タッチパネル13からの信号に基づいて所定の形式のタッチ位置データを
生成して情報処理部31に出力する。タッチ位置データは、タッチパネル13の入力面に
おいて入力が行われた位置(タッチ位置)の座標を示す。なお、タッチパネル制御回路は
、タッチパネル13からの信号の読み込み、およびタッチ位置データの生成を所定時間に
1回の割合で行う。情報処理部31は、タッチ位置データを取得することにより、タッチ
パネル13に対して入力が行われたタッチ位置を知ることができる。
操作ボタン14は、上記各操作ボタン14A〜14Lからなり、情報処理部31に接続
される。操作ボタン14から情報処理部31へは、各操作ボタン14A〜14Iに対する
入力状況(押下されたか否か)を示す操作データが出力される。情報処理部31は、操作
ボタン14から操作データを取得することによって、操作ボタン14に対する入力に応じ
た処理を実行する。
下側LCD12および上側LCD22は、情報処理部31に接続される。下側LCD1
2および上側LCD22は、情報処理部31(GPU312)の指示にしたがって画像を
表示する。本実施形態では、情報処理部31は、例えば入力操作用の画像を下側LCD1
2に表示させ、外側撮像部23および内側撮像部24のいずれかから取得した画像を上側
LCD22に表示させる。すなわち、情報処理部31は、上側LCD22に外側撮像部2
3で撮像した右目用画像と左目用画像とを用いた立体画像(立体視可能な画像)を表示さ
せたり、内側撮像部24で撮像した平面画像を上側LCD22に表示させたり、上側LC
D22に外側撮像部23で撮像した右目用画像および左目用画像の一方を用いた平面画像
を表示させたりする。
具体的には、情報処理部31は、上側LCD22のLCDコントローラ(図示せず)と
接続され、当該LCDコントローラに対して視差バリアのON/OFFを制御する。上側
LCD22の視差バリアがONになっている場合、情報処理部31のVRAM313に格
納された(外側撮像部23で撮像された)右目用画像と左目用画像とが、上側LCD22
に出力される。より具体的には、LCDコントローラは、右目用画像について縦方向に1
ライン分の画素データを読み出す処理と、左目用画像について縦方向に1ライン分の画素
データを読み出す処理とを交互に繰り返すことによって、VRAM313から右目用画像
と左目用画像とを読み出す。これにより、右目用画像および左目用画像が、画素を縦に1
ライン毎に並んだ短冊状画像に分割され、分割された右目用画像の短冊状画像と左目用画
像の短冊状画像とが交互に配置された画像が、上側LCD22の画面に表示される。そし
て、上側LCD22の視差バリアを介して当該画像がユーザに視認されることによって、
ユーザの右目に右目用画像が、ユーザの左目に左目用画像が視認される。以上により、上
側LCD22の画面には立体視可能な画像が表示される。
外側撮像部23および内側撮像部24は、情報処理部31に接続される。外側撮像部2
3および内側撮像部24は、情報処理部31の指示にしたがって画像を撮像し、撮像した
画像データを情報処理部31に出力する。本実施形態では、情報処理部31は、外側撮像
部23および内側撮像部24のいずれか一方に対して撮像指示を行い、撮像指示を受けた
撮像部が画像を撮像して画像データを情報処理部31に送る。具体的には、ユーザによる
タッチパネル13や操作ボタン14を用いた操作によって使用する撮像部が選択される。
そして、撮像部が選択されたことを情報処理部31(CPU311)が検知し、情報処理
部31が外側撮像部23または内側撮像部24に対して撮像指示を行う。
3D調整スイッチ25は、情報処理部31に接続される。3D調整スイッチ25は、ス
ライダの位置に応じた電気信号を情報処理部31に送信する。
3Dインジケータ26は、情報処理部31に接続される。情報処理部31は、3Dイン
ジケータ26の点灯を制御する。例えば、情報処理部31は、上側LCD22が立体表示
モードである場合、3Dインジケータ26を点灯させる。
次に、図5〜図11を参照して、ゲーム装置10の使用状態および表示内容の一例を示
す。なお、図5は、ユーザがゲーム装置10を把持して操作する様子の一例を示す図であ
る。図6は、外側撮像部23の撮像対象となるマーカMKの一例を示す図である。図7は
、ユーザがゲーム装置10に向かって音声を入力している様子の一例を概説する図解図で
ある。図8〜図11は、上側LCD22に表示される表示形態例を示す図である。
図5に示されるように、ユーザは、下側LCD12および上側LCD22がユーザの方
向を向く状態で、両手の掌と中指、薬指および小指とで下側ハウジング11の側面および
外側面(内側面の反対側の面)を把持する。このように把持することで、ユーザは、下側
ハウジング11を把持したまま、各操作ボタン14A〜14Eおよびアナログスティック
15に対する操作を親指で行い、Lボタン14GおよびRボタン14Hに対する操作を人
差し指で行うことができる。そして、図5に示した一例では、外側左撮像部23aおよび
外側右撮像部23bによってゲーム装置10の背面側の実世界を撮像した実世界画像が、
上側LCD22に立体視表示されている。
本実施形態では、画像処理プログラムに基づいて、外側撮像部23(外側左撮像部23
a、外側右撮像部23b)によって現在撮像されている実世界の画像と、3次元の仮想空
間に存在する仮想オブジェクトの画像とを合成した合成画像が、上側LCD22の画面に
立体視可能に表示される。具体的には、外側撮像部23で撮影された2つの撮影画像は、
所定の視差を有するように上側LCD22に供給されて立体視表示される。上側LCD2
2の画面上では、外側撮像部23に相対的に近い被写体が相対的に手前に位置するように
ユーザに視認され、外側撮像部23から相対的に遠い被写体が相対的に遠くに位置するよ
うにユーザに視認される。
図5は、外側撮像部23によってマーカMK(撮像対象となる実オブジェクト)が撮像
されているときに、上側LCD22の画面に表示される仮想オブジェクトである仮想キャ
ラクタC(立体画像)の一例を示している。図5に示すように、マーカMKは、一例とし
て矢印を含む正方形が描かれており、CPU311は、外側撮像部23から取得される撮
像画像に対して例えばパターンマッチング等の画像処理を行うことによって、当該撮像画
像にマーカMKが含まれているか否かを判定することができる。外側撮像部23によって
マーカMKが撮像されているときには、上側LCD22には、実世界画像としてマーカM
Kが立体視可能にマーカ画像MKiとして表示されるとともに、実世界画像に含まれるマ
ーカ画像MKiの表示位置に仮想キャラクタC(例えば、犬を模した仮想オブジェクト)
が立体視可能に合成表示される。なお、図5では、理解を容易にするために、上側LCD
22の画面から仮想キャラクタCをはみ出して図示しているが、実際には仮想キャラクタ
Cは画面内に表示される。後述の図7についても同様である。また、図5および図7等に
おいては、表示対象が飛び出ているように視認される様子を図示しているが、立体視可能
に表示する、と言った場合、必ずしも飛び出し方向に視認される場合のみでなく、画面よ
り奥側に、奥行きを持って表示される場合も含む。
ここで、図6に示すように、マーカMKには、向き(前方向、右方向、上方向)が定義
されており、マーカMKの配置方向に基づいた姿勢で仮想キャラクタCを配置することが
できる。例えば、仮想キャラクタCの前方向がマーカ画像MKiの前方向と一致するよう
に、マーカ画像MKiの上に仮想キャラクタCを配置することが可能である。なお、以下
の説明では、マーカ画像MKiの前方向を「マーカの方向」と記載することがある。
図7に示すように、ゲーム装置10に表示された仮想キャラクタCに動作指示する場合
、ユーザは、音声によって当該動作指示することが可能となっている。なお、ゲーム装置
10は、ユーザがゲーム装置10に入力する音声は、話し言葉として発する音(言語)の
他に、口笛の音、拍手の音、息の音等が考えられるが、本明細書で用いる「音声」は、こ
れらの音を総称しているものとする。
ゲーム装置10にユーザの音声を判別させるためには、プレイヤは、マイク43(マイ
クロフォン用孔18)に向かって自身の音声を入力する。一方、ゲーム装置10は、I/
F回路42を介して、マイク43から入力された音声信号を示す音声データを取得し、当
該音声データを解析することによってマイク43から入力された音声を判別する。そして
、ゲーム装置10は、マイク43から入力された音声の判別結果に応じた処理を行い、当
該判別結果に応じて仮想キャラクタCを動作させる。一例として、ゲーム装置10は、マ
イク43から入力された音声が、仮想キャラクタCを立ち上がらせる動作を指示する言語
(例えば、「チンチン」)であると判別された場合、判別された音声に応じて仮想キャラ
クタCに立ち上がらせる動作を行わせて上側LCD22に表示する(図7の状態)。
次に、図8〜図11を参照して、外側撮像部23によってマーカMKが撮像されている
ときに上側LCD22の画面に表示される仮想キャラクタCの他の一例について説明する
図8において、仮想キャラクタCは、「通常状態」で表示されている。ここで、「通常
状態」は、ユーザからの動作指示に基づいた動作を行っていない場合に仮想キャラクタC
が行動している状態を示している。例えば、「通常状態」において、仮想キャラクタCは
、4つ足を地面(マーカ画像MKi上またはマーカ画像MKiと同一平面上)につけてい
る状態で静止するまたは4つ足で自由に動いて行動する。図8に示した一例では、仮想キ
ャラクタCが4つ足を地面につけて仮想キャラクタCの前方向がマーカ画像MKiの前方
向と一致する状態を「通常状態」として表示されている。
図9では、仮想キャラクタCを座らせる動作を指示する言語(例えば、「おすわり」)
をゲーム装置10に入力した場合の動作を示している。図9に示すように、ゲーム装置1
0に仮想キャラクタCを座らせる動作を指示する音声が入力された場合、仮想キャラクタ
Cは、地面(マーカ画像MKi上またはマーカ画像MKiと同一平面上)に座る動作を開
始し、仮想キャラクタCの前方向をマーカ画像MKiの前方向と一致させて地面上に座る
。このように、仮想キャラクタCに芸の名称を示す言語(例えば、「おすわり」や「ふせ
」)をゲーム装置10に入力した場合、仮想キャラクタCの前方向をマーカ画像MKiの
前方向と一致させて仮想キャラクタCが当該言語に該当する芸をすることがある。また、
他の例として、仮想キャラクタCの名前を示す言語をゲーム装置10に入力した場合、仮
想キャラクタCの前方向をマーカ画像MKiの前方向と一致させて仮想キャラクタCが吠
えることがある。
例えば、図10に示すように、ユーザがゲーム装置10を移動させることによって、撮
像されるマーカMKの位置および向きが変化する、すなわち上側LCD22の画面に表示
されるマーカ画像MKiの位置および向きが変化する場合を考える。この場合、撮像画像
の変化に追従するように、仮想キャラクタCの位置および向きが変化する。例えば、図9
のように仮想キャラクタCが座っている状態に対してマーカの方向が変化した場合、当該
変化に追従するように仮想キャラクタCの向きが変化して座っている状態を継続している
(図10の状態)。したがって、ユーザには仮想キャラクタCがあたかも実世界に本当に
存在しているかのように見える。
一方、本実施形態では、仮想キャラクタCに与えられた音声による動作指示に応じて、
マーカの方向ではなく、画像を生成しているカメラ(すなわち、仮想キャラクタCが配置
された仮想世界画像を生成する仮想カメラ)の位置に基づいた姿勢で仮想キャラクタCが
動作することもできる。例えば、図11では、仮想キャラクタCを呼び寄せる動作を指示
する音声(例えば、口笛の音)をゲーム装置10に入力した場合の動作を示している。図
11に示すように、ゲーム装置10に仮想キャラクタCを呼び寄せる動作を指示する音声
が入力された場合、仮想キャラクタCは、4つ足状態になって仮想キャラクタCの前方向
が仮想カメラへの方向と一致するように動作する。すなわち、上記動作では、仮想キャラ
クタCが表示される向きがマーカ画像MKiの方向ではなく、仮想世界画像を生成する仮
想カメラの位置に基づいて決定される。なお、上述した説明では、仮想キャラクタCを呼
び寄せる動作を指示する音声の一例として口笛の音を用いたが、他の音声であってもかま
わない。例えば、仮想キャラクタCを呼び寄せる動作を指示する音声として拍手の音を設
定し、拍手の音が入力された場合に4つ足状態になって仮想キャラクタCの前方向が仮想
カメラへの方向と一致するように仮想キャラクタCが動作してもかまわない。この場合、
口笛の音が入力された場合に仮想キャラクタCの前方向が仮想カメラへの方向と一致する
ように仮想キャラクタCが遠吠えをする動作をしてもかまわない。
また、本実施形態では、仮想キャラクタCに音声による動作指示を与えた場合、当該動
作指示を与えた時点において仮想キャラクタCが撮像(表示)されている方向によって、
仮想キャラクタCに与える動作指示が変化することがある。例えば、息の音をゲーム装置
10に入力した場合、当該入力が行われた時点で仮想キャラクタCが上側LCD22の表
示範囲内に存在し、かつ、仮想キャラクタCの前方向が仮想カメラの方向付近を向いてい
れば、仮想キャラクタCが息を吹きかけられたことによって嫌がるように動作する。その
一方で、息の音をゲーム装置10に入力した時点で仮想キャラクタCの前方向が仮想カメ
ラの方向付近を向いていなければ、仮想キャラクタCが上側LCD22の表示範囲内に存
在していても当該入力に応じた動作をすることなく、何の反応もしない。例えば、仮想キ
ャラクタCが息を吹きかけられたことによって嫌がるように動作は、「通常状態」で仮想
キャラクタCが表示されている場合に生じる動作である。この場合、仮想キャラクタCの
前方向がマーカ画像MKiの前方向と一致するような姿勢で表示されているため、当該動
作指示は、マーカの方向と仮想カメラの位置との関係が所定の位置関係になっている場合
に成立するものであると考えることもできる。
このように、本実施形態においては、実カメラにより撮像されて上側LCD22に表示
された実世界画像内に、仮想オブジェクトが配置されて付加表示され、音声認識された音
声に基づいた指示に応じて当該仮想オブジェクトが動作する。したがって、AR(拡張現
実:Augmented Reality)を実現する上で、音声を現実空間とコンピュ
ータとの間のインターフェイスとして採用することで、入力の簡便性が向上し、入力内容
もバリエーションに富んだものになるため、現実空間とコンピュータとの間のインタラク
ティブ性は高まって興趣性および操作性が向上する。また、操作ボタン、キーボード、タ
ッチパネル、マウス、ジョイスティック、およびトラックボード等の従来の入力装置を用
いて操作する場合と比較して、音声入力による操作は、臨場感や操作の直感性を高めるこ
とができる。なお、上述した例では、実世界画像内に付加表示される仮想オブジェクトの
一例として仮想キャラクタCを用いたが、実世界画像内に付加表示されるものは他の仮想
物体や文字であってもよい。また、上述した例では、音声認識された音声に基づいた指示
に応じて、付加表示された仮想キャラクタCが動作するが、音声認識された音声に基づい
た指示に応じて、他の処理が行われてもかまわない。例えば、音声認識された音声に基づ
いた指示に応じて、実世界画像内に付加表示される仮想オブジェクトや文字等の改変をす
る処理、表示態様を変化させる処理、選択をする処理、出現/消去をする処理等、様々な
処理を行うことが考えられる。
次に、図12〜図17を参照して、ゲーム装置10で実行される画像処理プログラムに
よる具体的な処理動作について説明する。なお、図12は、画像処理プログラムを実行す
ることに応じて、メインメモリ32に記憶される各種データの一例を示す図である。図1
3は、図12の音声動作対応テーブルデータDiの一例を示す図である。図14は、当該
画像処理プログラムを実行することによってゲーム装置10が画像処理する動作の一例を
示すフローチャートである。図15は、図14のステップ54で行われる音声認識処理の
詳細な動作の一例を示すサブルーチンである。図16は、図14のステップ55で行われ
る画像合成処理の詳細な前半の動作の一例を示すサブルーチンである。図17は、図14
のステップ55で行われる画像合成処理の詳細な後半の動作の一例を示すサブルーチンで
ある。なお、これらの処理を実行するためのプログラムは、ゲーム装置10に内蔵される
メモリ(例えば、データ保存用内部メモリ35)や外部メモリ45またはデータ保存用外
部メモリ46に含まれており、ゲーム装置10の電源がオンになったときに、内蔵メモリ
から、または外部メモリI/F33やデータ保存用外部メモリI/F34を介して外部メ
モリ45またはデータ保存用外部メモリ46からメインメモリ32に読み出されて、CP
U311によって実行される。
図12において、メインメモリ32には、内蔵メモリ、外部メモリ45、またはデータ
保存用外部メモリ46から読み出されたプログラムや画像処理において生成される一時的
なデータが記憶される。図12において、メインメモリ32のデータ記憶領域には、左カ
メラ画像データDa、右カメラ画像データDb、音声波形データDc、操作入力データD
d、左カメラ画像認識結果データDe、右カメラ画像認識結果データDf、スペクトル情
報データDg、メルフィルタ出力情報データDh、音声動作対応テーブルデータDi、音
声登録データDj、拍手フラグデータDk、口笛フラグデータDl、息フラグデータDm
、登録音声フラグデータDn、通常状態フラグデータDo、左仮想世界画像データDp、
右仮想世界画像データDq、および仮想オブジェクトデータDr等が格納される。また、
メインメモリ32のプログラム記憶領域には、画像処理プログラムを構成する各種プログ
ラム群Paが記憶される。
左カメラ画像データDaは、外側左撮像部23aによって撮像された最新の左目用のカ
メラ画像を示すデータである。右カメラ画像データDbは、外側右撮像部23bによって
撮像された最新の右目用のカメラ画像を示すデータである。なお、外側左撮像部23aお
よび外側右撮像部23bが撮像し、撮像されたカメラ画像を用いて左カメラ画像データD
aおよび右カメラ画像データDbをそれぞれ更新する周期は、ゲーム装置10が処理する
時間単位(例えば、1/60秒)と同じでもいいし、当該時間単位より短い時間でもかま
わない。ゲーム装置10が処理する周期より左カメラ画像データDaおよび右カメラ画像
データDbをそれぞれ更新する周期が短い場合、後述する処理とは独立して適宜左カメラ
画像データDaおよび右カメラ画像データDbをそれぞれ更新してもかまわない。この場
合、後述する撮像画像を取得するステップにおいて、左カメラ画像データDaおよび右カ
メラ画像データDbがそれぞれ示す最新のカメラ画像を常に用いて処理すればよい。
音声波形データDcは、マイク43に入力された音声波形に対応する音声データである
。例えば、音声波形データDcは、マイク43に対するサンプリングレート毎(例えば、
ゲーム処理する時間単位(1フレーム;例えば、1/60秒)につき128サンプル)に
取得された音声データであり、ゲーム装置10がゲーム処理する時間単位毎に利用される
。なお、本実施形態においては、後述する音声認識処理に必要なフレーム分の履歴が音声
波形データDcの音声データとして格納されるため、当該フレーム分の音声データが音声
波形データDcとして格納されるように、FIFO方式で音声波形データDcの音声デー
タを更新するようにしてもよい。
操作入力データDdは、ユーザがゲーム装置10を操作した操作情報を示すデータであ
る。例えば、操作入力データDdは、ユーザがゲーム装置10の操作ボタン14やアナロ
グスティック15等の操作子を操作したことを示すデータを含んでいる。操作ボタン14
やアナログスティック15からの操作データは、ゲーム装置10が処理する時間単位(例
えば、1/60秒)毎に取得され、当該取得に応じて操作入力データDdに格納されて更
新される。なお、後述する処理フローでは、操作入力データDdが処理周期である1フレ
ーム毎に更新される例を用いて説明するが、他の処理周期で更新されてもかまわない。例
えば、操作ボタン14やアナログスティック15等の操作子をユーザが操作したことを検
出する周期毎に操作入力データDdを更新し、当該更新された操作入力データDdを処理
周期毎に利用する態様でもかまわない。この場合、操作入力データDdを更新する周期と
、処理周期とが異なることになる。
左カメラ画像認識結果データDeは、外側左撮像部23aによって撮像された左目用の
カメラ画像を用いて算出された、外側左撮像部23aとマーカMKとの位置関係に関する
データである。第1の例として、上記位置関係に関するデータは、外側左撮像部23aと
マーカMKとの相対的な位置関係を示すデータである。一例として、上記位置関係に関す
るデータは、マーカMKの位置を基準として実世界における外側左撮像部23aの位置お
よび/または姿勢を示すデータである。他の例として、上記位置関係に関するデータは、
外側左撮像部23aの位置および撮像方向を基準として実世界におけるマーカMKの位置
および/または姿勢を示すデータである。第2の例として、上記位置関係に関するデータ
は、外側左撮像部23aによって撮像されたカメラ画像におけるマーカ画像MKiの位置
および/または姿勢を認識することにより算出される行列を示すデータである。例えば、
上記行列は、マーカMKの位置および姿勢を基準として設定される座標系(マーカ座標系
)で表された座標を、外側左撮像部23aの位置および姿勢を基準として表された座標系
(外側左撮像部座標系)に変換する座標変換行列である。つまり、上記行列は、マーカM
Kの位置および姿勢に対する外側左撮像部23aの相対的な位置および姿勢の情報を含む
行列であり、より具体的には、マーカ座標系における外側左撮像部23aの位置および姿
勢の情報を含む行列である。
右カメラ画像認識結果データDfは、外側右撮像部23bによって撮像された右目用の
カメラ画像を用いて算出された、外側右撮像部23bとマーカMKとの位置関係に関する
データである。第1の例として、上記位置関係に関するデータは、外側右撮像部23bと
マーカMKとの相対的な位置関係を示すデータである。一例として、上記位置関係に関す
るデータは、マーカMKの位置を基準として実世界における外側右撮像部23bの位置お
よび/または姿勢を示すデータである。他の例として、上記位置関係に関するデータは、
外側右撮像部23bの位置を基準として実世界におけるマーカMKの位置および/または
姿勢を示すデータである。第2の例として、上記位置関係に関するデータは、外側右撮像
部23bによって撮像されたカメラ画像におけるマーカ画像MKiの位置および/または
姿勢を認識することにより算出される行列を示すデータである。例えば、上記行列は、上
記マーカ座標系で表された座標を、外側右撮像部23bの位置および姿勢を基準として表
された座標系(外側右撮像部座標系)に変換する座標変換行列である。つまり、上記行列
は、マーカMKの位置および姿勢に対する外側右撮像部23bの相対的な位置および姿勢
の情報を含む行列であり、より具体的には、マーカ座標系における外側右撮像部23bの
位置および姿勢の情報を含む行列である。
なお、本明細書において、マーカ座標系から外側左撮像部座標系または外側右撮像部座
標系への変換行列のことを「マーカ・カメラ変換行列」と呼ぶ。つまり、上述した行列は
、それぞれ「マーカ・カメラ変換行列」である。
スペクトル情報データDgは、マイク43に入力された音声波形を示す音声波形情報を
短時間FFT(Fast Fourier Transform:高速フーリエ変換)分
析することによって得られるスペクトルを示すデータであり、後述する音声認識処理に必
要なフレーム分のデータが格納される。
メルフィルタ出力情報データDhは、FFT分析によって得られたスペクトルをメルフ
ィルタバンク分析することによって得られる帯域フィルタバンクの出力を示すデータであ
り、後述する音声認識処理に必要なフレーム分のデータが格納される。
音声動作対応テーブルデータDiは、音声認識結果に応じてそれぞれ動作指示される内
容が予め記述されたテーブルを示すデータである。図13に示すように、音声動作対応テ
ーブルデータDiは、音声認識結果に応じて、キャラクタの動作内容および当該動作の基
準がそれぞれ記述されている。例えば、予めまたは登録操作によって登録されている登録
音声1(例えば、「おすわり」)に音声認識結果が照合された場合、当該音声入力に応じ
てキャラクタがおすわり動作をマーカ基準で行うことが記述されている。また、音声認識
結果において拍手が入力されたと判定された場合、当該音声入力に応じてキャラクタが4
つ足でカメラの方に向く動作をカメラ基準で行うことが記述されている。また、音声認識
結果において口笛が入力されたと判定された場合、当該音声入力に応じてキャラクタがカ
メラの方に向いて遠吠えをする動作をカメラ基準で行うことが記述されている。ここで、
音声動作対応テーブルデータDiに記述されている登録音声は、後述するようにゲーム装
置10から音声入力が促されることに応じて、ユーザが前もって入力した音声言語を用い
てそれぞれ登録されてもいいし、当該画像処理プログラムがインストールされる時点で予
め登録されたものでもよい。また、音声動作対応テーブルデータDiに記述されている動
作基準は、上記マーカの方向を基準としたキャラクタの動作が「マーカ基準」と記述され
ており、仮想カメラの位置や方向を基準としたキャラクタの動作が「カメラ基準」と記述
されている。
音声登録データDjは、ゲーム装置10から音声入力が促されることに応じて、ユーザ
が前もって入力して登録した音声(言語)を示すデータである。例えば、ユーザが音声を
登録する際には、キャラクタに与える動作指示に対応させた音声入力が促される。そして
、入力された音声を示すデータが、当該音声入力を促した動作指示に対応させて(例えば
、音声動作対応テーブルデータDiに記述されている登録音声番号にそれぞれ対応させて
)音声登録データDjに登録される。なお、音声登録データDjに登録される音声は、当
該画像処理プログラムがインストールされる時点で予め登録されたものでもよい。
拍手フラグデータDkは、音声認識処理においてマイク43に入力された音声が拍手で
あると判定された場合にオンに設定される拍手フラグを示すデータである。口笛フラグデ
ータDlは、音声認識処理においてマイク43に入力された音声が口笛であると判定され
た場合にオンに設定される口笛フラグを示すデータである。息フラグデータDmは、音声
認識処理においてマイク43に入力された音声が息であると判定された場合にオンに設定
される息フラグを示すデータである。登録音声フラグデータDnは、音声認識処理におい
てマイク43に入力された音声が登録音声に照合されたと判定された場合にオンに設定さ
れる登録音声フラグを示すデータである。通常状態フラグデータDoは、仮想キャラクタ
Cが「通常状態」である場合にオンに設定される通常状態フラグを示すデータである。
左仮想世界画像データDpは、仮想オブジェクトが配置された仮想空間を、左仮想カメ
ラから見た画像(左目用の仮想世界画像)を示すデータである。例えば、左仮想世界画像
データDpは、左仮想カメラから見た仮想オブジェクトが配置された仮想空間を透視投影
することによって得られる左目用の仮想世界画像を示すデータである。右仮想世界画像デ
ータDqは、仮想オブジェクトが配置された仮想空間を、右仮想カメラから見た画像(右
目用の仮想世界画像)を示すデータである。例えば、右仮想世界画像データDqは、右仮
想カメラから見た仮想オブジェクトが配置された仮想空間を透視投影することによって得
られる右目用の仮想世界画像を示すデータである。
仮想オブジェクトデータDrは、前述の仮想オブジェクトに関連する情報であって、仮
想オブジェクトの形状を表す3Dモデルデータ(ポリゴンデータ)や、仮想オブジェクト
の模様を表すテクスチャデータや、仮想空間における仮想オブジェクトの位置や姿勢の情
報などを含む。
次に、図14を参照して、情報処理部31の動作について説明する。まず、ゲーム装置
10の電源(電源ボタン14F)がONされると、CPU311によってブートプログラ
ム(図示せず)が実行され、これにより内蔵メモリまたは外部メモリ45やデータ保存用
外部メモリ46に格納されているプログラムがメインメモリ32にロードされる。そして
、当該ロードされたプログラムが情報処理部31(CPU311)で実行されることによ
って、図14に示すステップ(図14〜図17では「S」と略称する)が実行される。な
お、図14〜図17においては、本発明に直接関連しない処理についての記載を省略する
。また、本実施形態では、図14〜図17のフローチャートの全てのステップの処理をC
PU311が実行するものとして説明するが、図14〜図17のフローチャートの一部の
ステップの処理を、CPU311以外のプロセッサや専用回路が実行するようにしてもよ
い。
図14において、CPU311は、画像処理における初期設定を行い(ステップ51)
、次のステップに処理を進める。例えば、CPU311は、上記ステップ51において、
当該画像処理で用いられる各パラメータを初期化する。なお、CPU311は、音声認識
フラグ(拍手フラグ、口笛フラグ、息フラグ、登録音声フラグ)については全てオフに初
期化し、通常状態フラグについてはオンに初期化する。
次に、CPU311は、外側撮像部23から出力される両方のカメラ画像(すなわち左
目用のカメラ画像および右目用のカメラ画像)を示す撮像画像データ、マイク43に入力
された音声波形に対応する音声データ、およびユーザが操作ボタン14やアナログスティ
ック15等の操作子を操作した操作情報を示す操作入力データを取得し(ステップ52)
、次のステップに処理を進める。例えば、CPU311は、取得した左目用のカメラ画像
を示す撮像画像データを用いて、左カメラ画像データDaを更新する。CPU311は、
取得した右目用のカメラ画像を示す撮像画像データを用いて、右カメラ画像データDbを
更新する。CPU311は、取得した音声データを用いて、音声波形データDcを更新す
る。そして、CPU311は、取得した操作入力データを用いて、操作入力データDdを
更新する。
次に、CPU311は、左右両方のカメラ画像を示す撮像画像データをそれぞれ用いて
撮影画像認識処理を行い(ステップ53)、次のステップに処理を進める。以下、上記ス
テップ53で行う撮影画像認識処理の一例について説明する。
上述したように、上側ハウジング21において、外側左撮像部23aと外側右撮像部2
3bは、一定の間隔だけ離れている。したがって、外側左撮像部23aと外側右撮像部2
3bによって同時にマーカMKを撮像した場合、外側左撮像部23aによって撮像された
左カメラ画像におけるマーカMKの位置および姿勢と、外側右撮像部23bによって撮像
された右カメラ画像におけるマーカMKの位置および姿勢との間には、視差によるズレが
生じる。そして、上記撮影画像認識処理においては、外側左撮像部23aおよび外側右撮
像部23bとマーカMKとの位置関係が算出される。
例えば、CPU311は、パターンマッチング手法等によって左右両方のカメラ画像に
マーカMKが含まれているか否かを判断し、当該カメラ画像にマーカMK(マーカ画像M
Ki)が含まれている場合には、当該カメラ画像におけるマーカMKの位置および姿勢に
基づいて、外側左撮像部23aとマーカMKとの位置関係および外側右撮像部23bとマ
ーカMKとの位置関係を算出する。一例として、CPU311は、左目用のカメラ画像に
おけるマーカ画像MKiの位置および/または姿勢を認識することによって、左目用のマ
ーカ・カメラ変換行列を算出して、左カメラ画像認識結果データDeを更新する。また、
CPU311は、右目用のカメラ画像におけるマーカ画像MKiの位置および/または姿
勢を認識することによって、右目用のマーカ・カメラ変換行列を算出して、右カメラ画像
認識結果データDfを更新する。
なお、左目用のマーカ・カメラ変換行列は、左カメラ画像におけるマーカMKの位置お
よび姿勢に基づいて計算される外側左撮像部23aの位置および姿勢を反映した行列であ
る。より正確には、マーカ座標系(実世界におけるマーカMKの位置を原点とし、マーカ
MKの縦方向(Z軸方向)、横方向(X軸方向)、法線方向(Y軸方向)の各方向を各軸
とする座標系)で表された座標を、左カメラ画像におけるマーカ画像MKiの位置および
姿勢に基づいて計算された外側左撮像部23aの位置および姿勢を基準とした外側左撮像
部座標系で表される座標へと変換するための座標変換行列である。
また、右目用のマーカ・カメラ変換行列は、右カメラ画像におけるマーカMKの位置お
よび姿勢に基づいて計算される外側右撮像部23bの位置および姿勢を反映した行列であ
る。より正確には、マーカ座標系で表された座標を、右カメラ画像におけるマーカ画像M
Kiの位置および姿勢に基づいて計算された外側右撮像部23bの位置および姿勢を基準
とした外側右撮像部座標系で表される座標へと変換するための座標変換行列である。
ここで、ARでは、マーカ座標系を外側左撮像部座標系に変換する左目用のマーカ・カ
メラ変換行列を左仮想カメラのビュー行列に指定し、マーカ座標系を外側右撮像部座標系
に変換する右目用のマーカ・カメラ変換行列を右仮想カメラのビュー行列に指定すること
により、実世界画像(左カメラ画像および右カメラ画像)にCG画像(左仮想世界画像お
よび右仮想世界画像)をそれぞれ合成することができる。
なお、上記ステップ53において、左カメラ画像および右カメラ画像の少なくとも一方
からマーカ画像MKiが認識されなかった場合には、左目用のマーカ・カメラ変換行列お
よび/または右目用のマーカ・カメラ変換行列としてヌル値が左カメラ画像認識結果デー
タDeおよび/または右カメラ画像認識結果データDfに格納され、これによって、左カ
メラ画像または右カメラ画像におけるマーカMKの認識に失敗したことが記録される。
なお、マーカ認識精度に誤差が全く無く、かつゲーム装置10に対する外側左撮像部2
3aおよび外側右撮像部23bの取り付け精度に誤差が全く無いと仮定する。この場合、
右カメラ画像の画像認識結果から計算される右仮想カメラの位置は、左カメラ画像の画像
認識結果から計算される左仮想カメラの位置を、左仮想カメラ座標系の横方向(例えば、
X軸方向)に沿って一定距離だけずらした位置となる。つまり、右カメラ画像の画像認識
結果から計算される右仮想カメラの姿勢と、左カメラ画像の画像認識結果から計算される
左仮想カメラの姿勢とは、同じとなる(すなわち、左仮想カメラ座標系のX軸,Y軸,Z
軸が、右仮想カメラ座標系のX軸,Y軸,Z軸とそれぞれ平行となる)。したがって、一
方のカメラ画像(例えば、左カメラ画像)の画像認識結果から計算される一方の仮想カメ
ラ(例えば、左仮想カメラ)の位置および姿勢に基づいて、他方の仮想カメラ(例えば、
右仮想カメラ)の位置および姿勢を決定して、他方のマーカ・カメラ変換行列を算出して
もよい。この場合、他方のカメラ画像(例えば、右カメラ画像)に対する画像認識処理が
不要となる。
次に、CPU311は、音声認識処理を行って(ステップ54)、次のステップに処理
を進める。以下、図15を参照して、上記ステップ54で行う音声認識処理について説明
する。
図15において、CPU311は、マイク43に入力された音声波形からスペクトル情
報を算出し(ステップ61)、次のステップに処理を進める。例えば、CPU311は、
音声波形データDcに格納されている音声波形情報を、短時間FFT分析することによっ
てスペクトルを算出し、当該スペクトルを用いてスペクトル情報データDgを更新する。
次に、CPU311は、上記ステップ61で算出されたスペクトルからメルフィルタ出
力情報を算出し(ステップ62)、次のステップに処理を進める。例えば、CPU311
は、スペクトル情報データDgに格納されているスペクトルを、メルフィルタバンク分析
することによって帯域フィルタバンクの出力を算出し、当該出力を示すデータを用いてメ
ルフィルタ出力情報データDhを更新する。
次に、CPU311は、拍手判定処理を行って(ステップ63)、次のステップに処理
を進める。例えば、CPU311は、音声波形データDcに格納されている音声波形情報
を用いて、マイク43に拍手の音が入力されたか否かを判定する。一例として、CPU3
11は、音声波形データDcに格納されている最新の1フレーム分の音声波形において、
振幅レベルの最大値を取得し、当該最大値の履歴を所定期間分(例えば、9フレーム分)
記憶しておく。そして、CPU311は、上記最大値の履歴において上記所定期間の中間
時点に相当する最大値(例えば、9フレーム分の最大値の履歴のうち、5フレーム目の最
大値)が所定の閾値α以上であり、かつ、当該最大値の前後となる履歴(例えば、前後2
フレーム分の履歴)に相当する最大値の値が全て所定の閾値β以下であり、かつ、上記最
大値の履歴の平均値が所定の閾値γ以下である場合、入力された音声が拍手であると判定
する。このように、上記ステップ63における拍手判定処理の一例では、マイク43に入
力された音声波形を示す情報のみを参照して、相対的に短い期間において振幅が突出した
音声波形が得られた場合に、拍手の音であると判定している。
次に、CPU311は、上記ステップ63における拍手判定処理において、拍手の音が
入力されたと判定されたか否かを判断する(ステップ64)。そして、CPU311は、
拍手の音が入力されたと判定された場合、拍手フラグをオンに設定して拍手フラグデータ
Dkを更新し(ステップ65)、次のステップ66に処理を進める。一方、CPU311
は、拍手の音が入力されていないと判定された場合、そのまま次のステップ66に処理を
進める。
ステップ66において、CPU311は、口笛判定処理を行って、次のステップに処理
を進める。例えば、CPU311は、スペクトル情報データDgに格納されているスペク
トルを用いて、マイク43に口笛の音が入力されたか否かを判定する。一例として、CP
U311は、スペクトル情報データDgに格納されている最新の1フレーム分のスペクト
ルデータを対数変換してデシベルデータに変換する。次に、CPU311は、最新の1フ
レーム分の周波数領域(例えば、横軸周波数、縦軸デシベル)において、スペクトルが基
準デシベル値δ以上となる回数が1回であり、かつ、低域部分のデシベル値の平均値が基
準値ε未満である場合、口笛イベントが発生したとカウントする。そして、CPU311
は、上記口笛イベントにおける直前の所定フレーム分の履歴において、当該口笛イベント
のカウント数合計が閾値ζ以上であれば、入力された音声が口笛であると判定する。この
ように、上記ステップ66における口笛判定処理の一例では、マイク43に入力された音
声波形から得られたスペクトル情報のみを参照して、口笛の音を判定している。
次に、CPU311は、上記ステップ66における口笛判定処理において、口笛の音が
入力されたと判定されたか否かを判断する(ステップ67)。そして、CPU311は、
口笛の音が入力されたと判定された場合、口笛フラグをオンに設定して口笛フラグデータ
Dlを更新し(ステップ68)、次のステップ69に処理を進める。一方、CPU311
は、口笛の音が入力されていないと判定された場合、そのまま次のステップ69に処理を
進める。
ステップ69において、CPU311は、息判定処理を行って、次のステップに処理を
進める。例えば、CPU311は、音声波形データDcに格納されている音声波形情報と
、メルフィルタ出力情報データDhに格納されている帯域フィルタバンクの出力とを用い
て、マイク43に息の音が入力されたか否かを判定する。一例として、CPU311は、
音声波形データDcに格納されている音声波形の振幅平均値および振幅最大値がそれぞれ
所定の範囲内にあるか否かを判定する。また、CPU311は、上記音声波形のゼロクロ
ス(音声波形の振幅がプラスからマイナスおよびマイナスからプラスへ変化するときに0
レベルと交差する点)の個数が所定の閾値η以下であるか否かを判定する。さらに、CP
Uは、メルフィルタ出力情報データDhに格納されている帯域フィルタバンクの出力に対
して、低域部分を除いた平均値が所定の閾値θ以上か否かを判定する。そして、CPU3
11は、上記全ての判定がいずれも肯定判定の場合、入力された音声が息であると判定す
る。このように、上記ステップ69における息判定処理の一例では、マイク43に入力さ
れた音声波形およびメルフィルタ出力情報を参照して、息の音を判定している。
次に、CPU311は、上記ステップ69における息判定処理において、息の音が入力
されたと判定されたか否かを判断する(ステップ70)。そして、CPU311は、息の
音が入力されたと判定された場合、息フラグをオンに設定して息フラグデータDmを更新
し(ステップ71)、次のステップ72に処理を進める。一方、CPU311は、息の音
が入力されていないと判定された場合、そのまま次のステップ72に処理を進める。
ステップ72において、CPU311は、音声照合処理を行って、次のステップに処理
を進める。CPU311は、マイク43に入力された音声入力パターンから得られる特徴
パラメータ時系列における予め登録されている特徴パラメータ時系列に対する尤度を求め
、当該尤度が最大であり、かつ、所定の閾値以上となるモデルの登録音声を照合結果とす
る。例えば、CPU311は、音声波形データDcに格納されている音声波形情報と、メ
ルフィルタ出力情報データDhに格納されている帯域フィルタバンクの出力とを用いて、
マイク43に入力された音声と照合可能な登録音声があるか否かを判定する。一例として
、CPU311は、音声波形データDcに格納されている音声波形情報と、メルフィルタ
出力情報データDhに格納されている帯域フィルタバンクの出力とを用いて、マイク43
に音声が入力されている区間(音声区間)を検出する。具体的には、CPU311は、帯
域フィルタバンクの出力から得られるスペクトルの形状に基づいて、マイク43に音声の
入力が開始された時点を検出し、音声波形のレベルに基づいてマイク43に音声の入力が
終了した時点を検出し、これらの時点の間を音声区間とする。なお、過去の音声波形の履
歴を遡って当該音声波形のレベルを確認することによって、音声入力開始時点を決定して
もかまわない。次に、CPU311は、検出された音声区間中に得られた帯域フィルタバ
ンクの出力に対して、三角窓で時間軸の正規化およびレベルの正規化を行い、動的計画法
を用いて、音声登録データDjに登録されている登録音声のデータ(登録データ)との間
の距離を算出する。そして、CPU311は、算出された距離が所定の閾値ι以内であっ
た場合に、当該距離が算出された登録データに入力音声が照合されたと判断する。このよ
うに、上記ステップ69における息判定処理の一例では、マイク43に入力された音声波
形およびメルフィルタ出力情報を参照して、登録音声との照合処理を行っている。
次に、CPU311は、上記ステップ72における音声照合処理において、入力音声が
登録音声に照合されたと判定されたか否かを判断する(ステップ73)。そして、CPU
311は、入力音声が登録音声に照合されたと判定された場合、登録音声フラグをオンに
設定して登録音声フラグデータDnを更新し(ステップ74)、当該サブルーチンによる
処理を終了する。一方、CPU311は、入力音声が登録音声に照合されていないと判定
された場合、そのまま当該サブルーチンによる処理を終了する。
図14に戻り、上記ステップ54における音声認識処理の後、CPU311は、画像合
成処理を行って(ステップ55)、次のステップに処理を進める。以下、図16を参照し
て、上記ステップ55で行う画像合成処理について説明する。
図16において、CPU311は、通常状態フラグデータDoが示す通常状態フラグが
オンであるか否かを判断する(ステップ81)。そして、CPU311は、通常状態フラ
グがオンである場合、次のステップ82に処理を進める。一方、CPU311は、通常状
態フラグがオフである場合、次のステップ92に処理を進める。
ステップ82において、CPU311は、登録音声フラグデータDnが示す登録音声フ
ラグがオンであるか否かを判断する。そして、CPU311は、登録音声フラグがオンで
ある場合、次のステップ83に処理を進める。一方、CPU311は、登録音声フラグが
オフである場合、次のステップ84に処理を進める。
ステップ83において、CPU311は、音声入力が照合された登録音声に基づいて、
仮想キャラクタCに当該登録音声に対応する動作を開始させ、次のステップ95に処理を
進める。例えば、CPU311は、音声動作対応テーブルデータDiを参照して、音声入
力が照合された登録音声に対応するキャラクタ動作および動作基準を抽出し、抽出された
キャラクタ動作および動作基準に基づいて、仮想キャラクタCの動作を開始する。
一方、ステップ84において、CPU311は、拍手フラグデータDkが示す拍手フラ
グがオンであるか否かを判断する。そして、CPU311は、拍手フラグがオンである場
合、次のステップ85に処理を進める。一方、CPU311は、拍手フラグがオフである
場合、次のステップ86に処理を進める。
ステップ85において、CPU311は、仮想キャラクタCに拍手の音が入力されたこ
とに対応する動作を開始させ、次のステップ95に処理を進める。例えば、CPU311
は、音声動作対応テーブルデータDiを参照して、拍手の音が認識されたことに対応する
キャラクタ動作および動作基準を抽出し、抽出されたキャラクタ動作および動作基準に基
づいて、仮想キャラクタCの動作を開始する。
一方、ステップ86において、CPU311は、口笛フラグデータDlが示す口笛フラ
グがオンであるか否かを判断する。そして、CPU311は、口笛フラグがオンである場
合、次のステップ87に処理を進める。一方、CPU311は、口笛フラグがオフである
場合、次のステップ88に処理を進める。
ステップ87において、CPU311は、仮想キャラクタCに口笛の音が入力されたこ
とに対応する動作を開始させ、次のステップ95に処理を進める。例えば、CPU311
は、音声動作対応テーブルデータDiを参照して、口笛の音が認識されたことに対応する
キャラクタ動作および動作基準を抽出し、抽出されたキャラクタ動作および動作基準に基
づいて、仮想キャラクタCの動作を開始する。
一方、ステップ88において、CPU311は、息フラグデータDmが示す息フラグが
オンであるか否かを判断する。そして、CPU311は、息フラグがオンである場合、次
のステップ89に処理を進める。一方、CPU311は、息フラグがオフである場合、次
のステップ91に処理を進める。
ステップ89において、CPU311は、仮想キャラクタCが表示されている方向が所
定の範囲内か否かを判断する。上述したように、息の音をゲーム装置10に入力した場合
、当該入力が行われた時点で仮想キャラクタCが上側LCD22の表示範囲内に存在し、
かつ、仮想キャラクタCの前方向が仮想カメラの方向付近を向いている場合に、当該入力
に応じた動作指示が有効となる。例えば、CPU311は、仮想キャラクタCの位置が上
側LCD22の表示範囲内にあり(すなわち、仮想キャラクタCの配置位置が左仮想カメ
ラの視体積内および/または右仮想カメラの視体積内にある)、かつ、仮想キャラクタC
の前方向を基準とした所定範囲内に左仮想カメラおよび/または右仮想カメラが配置され
ている場合に、上記ステップ89において肯定判定する。そして、CPU311は、上記
ステップ89において肯定判定された場合、次のステップ90に処理を進める。一方、C
PU311は、上記ステップ89において否定判定された場合、次のステップ91に処理
を進める。
ステップ90において、CPU311は、仮想キャラクタCに息の音が入力されたこと
に対応する動作を開始させ、次のステップ95に処理を進める。例えば、CPU311は
、音声動作対応テーブルデータDiを参照して、息の音が認識されたことに対応するキャ
ラクタ動作および動作基準を抽出し、抽出されたキャラクタ動作および動作基準に基づい
て、仮想キャラクタCの動作を開始する。
一方、ステップ91において、CPU311は、仮想キャラクタCに現時点と同じ通常
状態での行動を継続させ、次のステップ101(図17参照)に処理を進める。
音声認識された入力に応じた動作を開始する処理(ステップ83、ステップ85、ステ
ップ87、およびステップ90)の後、CPU311は、通常状態フラグデータDoが示
す通常状態フラグをオフに更新して(ステップ95)、次のステップ101に処理を進め
る。
上記ステップ81において、通常状態フラグがオフであると判断された場合、CPU3
11は、仮想キャラクタCに現時点で行われている動作を継続させ(ステップ92)、次
のステップに処理を進める。ここで、後述により明らかとなるが、通常状態フラグは、音
声認識された入力に応じた動作を開始した時点でオフに設定され、当該動作を終了した時
点でオンに設定される。つまり、当該画像処理においては、仮想キャラクタCが音声認識
された入力に応じた動作を行っている間に別の音声認識が行われたとしても、当該動作が
優先して行われることになる。
次に、CPU311は、音声認識された入力に応じた仮想キャラクタCの動作が終了し
たか否かを判断する(ステップ93)。そして、CPU311は、音声認識された入力に
応じた仮想キャラクタCの動作が終了した場合、通常状態フラグデータDoが示す通常状
態フラグをオンに更新して(ステップ94)、次のステップ101に処理を進める。一方
、CPU311は、音声認識された入力に応じた仮想キャラクタCの動作が継続している
場合、そのまま次のステップ101に処理を進める。
図17に進み、ステップ101において、CPU311は、仮想世界画像を生成して、
次のステップに処理を進める。例えば、CPU311は、図18および図19に示すよう
に、マーカ座標系(マーカ画像MKiの位置を原点とし、マーカ画像MKiの縦方向(Z
軸方向)、横方向(X軸方向)、法線方向(Y軸方向)の各方向を各軸とする座標系)で
定義される仮想空間に仮想キャラクタCを配置して、必要に応じて仮想キャラクタCの大
きさを変化させ、仮想キャラクタCに上記ステップ81〜ステップ95で設定された動作
を行わせる。例えば、仮想キャラクタCにマーカ座標系の原点の周りを歩くような移動を
させると、マーカ画像MKiの周りを歩くような表示が行われる。なお、仮想キャラクタ
Cの移動制御は、マーカ座標系の原点と一致、または当該原点付近で、かつ、マーカ画像
MKiを含む平面を基準とした方向(例えば、マーカ座標系におけるXZ平面に沿った方
向を基準とするY軸方向において所定範囲内の位置)に、仮想キャラクタCの位置座標を
変更することにより実現される。
なお、上記ステップ101の処理では、マーカ座標系における鉛直方向(Y軸負方向)
が仮想空間の鉛直方向と定義して、仮想キャラクタCを仮想空間に配置する。そして、現
在仮想キャラクタCが行っている動作に動作基準(例えば、マーカ基準やカメラ基準:図
13参照)が設定されている場合、当該動作基準に基づいて、仮想キャラクタCの方向を
設定する。例えば、動作基準がマーカ基準に設定されている動作の場合、仮想キャラクタ
Cの前方向がマーカの方向(例えば、マーカ画像MKiの前方向)に相当するマーカ座標
系の縦正方向(Z軸正方向)と一致、または当該マーカの方向から所定の範囲内となるよ
うに、仮想空間における仮想キャラクタCの姿勢を制御する。また、動作基準がカメラ基
準に設定されている動作の場合、仮想キャラクタCの前方向が左仮想カメラの位置と右仮
想カメラの位置との中間点を通る方向と一致、または当該中間点から所定の範囲内を通る
ように、仮想空間における仮想キャラクタCの姿勢を制御する。なお、マーカ座標系で定
義された仮想空間における左仮想カメラの位置および右仮想カメラの位置は、上記ステッ
プ53で算出されている左目用のマーカ・カメラ変換行列および右目用のマーカ・カメラ
変換行列を用いて算出することができる。
そして、図18に示すように、CPU311は、左仮想カメラから見た仮想空間を左目
用の仮想世界画像として生成し、左仮想世界画像データDpを更新する。例えば、CPU
311は、左カメラ画像認識結果データDeが示す左目用のマーカ・カメラ変換行列を左
仮想カメラのビュー行列に指定することによって、マーカ座標系で表現されたCGモデル
(仮想キャラクタC)を、実世界に当該CGモデルが存在する場合に上側LCD22に表
示される場所(例えば、左カメラ画像におけるマーカ画像MKi上)と同じ位置に表示す
ることができる。つまり、上側LCD22に表示される左目用の表示画像において、マー
カ座標系で定義された仮想空間に配置された仮想オブジェクトを、実世界のマーカMKに
関連して存在しているように表示することができる。
また、図19に示すように、CPU311は、右仮想カメラから見た仮想空間を右目用
の仮想世界画像として生成し、右仮想世界画像データDqを更新する。例えば、CPU3
11は、右カメラ画像認識結果データDfが示す右目用のマーカ・カメラ変換行列を右仮
想カメラのビュー行列に指定することによって、マーカ座標系で表現されたCGモデル(
仮想キャラクタC)を、実世界に当該CGモデルが存在する場合に上側LCD22に表示
される場所(例えば、右カメラ画像におけるマーカ画像MKi上)と同じ位置に表示する
ことができる。つまり、上側LCD22に表示される右目用の表示画像において、マーカ
座標系で定義された仮想空間に配置された仮想オブジェクトを、実世界のマーカMKに関
連して存在しているように表示することができる。
次に、CPU311は、合成処理を行い(ステップ102)、次のステップに処理を進
める。例えば、CPU311は、実世界画像と仮想空間画像とを合成した表示画像を生成
し、当該表示画像を上側LCD22に表示する。
具体的には、CPU311は、左カメラ画像データDaが示す左目用のカメラ画像を、
上側LCD22へ供給すべき左目用画像を一時的に記憶するためのVRAM313内の所
定の記憶領域(以下、左フレームバッファと称す)に描画する。そして、CPU311は
、左仮想世界画像データDnが示す左目用の仮想世界画像(すなわち、左仮想カメラから
見た仮想空間の画像)を左フレームバッファに上書きする(典型的には、CPU311か
らの指示にしたがってGPU312によって描画される)。これによって、図20に示す
ように、左フレームバッファに描画された左目用のカメラ画像(左実世界画像)に左目用
の仮想世界画像が合成される。左フレームバッファに描画された画像は、所定のタイミン
グで左目用画像として上側LCD22へ供給されて、上側LCD22に表示されることに
なる。なお、上記左目用の仮想世界画像においては、仮想空間の背景は透明であり、その
ため、左実世界画像に左目用の仮想世界画像を合成することで、実世界画像上に仮想キャ
ラクタCが存在するような画像が生成される。
一方、CPU311は、右カメラ画像データDbが示す右目用のカメラ画像を、上側L
CD22へ供給すべき右目用画像を一時的に記憶するためのVRAM313内の所定の記
憶領域(以下、右フレームバッファと称す)に描画する。そして、CPU311は、右仮
想世界画像データDqが示す右目用の仮想世界画像(すなわち、右仮想カメラから見た仮
想空間の画像)を右フレームバッファに上書きする。これによって、右フレームバッファ
に描画された右目用のカメラ画像(右実世界画像)に右目用の仮想世界画像が合成される
。右フレームバッファに描画された画像は、所定のタイミングで右目用画像として上側L
CD22へ供給されて、上側LCD22に表示されることになる。なお、上記右目用の仮
想世界画像においても、仮想空間の背景は透明であり、そのため、右実世界画像に右目用
の仮想世界画像を合成することで、実世界画像上に仮想キャラクタCが存在するような画
像が生成される。
次に、CPU311は、音声認識フラグを全てオフに設定し(ステップ103)、当該
サブルーチンによる処理を終了する。例えば、CPU311は、音声認識フラグ(拍手フ
ラグ、口笛フラグ、息フラグ、登録音声フラグ)を全てオフに設定して、拍手フラグデー
タDk、口笛フラグデータDl、息フラグデータDm、および登録音声フラグデータDn
をそれぞれ更新する。
図14に戻り、上記ステップ55における画像合成処理の後、CPU311は、現時点
が撮影のタイミングか否かを判断する(ステップ56)。一例として、CPU311は、
操作入力データDdに格納されている操作入力が撮影操作を示す場合、現時点が撮影のタ
イミングであると判断する。他の例として、CPU311は、一定時間が経過すると自動
的に撮影されるセルフタイマ操作を示す操作入力データを上記ステップ52において取得
してから、当該一定時間が経過した場合、現時点が撮影のタイミングであると判断する。
そして、CPU311は、現時点が撮影のタイミングである場合、次のステップ57に処
理を進める。一方、CPU311は、現時点が撮影のタイミングでない場合、次のステッ
プ58に処理を進める。なお、上記ステップ56で判断される撮影操作は、ユーザの音声
入力によって行われてもかまわない。この場合、CPU311は、音声波形データDcが
示す音声波形を音声認識することによって、ユーザによる撮影指示があったか否かを判断
する。
ステップ57において、CPU311は、上記ステップ102で合成処理された画像を
保存し、次のステップ58に処理を進める。例えば、CPU311は、上記ステップ10
2で合成処理された左目用画像を示す画像データおよび右目用画像を示す画像データを、
データ保存用内部メモリ35やデータ保存用外部メモリ46に記憶させる。
ステップ58において、CPU311は、当該画像処理を終了するか否かを判断する。
画像処理を終了する条件としては、例えば、画像処理を自動的に終了する条件が満たされ
たことや、画像処理を行っているゲームがゲームオーバとなる条件が満たされたことや、
ユーザが画像処理を終了する操作を行ったこと等がある。CPU311は、画像処理を終
了しない場合、上記ステップ52に戻って処理を繰り返す。一方、CPU311は、画像
処理を終了する場合、当該フローチャートによる処理を終了する。
このように、上述した実施形態に係る画像処理では、カメラ画像に仮想キャラクタCを
付加表示する際、仮想キャラクタCに対して音声で操作することができ、実世界画像に付
加表示された仮想物体に対して新たな入力方法を用いて操作することができる。
なお、上述した説明では、実世界に配置されたマーカMKを撮像対象とし、当該マーカ
MKが撮像されてマーカ画像MKiとして表示されている場合にマーカ画像MKi上付近
に仮想キャラクタCを付加表示している。これは、実世界と撮像装置(外側撮像部23)
との相対的な位置関係や撮像装置の姿勢を認識し、当該認識結果に基づいて仮想物体や文
字等を付加表示する位置を設定するためにマーカMKが用いられている。しかしながら、
本発明は、マーカMKを用いなくても実現することができる。
例えば、実世界と撮像装置との相対的な位置関係は、当該撮像装置が撮像する撮像画像
内の特徴点(例えば、被写体のエッジや輪郭)を認識し、当該撮像画像内の水平面等を検
出する撮像画像内の特徴を検出し、GPSや各種センサによって撮像装置の実世界内の位
置や姿勢を取得すれば、上述した同様の画像処理が可能となる。具体的には、撮像画像内
の特徴点とその特徴量を抽出する際に用いられるアルゴリズム(例えば、SIFT(Sc
ale−invariant feature transform))等を用いること
によって、マーカMKを用いなくても撮像画像内の特徴を検出することが可能となる。
例えば、図21に示すように、撮像装置で撮像されているリアルタイムの撮像画像を表
示装置に表示しながら、当該撮像装置が撮像している場所や被写体(建物や看板等)に関
連する情報(例えば、文字情報やアイコン)を付加情報として当該撮像画像に重畳して表
示される場合でも、本発明を適用することができる。この表示技術は、撮像装置(ゲーム
装置10)に内蔵されたGPSを用いて現在位置を特定し、内蔵された磁気センサ(電子
コンパス等)によって撮像方向を認識する。そして、特定された位置および撮像方向に対
応する付加情報が撮像画像に重畳して表示される。この場合、撮像画像に対する画像認識
は不要となるが、広範囲に人工的なランドマークを配置して撮像画像に対する画像認識に
よって抽出された当該ランドマークの位置をさらに用いて、撮像装置の位置や姿勢を推定
する方式もある。また、撮像画像を撮像したカメラの位置および姿勢を、撮像画像上の2
次元特徴点(エッジや輪郭等)と自然特徴点の3次元位置とを対応付けることによって推
定する方式もある。
このように、マーカMKを用いなくても実世界における撮像装置の位置や姿勢を取得す
ることは可能であり、これらの技術を用いれば本発明は、マーカMKを用いなくても実現
することが可能である。例えば、図21に示すように、4つの建物(Aデパート、Bビル
、Cビル、およびD銀行)が被写体として外側撮像部23によって撮像され、撮像された
撮像画像が上側LCD22に表示されている。そして、表示されている4つの建物には、
それぞれの建物名称を示す文字情報が付加情報として重畳して表示されており、これらの
付加情報の1つを選択することによって、選択された建物のさらに詳細な情報を表示する
ことができる。このような状況において、本発明では、上記付加情報の1つを選択する操
作を音声で行うことによって、音声で選択された建物のさらに詳細な情報を表示すること
ができる。具体的には、ユーザが「Aデパート」を話し言葉として発する音(言語)をゲ
ーム装置10に入力した場合、ゲーム装置10では音声入力された「Aデパート」を音声
認識し、当該音声認識結果によって選択された文字情報(付加情報)の表示態様を変化さ
せる。例えば、音声入力によって選択された文字情報の色、フォント、文字サイズ、文字
太さ、文字飾り、文字表示位置等の表示態様を変化させて、複数の文字情報と区別して表
示することによって、ユーザに選択された文字情報を報知することができる。そして、ゲ
ーム装置10は、選択された文字情報が付与された被写体に関するさらに詳細な情報を、
上側LCD22に表示する。このように、マーカMKを用いずに実世界における撮像装置
の位置や姿勢を取得しながら、仮想オブジェクトとして文字が付加表示されている状況に
おいても、音声入力によって当該文字を選択する操作を行うことができる。そして、実世
界画像を撮像しながら、従来の入力方法で当該実世界画像に重畳されて表示された複数の
選択肢から選択する操作は煩わしい操作となるが、当該撮像装置(ゲーム装置10)を把
持しているユーザの手指を用いない音声入力で選択することによって操作性を飛躍的に向
上させることができる。
また、上述した説明では、上側LCD22に、裸眼で立体視可能な画像(立体画像)が
上側LCD22に表示される例を用いたが、外側撮像部23および内側撮像部24のいず
れかから取得した実世界の平面画像(上述した立体視可能な画像とは反対の意味での平面
視の画像)を上側LCD22に表示してもよい。
また、上記実施形態では、上側LCD22がパララックスバリア方式の液晶表示装置で
あるとして、視差バリアのON/OFFを制御することにより、立体表示と平面表示とを
切り替えることができる。他の実施形態では、例えば、上側LCD22としてレンチキュ
ラー方式の液晶表示装置を用いて、立体画像および平面画像を表示可能としてもよい。レ
ンチキュラー方式の場合でも、外側撮像部23で撮像した2つの画像を縦方向に短冊状に
分割して交互に配置することで画像が立体表示される。また、レンチキュラー方式の場合
でも、内側撮像部24で撮像した1つの画像をユーザの左右の目に視認させることによっ
て、当該画像を平面表示させることができる。すなわち、レンチキュラー方式の液晶表示
装置であっても、同じ画像を縦方向に短冊状に分割し、これら分割した画像を交互に配置
することにより、ユーザの左右の目に同じ画像を視認させることができる。これにより、
内側撮像部24で撮像された画像を平面画像として表示することが可能である。
また、上述した説明では、上側LCD22を裸眼立体視可能な表示装置として説明した
が、上側LCD22が他の方式で立体視可能に構成されてもかまわない。例えば、偏光フ
ィルタ方式、時分割方式、アナグリフ方式等の方式で、上側LCD22を立体視可能に構
成してもかまわない。
また、上述した実施形態では、2画面分の液晶表示部の一例として、物理的に分離され
た下側LCD12および上側LCD22を互いに上下に配置した場合(上下2画面の場合
)を説明した。しかしながら、本発明は、単一の表示画面(例えば、上側LCD22のみ
)を有する装置または単一の表示装置に表示する画像を画像処理する装置でも実現するこ
とができる。また、2画面分の表示画面の構成は、他の構成でもかまわない。例えば、下
側ハウジング11の一方主面に下側LCD12および上側LCD22を左右に配置しても
かまわない。また、下側LCD12と横幅が同じで縦の長さが2倍のサイズからなる縦長
サイズのLCD(すなわち、物理的には1つで、表示サイズが縦に2画面分あるLCD)
を下側ハウジング11の一方主面に配設して、2つの画像(例えば、撮像画像と操作説明
画面を示す画像等)を上下に表示(すなわち上下の境界部分無しに隣接して表示)するよ
うに構成してもよい。また、下側LCD12と縦幅が同じで横の長さが2倍のサイズから
なる横長サイズのLCDを下側ハウジング11の一方主面に配設して、横方向に2つの画
像を左右に表示(すなわち左右の境界部分無しに隣接して表示)するように構成してもよ
い。すなわち、物理的に1つの画面を2つに分割して使用することにより2つの画像を表
示してもかまわない。また、物理的に1つの画面を2つに分割して使用することにより上
記2つの画像を表示する場合、当該画面全面にタッチパネル13を配設してもかまわない
また、上述した実施例では、ゲーム装置10にタッチパネル13が一体的に設けられて
いるが、ゲーム装置とタッチパネルとを別体にして構成しても、本発明を実現できること
は言うまでもない。また、上側LCD22の上面にタッチパネル13を設けて上側LCD
22に下側LCD12に表示していた表示画像を表示し、下側LCD12に上側LCD2
2に表示していた表示画像を表示してもよい。また、本発明を実現する場合に、タッチパ
ネル13が設けられていなくもかまわない。
また、上記実施例では、携帯型のゲーム装置10を用いて説明したが、据置型のゲーム
装置や一般的なパーソナルコンピュータ等の情報処理装置で本発明の画像処理プログラム
を実行して、本発明を実現してもかまわない。また、他の実施形態では、ゲーム装置に限
らず任意の携帯型電子機器、例えば、PDA(Personal Digital As
sistant)や携帯電話、パーソナルコンピュータ、カメラ等であってもよい。
また、上述した説明では画像処理をゲーム装置10で行う例を用いたが、上記画像処理
における処理ステップの少なくとも一部を他の装置で行ってもかまわない。例えば、ゲー
ム装置10が他の装置(例えば、サーバや他のゲーム装置)と通信可能に構成されている
場合、上記画像処理における処理ステップは、ゲーム装置10および当該他の装置が協働
することによって実行してもよい。一例として、他の装置において、実世界画像および仮
想キャラクタCを設定する処理が行われ、ゲーム装置10が実世界画像および仮想キャラ
クタCに関するデータを取得して、ステップ54〜ステップ68の処理を行うことが考え
られる。このように、上記画像における処理ステップの少なくとも一部を他の装置で行う
ことによって、上述した画像処理と同様の処理が可能となる。上述した画像処理は、少な
くとも1つの情報処理装置により構成される情報処理システムに含まれる1つのプロセッ
サまたは複数のプロセッサ間の協働により実行されることが可能である。また、上記実施
形態においては、ゲーム装置10の情報処理部31が所定のプログラムを実行することに
よって、上述したフローチャートによる処理が行われたが、ゲーム装置10が備える専用
回路によって上記処理の一部または全部が行われてもよい。
また、上述したゲーム装置10の形状や、それに設けられている各種操作ボタン14、
アナログスティック15、タッチパネル13の形状、数、および設置位置等は、単なる一
例に過ぎず他の形状、数、および設置位置であっても、本発明を実現できることは言うま
でもない。また、上述した画像処理で用いられる処理順序、設定値、判定に用いられる値
等は、単なる一例に過ぎず他の順序や値であっても、本発明を実現できることは言うまで
もない。
また、上記画像処理プログラム(ゲームプログラム)は、外部メモリ45やデータ保存
用外部メモリ46等の外部記憶媒体を通じてゲーム装置10に供給されるだけでなく、有
線または無線の通信回線を通じてゲーム装置10に供給されてもよい。また、上記プログ
ラムは、ゲーム装置10内部の不揮発性記憶装置に予め記録されていてもよい。なお、上
記プログラムを記憶する情報記憶媒体としては、不揮発性メモリの他に、CD−ROM、
DVD、あるいはそれらに類する光学式ディスク状記憶媒体、フレキシブルディスク、ハ
ードディスク、光磁気ディスク、磁気テープなどでもよい。また、上記プログラムを記憶
する情報記憶媒体としては、上記プログラムを記憶する揮発性メモリでもよい。
以上、本発明を詳細に説明してきたが、前述の説明はあらゆる点において本発明の例示
に過ぎず、その範囲を限定しようとするものではない。本発明の範囲を逸脱することなく
種々の改良や変形を行うことができることは言うまでもない。本発明は、特許請求の範囲
によってのみその範囲が解釈されるべきであることが理解される。また、当業者は、本発
明の具体的な実施形態の記載から、本発明の記載および技術常識に基づいて等価な範囲を
実施することができることが理解される。また、本明細書において使用される用語は、特
に言及しない限り、当該分野で通常用いられる意味で用いられることが理解されるべきで
ある。したがって、他に定義されない限り、本明細書中で使用される全ての専門用語およ
び技術用語は、本発明の属する分野の当業者によって一般的に理解されるのと同じ意味を
有する。矛盾する場合、本明細書(定義を含めて)が優先する。
本発明に係る画像処理プログラム、画像処理装置、画像処理システム、および画像処理
方法は、実世界画像に仮想世界画像を合成した画像を表示する際に、実世界画像に付加表
示された仮想物体や文字等に対して新たな入力方法を用いて操作することができ、各種画
像を表示装置に表示する処理等を行う画像処理プログラム、画像処理装置、画像処理シス
テム、および画像処理方法等として有用である。
10…ゲーム装置
11…下側ハウジング
12…下側LCD
13…タッチパネル
14…操作ボタン
15…アナログスティック
16…LED
17…挿入口
18…マイクロフォン用孔
19…無線スイッチ
21…上側ハウジング
22…上側LCD
23…外側撮像部
23a…外側左撮像部
23b…外側右撮像部
24…内側撮像部
25…3D調整スイッチ
26…3Dインジケータ
27…スクリーンカバー
28…タッチペン
31…情報処理部
311…CPU
312…GPU
313…VRAM
32…メインメモリ
33…外部メモリI/F
34…データ保存用外部メモリI/F
35…データ保存用内部メモリ
36…無線通信モジュール
37…ローカル通信モジュール
38…RTC
39…加速度センサ
40…角速度センサ
41…電源回路
42…I/F回路
43…マイク
44…スピーカ
45…外部メモリ
46…データ保存用外部メモリ

Claims (17)

  1. 表示装置に画像を表示する画像処理装置のコンピュータを、
    実カメラによって撮像された撮像画像を取得する撮像画像取得手段、
    音声入力デバイスから音声信号を示す音声データを取得する音声データ取得手段、
    前記音声入力デバイスに入力された音声を認識する音声認識手段、
    前記撮像画像に付加表示する仮想オブジェクトを設定して、
    前記音声認識手段の音声認識結果が第1音声と認識され、かつ、前記撮像画像の画像認識結果が第1条件を満たす場合、当該仮想オブジェクトを第1動作に設定し、
    前記音声認識結果が当該第1音声と認識され、かつ、前記撮像画像の画像認識結果が当該第1条件を満たさない場合、当該仮想オブジェクトを第2動作に設定する設定手段、
    前記撮像画像に前記設定手段が設定した仮想オブジェクトを重畳して合成画像を生成する画像生成手段、および
    前記合成画像を前記表示装置に表示する表示制御手段として機能させ
    前記設定手段は、前記撮像画像の画像認識結果において、当該撮像画像に含まれる特定の撮像対象物の向きが所定の範囲である場合、前記第1条件を満たすと判定する、画像処理プログラム。
  2. 前記設定手段は、前記画像認識において前記撮像画像から特定の撮像対象物または特徴点を検出し、検出した撮像対象物または特徴点に基づいて当該撮像対象物の向きを判定する、請求項1に記載の画像処理プログラム。
  3. 実空間における前記実カメラの位置および姿勢にしたがって決められる位置姿勢情報を算出する位置姿勢算出手段として、さらに前記コンピュータを機能させ、
    前記画像生成手段は、前記撮像画像における前記位置姿勢情報に応じた位置を基準として、前記設定手段が設定した仮想オブジェクトを重畳して前記合成画像を生成する、請求項1または2に記載の画像処理プログラム。
  4. 前記位置姿勢算出手段は、前記撮像画像に含まれる特定の撮像対象物または特徴点を検出し、当該検出結果に基づいて当該撮像対象物または当該特徴点と前記実カメラとの間の相対的な位置および姿勢を示す情報を前記位置姿勢情報として算出する、請求項に記載の画像処理プログラム。
  5. 前記位置姿勢算出手段は、実空間における前記実カメラの地理的な位置および前記実カメラの撮像方向の方位の少なくとも一方を用いて、前記位置姿勢情報を算出する、請求項に記載の画像処理プログラム。
  6. 前記画像生成手段は、
    仮想世界において、前記位置姿勢情報に基づいて仮想カメラの位置および姿勢を設定する仮想カメラ設定手段と、
    前記仮想世界に前記設定手段が設定した仮想オブジェクトを配置する仮想オブジェクト配置手段と、
    前記仮想カメラから見た仮想世界の画像を仮想世界画像として生成する仮想世界画像生成手段とを含み、
    前記画像生成手段は、前記撮像画像に前記仮想世界画像を重畳した画像を前記合成画像として生成する、請求項1乃至の何れか1つに記載の画像処理プログラム。
  7. 前記設定手段は、前記音声入力デバイスに音声が入力されていない場合、または前記音声認識手段が認識した音声が前記仮想オブジェクトを設定する対象ではない場合、前記仮想オブジェクトを、予め定められた動作に設定する、請求項1乃至の何れか1つに記載の画像処理プログラム。
  8. ユーザによる撮影指示に応じて、前記画像生成手段が現時点で生成している最新の合成画像を記憶手段に保存する撮影保存手段として、さらに前記コンピュータを機能させる、請求項1乃至の何れか1つに記載の画像処理プログラム。
  9. 前記撮像画像取得手段は、第1の実カメラおよび当該第1の実カメラから所定の距離離れた位置に設けられた第2の実カメラによってそれぞれ撮像された第1の撮像画像および第2の撮像画像を取得し、
    前記位置姿勢算出手段は、実空間における前記第1の実カメラの位置および姿勢にしたがって決められる第1の位置姿勢情報および実空間における前記第2の実カメラの位置および姿勢にしたがって決められる第2の位置姿勢情報をそれぞれ算出し、
    前記画像生成手段は、前記第1の撮像画像における前記第1の位置姿勢情報に応じた位置を基準として、前記設定手段が設定した仮想オブジェクトを重畳して第1の合成画像を生成し、前記第2の撮像画像における前記第2の位置姿勢情報に応じた位置を基準として、前記設定手段が設定した仮想オブジェクトを重畳して第2の合成画像を生成し、
    前記表示制御手段は、立体視可能な表示装置に前記第1の合成画像および前記第2の合成画像を出力して、前記仮想オブジェクトを合成した撮像画像を立体表示する、請求項に記載の画像処理プログラム。
  10. 前記音声認識手段は、前記音声入力デバイスに入力された音声を予め登録音声として登録されている音声と少なくとも照合することによって、前記音声入力デバイスに入力された音声が第1類の音声であるか否かを判別し、前記音声入力デバイスに入力された音声波形のレベルのみに基づいて、前記音声入力デバイスに入力された音声が第2類の音声であるか否かを判別する、請求項1乃至の何れか1つに記載の画像処理プログラム。
  11. 前記音声認識手段は、前記音声入力デバイスに入力された音声入力パターンから得られる特徴パラメータ時系列に対する予め登録音声として登録されている特徴パラメータ時系列の尤度に基づいて、前記音声入力デバイスに入力された音声が第1類の音声であるか否かを判別し、前記音声入力デバイスに入力された音声波形のレベルおよびスペクトル情報の少なくとも一方のみに基づいて、前記音声入力デバイスに入力された音声が第3類の音声であるか否かを判別する、請求項1乃至1の何れか1つに記載の画像処理プログラム。
  12. 前記仮想オブジェクトに対する指示に対応する音声をユーザに入力させ、当該音声に応じた音声データを当該指示に対応する前記登録音声として記憶手段に登録する音声登録手段として、さらに前記コンピュータを機能させ、
    前記音声認識手段は、前記音声登録手段が前記登録音声として登録した音声データを用いて、前記音声入力デバイスに入力された音声が前記第1類の音声であるか否かを判別し、
    前記設定手段は、前記音声認識手段が前記音声入力デバイスに入力された音声が前記第1類の音声である場合、当該第1類の音声に対応して前記音声登録手段が予め登録した前記指示に基づいて、前記仮想オブジェクトの動作を設定する、請求項1または1に記載の画像処理プログラム。
  13. 前記撮像画像取得手段は、前記画像処理装置を構成する筐体に内蔵される前記実カメラから前記撮像画像を取得し、
    前記音声データ取得手段は、前記筐体に内蔵される前記音声入力デバイスから前記音声データを取得し、
    前記表示制御手段は、前記筐体に内蔵される前記表示装置に前記合成画像を表示する、請求項1乃至1の何れか1つに記載の画像処理プログラム。
  14. 表示装置に画像を表示する画像処理装置であって、
    実カメラによって撮像された撮像画像を取得する撮像画像取得手段と、
    音声入力デバイスから音声信号を示す音声データを取得する音声データ取得手段と、
    前記音声入力デバイスに入力された音声を認識する音声認識手段と、
    前記撮像画像に付加表示する仮想オブジェクトを設定して、
    前記音声認識手段の音声認識結果が第1音声と認識され、かつ、前記撮像画像の画像認識結果が第1条件を満たす場合、当該仮想オブジェクトを第1動作に設定し、
    前記音声認識結果が当該第1音声と認識され、かつ、前記撮像画像の画像認識結果が当該第1条件を満たさない場合、当該仮想オブジェクトを第2動作に設定する設定手段と、
    前記撮像画像に前記設定手段が設定した仮想オブジェクトを重畳して合成画像を生成する画像生成手段と、
    前記合成画像を前記表示装置に表示する表示制御手段とを備え
    前記設定手段は、前記撮像画像の画像認識結果において、当該撮像画像に含まれる特定の撮像対象物の向きが所定の範囲である場合、前記第1条件を満たすと判定する、画像処理装置。
  15. 前記画像処理装置は、当該画像処理装置を内蔵する少なくとも1つの筐体に前記実カメラ、前記表示装置、および前記音声入力デバイスを内蔵する、請求項1に記載の画像処理装置。
  16. 複数の装置が通信可能に構成され、表示装置に画像を表示する画像処理システムであって、
    実カメラによって撮像された撮像画像を取得する撮像画像取得手段と、
    音声入力デバイスから音声信号を示す音声データを取得する音声データ取得手段と、
    前記音声入力デバイスに入力された音声を認識する音声認識手段と、
    前記撮像画像に付加表示する仮想オブジェクトを設定して、
    前記音声認識手段の音声認識結果が第1音声と認識され、かつ、前記撮像画像の画像認識結果が第1条件を満たす場合、当該仮想オブジェクトを第1動作に設定し、
    前記音声認識結果が当該第1音声と認識され、かつ、前記撮像画像の画像認識結果が当該第1条件を満たさない場合、当該仮想オブジェクトを第2動作に設定する設定手段と、
    前記撮像画像に前記設定手段が設定した仮想オブジェクトを重畳して合成画像を生成する画像生成手段と、
    前記合成画像を前記表示装置に表示する表示制御手段とを備え
    前記設定手段は、前記撮像画像の画像認識結果において、当該撮像画像に含まれる特定の撮像対象物の向きが所定の範囲である場合、前記第1条件を満たすと判定する、画像処理システム。
  17. 表示装置に画像を表示させる画像処理が可能な少なくとも1つの情報処理装置により構成される画像処理システムに含まれる1つのプロセッサまたは複数のプロセッサ間の協働により実行される画像処理方法であって、
    実カメラによって撮像された撮像画像を取得する撮像画像取得ステップと、
    音声入力デバイスから音声信号を示す音声データを取得する音声データ取得ステップと、
    前記音声入力デバイスに入力された音声を認識する音声認識ステップと、
    前記撮像画像に付加表示する仮想オブジェクトを設定して、
    前記音声認識ステップにおける音声認識結果が第1音声と認識され、かつ、前記撮像画像の画像認識結果が第1条件を満たす場合、当該仮想オブジェクトを第1動作に設定し、
    前記音声認識結果が当該第1音声と認識され、かつ、前記撮像画像の画像認識結果が当該第1条件を満たさない場合、当該仮想オブジェクトを第2動作に設定する設定ステップと、
    前記撮像画像に前記設定ステップにおいて設定された仮想オブジェクトを重畳して合成画像を生成する画像生成ステップと、
    前記合成画像を前記表示装置に表示する表示制御ステップとを含み、
    前記設定ステップでは、前記撮像画像の画像認識結果において、当該撮像画像に含まれる特定の撮像対象物の向きが所定の範囲である場合、前記第1条件を満たすと判定される、画像処理方法。
JP2011007852A 2010-09-28 2011-01-18 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法 Active JP5806469B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011007852A JP5806469B2 (ja) 2010-09-28 2011-01-18 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010217700 2010-09-28
JP2010217700 2010-09-28
JP2011007852A JP5806469B2 (ja) 2010-09-28 2011-01-18 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法

Publications (2)

Publication Number Publication Date
JP2012094101A JP2012094101A (ja) 2012-05-17
JP5806469B2 true JP5806469B2 (ja) 2015-11-10

Family

ID=45870174

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011007852A Active JP5806469B2 (ja) 2010-09-28 2011-01-18 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法

Country Status (2)

Country Link
US (1) US8854356B2 (ja)
JP (1) JP5806469B2 (ja)

Families Citing this family (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5800501B2 (ja) 2010-03-12 2015-10-28 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、及び、表示制御方法
US9361729B2 (en) * 2010-06-17 2016-06-07 Microsoft Technology Licensing, Llc Techniques to present location information for social networks using augmented reality
JP5627973B2 (ja) * 2010-09-24 2014-11-19 任天堂株式会社 ゲーム処理をするためのプログラム、装置、システムおよび方法
JP4869430B1 (ja) * 2010-09-24 2012-02-08 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法
US20120139906A1 (en) * 2010-12-03 2012-06-07 Qualcomm Incorporated Hybrid reality for 3d human-machine interface
US9354718B2 (en) * 2010-12-22 2016-05-31 Zspace, Inc. Tightly coupled interactive stereo display
US8872854B1 (en) * 2011-03-24 2014-10-28 David A. Levitt Methods for real-time navigation and display of virtual worlds
KR101056418B1 (ko) * 2011-03-31 2011-08-11 주식회사 맥스트 모바일 센서를 이용한 증강 현실 콘텐츠 추적 장치 및 방법
JP5812665B2 (ja) * 2011-04-22 2015-11-17 任天堂株式会社 情報処理システム、情報処理装置、情報処理方法及び情報処理プログラム
US10242456B2 (en) 2011-06-23 2019-03-26 Limitless Computing, Inc. Digitally encoded marker-based augmented reality (AR)
KR20130013716A (ko) * 2011-07-28 2013-02-06 삼성전자주식회사 Led 백라이트유닛을 구비한 정보 디스플레이 장치에서의 가시광 통신 방법 및 이를 위한 정보 디스플레이 장치
JP6242569B2 (ja) * 2011-08-25 2017-12-06 東芝メディカルシステムズ株式会社 医用画像表示装置及びx線診断装置
US8681179B2 (en) * 2011-12-20 2014-03-25 Xerox Corporation Method and system for coordinating collisions between augmented reality and real reality
US9563265B2 (en) * 2012-01-12 2017-02-07 Qualcomm Incorporated Augmented reality with sound and geometric analysis
US9678267B2 (en) 2012-05-18 2017-06-13 Reald Spark, Llc Wide angle imaging directional backlights
EP2850488A4 (en) 2012-05-18 2016-03-02 Reald Inc DIRECTIONAL BACK LIGHTING
US9235057B2 (en) 2012-05-18 2016-01-12 Reald Inc. Polarization recovery in a directional display device
US9188731B2 (en) 2012-05-18 2015-11-17 Reald Inc. Directional backlight
JP6508832B2 (ja) 2012-05-18 2019-05-08 リアルディー スパーク エルエルシー 指向性バックライトの複数の光源の制御
TWI630505B (zh) * 2012-08-28 2018-07-21 仁寶電腦工業股份有限公司 互動式擴增實境系統及其可攜式通訊裝置與互動方法
US20140078137A1 (en) * 2012-09-14 2014-03-20 Nagabhushanam Peddi Augmented reality system indexed in three dimensions
JP6021568B2 (ja) * 2012-10-02 2016-11-09 任天堂株式会社 画像処理用プログラム、画像処理装置、画像処理システム、および画像処理方法
US9430877B2 (en) * 2013-01-25 2016-08-30 Wilus Institute Of Standards And Technology Inc. Electronic device and method for selecting augmented content using the same
CN105324605B (zh) 2013-02-22 2020-04-28 瑞尔D斯帕克有限责任公司 定向背光源
JP2014164537A (ja) * 2013-02-26 2014-09-08 Yasuaki Iwai 仮想現実サービス提供システム、仮想現実サービス提供方法
JP6255706B2 (ja) * 2013-04-22 2018-01-10 富士通株式会社 表示制御装置、表示制御方法、表示制御プログラムおよび情報提供システム
JP6138566B2 (ja) * 2013-04-24 2017-05-31 川崎重工業株式会社 部品取付作業支援システムおよび部品取付方法
CN103246878A (zh) * 2013-05-13 2013-08-14 苏州福丰科技有限公司 一种基于人脸识别的试妆系统及其试妆方法
EP3011734A4 (en) 2013-06-17 2017-02-22 RealD Inc. Controlling light sources of a directional backlight
WO2015027114A1 (en) 2013-08-21 2015-02-26 Nantmobile, Llc Chroma key content management systems and methods
EP3058562A4 (en) 2013-10-14 2017-07-26 RealD Spark, LLC Control of directional display
WO2015057588A1 (en) 2013-10-14 2015-04-23 Reald Inc. Light input for directional backlight
JP6244954B2 (ja) 2014-02-06 2017-12-13 富士通株式会社 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム
US10600245B1 (en) 2014-05-28 2020-03-24 Lucasfilm Entertainment Company Ltd. Navigating a virtual environment of a media content item
US9589354B2 (en) * 2014-06-17 2017-03-07 Chief Architect Inc. Virtual model viewing methods and apparatus
US10724864B2 (en) 2014-06-17 2020-07-28 Chief Architect Inc. Step detection methods and apparatus
US9575564B2 (en) 2014-06-17 2017-02-21 Chief Architect Inc. Virtual model navigation methods and apparatus
US9595130B2 (en) 2014-06-17 2017-03-14 Chief Architect Inc. Virtual model navigation methods and apparatus
CN106662773B (zh) 2014-06-26 2021-08-06 瑞尔D 斯帕克有限责任公司 定向防窥显示器
EP3204686B1 (en) 2014-10-08 2019-07-17 RealD Spark, LLC Connection unit for a directional backlight
WO2016105541A1 (en) 2014-12-24 2016-06-30 Reald Inc. Adjustment of perceived roundness in stereoscopic image of a head
US20170061700A1 (en) * 2015-02-13 2017-03-02 Julian Michael Urbach Intercommunication between a head mounted display and a real world object
WO2016168345A1 (en) 2015-04-13 2016-10-20 Reald Inc. Wide angle imaging directional backlights
CN107850804B (zh) 2015-05-27 2021-06-11 瑞尔D斯帕克有限责任公司 广角成像定向背光源
JP6316349B2 (ja) * 2015-07-15 2018-04-25 Gatebox株式会社 立体映像表示装置
WO2017074951A1 (en) 2015-10-26 2017-05-04 Reald Inc. Intelligent privacy system, apparatus, and method thereof
US10459321B2 (en) 2015-11-10 2019-10-29 Reald Inc. Distortion matching polarization conversion systems and methods thereof
US10330843B2 (en) 2015-11-13 2019-06-25 Reald Spark, Llc Wide angle imaging directional backlights
EP3374822B1 (en) 2015-11-13 2023-12-27 RealD Spark, LLC Surface features for imaging directional backlights
CN114143495A (zh) 2016-01-05 2022-03-04 瑞尔D斯帕克有限责任公司 多视角图像的注视校正
EP3242228A1 (en) * 2016-05-02 2017-11-08 Artag SARL Managing the display of assets in augmented reality mode
US10981060B1 (en) 2016-05-24 2021-04-20 Out of Sight Vision Systems LLC Collision avoidance system for room scale virtual reality system
US10650591B1 (en) 2016-05-24 2020-05-12 Out of Sight Vision Systems LLC Collision avoidance system for head mounted display utilized in room scale virtual reality system
KR20190025534A (ko) 2016-07-15 2019-03-11 게이트박스 가부시키가이샤 입체 영상 표시장치
JP6917820B2 (ja) 2016-08-05 2021-08-11 株式会社半導体エネルギー研究所 データ処理システム
FR3055972B1 (fr) * 2016-09-09 2019-08-16 Store Electronic Systems Localisation d'etiquettes electroniques de gondole dans une surface de vente
JP2018049267A (ja) 2016-09-16 2018-03-29 株式会社半導体エネルギー研究所 表示システム、電子機器および表示方法
CN109923851B (zh) 2016-11-07 2021-05-25 富士胶片株式会社 打印系统、服务器、打印方法及记录介质
US11164378B1 (en) * 2016-12-08 2021-11-02 Out of Sight Vision Systems LLC Virtual reality detection and projection system for use with a head mounted display
JP6995529B2 (ja) * 2017-08-24 2022-01-14 キヤノン株式会社 撮像装置およびその制御方法
US10599289B1 (en) * 2017-11-13 2020-03-24 Snap Inc. Interface to display animated icon
CN110119194A (zh) * 2018-02-06 2019-08-13 广东虚拟现实科技有限公司 虚拟场景处理方法、装置、交互系统、头戴显示装置、视觉交互装置及计算机可读介质
US10902680B2 (en) * 2018-04-03 2021-01-26 Saeed Eslami Augmented reality application system and method
US10679393B2 (en) 2018-07-24 2020-06-09 Snap Inc. Conditional modification of augmented reality object
US10818089B2 (en) * 2018-09-25 2020-10-27 Disney Enterprises, Inc. Systems and methods to provide a shared interactive experience across multiple presentation devices
US10994201B2 (en) 2019-03-21 2021-05-04 Wormhole Labs, Inc. Methods of applying virtual world elements into augmented reality
US10918949B2 (en) 2019-07-01 2021-02-16 Disney Enterprises, Inc. Systems and methods to provide a sports-based interactive experience
US11830119B1 (en) * 2020-05-29 2023-11-28 Apple Inc. Modifying an environment based on sound
EP4214441A4 (en) 2020-09-16 2024-08-28 Reald Spark Llc VEHICLE EXTERIOR LIGHTING DEVICE
JP7257370B2 (ja) * 2020-11-18 2023-04-13 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
KR102570735B1 (ko) * 2021-11-01 2023-09-04 국민대학교산학협력단 주변 환경 구조와 사용자 선호도를 반영한 인공지능 기반의 증강현실 아바타 포즈 제안 장치 및 방법
WO2024030274A1 (en) 2022-08-02 2024-02-08 Reald Spark, Llc Pupil tracking near-eye display
US11813546B1 (en) * 2022-08-12 2023-11-14 Spin Master Ltd. Device with flapping display

Family Cites Families (99)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2758274B2 (ja) 1991-02-15 1998-05-28 株式会社クボタ エンジン潤滑油の圧力異常検出装置
JPH06339155A (ja) 1993-05-28 1994-12-06 Sharp Corp 3次元画像撮影システム
KR0180026B1 (ko) 1994-05-13 1999-05-01 마츠모도 세이야 입체표시방법 및 장치
US6384859B1 (en) 1995-03-29 2002-05-07 Sanyo Electric Co., Ltd. Methods for creating an image for a three-dimensional display, for calculating depth information and for image processing using the depth information
US5964830A (en) 1995-08-22 1999-10-12 Durrett; Charles M. User portal device for the world wide web to communicate with a website server
WO1997015150A1 (fr) 1995-10-19 1997-04-24 Sony Corporation Procede et dispositif de formation d'images en trois dimensions
JP3933698B2 (ja) * 1996-07-11 2007-06-20 株式会社セガ 音声認識装置、音声認識方法及びこれを用いたゲーム機
JP3558104B2 (ja) 1996-08-05 2004-08-25 ソニー株式会社 3次元仮想物体表示装置および方法
US6342900B1 (en) 1996-12-06 2002-01-29 Nikon Corporation Information processing apparatus
JP3771989B2 (ja) 1997-03-24 2006-05-10 オリンパス株式会社 画像音声通信システムおよびテレビ電話送受信方法
US6057833A (en) 1997-04-07 2000-05-02 Shoreline Studios Method and apparatus for providing real time enhancements and animations over a video image
US6252624B1 (en) 1997-07-18 2001-06-26 Idemitsu Kosan Co., Ltd. Three dimensional display
US8202094B2 (en) * 1998-02-18 2012-06-19 Radmila Solutions, L.L.C. System and method for training users with audible answers to spoken questions
JP2000069404A (ja) 1998-08-25 2000-03-03 Konami Co Ltd 画像プリント作成装置
JP3786167B2 (ja) 1998-08-31 2006-06-14 ソニー株式会社 2次元コード認識処理方法、2次元コード認識処理装置、および2次元コード認識処理プログラム格納媒体
EP0984385B1 (en) 1998-08-31 2013-02-20 Sony Corporation Two-dimensional code recognition processing
US6504710B2 (en) 1998-11-27 2003-01-07 Xplore Technologies Corp. Method of interconnecting of a hand-held auxiliary unit, a portable computer and a peripheral device
JP2001165144A (ja) 1999-12-07 2001-06-19 Fujitsu Ltd 折りたたみ型携帯電話機
JP2001251399A (ja) 2000-03-03 2001-09-14 Sanyo Electric Co Ltd 折り畳み式携帯電話機
KR100419927B1 (ko) 2000-03-03 2004-02-25 산요덴키가부시키가이샤 폴더형 휴대전화기
JP3459606B2 (ja) 2000-03-03 2003-10-20 三洋電機株式会社 折り畳み式携帯電話機
JP3392801B2 (ja) 2000-03-03 2003-03-31 三洋電機株式会社 折り畳み式携帯電話機
US6474819B2 (en) 2000-03-21 2002-11-05 Texas Instruments Incorporated Combination overhead projector and electronic display device
JP3625184B2 (ja) 2000-09-25 2005-03-02 コナミ株式会社 ゲーム用3次元画像処理方法、装置、ゲーム用3次元画像処理プログラムを記録した可読記録媒体及びビデオゲーム装置
US6820056B1 (en) * 2000-11-21 2004-11-16 International Business Machines Corporation Recognizing non-verbal sound commands in an interactive computer controlled speech word recognition display system
JP3398796B2 (ja) 2001-01-31 2003-04-21 飛島建設株式会社 複合現実感を利用した3次元測量支援用画像システム
US6997387B1 (en) 2001-03-28 2006-02-14 The Code Corporation Apparatus and method for calibration of projected target point within an image
US7371163B1 (en) 2001-05-10 2008-05-13 Best Robert M 3D portable game system
JP3584230B2 (ja) * 2001-09-28 2004-11-04 キヤノン株式会社 映像体験システム、情報処理方法およびプログラム
JP2004007214A (ja) 2002-05-31 2004-01-08 Canon Inc 撮像装置
EP1531606A1 (en) 2002-06-07 2005-05-18 Matsushita Electric Industrial Co., Ltd. Collapsible mobile telephone
US7321682B2 (en) 2002-11-12 2008-01-22 Namco Bandai Games, Inc. Image generation system, image generation method, program, and information storage medium
WO2004049734A1 (ja) 2002-11-28 2004-06-10 Seijiro Tomita 立体映像信号生成回路及び立体映像表示装置
GB2400513B (en) 2003-03-14 2005-10-05 British Broadcasting Corp Video processing
JP4378118B2 (ja) 2003-06-27 2009-12-02 学校法人早稲田大学 立体映像呈示装置
US7643025B2 (en) 2003-09-30 2010-01-05 Eric Belk Lange Method and apparatus for applying stereoscopic imagery to three-dimensionally defined substrates
JP4338500B2 (ja) 2003-11-14 2009-10-07 富士フイルム株式会社 撮像装置
JP2005165776A (ja) 2003-12-03 2005-06-23 Canon Inc 画像処理方法、画像処理装置
JP2005204754A (ja) 2004-01-20 2005-08-04 Nintendo Co Ltd タッチパネル入力を用いたゲームシステム
JP3904562B2 (ja) * 2004-02-18 2007-04-11 株式会社ソニー・コンピュータエンタテインメント 画像表示システム、記録媒体及びプログラム
JP2005250950A (ja) 2004-03-05 2005-09-15 Nippon Telegr & Teleph Corp <Ntt> マーカ提示用携帯端末および拡張現実感システムならびにその動作方法
JP2005286714A (ja) 2004-03-30 2005-10-13 Nec Corp 携帯電話機
JP4537104B2 (ja) 2004-03-31 2010-09-01 キヤノン株式会社 マーカ検出方法、マーカ検出装置、位置姿勢推定方法、及び複合現実空間提示方法
JP2005353047A (ja) 2004-05-13 2005-12-22 Sanyo Electric Co Ltd 立体画像処理方法および立体画像処理装置
US7671916B2 (en) 2004-06-04 2010-03-02 Electronic Arts Inc. Motion sensor using dual camera inputs
JP2006024175A (ja) 2004-06-11 2006-01-26 Doshisha 携帯端末およびアダプタ
US20060244757A1 (en) 2004-07-26 2006-11-02 The Board Of Trustees Of The University Of Illinois Methods and systems for image modification
US8547401B2 (en) 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
JP2006060516A (ja) 2004-08-20 2006-03-02 Sharp Corp 折り畳み式携帯電話機
JP3841806B2 (ja) 2004-09-01 2006-11-08 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法
WO2006025137A1 (ja) 2004-09-01 2006-03-09 Sony Computer Entertainment Inc. 画像処理装置、ゲーム装置および画像処理方法
JP4587166B2 (ja) 2004-09-14 2010-11-24 キヤノン株式会社 移動体追跡システム、撮影装置及び撮影方法
JP4302024B2 (ja) 2004-09-17 2009-07-22 株式会社ソニー・コンピュータエンタテインメント ボタン構造、携帯型電子装置
EP1814101A1 (en) 2004-11-19 2007-08-01 Daem Interactive, Sl Personal device with image-acquisition functions for the application of augmented reality resources and corresponding method
EP3471020B1 (en) 2005-01-27 2021-03-03 Leica Biosystems Imaging Inc. Systems and methods for viewing three dimensional virtual slides
JP4406615B2 (ja) * 2005-02-23 2010-02-03 任天堂株式会社 コマンド処理装置およびコマンド処理プログラム
JP2006262980A (ja) * 2005-03-22 2006-10-05 Olympus Corp 情報端末装置及び仮想ペット表示方法
JP2006271663A (ja) 2005-03-29 2006-10-12 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像撮像表示装置
JP4738870B2 (ja) 2005-04-08 2011-08-03 キヤノン株式会社 情報処理方法、情報処理装置および遠隔複合現実感共有装置
AU2005331138A1 (en) 2005-04-25 2006-11-02 Yappa Corporation 3D image generation and display system
DE602005013752D1 (de) 2005-05-03 2009-05-20 Seac02 S R L Augmented-Reality-System mit Identifizierung der realen Markierung des Objekts
KR100662845B1 (ko) 2005-06-30 2007-01-02 삼성전자주식회사 메모리 카드 슬롯의 개폐장치 및 이를 구비한 디지털모바일기기
KR100722229B1 (ko) 2005-12-02 2007-05-29 한국전자통신연구원 사용자 중심형 인터페이스를 위한 가상현실 상호작용 인체모델 즉석 생성/제어 장치 및 방법
US8189038B2 (en) 2005-12-21 2012-05-29 International Business Machines Corporation Stereographic projection apparatus with passive eyewear utilizing a continuously variable polarizing element
US20070236514A1 (en) 2006-03-29 2007-10-11 Bracco Imaging Spa Methods and Apparatuses for Stereoscopic Image Guided Surgical Navigation
US8766983B2 (en) * 2006-05-07 2014-07-01 Sony Computer Entertainment Inc. Methods and systems for processing an interchange of real time effects during video communication
WO2007148219A2 (en) 2006-06-23 2007-12-27 Imax Corporation Methods and systems for converting 2d motion pictures for stereoscopic 3d exhibition
US20080071559A1 (en) * 2006-09-19 2008-03-20 Juha Arrasvuori Augmented reality assisted shopping
JP4796926B2 (ja) 2006-09-21 2011-10-19 株式会社ソニー・コンピュータエンタテインメント 電子機器用筐体及び電子機器
EP2082372A1 (en) 2006-11-17 2009-07-29 THOMSON Licensing System and method for model fitting and registration of objects for 2d-to-3d conversion
JP2008146109A (ja) 2006-12-05 2008-06-26 Canon Inc 画像処理方法、画像処理装置
US8305428B2 (en) 2007-04-18 2012-11-06 Inlife-Handnet Co., Ltd Stereo video shooting and viewing device
JP2008277903A (ja) * 2007-04-25 2008-11-13 Sony Corp 撮像装置及びフォーカス対象決定方法
JP4689639B2 (ja) 2007-04-25 2011-05-25 キヤノン株式会社 画像処理システム
EP2009868B1 (en) 2007-06-29 2016-09-07 Alcatel Lucent Method and system for improving the appearance of a person on the RTP stream coming from a media terminal
JP2009025918A (ja) 2007-07-17 2009-02-05 Canon Inc 画像処理装置、画像処理方法
JP4947593B2 (ja) 2007-07-31 2012-06-06 Kddi株式会社 局所領域分割による自由視点画像の生成装置およびプログラム
US8917985B2 (en) 2007-08-29 2014-12-23 Nintendo Co., Ltd. Imaging apparatus
US8177441B2 (en) 2007-08-29 2012-05-15 Nintendo Co., Ltd. Imaging apparatus
EP2039398B1 (en) 2007-08-29 2016-05-04 Nintendo Co., Ltd. Imaging apparatus
JP4260215B1 (ja) 2007-08-29 2009-04-30 任天堂株式会社 撮像装置
US8471844B2 (en) 2008-01-18 2013-06-25 Sony Corporation Streaming geometry for use in displaying and editing 3D imagery
JP2009205556A (ja) 2008-02-28 2009-09-10 Panasonic Corp ユーザインタフェース装置
NL1035303C2 (nl) 2008-04-16 2009-10-19 Virtual Proteins B V Interactieve virtuele reality eenheid.
US8237807B2 (en) * 2008-07-24 2012-08-07 Apple Inc. Image capturing device with touch screen for adjusting camera settings
US20100048290A1 (en) * 2008-08-19 2010-02-25 Sony Computer Entertainment Europe Ltd. Image combining method, system and apparatus
EP2157545A1 (en) 2008-08-19 2010-02-24 Sony Computer Entertainment Europe Limited Entertainment device, system and method
WO2010038296A1 (ja) 2008-10-01 2010-04-08 任天堂株式会社 情報処理装置、情報処理システム、ならびに起動用プログラムおよびそれを記憶した記憶媒体
JP5358152B2 (ja) 2008-10-03 2013-12-04 任天堂株式会社 手持ち型情報処理装置
US9480919B2 (en) 2008-10-24 2016-11-01 Excalibur Ip, Llc Reconfiguring reality using a reality overlay device
KR20100053349A (ko) 2008-11-12 2010-05-20 엘지전자 주식회사 터치 모듈, 그 터치 모듈의 제조 방법 및 그 터치 모듈을 갖는 휴대 단말기
JP4653212B2 (ja) 2008-12-25 2011-03-16 富士通株式会社 折りたたみ型携帯電話機
JP4834116B2 (ja) 2009-01-22 2011-12-14 株式会社コナミデジタルエンタテインメント 拡張現実表示装置、拡張現実表示方法、ならびに、プログラム
JP5320133B2 (ja) 2009-03-31 2013-10-23 株式会社エヌ・ティ・ティ・ドコモ 情報提示システム、情報提示サーバ、通信端末、および情報提示方法
US20100257252A1 (en) * 2009-04-01 2010-10-07 Microsoft Corporation Augmented Reality Cloud Computing
JP5421655B2 (ja) 2009-05-28 2014-02-19 任天堂株式会社 ゲームプログラム及びゲーム装置
US8715031B2 (en) * 2009-08-06 2014-05-06 Peter Sui Lun Fong Interactive device with sound-based action synchronization
US8711204B2 (en) 2009-11-11 2014-04-29 Disney Enterprises, Inc. Stereoscopic editing for video production, post-production and display adaptation
US8730309B2 (en) 2010-02-23 2014-05-20 Microsoft Corporation Projectors and depth cameras for deviceless augmented reality and interaction

Also Published As

Publication number Publication date
JP2012094101A (ja) 2012-05-17
US20120075285A1 (en) 2012-03-29
US8854356B2 (en) 2014-10-07

Similar Documents

Publication Publication Date Title
JP5806469B2 (ja) 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
JP5602618B2 (ja) 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
JP5632693B2 (ja) 情報処理プログラム、情報処理装置、情報処理方法および情報処理システム
JP4696184B1 (ja) 画像表示システム、画像表示装置および画像表示方法
JP5646263B2 (ja) 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法
CN103249461B (zh) 用于使得手持设备能够捕获交互应用的视频的系统
JP5541974B2 (ja) 画像表示プログラム、装置、システムおよび方法
US8384770B2 (en) Image display system, image display apparatus, and image display method
JP5791433B2 (ja) 情報処理プログラム、情報処理システム、情報処理装置および情報処理方法
JP5627973B2 (ja) ゲーム処理をするためのプログラム、装置、システムおよび方法
JP5814532B2 (ja) 表示制御プログラム、表示制御装置、表示制御システム及び表示制御方法
US20100248825A1 (en) Character display control method
JP2011259243A (ja) 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
JP2012014680A (ja) 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法
TW201219092A (en) Game system, controller device, and game process method
JP2011258158A (ja) プログラム、情報記憶媒体及び画像生成システム
JP5478205B2 (ja) ゲーム装置、ゲームプログラム、ゲームシステムおよびゲーム制御方法
JP2012217677A (ja) ゲームシステム、ゲーム装置、ゲームプログラム、および画像生成方法
JP2023162168A (ja) ゲームプログラム、ゲーム処理方法、及びゲーム装置
JP5777332B2 (ja) ゲーム装置、ゲームプログラム、ゲームシステム及びゲーム方法
JP5739670B2 (ja) 画像表示プログラム、装置、システムおよび方法
JP5739673B2 (ja) 画像表示プログラム、装置、システムおよび方法
WO2022124135A1 (ja) ゲームプログラム、ゲーム処理方法、及びゲーム装置
JP7319686B2 (ja) ゲームプログラム、ゲーム処理方法、及びゲーム装置
JP2012145976A (ja) 表示制御プログラム、表示制御装置、表示制御システム、表示制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150415

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150826

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150904

R150 Certificate of patent or registration of utility model

Ref document number: 5806469

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250