JP2018116471A - 表示制御方法、装置及びプログラム - Google Patents

表示制御方法、装置及びプログラム Download PDF

Info

Publication number
JP2018116471A
JP2018116471A JP2017006752A JP2017006752A JP2018116471A JP 2018116471 A JP2018116471 A JP 2018116471A JP 2017006752 A JP2017006752 A JP 2017006752A JP 2017006752 A JP2017006752 A JP 2017006752A JP 2018116471 A JP2018116471 A JP 2018116471A
Authority
JP
Japan
Prior art keywords
image
display
unit
parts
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017006752A
Other languages
English (en)
Inventor
友香 毛利
Yuka Mori
友香 毛利
義春 鎌田
Yoshiharu Kamata
義春 鎌田
健二 喜多
Kenji Kita
健二 喜多
孝治 門岡
Takaharu Kadooka
孝治 門岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017006752A priority Critical patent/JP2018116471A/ja
Priority to US15/867,987 priority patent/US10573278B2/en
Publication of JP2018116471A publication Critical patent/JP2018116471A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H33/00Other toys
    • A63H33/22Optical, colour, or shadow toys
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H33/00Other toys
    • A63H33/26Magnetic or electric toys
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H33/00Other toys
    • A63H33/42Toy models or toy scenery not otherwise covered
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63JDEVICES FOR THEATRES, CIRCUSES, OR THE LIKE; CONJURING APPLIANCES OR THE LIKE
    • A63J1/00Stage arrangements
    • A63J1/02Scenery; Curtains; Other decorations; Means for moving same
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63JDEVICES FOR THEATRES, CIRCUSES, OR THE LIKE; CONJURING APPLIANCES OR THE LIKE
    • A63J13/00Panoramas, dioramas, stereoramas, or the like
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H17/00Toy vehicles, e.g. with self-drive; ; Cranes, winches or the like; Accessories therefor
    • A63H17/05Trucks; Lorries
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63JDEVICES FOR THEATRES, CIRCUSES, OR THE LIKE; CONJURING APPLIANCES OR THE LIKE
    • A63J5/00Auxiliaries for producing special effects on stages, or in circuses or arenas
    • A63J5/02Arrangements for making stage effects; Auxiliary stage appliances
    • A63J5/021Mixing live action with images projected on translucent screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1446Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display display composed of modules, e.g. video walls
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Abstract

【課題】物体と共に表示する画像を簡易な操作で変化可能とする。【解決手段】入力部30を介して所定の入力を受け付けると、取得部28は、遊戯空間内に配置されたパーツの位置を取得する。表示制御部38は、遊戯空間に近接する表示部12〜16における、第1画像及び第2画像のうち第1画像及び変位フラグ=1の第2画像の表示位置を、取得したパーツの位置に応じて決定する。そして表示制御部38は、表示部12〜16に第1画像及び第2画像を表示させる。また表示制御部38は、入力部30を介して所定の入力を受け付けた後は、遊戯空間内におけるパーツの位置の変化に応じて第1画像の表示位置を変更し、第2画像については表示位置を変更せずに表示を継続させる。【選択図】図1

Description

本発明は表示制御方法、表示制御装置及び表示制御プログラムに関する。
コンピュータによる画像の生成・表示に関し、以下の技術が提案されている。第1の技術は、或るモーションを行っている現実の物体を撮影し、現実の物体と同じモーションを行うことが可能な3次元モデルデータを作成する。そして第1の技術は、3次元モデルデータに基づく視覚オブジェクトを仮想3次元空間内に配置した画像を生成・表示し、前記視覚オブジェクトに、撮影中の現実の物体が行っているモーションにリアルタイムで追従して同じモーションを行わせる。
特開2002−58045号公報
第1の技術は、モーションを行うユーザを模した視覚オブジェクトを仮想3次元空間内に配置し、視覚オブジェクトにユーザと同じモーションを行わせる技術であり、視覚オブジェクトが模する現実の物体がモーションを行う物体であることを前提としている。このため、視覚オブジェクトが模する現実の物体として静止物体を適用したとすると、仮想3次元空間内の視覚オブジェクトも静止し続けることになり、表示される画像に変化を与えることはできない。
一つの側面では、本発明は、物体と共に表示する画像を簡易な操作で変化可能とすることが目的である。
一つの実施態様では、所定の入力を受け付けると、所定領域内に配置された物体の位置を取得する。また、前記所定領域に近接する表示装置の表示領域における、第1画像及び第2画像のうちの少なくとも前記第1画像の表示位置を、取得した前記物体の位置に応じて決定し、前記表示装置に前記第1画像及び前記第2画像を表示させる。そして、前記所定の入力を受け付けた後は、前記所定領域内における前記物体の位置の変化に応じて前記第1画像の表示位置を変更し、前記第2画像については表示位置を変更せずに表示を継続させる。
一つの側面として、物体と共に表示する画像を簡易な操作で変化可能とすることができる、という効果を有する。
遊戯装置の機能ブロック図である。 表示部及びカメラの配置の一例を示す斜視図である。 パーツ情報DBの一例を示す図表である。 表示画像DBの一例を示す図表である。 表示画像DBに登録される情報の具体的な一例を示す図表である。 遊戯装置として機能するコンピュータの概略ブロック図である。 遊戯装置制御処理の一例のフローチャートである。 画像生成・表示処理の一例のフローチャートである。 表示更新処理の一例のフローチャートである。 パーツの一例として車が配置された場合に表示される第1画像の一例を示すイメージ図である。 パーツの一例として車が配置された場合に表示される第1画像及び第2画像と、車が移動された場合の第1画像の表示位置の変化の一例を示すイメージ図である。 パーツの一例としてうさぎが配置された場合に表示される第1画像の一例を示すイメージ図である。 パーツの一例としてうさぎが配置された場合に表示される第1画像及び第2画像と、うさぎが移動された場合の第1画像の表示位置の変化の一例を示すイメージ図である。 パーツの一例として犬が配置された場合に表示される第1画像の一例を示すイメージ図である。 パーツの一例として犬が配置された場合に表示される第1画像及び第2画像と、犬が移動された場合の第1画像の表示位置の変化の一例を示すイメージ図である。 パーツの一例としてくじらが配置された場合に表示される第1画像の一例を示すイメージ図である。 パーツの一例としてくじらが配置された場合に表示される第1画像及び第2画像と、くじらが移動された場合の第1画像の表示位置の変化の一例を示すイメージ図である。 パーツの一例として花が配置された場合に表示される第1画像の一例を示すイメージ図である。 パーツの一例として花が配置された場合に表示される第1画像及び第2画像と、花が移動された場合の第1画像の表示位置の変化の一例を示すイメージ図である。 パーツの一例として家が配置された場合に表示される第1画像の一例を示すイメージ図である。 パーツの一例として家が配置された場合に表示される第1画像及び第2画像と、家が移動され、可動部としての窓の位置が変化した場合の第1画像の変化の一例を示すイメージ図である。
以下、図面を参照して開示の技術の実施形態の一例を詳細に説明する。図1に示す遊戯装置10は、例えば子供などのユーザによる遊戯に使用される玩具の一種であってよく、第1表示部12、第2表示部14及び第3表示部16を含んでいる。第1表示部12、第2表示部14及び第3表示部16は、例えばLiquid Crystal Display(LCD)、Organic Electroluminescence Display(OELD)等によって実現される。図1では3つの表示部が設けられた例を示しているが、表示部は、例えば第1表示部12の1つのみであっても構わない。
図2に示すように、第1表示部12は表示面12Aが遊戯空間18の底面を成すように配置され、第2表示部14は表示面14Aが遊戯空間18の第1の側面を成すように第1表示部12と連結されている。また、第3表示部16は表示面16Aが遊戯空間18の第2の側面(第1の側面とおよそ直交する側面)を成すように第1表示部12及び第2表示部14と連結されている。なお、第1表示部12、第2表示部14及び第3表示部16は本発明における表示装置の一例であり、第1表示部12、第2表示部14及び第3表示部16によって形成される遊戯空間18は、本発明における所定領域の一例である。
なお、遊戯装置10は、第1の側面と対向する遊戯空間18の第3の側面を成す壁部材20(図2では想像線で示す)と、第2の側面と対向する遊戯空間18の第4の側面を成す壁部材22(図2では想像線で示す)と、が着脱可能であることが好ましい。これにより、第1表示部12、第2表示部14及び第3表示部16に壁部材20,22を装着した状態で全体が箱形状になり、例えば片づけの際には遊戯装置10に付属する後述の「できた」ボタンユニットやパーツ等を箱形状の内側に収納することができる。
また、この状態では、遊戯空間18の上面を閉塞する蓋部材(図示省略)を被せることも可能になり、蓋部材を被せることで、遊戯装置10全体としての強度を高め、また箱形状の内側に収納した「できた」ボタンユニットやパーツ等の散逸も防止することができる。なお、遊戯装置10を使用する場合には、図2に実線で示すように、蓋部材及び壁部材20,22が離脱されることで、遊戯空間18を成す六面のうちの三面が露出され、表示部12〜16に表示された画像をユーザが視認可能な状態になる。
遊戯装置10は、遊戯空間18内に配置可能な模型である「パーツ」が1以上付属している。図10,11にはパーツの一例として車76を示し、図12,13にはパーツの一例としてうさぎ82を示し、図14,15にはパーツの一例として犬88を示し、図16,17にはパーツの一例としてくじら94を示す。また、図18,19にはパーツの一例として花100を示し、図20,21にはパーツの一例として家110を示す。なお、図20と図21を比較しても明らかなように、家110は窓110Aが開閉可能とされている。上記の各種パーツは本発明における物体の一例であり、上記の家110は可動部を含む物体の一例である。
図1に示すように、遊戯装置10は、遊戯空間18を互いに異なる位置から撮影する第1カメラ24及び第2カメラ26を含んでいてよい。図2には、一例として、第1カメラ24が第2表示部14の表示面14Aの上端部付近に配置され、第2カメラ26が第3表示部16の表示面16Aの上端部付近に配置された態様を示す。第1カメラ24及び第2カメラ26は、遊戯空間18の底面(第1表示部12の表示面12A)全体が撮影範囲に入るように画角が調整されており、遊戯空間18に配置されたパーツを撮影可能とされている。
第1カメラ24及び第2カメラ26は取得部28に接続されている。取得部28は、遊戯装置10のユーザが所定の入力をすることが可能な入力部30、パーツ情報DB(データベース)34及び表示画像DB36を記憶する記憶部32及び表示制御部38と相互に接続されている。取得部28は、入力部30を介して所定の入力を受け付けると、遊戯空間18内に配置されたパーツの位置を取得する。取得部28は、更にパーツの種類及び向きの少なくとも一方を取得してもよい。取得部28は撮影画像取得部28Aとパーツ認識部28Bを含んでいる。撮影画像取得部28Aは、入力部30を介して所定の入力を受け付けると、第1カメラ24及び第2カメラ26から撮影画像を取得する。パーツ認識部28Bは、撮影画像取得部28Aによって取得された撮影画像と、パーツ情報DB34に登録された情報と、に基づいて、遊戯空間18内に配置されたパーツの種類、位置及び向きを認識する。
パーツ情報DB34は、遊戯装置10に付属されている1以上のパーツ毎の情報が登録されている。パーツ情報DB34に登録されている情報は、一例として図3に示すように、個々のパーツを識別するためのパーツID、パーツを互いに異なる複数の向きから撮影したパーツ画像、及び、パーツが可動部を含むか否かを表す可動部フラグを含む。なお、上記のパーツ画像は、例えば、パーツを回転台に載せて回転台を回転させながら、パーツの向きθが所定角度αだけ変化する毎にカメラでパーツを撮影し、撮影した個々の画像からパーツに対応する画像領域を切り出すことで得ることができる。
また、表示画像DB36は、遊戯装置10に付属されている個々のパーツ毎に、遊戯空間18に配置された場合に表示部12〜16に表示させる第1画像の情報及び第2画像の情報と、遊戯空間18に配置された場合に出力する音声情報と、が登録されている。第1画像は、遊戯空間18内における対応するパーツの位置の変化に応じて表示位置を変更する画像であり、本発明における第1画像の一例である。一方、第2画像は、遊戯空間18内における対応するパーツの位置の変化に拘わらず表示位置を変更しない画像であり、本発明における第2画像の一例である。
一例として図4に示すように、表示画像DB36に登録されている第1画像の情報は、先に説明した可動部フラグ、第1画像及びパーツの3次元モデルを含んでいる。第1画像とパーツの3次元モデルは択一的に登録される情報であり、パーツが可動部を含まない場合(可動部フラグ=0の場合)には第1画像が登録される。また、パーツが可動部を含む場合(可動部フラグ=1の場合)には、パーツに含まれる可動部を可動部としてモデル化した3次元モデルが登録される。例えば、図20,21に示す家110の例では、開閉可能な窓110Aを可動部として家110をモデル化した3次元モデルが登録される。
第1画像の情報の具体例を説明する。図5に示すように、パーツが車76又はうさぎ82又は鳥の場合、第1画像の一例としてはパーツの影が挙げられる(図10,11に示す影78、図12,13に示す影84も参照)。これらのパーツは可動部を含まないため、可動部フラグ=0に設定され、第1画像として透過率>0の影の画像が登録される。また、パーツが犬88又は猫の場合、第1画像の一例としてはパーツの影と足跡が挙げられる(図14,15に示す影・足跡90も参照)。これらのパーツも可動部を含まないため、可動部フラグ=0に設定され、第1画像として透過率>0の影及び足跡の画像が登録される。
また、パーツがくじら94の場合、第1画像の一例としては波(図16,17に示す波96も参照)が挙げられる。くじら94も可動部を含まないため、可動部フラグ=0に設定され、第1画像として波の動画像が登録される。また、パーツが花100の場合、第1画像の一例としては花100の影、周辺の小さな花及び蝶が挙げられる(図18,19に示す影102、小さな花104及び蝶106も参照)。花100も可動部を含まないため、可動部フラグ=0に設定され、第1画像として透過率>0の影の画像、周辺の小さな花の画像及び蝶の動画像が登録される。
また、パーツが家110の場合、第1画像の一例としては家110の影及び窓110Aの開閉に応じて変化する窓110Aの影が挙げられる(図20,21に示す影112及び図21に示す影114も参照)。家110は窓110Aが開閉可能なため、可動部フラグ=1に設定され、開閉可能な窓110Aを可動部として家110をモデル化した3次元モデルが登録される。
図4に示すように、表示画像DB36に登録されている第2画像の情報は、第2画像、パーツの位置に応じて第2画像の表示位置を変位させるか否かを表す変位フラグ、変位フラグ=1の場合にパーツと第2画像の表示位置との位置関係を表す変位情報を含む。また、第2画像の情報は、パーツの向きに応じて第2画像の表示方向を変化させるか否かを表す方向性フラグ、方向性フラグ=1の場合にパーツの向きと第2画像の表示方向との関係を表す方向性情報を含む。
第2画像の情報の具体例を説明する。図5に示すように、パーツが車76の場合、第2画像の一例としては図11に示す道路80が挙げられ、第2画像として道路80の画像が登録される。道路80は車76に応じた位置・向きで表示することが望ましいため、変位フラグ=1かつ方向性フラグ=1に設定され、車76の当初の位置・向きに応じた位置・向きで道路80が表示されるように変位情報及び方向性情報が設定される。また、パーツがうさぎ82の場合、第2画像の一例としては、図13に示すように日が暮れて月が出る夜空86が挙げられ、第2画像として夜空86の動画像が登録される。夜空86はうさぎ82の位置や向きの変化に拘わらず第2表示部14及び第3表示部16に表示されるため、変位フラグ=0かつ方向性フラグ=0に設定される。
また、パーツが犬88の場合、第2画像の一例としては図15に示すえさ92が挙げられ、第2画像としてえさ92の画像が登録される。えさは犬88に応じた位置に表示することが望ましいため、変位フラグ=1で方向性フラグ=0に設定され、犬88の当初の位置に応じた位置にえさ92が表示されるように変位情報が設定される。また、パーツが鳥の場合、第2画像の一例としては止まり木が挙げられ(図示省略)、第2画像として止まり木の画像が登録される。止まり木は鳥に応じた位置・向きで表示することが望ましいため、変位フラグ=1かつ方向性フラグ=1に設定され、鳥の当初の位置・向きに応じた位置・向きで止まり木が表示されるように変位情報及び方向性情報が設定される。
また、パーツが猫の場合、第2画像の一例としては毛糸玉が挙げられ(図示省略)、第2画像として毛糸玉の画像が登録される。毛糸玉は、猫に応じた位置・向きで表示することが望ましいため、変位フラグ=1かつ方向性フラグ=1に設定され、猫に応じた位置に毛糸玉が表示されるように変位情報が設定される。また、パーツがくじら94の場合、第2画像の一例としては図17に示す水面98が挙げられ、第2画像として水面98の画像が登録される。本実施形態ではくじら94の当初の位置に応じた一部範囲に水面98を表示するために、変位フラグ=1で方向性フラグ=0に設定され、くじら94の当初の位置に応じた一部範囲に水面98が表示されるように変位情報が設定される。なお、水面98は第1表示部12の表示面12Aの全面に表示してもよい。
また、パーツが花100の場合、第2画像の一例としては図19に示す花畑108が挙げられ、第2画像として花畑108の画像が登録される。本実施形態では花100の当初の位置に応じた一部範囲に花畑108を表示するために、変位フラグ=1で方向性フラグ=0に設定され、花100の当初の位置に応じた一部範囲に花畑108が表示されるように変位情報が設定される。なお、花畑108は第1表示部12の表示面12Aの全面に表示してもよい。また、パーツが家110の場合、第2画像の一例としては図21に示す石畳116が挙げられ、第2画像として石畳116の画像が登録される。本実施形態では家110の当初の位置に応じた一部範囲に石畳116を表示するために、変位フラグ=1で方向性フラグ=0に設定され、家110の当初の位置に応じた一部範囲に石畳116が表示されるように変位情報が設定される。
また、音声情報は、遊戯空間18に配置された場合に音声を出力するパーツについてのみ表示画像DB36に登録される。具体的な一例として、図5には、遊戯空間18に配置されたパーツが車76の場合に走行音(エンジン音やクラクションの音)が出力され、パーツが犬88又は鳥又は猫の場合に鳴き声が出力され、パーツがくじら94の場合に波の音が出力される例を示す。
表示制御部38は、表示画像生成部38A及び表示画像出力部38Bを含んでおり、表示部12〜16に接続されている。表示画像生成部38Aは、入力部30を介して所定の入力を受け付けると、取得部28によって取得された遊戯空間18内に配置されているパーツの位置に基づいて、第1画像及び第2画像の表示位置を決定する。この際、表示画像生成部38Aは、第1画像の表示位置についてはパーツの位置に応じて決定し、第2画像の変位フラグ=1の場合は、当該第2画像の表示位置についてもパーツの位置に応じて決定する。また、第2の画像の方向性フラグ=1の場合は、当該第2画像の表示方向についてもパーツの向きに応じて決定する。
そして、表示画像生成部38Aは、決定した第1画像及び第2画像の表示位置に基づいて、表示部12〜16に表示させる表示画像を生成し、表示画像出力部38Bは、表示画像生成部38Aによって生成された表示画像を表示部12〜16に表示させる。また、表示画像生成部38Aは、所定の入力を受け付けた後は、遊戯空間18内におけるパーツの位置の変化に応じて第1画像の表示位置を変更し、第2画像については表示位置を変更せずに表示を継続させる。例えば、パーツが車である場合、所定の入力を受け付けると、車の位置に応じた位置に第1画像である影を表示し、また、第2画像である道路を表示する。その後、車の位置が変更されると、道路の表示はそのままに、影の表示は変更後の車の位置に応じた位置に変更して表示する。
遊戯装置10は図6に示すコンピュータ50によって実現される。コンピュータ50は、CPU52、メモリ54、記憶部56、第1表示部12、第2表示部14、第3表示部16、第1カメラ24、第2カメラ26、無線通信部58及び音声出力部60を含んでいる。CPU52、メモリ54、記憶部56、第1表示部12、第2表示部14、第3表示部16、第1カメラ24、第2カメラ26、無線通信部58及び音声出力部60はバス62を介して互いに接続されている。無線通信部58は、「できた」ボタンが設けられると共に無線通信部を内蔵し、入力部30として機能する「できた」ボタンユニット64(図2も参照)と無線通信を行う。
記憶部56はHard Disk Drive(HDD)、Solid State Drive(SSD)、フラッシュメモリ等によって実現される。記憶部56には、コンピュータ50を遊戯装置10として機能させるための遊戯装置制御プログラム66が記憶されている。CPU52は、遊戯装置制御プログラム66を記憶部56から読み出してメモリ54に展開し、遊戯装置制御プログラム66が有するプロセスを順次実行する。遊戯装置制御プログラム66は、取得プロセス68及び表示制御プロセス70を含む。
CPU52は、取得プロセス68を実行することで、図1に示す取得部28として動作する。またCPU52は、表示制御プロセス70を実行することで、図1に示す表示制御部38として動作する。また、記憶部56にはパーツ情報DB記憶領域72及び表示画像DB記憶領域74が設けられている。パーツ情報DB記憶領域72にはパーツ情報DB34が予め記憶されており、表示画像DB記憶領域74には表示画像DB36が予め記憶されている。これにより、記憶部56が図1に示す記憶部32として機能し、遊戯装置制御プログラム66を実行したコンピュータ50が遊戯装置10として機能することになる。なお、遊戯装置制御プログラム66は本発明に係る表示制御プログラムの一例である。
次に本実施形態の作用を説明する。遊戯装置10は、ユーザによって使用されていない非使用状態では、例えば、表示部12〜16に壁部材20,22が装着されて箱形状を成し、「できた」ボタンユニット64及びパーツが箱形状の内側に収納され、蓋部材が被せられた状態とされる。この際には、遊戯装置10の電源はオフされている。
ユーザは、遊戯装置10を使用して遊戯を行う場合、まず、遊戯装置10から蓋部材及び壁部材20,22を取り外し、蓋部材及び壁部材20,22を取り外すことで露出した遊戯空間18から、全てのパーツ及び「できた」ボタンユニット64を一旦取り出す。そして、遊戯装置10の電源をオンにする。電源は、例えば蓋部材及び壁部材の少なくとも一方が取り外されたことを検知して自動的にオン状態にしてもよい。続いてユーザは、遊戯空間18から一旦取り出したパーツの中から、興味を覚えたパーツを1個以上選択し、選択した1個以上のパーツを遊戯空間18内の所望の位置に、所望の向きで配置する。遊戯空間18内へのパーツの配置は、例えば、ユーザが選択したパーツを取り巻く風景を想像し、遊戯空間18内におけるパーツの位置及び向きが、想像した風景に対応するように行われる。そしてユーザは、1個以上のパーツの遊戯空間18内への配置が完了すると、「できた」ボタンユニット64の「できた」ボタンを押下する。この「できた」ボタンの押下は、本発明における所定の入力の一例である。
「できた」ボタンユニット64の「できた」ボタンが押下されると、図7に示す遊戯装置制御処理が遊戯装置10(CPU52)によって実行される。なお、図7の処理の終了は、遊戯装置10の電源がオフされることにより実現されてよい。遊戯装置制御処理のステップ150において、取得部28の撮影画像取得部28Aは、第1カメラ24から第1撮影画像を取得すると共に、第2カメラ26から第2撮影画像を取得する。
次のステップ152において、取得部28のパーツ認識部28Bは、撮影画像取得部28Aによって取得された第1撮影画像及び第2撮影画像から、遊戯空間18内に配置されている個々のパーツに対応する画像領域(以下、パーツ領域という)を各々探索する。パーツ領域の探索は、例えば以下の処理で実現できる。例えば、遊戯空間18内にパーツが未配置の状態でカメラ24,26によって予め撮影した基準画像を用い、第1撮影画像及び第2撮影画像の各々について基準画像と差分が生じている差分領域を抽出する。そして、差分領域に対して収縮/膨張などの画像処理を行うことで、異なるパーツに対応する領域を独立した領域として分離し、分離した個々の領域に対してラベリングを行うことで、遊戯空間18内に配置された個々のパーツに対応するパーツ領域を識別する。
ステップ154において、パーツ認識部28Bは、遊戯装置10が表示部12〜16に既に画像を表示中の状態か否か判定する。ステップ154の判定が否定された場合はステップ158へ移行し、ステップ158以降において、遊戯空間18内に配置された個々のパーツの種類、位置及び向きを認識する処理を行う。
すなわち、ステップ158において、パーツ認識部28Bは、遊戯空間18内に配置されたパーツの数を表す変数cに0を設定する。次のステップ160において、パーツ認識部28Bは、先のステップ152の探索で抽出した全てのパーツ領域に対してステップ162以降の処理を行ったか否か判定する。例えば、ステップ152の探索でパーツ領域が抽出されなかった等の場合は、ステップ160の判定が肯定されてステップ176へ移行する。
一方、ステップ152の探索でパーツ領域が1個以上抽出された場合は、ステップ160の判定が否定されてステップ162へ移行する。ステップ162において、パーツ認識部28Bは、第1撮影画像から抽出したパーツ領域を処理対象として1つ取り出す。次のステップ164において、パーツ認識部28Bは、処理対象のパーツ領域の画像に対し、パーツ情報DB34に記憶されている各パーツの複数の向きの画像とのマッチングを各々行う。そして、パーツ認識部28Bは、上記のマッチングで演算した一致度が最大値を示した画像に対応するパーツID及び向きを、処理対象のパーツ領域に対応するパーツのパーツID、向きとして取得する。
なお、上記のように、一致度が最大値を示した画像を単に選択することに代えて、一致度が最大値を示しかつ一致度が閾値以上の画像を、一致している画像として選択するようにしてもよい。この態様で、一致度が最大値を示した画像の一致度が所定値未満の場合は、例えば、該当するパーツが存在しないと判断し、ステップ160に戻るようにしてもよい。また、可動部フラグ=1のパーツの画像については、可動部フラグ=0のパーツの画像よりも上記の閾値を小さくしてもよい。これは、遊戯空間18内に配置されたパーツが可動部を含む場合、当該パーツの可動部の位置が、パーツ情報DB34に記憶されている画像における可動部の位置と相違していると、一致度が低下するためである。
次のステップ166において、パーツ認識部28Bは、ステップ164のマッチングで演算した一致度が最大値を示した画像と、パーツIDが同一で向きが90°異なる画像をパーツ情報DB34から読み出す。そして、パーツ認識部28Bは、パーツ情報DB34から読み出した画像に対し、第2撮影画像から抽出した全てのパーツ領域とのマッチングを各々行う。
ステップ168において、パーツ認識部28Bは、ステップ166のマッチングで一致度が最大値を示したパーツ領域の一致度が閾値以上か否かに基づいて、一致度が閾値以上のパーツ領域が第2撮影画像に存在していたか否か判定する。ステップ168の判定が否定された場合、処理対象のパーツ領域がステップ164で取得したパーツID、向きである確度が不十分と判断し、ステップ160に戻る。
また、ステップ168の判定が肯定された場合は、処理対象のパーツ領域がステップ164で取得したパーツID、向きである確度が十分と判断できるので、ステップ170へ移行する。ステップ170において、パーツ認識部28Bは、処理対象のパーツ領域の第1撮影画像での位置と、ステップ166のマッチングで一致度が最大値を示したパーツ領域の第2撮影画像上での位置と、から、遊戯空間18内における対応するパーツの位置を特定する。ここで特定するパーツの位置は、第1表示部12の表示面12A上の位置、すなわち2次元座標上の位置でよいが、遊戯空間18に設定した3次元座標上の位置を特定してもよい。
次のステップ172において、パーツ認識部28Bは、ステップ164で取得したパーツID及び向き、ステップ170で特定したパーツの位置及び第1及び第2撮影画像から抽出したパーツ領域の画像を、c番目のパーツの情報としてメモリ54に記憶させる。そして、ステップ174において、パーツ認識部28Bは、変数cを1だけインクリメントし、ステップ160に戻る。これにより、ステップ160の判定が肯定される迄、ステップ160〜174が繰り返され、第1撮影画像から抽出した個々のパーツ領域を処理対象として、対応するパーツのパーツID、位置及び向きを認識する処理が行われる。
ステップ160の判定が肯定されるとステップ176へ移行し、ステップ176において、パーツ認識部28Bは、変数cの値が1以上か否か判定する。ステップ176の判定が否定された場合は、遊戯空間18内にパーツが配置されていないか、遊戯装置10に付属するパーツ以外の物体が配置されていると判断できる。このため、この場合は表示部12〜16に画像を表示することなくステップ150へ戻る。
また、ステップ176の判定が肯定された場合は、遊戯空間18内に1個以上のパーツが配置されているので、ステップ178へ移行し、ステップ178において、表示制御部38は、画像生成・表示処理を行う。以下、この画像生成・表示処理について、図8を参照して説明する。
画像生成・表示処理のステップ184において、表示制御部38の表示画像生成部38Aは、表示画像を生成・記憶するためのメモリ54上の記憶領域をクリアする。ステップ186において、表示画像生成部38Aは、変数cの値をパーツ総数cmaxに代入し(図7に示す処理により、このとき変数cには、遊戯空間18内に配置されたパーツの数を表す値が設定されている)、変数cに1を設定する。
ステップ188において、表示画像生成部38Aは、c番目のパーツのパーツIDをキーにして表示画像DB36を検索し、c番目のパーツに対応する第2画像の情報(第2画像、変位フラグ、方向性フラグ等)を表示画像DB36から読み出す。ステップ190において、表示画像生成部38Aは、ステップ188で読み出した情報に含まれる変位フラグが1か否か判定する。ステップ190の判定が肯定された場合はステップ192へ移行し、ステップ192において、表示画像生成部38Aは、ステップ188で読み出した情報に含まれる方向性フラグが1か否か判定する。
ステップ190,192の判定が各々肯定された場合(変位フラグ=1で方向性フラグ=1)、c番目のパーツに対応する第2画像は、例えば図11に示す車76と道路80の関係と同様に、c番目のパーツに応じた位置・向きで表示することが望ましい。このため、ステップ192の判定が肯定された場合はステップ194へ移行する。ステップ194において、表示画像生成部38Aは、ステップ188で読み出した第2画像が、表示部12〜16のうち、c番目のパーツの位置に応じた表示位置に、c番目のパーツの向きに応じた向きで表示されるように、表示画像の記憶領域に描画する。なお、このときの表示画像の記憶領域への第2画像の描画は、ステップ188で読み出した情報に含まれる変位情報及び方向性情報に基づいて行われる。ステップ194の処理を行うとステップ200へ移行する。
また、ステップ190の判定が肯定され、ステップ192の判定が否定された場合(変位フラグ=1で方向性フラグ=0)、第2画像は、例えば図15に示す犬88とえさ92の関係と同様に、c番目のパーツに応じた位置に表示することが望ましい。このため、ステップ192の判定が否定された場合はステップ196へ移行する。ステップ196において、表示画像生成部38Aは、ステップ188で読み出した第2画像が、表示部12〜16のうち、c番目のパーツの現在の位置に応じた表示位置に表示されるように、表示画像の記憶領域に描画する。なお、このときの表示画像の記憶領域への第2画像の描画は、ステップ188で読み出した情報に含まれる変位情報に基づいて行われる。ステップ196の処理を行うとステップ200へ移行する。
また、ステップ190の判定が否定された場合(変位フラグ=0)、第2画像は、例えば図13に示すうさぎ82と夜空86の関係と同様に、c番目のパーツの位置に拘わらず所定の位置に表示することが望ましい。このため、ステップ190の判定が否定された場合はステップ198へ移行する。ステップ198において、表示画像生成部38Aは、ステップ188で読み出した第2画像が、表示部12〜16のうち、デフォルトの表示位置に表示されるように、表示画像の記憶領域に描画する。例えば、図13の例では、表示部14,16の表示面14A,16Aの全面に夜空86が表示されるように、表示画像の記憶領域への第2画像(夜空86の画像)の描画が行われる。ステップ198の処理を行うとステップ200へ移行する。
ステップ200において、表示画像生成部38Aは、c番目のパーツのパーツIDをキーにして表示画像DB36を検索し、c番目のパーツに対応する第1画像の情報(可動部フラグ、第1画像又は3次元モデル)を表示画像DB36から読み出す。ステップ202において、表示画像生成部38Aは、ステップ200で表示画像DB36から読み出した第1画像の情報に基づいて、c番目のパーツに対応する第1画像を生成する。そして、ステップ204において、表示画像生成部38Aは、ステップ202で生成した第1画像が、表示部12〜16のうちc番目のパーツの位置に応じた表示位置に表示されるように、第1画像を表示画像の記憶領域に描画する。
上記のステップ202,204の処理の具体例を説明する。c番目のパーツが車76又はうさぎ82又は鳥の場合、第1画像の一例はパーツの影である(図10,11に示す影78、図12,13に示す影84も参照)。これらのパーツは可動部を含まないため、ステップ200で表示画像DB36から読み出した第1画像の情報には、可動部フラグ=0と、第1画像としての透過率>0のパーツの影の画像が含まれる。
例えば、パーツの影の画像が影の範囲と透過率を規定する形式の場合、ステップ202では、c番目のパーツの位置に応じた影の範囲に描画されている画像を表示画像の記憶領域から読み出し、読み出した画像を規定された透過率に応じて濃度増加等の変更を加える。そしてステップ204では、ステップ202の処理を経た画像を、表示画像の記憶領域の同一の範囲に描画し直す。これにより、図10,11に示す影78や、図12,13に示す影84のように、対応するパーツに対応する位置にパーツの影が表示される。なお、影の画像の形式は上記に限定されるものではない。
また、c番目のパーツが犬88又は猫の場合、第1画像の一例はパーツの影と足跡である(図14,15に示す影・足跡90も参照)。これらのパーツも可動部を含まないため、ステップ200で表示画像DB36から読み出した第1画像の情報には、可動部フラグ=0、第1画像としての透過率>0の影及び足跡の画像が含まれる。パーツの影及び足跡を表示する処理については、上述したパーツの影を表示する処理と同様の処理で実現できる。
また、c番目のパーツがくじら94の場合、第1画像の一例は波である (図16,17に示す波96も参照)。くじら94も可動部を含まないため、ステップ200で表示画像DB36から読み出した第1画像の情報には、可動部フラグ=0、第1画像としての波の動画像が含まれる。この場合、ステップ202では、波の動画像から各時刻における波の静止画像を順次生成し、ステップ204では、ステップ202で生成された各時刻における波の静止画像を、表示画像の記憶領域のうちのc番目のパーツの位置に応じた位置に順に描画する。
また、c番目のパーツが花100の場合、第1画像の一例は花100の影、周辺の小さな花及び蝶である(図18,19に示す影102、小さな花104及び蝶106も参照)。花100も可動部を含まないため、ステップ200で表示画像DB36から読み出した第1画像の情報には、可動部フラグ=0、第1画像としての透過率>0の影の画像、周辺の小さな花の画像及び蝶の動画像が含まれる。このうち、蝶の動画像については、くじら94に対応する波と同様の処理によって表示できる。また、図18,19に示すように、影102と小さな花104は表示領域が重なっている。このため、花の影及び周辺の小さな花については、ステップ200で読み出した第1画像の情報に含まれる影の画像、周辺の小さな花の画像を、表示画像の記憶領域のうちのc番目のパーツの位置に応じた位置に順に描画する。
また、c番目のパーツが家110の場合、第1画像の一例は家110の影及び窓110Aの開閉に応じて変化する窓110Aの影である(図20,21に示す影112及び図21に示す影114も参照)。家110は窓110Aが開閉可能なため、ステップ200で表示画像DB36から読み出した第1画像の情報には、可動部フラグ=1と、開閉可能な窓110Aを可動部として家110をモデル化した3次元モデルが含まれる。
この場合、ステップ202では、まずメモリ54に記憶されているc番目のパーツのパーツ領域の画像に基づいて、c番目のパーツの可動部の現在位置を認識する。次に、c番目のパーツの3次元モデルにおける可動部の位置を、上記で認識した可動部の現在位置に合わせる。続いて、c番目のパーツ及び可動部の影を形成する光源の位置を設定し、設定した光源の位置、及び、可動部の位置を合わせた3次元モデルに基づいて、c番目のパーツ及び可動部の影の範囲を演算する。影の範囲を演算した以降の処理は、先に説明した車76等の影を表示する場合の処理と同じであるので、説明を省略する。
上述したステップ204迄の処理により、c番目のパーツに対応する第1画像及び第2画像の、表示画像の記憶領域への描画が完了する。次のステップ206において、表示画像生成部38Aは、c番目のパーツに対応する音声情報が表示画像DB36に登録されているか否か判定する。ステップ206の判定が肯定された場合はステップ208へ移行し、ステップ208において、表示画像生成部38Aは、表示画像DB36に登録されたc番目のパーツに対応する音声情報を、出力対象音声としてメモリ54に記憶させ、ステップ210へ移行する。なお、ステップ206の判定が否定された場合はステップ208をスキップしてステップ210へ移行する。
ステップ210において、表示画像生成部38Aは、変数cの値がパーツ総数cmaxに達したか否か判定する。ステップ210の判定が否定された場合はステップ212へ移行し、ステップ212において、表示画像生成部38Aは、変数cの値を1だけインクリメントしてステップ118に戻る。これにより、ステップ210の判定が肯定される迄、ステップ188〜212が繰り返され、遊戯空間18内に配置された全てのパーツについて、対応する第1画像及び第2画像が表示画像の記憶領域に各々描画される。また、対応する音声情報が表示画像DB36に登録されているパーツについては、対応する音声情報が出力対象音声としてメモリ54に各々記憶される。
ステップ210の判定が肯定されるとステップ214へ移行し、ステップ214において、表示制御部38の表示画像生成部38Aは、記憶領域に描画した表示画像を表示部12〜16に表示させる。また、次のステップ216において、表示制御部38は、出力対象音声がメモリ54に記憶されているか否か判定する。ステップ216の判定が肯定された場合はステップ218へ移行し、ステップ218において、表示制御部38は、メモリ54に記憶されている出力対象音声を音声出力部60によって出力させ、画像生成・表示処理を終了する。また、ステップ216の判定が否定された場合は、ステップ218をスキップして画像生成・表示処理を終了する。
上記の処理により、例えば遊戯空間18に車76が配置された場合、図11に示すように、第1表示部12には、車76の影78が車76に応じた位置に表示され、車76の位置・向きに応じた位置・車76の前後方向に延びる向きで道路80が表示される。また、音声出力部60によって車76の走行音が出力される。また、例えば遊戯空間18にうさぎ82が配置された場合、図13に示すように、第1表示部12にはうさぎ82の影84がうさぎ82に応じた位置に表示され、第2表示部14及び第3表示部16には夜空86が表示される。
また、例えば遊戯空間18に犬88が配置された場合、図15に示すように、第1表示部12には、犬88の位置に応じた位置に犬88の影・足跡90が表示されると共に、犬88の位置に応じた位置にえさ92が表示される。また、音声出力部60によって犬88の鳴き声が出力される。また、例えば遊戯空間18にくじら94が配置された場合、図17に示すように、第1表示部12には、くじら94の位置に応じた位置に波96が表示されると共に、くじら94の位置に応じた一部範囲に水面98が表示される。また、音声出力部60によって波の音が出力される。
また、例えば遊戯空間18に花100が配置された場合、図19に示すように、第1表示部12には、花100の位置に応じた位置に花100の影102、周辺の小さな花104及び蝶106が表示される。また、花100の位置に応じた一部範囲に花畑108が表示される。また、例えば遊戯空間18に家110が配置された場合、図21に示すように、第1表示部12には、家110の位置に応じた位置に家110の影112が表示される。また、窓110Aが開放状態であれば、窓110Aの位置に応じた位置に窓110Aの影114が表示される。更に、家110の位置に応じた一部範囲に石畳116が表示される。
上記処理によって表示部12〜16に表示される第1画像及び第2画像が、ユーザが遊戯空間18内へパーツを配置する際に想像した風景と合致することは保証されない。しかし、遊戯装置10が表示部12〜16に表示する第1画像及び第2画像は、ユーザが遊戯空間18内に配置したパーツに関連する画像であるので、遊戯装置10を使用した遊戯へのユーザの興味を刺激することができる。そして、ユーザは、表示された第1画像及び第2画像を鑑賞し、例えば、遊戯空間18内に配置したパーツの位置を移動させたり、遊戯空間18内にパーツを追加する等の操作を行う。
一方、画像生成・表示処理を終了すると、図7のステップ150に戻るが、表示部12〜16に第1画像及び第2画像が一旦表示された後は、ステップ154の判定が肯定されてステップ156へ移行する。ステップ156において、パーツ認識部28Bは、「できた」ボタンユニット64の「できた」ボタンが新たに押下されたか否か判定する。ステップ156の判定が否定された場合はステップ180へ移行し、表示更新処理を行う。以下、この表示更新処理について、図9を参照して説明する。
表示更新処理のステップ230において、表示画像生成部38Aは、パーツ総数cmaxが1以上か否か、すなわち遊戯空間18内に1つ以上のパーツが配置されているか否か判定する。ステップ230の判定が否定された場合は表示更新処理を終了する。また、遊戯空間18内に1つ以上のパーツが配置されている場合は、ステップ230の判定が肯定されてステップ232へ移行し、ステップ232において、表示画像生成部38Aは、変数cに1を設定する。
次のステップ234において、表示画像生成部38Aは、処理対象のc番目のパーツの情報(パーツID、位置、向き、パーツ領域の画像)をメモリ54から読み出す。また、ステップ236において、表示画像生成部38Aは、ステップ234で読み出した情報に含まれるc番目のパーツのパーツ領域の画像を第1撮影画像及び第2撮影画像とマッチングする。そしてステップ238において、表示画像生成部38Aは、ステップ236のマッチングで演算した一致度が閾値未満か否かに基づいて、c番目のパーツに位置などの変化が有ったか否か判定する。ステップ238の判定が否定された場合、処理対象のc番目のパーツは遊戯空間18内に最初に配置されてから位置などが変化していないと判断できるので、ステップ256へ移行する。
一方、ユーザが遊戯空間18内に一旦配置したパーツに対して、例えばパーツの位置の移動や可動部の位置の変更等の操作を行うと、当該パーツについてはステップ238の判定が肯定されてステップ242へ移行する。ステップ242において、表示画像生成部38Aは、処理対象のc番目のパーツのパーツ領域が第1撮影画像及び第2撮影画像上に各々存在しているかを探索する。そして、ステップ244において、表示画像生成部38Aは、ステップ242の探索によってc番目のパーツのパーツ領域が第1撮影画像及び第2撮影画像から各々抽出されたか否か判定する。
処理対象のパーツは、遊戯空間18内に配置された際に第1撮影画像上及び第2撮影画像上で認識できているパーツである。このため、ステップ242の探索によって処理対象のパーツのパーツ領域が抽出されなかった場合、処理対象のパーツは遊戯空間18内から取り除かれた可能性が高いと判断できる。このため、ステップ244の判定が否定された場合はステップ254へ移行する。
ステップ254において、表示画像生成部38Aは、処理対象のc番目のパーツに対応する第1画像及び第2画像を表示画像の記憶領域から消去する。そして、表示画像生成部38Aは、記憶領域に記憶されている表示画像を表示部12〜16に表示させる。これにより、処理対象のc番目のパーツに対応する第1画像及び第2画像は、表示部12〜16に表示されている画像から消去される。ステップ254の処理を行うとステップ256へ移行する。
また、ステップ242の探索によって処理対象のパーツのパーツ領域が抽出された場合は、ステップ244の判定が肯定されてステップ246へ移行する。ステップ246において、表示画像生成部38Aは、ステップ242の探索で抽出したc番目のパーツのパーツ領域の画像に基づき、先に説明したステップ164と同様の処理により、c番目のパーツの位置及び向きを特定する。
次のステップ248において、表示画像生成部38Aは、先に説明したステップ200と同様の処理により、c番目のパーツに対応する第1画像の情報を表示画像DB36から読み出す。ステップ250において、表示画像生成部38Aは、先に説明したステップ200と同様の処理により、c番目のパーツに対応する第1画像を生成する。
また、ステップ252において、表示画像生成部38Aは、先に説明したステップ204と同様の処理により、ステップ250で生成した第1画像がc番目のパーツの位置に応じた表示位置に表示されるように、第1画像を表示画像の記憶領域に描画する。そして、表示画像生成部38Aは、記憶領域に記憶されている表示画像を表示部12〜16に表示させる。ステップ252の処理を行うとステップ256へ移行する。
ステップ256において、表示画像生成部38Aは、変数cの値がパーツ総数cmaxに達したか否か判定する。ステップ256の判定が否定された場合はステップ258へ移行し、ステップ258において、表示画像生成部38Aは、変数cの値を1だけインクリメントしてステップ234に戻る。これにより、ステップ256の判定が肯定される迄、ステップ234〜258が繰り返され、遊戯空間18内に配置されたパーツのうち位置などが変化した全てのパーツについて、対応する第1画像が更新される。そして、ステップ256の判定が肯定されると表示更新処理を終了する。
上記の処理により、例えば遊戯空間18に配置された車76が、図11に実線で示す位置から半透明で示す位置へ移動されると、第1画像の一例である車76の影78は、移動後の車76の位置に応じた表示位置へ移動される。一方、第2画像の一例である道路80は、車76の位置の変化に拘わらず、表示開始当初の位置・向きのままの表示が継続される。
また、例えば遊戯空間18に配置されたうさぎ82が、図13に実線で示す位置から半透明で示す位置へ移動されると、第1画像の一例であるうさぎ82の影84は、移動後のうさぎ82の位置に応じた表示位置へ移動される。一方、第2画像の一例である夜空86は、うさぎ82の位置の変化に拘わらず、表示開始当初の位置のまま表示が継続される。
また、例えば遊戯空間18に配置された犬88が、図15に実線で示す位置から半透明で示す位置へ移動されると、第1画像の一例である犬88の影・足跡90は、移動後の犬88の位置に応じた表示位置へ移動される。一方、第2画像の一例であるえさ92は、犬88の位置の変化に拘わらず、表示開始当初の位置のまま表示が継続される。
また、例えば遊戯空間18に配置されたくじら94が、図17に実線で示す位置から半透明で示す位置へ移動されると、第1画像の一例である波96は、移動後のくじら94の位置に応じた表示位置へ移動される。一方、第2画像の一例である水面98は、くじら94の位置の変化に拘わらず、表示開始当初の表示範囲のまま表示が継続される。
また、例えば遊戯空間18に配置された花100が、図19に実線で示す位置から半透明で示す位置へ移動されると、第1画像の一例である花100の影102、周辺の小さな花104及び蝶106は、移動後の花100の位置に応じた表示位置へ移動される。一方、第2画像の一例である花畑108は、花100の位置の変化に拘わらず、表示開始当初の表示範囲のまま表示が継続される。
また、例えば遊戯空間18に配置された家110の窓110Aが、図20に実線で示す閉止位置から図21に示す開放位置へ移動されると、図21に示すように、第1画像の一例である家110の影112に加えて窓110Aの影114が追加表示される。一方、第2画像の一例である石畳116は、窓110Aの位置の変化に拘わらず、表示開始当初の表示範囲のまま表示が継続される。
上記処理により、表示部12〜16に表示される第1画像を、ユーザが遊戯空間18内に配置したパーツの位置を移動させる、という簡易な操作によって変化させることができる。これにより、ユーザに、遊戯空間18内のパーツの配置が、この配置に応じて表示部12〜16に表示される第1画像及び第2画像を含めて自身の作品という意識が芽生え、遊戯装置10を使用した遊戯へのユーザの興味を更に増大させることができる。
また、第1画像の表示位置が対応するパーツの位置の変化に応じて変化することで、遊戯空間18内に配置したパーツのユーザにとっての現実感を向上させることができる。また、第1画像の表示位置をパーツの位置変化に追随させることで、ユーザがパーツの位置を動かしながら、頭の中で描いた風景を遊戯装置10で実現することを支援することができる。
また、第2画像はパーツの位置変化に拘わらず表示が変化しないことで、遊戯空間18内における当初のパーツの配置に応じて完成された風景が第2画像によって表現され、ユーザに安心感を与えることができる。なお、第2画像を更新したくなった場合には、ユーザが遊戯空間18内のパーツの入れ替えなどを行って、「できた」ボタンユニット64の「できた」ボタンを新たに押下する操作を行えばよい。これにより、図7のステップ156の判定が肯定されてステップ158へ移行し、ステップ158以降の処理が再度実行されることで、遊戯空間18内の新たなパーツの配置に応じて、新たな第1画像及び第2画像が表示部12〜16に表示される。
このように、上記実施形態では、入力部30を介して所定の入力を受け付けると、取得部28が、遊戯空間18内に配置されたパーツの種類及び位置を取得する。表示制御部38は、遊戯空間18に近接する表示部12〜16における、各々パーツの種類に関連する第1画像及び第2画像のうち第1画像及び変位フラグ=1の第2画像の表示位置を、取得したパーツの位置に応じて決定する。そして表示制御部38は、表示部12〜16に第1画像及び第2画像を表示させる。また表示制御部38は、入力部30を介して所定の入力を受け付けた後は、遊戯空間18内におけるパーツの位置の変化に応じて第1画像の表示位置を変更し、第2画像については表示位置を変更せずに表示を継続させる。これにより、遊戯空間18内に配置したパーツと表示部12〜16に表示された第1画像及び第2画像とがユーザの同一視野に入り、遊戯空間18内に配置したパーツに第1画像及び第2画像を付加した拡張現実が実現される。そして、遊戯空間18内に配置されたパーツと共に表示する第1画像及び第2画像のうちの第1画像を、ユーザが簡易な操作で変化させることを可能とすることができる。
また、上記実施形態では、取得部28は、遊戯空間18内に配置されたパーツの向きも取得し、表示制御部38は、方向性フラグ=1の第2画像の表示方向を取得部28によって取得されたパーツの向きに応じて決定している。これにより、遊戯空間18内に配置されたパーツに関連する少なくとも第2画像が、パーツの向きに応じた方向性を有する画像(方向性フラグ=1)であったとしても、第2画像の表示方向に不自然さを与えることを抑制することができる。
また、上記実施形態では、取得部28は、遊戯空間18内に配置されたパーツが可動部を含む場合に、パーツの可動部の位置も取得し、表示制御部38は、取得部28によって取得された可動部の位置に応じて第1画像を変化させる。これにより、遊戯空間18内に配置されたパーツが可動部を含む場合に、関連する第1画像の現実感を増大させることができる。
また、上記実施形態では、表示装置が、表示面12Aが遊戯空間18内の底面を成す第1表示部12と、表示面14A,16Aが遊戯空間18内の側面を成す第2,3表示部14,16と、を含む。そして、表示制御部38は、第1画像及び第2画像を、第1表示部12及び第2,3表示部14,16の少なくとも一方に各々表示させる。このように、表示部12〜16は、遊戯空間18に近接し、かつ遊戯空間18を取り囲むように配置されている。これにより、遊戯空間18に配置されたパーツと表示部12〜16に表示された第1画像及び第2画像との一体感を与えることができ、ユーザの興味を更に増大させることができる。
なお、上記では方向性フラグ=1の第2画像(一例は図11に示す道路80)の表示方向を、対応するパーツの向きに応じて変化させる態様を説明したが、これに限定されるものではなく、対応するパーツの向きに応じて第1画像の向きも変化させてもよい。例えば、第1画像の一例であるパーツの影の表示にあたり、対応するパーツの向きを取得し、取得したパーツの向きに応じてパーツの影を変化させてもよい。これにより、パーツの影の表示精度を向上させることができる。
また、パーツの影の生成については、可動部を含むパーツに対応する影(一例は図21に示す影112,114)を生成する処理同様に、光源の位置とパーツの3次元モデルから生成してもよい。例えば図13に示す夜空86は、日が暮れて月が出る動画像であるが、この動画像は時間経過に応じて光源の位置が変化する内容であるので、この種の背景を第2画像として表示する等の場合に、上記のパーツの影を生成する処理を適用してもよい。これにより、光源の位置変化に応じてパーツの影を変化させることができる。
また、上記では個々のパーツに対応する第1画像及び第2画像を表示画像DB36に1種類ずつ登録する態様を説明したが、これに限定されるものではない。例えば、個々のパーツに対応する第1画像及び第2画像の少なくとも一方を表示画像DB36に複数種登録しておき、複数種登録されている画像の中から一定の順序又はランダムに選択した画像を表示するようにしてもよい。
更に、上記では遊戯装置10に付属するパーツを遊戯空間18内に配置する態様を説明したが、遊戯装置10に付属するパーツ以外の物体が遊戯空間18内に配置された場合にも、当該物体に関連する第1画像及び第2画像を表示するようにしてもよい。具体的には、例えば、図7のステップ164で一致度が閾値以上の画像がパーツ情報DB34に未登録の場合や、ステップ168で一致度が閾値以上のパーツ領域が第2撮影画像に存在しない場合、処理対象のパーツ領域はパーツ以外の物体と判定する。この場合、処理対象のパーツ領域の外形形状や特徴点の配置などに基づいて処理対象のパーツ領域に対応する物体の種類を判別し、判別した物体の種類からパーツ情報DB34から物体に類似するパーツのパーツIDを判定する。そして、判定したパーツIDと表示画像DB36上で対応付けられた第1画像及び第2画像を表示し、物体の位置変化に応じて第1画像の表示位置を変化させるようにしてもよい。
また、上記では、遊戯空間18内に配置されたパーツの種類、位置及び向きを、遊戯空間18を撮影した第1及び第2撮影画像に基づいて認識(取得)する態様を説明したが、これに限定されるものではない。例えば、個々のパーツにICタグを付加しておき、遊戯空間18内に配置されたパーツのICタグとNear Field Communication(NFC)などの近距離無線通信を行うことで、遊戯空間18内に配置されたパーツの種類や位置などを取得するようにしてもよい。
この場合、図1に示した第1カメラ24及び第2カメラ26に代えて、ICタグのリーダを少なくとも1つ設ければよく、取得部28の撮影画像取得部28Aも不要になる。ICタグのリーダは、例えば、互いに位置の異なる箇所に設置した複数のアンテナを接続しておき、個々のアンテナがICタグから受信した電波の電界強度の分布に基づいてパーツの位置を検出するように構成してもよい。また、ICタグのリーダは、例えば、ICタグから受信した情報に含まれる識別情報に基づいて、ICタグが付加されたパーツの種類を検出するように構成してもよい。
また、この場合、遊戯装置10として機能するコンピュータ50(図6)において、上記のICタグのリーダは、第1カメラ24及び第2カメラ26に代えてバス62に接続すればよい。更に、この場合、遊戯装置制御処理(図7)において、撮影画像の取得、パーツ領域の探索、画像のマッチングなどの処理(ステップ150,152,160〜174)は不要になる。これらの処理に代えて、例えば、ICタグのリーダが検出したパーツの位置(又は、位置及び種類)をICタグのリーダから取得する処理を行うことができる。
また、上記では表示装置の一例として、LCD、OELD等によって実現される第1表示部12、第2表示部14及び第3表示部16を説明したが、これに限定されるものではない。表示装置は、例えば部屋の壁面等を表示領域として画像を投影表示するプロジェクタ等であってもよい。
また、上記では本発明に係る表示制御プログラムの一例である遊戯装置制御プログラム66が記憶部56に予め記憶(インストール)されている態様を説明したが、これに限定されるものではない。本発明に係る表示制御プログラムは、例えば、CD−ROMやDVD−ROM、メモリカード等の記録媒体に記録されている形態で提供することも可能である。
本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
以上の実施形態に関し、更に以下の付記を開示する。
(付記1)
所定の入力を受け付けると、所定領域内に配置された物体の位置を取得し、
前記所定領域に近接する表示装置の表示領域における、第1画像及び第2画像のうちの少なくとも前記第1画像の表示位置を、取得した前記物体の位置に応じて決定し、前記表示装置に前記第1画像及び前記第2画像を表示させ、
前記所定の入力を受け付けた後は、前記所定領域内における前記物体の位置の変化に応じて前記第1画像の表示位置を変更し、前記第2画像については表示位置を変更せずに表示を継続させる
処理をコンピュータが実行する表示制御方法。
(付記2)
前記取得する処理は、更に、前記物体の種類を取得し、
前記表示させる処理は、物体に関連する前記第1画像及び前記第2画像の情報が物体の種類毎に記憶された記憶部を参照して、前記物体の種類に関連する第1画像及び第2画像を特定する付記1記載の表示制御方法。
(付記3)
前記取得する処理は、更に、前記物体の向きを取得し、
前記表示させる処理は、取得した前記物体の向きに応じて少なくとも前記第2画像の表示方向を決定する付記1又は付記2記載の表示制御方法。
(付記4)
前記取得する処理は、更に、前記所定領域内に配置された物体が可動部を含む場合に、前記物体の前記可動部の位置を取得し、
前記表示させる処理は、取得した前記物体の前記可動部の位置に応じて前記第1画像を変化させる付記1〜付記3の何れか1項記載の表示制御方法。
(付記5)
前記表示装置は、表示面が前記所定領域の底面を成す第1表示部と、表示面が前記所定領域の側面を成す第2表示部と、を含み、
前記表示させる処理は、前記第1画像及び前記第2画像を、前記第1表示部及び前記第2表示部の少なくとも一方に各々表示させる付記1〜付記4の何れか1項記載の表示制御方法。
(付記6)
所定の入力を受け付けると、所定領域内に配置された物体の位置を取得する取得部と、
前記所定領域に近接する表示装置の表示領域における、第1画像及び第2画像のうちの少なくとも前記第1画像の表示位置を、前記取得部によって取得された前記物体の位置に応じて決定し、前記表示装置に前記第1画像及び前記第2画像を表示させ、前記所定の入力を受け付けた後は、前記所定領域内における前記物体の位置の変化に応じて前記第1画像の表示位置を変更し、前記第2画像については表示位置を変更せずに表示を継続させる表示制御部と、
を含む表示制御装置。
(付記7)
前記取得部は、更に、前記物体の種類を取得し、
前記表示制御部は、物体に関連する前記第1画像及び前記第2画像の情報が物体の種類毎に記憶された記憶部を参照して、前記物体の種類に関連する第1画像及び第2画像を特定する付記6記載の表示制御装置。
(付記8)
前記取得部は、更に、前記物体の向きを取得し、
前記表示制御部は、前記取得部によって取得された前記物体の向きに応じて少なくとも前記第2画像の表示方向を決定する付記6又は付記7記載の表示制御装置。
(付記9)
前記取得部は、更に、前記所定領域内に配置された物体が可動部を含む場合に、前記物体の前記可動部の位置を取得し、
前記表示制御部は、取得した前記物体の前記可動部の位置に応じて前記第1画像を変化させる付記6〜付記8の何れか1項記載の表示制御装置。
(付記10)
前記表示装置は、表示面が前記所定領域の底面を成す第1表示部と、表示面が前記所定領域の側面を成す第2表示部と、を含み、
前記表示制御部は、前記第1画像及び前記第2画像を、前記第1表示部及び前記第2表示部の少なくとも一方に各々表示させる付記6〜付記9の何れか1項記載の表示制御装置。
(付記11)
コンピュータに、
所定の入力を受け付けると、所定領域内に配置された物体の位置を取得し、
前記所定領域に近接する表示装置の表示領域における、第1画像及び第2画像のうちの少なくとも前記第1画像の表示位置を、取得した前記物体の位置に応じて決定し、前記表示装置に前記第1画像及び前記第2画像を表示させ、
前記所定の入力を受け付けた後は、前記所定領域内における前記物体の位置の変化に応じて前記第1画像の表示位置を変更し、前記第2画像については表示位置を変更せずに表示を継続させる
処理を実行させるための表示制御プログラム。
(付記12)
前記取得する処理は、更に、前記物体の種類を取得し、
前記表示させる処理は、物体に関連する前記第1画像及び前記第2画像の情報が物体の種類毎に記憶された記憶部を参照して、前記物体の種類に関連する第1画像及び第2画像を特定する付記11記載の表示制御プログラム。
(付記13)
前記取得する処理は、更に、前記物体の向きを取得し、
前記表示させる処理は、取得した前記物体の向きに応じて少なくとも前記第2画像の表示方向を決定する付記11又は付記12記載の表示制御プログラム。
(付記14)
前記取得する処理は、更に、前記所定領域内に配置された物体が可動部を含む場合に、前記物体の前記可動部の位置を取得し、
前記表示させる処理は、取得した前記物体の前記可動部の位置に応じて前記第1画像を変化させる付記11〜付記13の何れか1項記載の表示制御プログラム。
(付記15)
前記表示装置は、表示面が前記所定領域の底面を成す第1表示部と、表示面が前記所定領域の側面を成す第2表示部と、を含み、
前記表示させる処理は、前記第1画像及び前記第2画像を、前記第1表示部及び前記第2表示部の少なくとも一方に各々表示させる付記11〜付記14の何れか1項記載の表示制御プログラム。
10…遊戯装置、12…第1表示部、14…第2表示部、16…第3表示部、18…遊戯空間、24…第1カメラ、26…第1カメラ、28…取得部、28A…撮影画像取得部、28B…パーツ認識部、30…入力部、32…記憶部、34…パーツ情報DB、36…表示画像DB、38…表示制御部、38A…表示画像生成部、38B…表示画像出力部、50…コンピュータ、52…CPU、54…メモリ、56…記憶部、64…「できた」ボタンユニット、66…遊戯装置制御プログラム

Claims (7)

  1. 所定の入力を受け付けると、所定領域内に配置された物体の位置を取得し、
    前記所定領域に近接する表示装置の表示領域における、第1画像及び第2画像のうちの少なくとも前記第1画像の表示位置を、取得した前記物体の位置に応じて決定し、前記表示装置に前記第1画像及び前記第2画像を表示させ、
    前記所定の入力を受け付けた後は、前記所定領域内における前記物体の位置の変化に応じて前記第1画像の表示位置を変更し、前記第2画像については表示位置を変更せずに表示を継続させる
    処理をコンピュータが実行する表示制御方法。
  2. 前記取得する処理は、更に、前記物体の種類を取得し、
    前記表示させる処理は、物体に関連する前記第1画像及び前記第2画像の情報が物体の種類毎に記憶された記憶部を参照して、前記物体の種類に関連する第1画像及び第2画像を特定する請求項1記載の表示制御方法。
  3. 前記取得する処理は、更に、前記物体の向きを取得し、
    前記表示させる処理は、取得した前記物体の向きに応じて少なくとも前記第2画像の表示方向を決定する請求項1又は請求項2記載の表示制御方法。
  4. 前記取得する処理は、更に、前記所定領域内に配置された物体が可動部を含む場合に、前記物体の前記可動部の位置を取得し、
    前記表示させる処理は、取得した前記物体の前記可動部の位置に応じて前記第1画像を変化させる請求項1〜請求項3の何れか1項記載の表示制御方法。
  5. 前記表示装置は、表示面が前記所定領域の底面を成す第1表示部と、表示面が前記所定領域の側面を成す第2表示部と、を含み、
    前記第1画像及び前記第2画像を、前記第1表示部及び前記第2表示部の少なくとも一方に各々表示させる請求項1〜請求項4の何れか1項記載の表示制御方法。
  6. 所定の入力を受け付けると、所定領域内に配置された物体の位置を取得する取得部と、
    前記所定領域に近接する表示装置の表示領域における、第1画像及び第2画像のうちの少なくとも前記第1画像の表示位置を、前記取得部によって取得された前記物体の位置に応じて決定し、前記表示装置に前記第1画像及び前記第2画像を表示させ、前記所定の入力を受け付けた後は、前記所定領域内における前記物体の位置の変化に応じて前記第1画像の表示位置を変更し、前記第2画像については表示位置を変更せずに表示を継続させる表示制御部と、
    を含む表示制御装置。
  7. コンピュータに、
    所定の入力を受け付けると、所定領域内に配置された物体の位置を取得し、
    前記所定領域に近接する表示装置の表示領域における、第1画像及び第2画像のうちの少なくとも前記第1画像の表示位置を、取得した前記物体の位置に応じて決定し、前記表示装置に前記第1画像及び前記第2画像を表示させ、
    前記所定の入力を受け付けた後は、前記所定領域内における前記物体の位置の変化に応じて前記第1画像の表示位置を変更し、前記第2画像については表示位置を変更せずに表示を継続させる
    処理を実行させるための表示制御プログラム。
JP2017006752A 2017-01-18 2017-01-18 表示制御方法、装置及びプログラム Pending JP2018116471A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017006752A JP2018116471A (ja) 2017-01-18 2017-01-18 表示制御方法、装置及びプログラム
US15/867,987 US10573278B2 (en) 2017-01-18 2018-01-11 Display control method, display control device, and non-transitory computer-readable recording medium storing display control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017006752A JP2018116471A (ja) 2017-01-18 2017-01-18 表示制御方法、装置及びプログラム

Publications (1)

Publication Number Publication Date
JP2018116471A true JP2018116471A (ja) 2018-07-26

Family

ID=62841650

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017006752A Pending JP2018116471A (ja) 2017-01-18 2017-01-18 表示制御方法、装置及びプログラム

Country Status (2)

Country Link
US (1) US10573278B2 (ja)
JP (1) JP2018116471A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020071057A1 (ja) * 2018-10-01 2021-09-24 ソニーグループ株式会社 情報処理装置、情報処理方法、及び記録媒体

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013191950A (ja) * 2012-03-13 2013-09-26 Sharp Corp 立体画像データ生成システム、立体画像データ表示システム、および、立体画像データ表示方法
JP2015210379A (ja) * 2014-04-25 2015-11-24 株式会社ソニー・コンピュータエンタテインメント 画像融合システム、情報処理装置、情報端末、および情報処理方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020024517A1 (en) * 2000-07-14 2002-02-28 Komatsu Ltd. Apparatus and method for three-dimensional image production and presenting real objects in virtual three-dimensional space
JP2002058045A (ja) 2000-08-08 2002-02-22 Komatsu Ltd 現実の物体をバーチャル3次元空間に登場させるためのシステム及び方法
US7091926B2 (en) * 2002-02-08 2006-08-15 Kulas Charles J Computer display system using multiple screens
JP2012058968A (ja) 2010-09-08 2012-03-22 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
PL2714222T3 (pl) * 2011-05-23 2016-07-29 Lego As System konstrukcyjnych zabawek dla rzeczywistości rozszerzonej
JP5880916B2 (ja) * 2011-06-03 2016-03-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
EP2635021A3 (en) 2012-02-29 2015-06-17 Thomson Licensing Method and apparatus for adding auxiliary visual objects to an image or an image sequence
US20130227609A1 (en) 2012-02-29 2013-08-29 Thomson Licensing Method and apparatus for adding auxiliary visual objects to an image or an image sequence
US10067557B2 (en) * 2012-10-04 2018-09-04 Disney Enterprises, Inc. Interactive objects for immersive environment
US9861882B2 (en) * 2014-09-05 2018-01-09 Trigger Global Inc. Augmented reality gaming systems and methods
US9898869B2 (en) * 2015-09-09 2018-02-20 Microsoft Technology Licensing, Llc Tactile interaction in virtual environments
US10176641B2 (en) * 2016-03-21 2019-01-08 Microsoft Technology Licensing, Llc Displaying three-dimensional virtual objects based on field of view

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013191950A (ja) * 2012-03-13 2013-09-26 Sharp Corp 立体画像データ生成システム、立体画像データ表示システム、および、立体画像データ表示方法
JP2015210379A (ja) * 2014-04-25 2015-11-24 株式会社ソニー・コンピュータエンタテインメント 画像融合システム、情報処理装置、情報端末、および情報処理方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020071057A1 (ja) * 2018-10-01 2021-09-24 ソニーグループ株式会社 情報処理装置、情報処理方法、及び記録媒体

Also Published As

Publication number Publication date
US10573278B2 (en) 2020-02-25
US20180204543A1 (en) 2018-07-19

Similar Documents

Publication Publication Date Title
KR102417645B1 (ko) Ar 장면 이미지 처리 방법, 장치, 전자 기기 및 저장 매체
CN110515452B (zh) 图像处理方法、装置、存储介质和计算机设备
KR102644519B1 (ko) 게임 플레이를 통한 환경의 세부 데이터 세트 생성 방법 및 시스템
US9514570B2 (en) Augmentation of tangible objects as user interface controller
US10902676B2 (en) System and method of controlling a virtual camera
US9071808B2 (en) Storage medium having stored information processing program therein, information processing apparatus, information processing method, and information processing system
JP5806469B2 (ja) 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
CN101305401B (zh) 用于处理游戏的立体视频的方法
CN107683165B (zh) 用于生成计算机模型的技术以及利用它们的设备、系统和方法
KR101998852B1 (ko) 증강현실 시스템 및 그 구현방법
JP7096569B2 (ja) 現実シーンの複製物に仮想画像及び音声データを重ね合わせるための方法及び装置、並びに携帯デバイス
CN110517355A (zh) 用于照明混合现实对象的环境合成
US9700788B2 (en) Video object detecting apparatus, video object deforming apparatus, and methods thereof
WO2016122973A1 (en) Real time texture mapping
KR101263686B1 (ko) 증강 현실을 이용한 노래방 시스템 및 장치, 이의 노래방 서비스 방법
ES2688643T3 (es) Aparato y método de realidad aumentada
KR101989089B1 (ko) 클라우드 소싱 기반의 ar 컨텐츠 템플릿을 수집하여 ar 컨텐츠를 자동으로 생성하는 방법 및 시스템
WO2006009257A1 (ja) 画像処理装置および画像処理方法
CN103258338A (zh) 利用真实数据来驱动仿真的虚拟环境的方法和系统
Li et al. Diminished reality using appearance and 3D geometry of internet photo collections
KR20120038616A (ko) 마커리스 실감형 증강현실 제공 방법 및 시스템
CN108961375A (zh) 一种根据二维图像生成三维图像的方法及装置
CN112215964A (zh) 基于ar的场景导览方法和设备
JP6431259B2 (ja) カラオケ装置、ダンス採点方法、およびプログラム
JP2018116471A (ja) 表示制御方法、装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191008

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201221

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210316