KR20200100169A - 정보 처리 장치, 기록 매체, 정보 처리 시스템 및 표시 방법 - Google Patents

정보 처리 장치, 기록 매체, 정보 처리 시스템 및 표시 방법 Download PDF

Info

Publication number
KR20200100169A
KR20200100169A KR1020207021557A KR20207021557A KR20200100169A KR 20200100169 A KR20200100169 A KR 20200100169A KR 1020207021557 A KR1020207021557 A KR 1020207021557A KR 20207021557 A KR20207021557 A KR 20207021557A KR 20200100169 A KR20200100169 A KR 20200100169A
Authority
KR
South Korea
Prior art keywords
image
unit
display
user
character
Prior art date
Application number
KR1020207021557A
Other languages
English (en)
Other versions
KR102443397B1 (ko
Inventor
히데오 우에다
다카히로 요시다
미치오 호리키리
Original Assignee
가부시키가이샤 코나미 데지타루 엔타테인멘토
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가부시키가이샤 코나미 데지타루 엔타테인멘토 filed Critical 가부시키가이샤 코나미 데지타루 엔타테인멘토
Publication of KR20200100169A publication Critical patent/KR20200100169A/ko
Application granted granted Critical
Publication of KR102443397B1 publication Critical patent/KR102443397B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • H04N2005/2726Means for inserting a foreground image in a background image, i.e. inlay, outlay for simulating a person's appearance, e.g. hair style, glasses, clothes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)

Abstract

프로그램은, 프로세서를, 오브젝트가 배치된 현실 공간을 촬상하는 제1 촬상부의, 현실 공간에 있어서의 위치 및 자세 중 적어도 한쪽을 특정하는 제1 특정부와, 제1 촬상부에 의한 촬상 결과에 기초하는 제1 화상을 표시부에 표시시키고, 오브젝트에 대응하는 제2 화상을, 표시부 중, 제1 특정부에 의한 특정 결과에 기초하는 위치에 표시시키는 표시 제어부로서 기능시킨다.

Description

정보 처리 장치, 기록 매체, 정보 처리 시스템 및 표시 방법
본 발명은 정보 처리 장치, 기록 매체, 정보 처리 시스템 및 표시 방법에 관한 것이다.
근년, 현실 공간을 촬상하여 얻어지는 화상과 가상적인 정보를 나타내는 화상을 합성한 화상을, 표시부에 대하여 표시시키는, 소위, 확장 현실(AR: Augmented Reality)에 관한 기술이 보급되고 있다. 예를 들어, 특허문헌 1에는, 현실 공간에 마련된 카드 또는 피규어 등의 오브젝트를 촬상하여 얻어지는 화상과, 당해 오브젝트에 대응지어진 가상적인 캐릭터 등을 나타내는 화상을 합성함으로써, 마치, 오브젝트 상에 가상적인 캐릭터 등이 존재하는 것 같은 합성 화상을 생성하고, 당해 합성 화상을 표시부에 대하여 표시시키는 기술이 개시되어 있다.
일본 특허 공개 제2014-093034호 공보
그런데, 종래의 기술에서는, 현실 공간에 마련된 카드 등의 오브젝트를 촬상하고, 당해 촬상의 결과에 기초하여, 당해 오브젝트에 인쇄된 기호 및 도형 등의 특징을 검출한다. 그리고, 당해 검출의 결과에 기초하여, 현실 공간에 있어서의 오브젝트의 위치 및 자세를 특정하고, 표시부 중, 당해 특정한 결과에 따른 위치에, 오브젝트에 대응하는 가상적인 캐릭터 등을 나타내는 화상을 표시시킨다. 이 때문에, 종래의 기술에 있어서, 가상적인 캐릭터 등을 나타내는 화상을, 표시부의 원하는 위치에 표시시키기 위해서는, 유저는, 현실 공간에 있어서 오브젝트를 소정의 위치에 정확하게 배치할 필요가 있어, 오브젝트를 배치하는 유저의 부담이 컸다.
본 발명은 상술한 사정을 감안하여 이루어진 것이며, 종래 기술과 비교하여, 현실 공간에 있어서의 오브젝트의 배치에 관한 유저의 수고를 삭감하면서, 표시부에 있어서 오브젝트에 대응하는 화상을 표시하는 것을 가능하게 하는 기술의 제공을, 해결 과제의 하나로 한다.
이상의 과제를 해결하기 위해, 본 발명의 일 양태에 관한 기록 매체는, 프로세서를, 오브젝트가 배치된 현실 공간을 촬상하는 제1 촬상부의, 상기 현실 공간에 있어서의 위치 및 자세 중 적어도 한쪽을 특정하는 제1 특정부와, 상기 제1 촬상부에 의한 촬상 결과에 기초하는 제1 화상을 표시부에 표시시키고, 상기 오브젝트에 대응하는 제2 화상을, 상기 표시부 중, 상기 제1 특정부에 의한 특정 결과에 기초하는 위치에 표시시키는 표시 제어부로서 기능시키기 위한 프로그램을 기록한 비일시적 기록 매체인 것을 특징으로 한다.
또한, 본 발명의 일 양태에 관한 정보 처리 장치는, 오브젝트가 배치된 현실 공간을 촬상하는 제1 촬상부의, 상기 현실 공간에 있어서의 위치 및 자세 중 적어도 한쪽을 특정하는 제1 특정부와, 상기 제1 촬상부에 의한 촬상 결과에 기초하는 제1 화상을 표시부에 표시시키고, 상기 오브젝트에 대응하는 제2 화상을, 상기 표시부 중, 상기 제1 특정부에 의한 특정 결과에 기초하는 위치에 표시시키는 표시 제어부를 구비하는 것을 특징으로 한다.
또한, 본 발명의 일 양태에 관한 정보 처리 시스템은, 오브젝트가 배치된 현실 공간을 촬상하는 제1 촬상부와, 표시부와, 정보 처리 장치를 구비하는 정보 처리 시스템이며, 상기 정보 처리 장치는, 상기 제1 촬상부의, 상기 현실 공간에 있어서의 위치 및 자세 중 적어도 한쪽을 특정하는 제1 특정부와, 상기 제1 촬상부에 의한 촬상 결과에 기초하는 제1 화상을 상기 표시부에 표시시키고, 상기 오브젝트에 대응하는 제2 화상을, 상기 표시부 중, 상기 제1 특정부에 의한 특정 결과에 기초하는 위치에 표시시키는 표시 제어부를 구비하는 것을 특징으로 한다.
또한, 본 발명의 일 양태에 관한 표시 방법은, 오브젝트가 배치된 현실 공간을 촬상하는 제1 촬상부의, 상기 현실 공간에 있어서의 위치 및 자세 중 적어도 한쪽을 특정하고, 상기 제1 촬상부에 의한 촬상 결과에 기초하는 제1 화상을 표시부에 표시시키고, 상기 오브젝트에 대응하는 제2 화상을, 상기 표시부 중, 상기 특정 결과에 기초하는 위치에 표시시키는 것을 특징으로 한다.
도 1은, 본 발명의 제1 실시 형태에 관한 정보 처리 시스템(1)의 개요의 일례를 도시하는 설명도이다.
도 2는, 합성 화상 GG의 일례를 도시하는 설명도이다.
도 3은, 합성 화상 GG의 일례를 도시하는 설명도이다.
도 4는, 정보 처리 시스템(1)의 구성의 일례를 도시하는 블록도이다.
도 5는, 정보 처리 장치(10)의 하드웨어 구성의 일례를 도시하는 블록도이다.
도 6은, 정보 처리 장치(10)의 동작의 일례를 도시하는 흐름도이다.
도 7은, 표시 공간 SP-V의 개요의 일례를 도시하는 설명도이다.
도 8은, 본 발명의 제2 실시 형태에 관한 정보 처리 시스템(1A)의 구성의 일례를 도시하는 블록도이다.
도 9는, 정보 처리 장치(10A)의 동작의 일례를 도시하는 흐름도이다.
도 10은, 표시 공간 SP-V의 개요의 일례를 도시하는 설명도이다.
도 11은, 본 발명의 제3 실시 형태에 관한 정보 처리 시스템(1B)의 구성의 일례를 도시하는 블록도이다.
도 12는, 정보 처리 장치(10B)의 동작의 일례를 도시하는 흐름도이다.
도 13은, 본 발명의 제4 실시 형태에 관한 정보 처리 시스템(1C)의 구성의 일례를 도시하는 블록도이다.
도 14는, 정보 처리 장치(10C)의 동작의 일례를 도시하는 흐름도이다.
도 15는, 표시 공간 SP-V의 개요의 일례를 도시하는 설명도이다.
도 16은, 정보 처리 장치(10C)의 동작의 일례를 도시하는 흐름도이다.
도 17은, 표시 공간 SP-V의 개요의 일례를 도시하는 설명도이다.
도 18은, 정보 처리 장치(10C)의 동작의 일례를 도시하는 흐름도이다.
도 19는, 표시 공간 SP-V의 개요의 일례를 도시하는 설명도이다.
도 20은, 본 발명의 제5 실시 형태에 관한 정보 처리 시스템(1D)의 구성의 일례를 도시하는 블록도이다.
도 21은, 정보 처리 장치(10D)의 동작의 일례를 도시하는 흐름도이다.
도 22는, 본 발명의 변형예 1에 관한 합성 화상 GG의 일례를 도시하는 설명도이다.
도 23은, 본 발명의 변형예 2에 관한 합성 화상 GG의 일례를 도시하는 설명도이다.
이하, 본 발명을 실시하기 위한 형태에 대하여 도면을 참조하여 설명한다. 또한, 각 도면에 있어서, 각 부의 치수 및 축척은, 실제의 것과 적절히 다르게 하고 있다. 또한, 이하에 설명하는 실시 형태는, 본 발명의 적합한 구체예이기 때문에, 기술적으로 바람직한 여러 가지 한정이 부여되어 있지만, 본 발명의 범위는, 이하의 설명에 있어서 특별히 본 발명을 한정한다는 취지의 기재가 없는 한, 이들 형태에 한정되는 것은 아니다.
[1. 제1 실시 형태]
이하, 본 발명의 제1 실시 형태를 설명한다.
[1.1. 정보 처리 시스템의 개요]
도 1은, 본 실시 형태에 관한 정보 처리 시스템(1)의 개요의 일례를 설명하기 위한 설명도이다. 이하, 도 1을 참조하면서, 정보 처리 시스템(1)의 개요의 일례를 설명한다.
본 실시 형태에 관한 정보 처리 시스템(1)은, 게임을 실행하는 유저 U1 및 유저 U2가 존재하는 현실 공간 SP-R을 촬상하고, 당해 촬상의 결과에 기초하여, 유저 U1 및 유저 U2가 게임을 실행하고 있는 모습을 표시하는 시스템이다.
이하에서는, 유저 U1 및 유저 U2를 구별하지 않는 경우에는, 유저 U1 및 유저 U2를, 유저 Uq라고 총칭한다. 여기서, 본 실시 형태에 있어서, 부호에 첨부된 첨자 q는, 「1≤q≤2」를 충족하는 자연수인 것으로 한다.
또한, 본 실시 형태에서는, 2명의 유저 U1 및 유저 U2가 게임을 실행하는 경우를, 일례로서 상정하지만, 본 발명은 이러한 양태에 한정되는 것은 아니다. 게임은, 1명 이상의 유저에 의해 실행되는 것이어도 된다. 예를 들어, 게임은, 3명의 유저에 의해 실행되는 것이어도 되고, 4명의 유저에 의해 실행되는 것이어도 된다. 이 경우, 첨자 q는, 게임을 실행하는 유저의 인원수에 따른 범위의 자연수이면 된다. 즉, 첨자 q는, 1≤q≤3을 충족하는 자연수여도 되고, 1≤q≤4를 충족하는 자연수여도 되며, 나아가 1≤q를 충족하는 자연수여도 된다.
또한, 이하에서는, 유저 Uq에 관련된 요소에 대해서는, 당해 요소를 나타내는 부호에 대해서도, 첨자 q를 첨부하여 표현하는 경우가 있다.
본 실시 형태에서는, 일례로서, 현실 공간 SP-R에 있어서, 유저 Uq가 존재하는 방의 벽 WL(「배경」의 일례)과, 유저 Uq가 갖는 카드 CDq(「오브젝트」의 일례)가 배치되는 테이블 TB가 마련되어 있는 경우를 상정한다. 또한, 본 실시 형태에서는, 현실 공간 SP-R 중 미리 정해진 위치에, 소정의 모양을 갖는 마커 MK가 마련되어 있는 경우를 상정한다.
또한, 본 실시 형태에서는, 일례로서, 유저 U1 및 유저 U2가 실행하는 게임이, 유저 U1이 테이블 TB에 배치한 카드 CD1과, 유저 U2가 테이블 TB에 배치한 카드 CD2를, 대전시키는 카드 게임인 경우를 상정한다.
본 실시 형태에 관한 카드 게임에는, 복수 종류의 카드가 존재한다. 각 카드에는, 당해 카드의 종류에 대응하는 종류의 캐릭터를 나타내는 무늬가 인쇄되어 있다.
유저 Uq는, 유저 Uq가 갖는 복수 종류의 카드 중에서, 카드 CDq를 선택하고, 당해 선택한 카드 CDq를 테이블 TB에 배치할 수 있다. 이하에서는, 카드 CDq에 인쇄된 무늬에 의해 표시되는 캐릭터를, 캐릭터 Vq라고 칭한다.
본 실시 형태에 관한 카드 게임에서는, 일례로서, 유저 Uq에 대하여 미리 히트 포인트가 할당되어 있고, 또한 카드 CDq에 대하여 미리 공격력과 방어력이 할당되어 있는 경우를 상정한다. 그리고, 본 실시 형태에 관한 카드 게임에서는, 일례로서, 유저 U1이 카드 CD1을 사용하여 카드 CD2를 공격하는 경우, 카드 CD1이 갖는 공격력으로부터 카드 CD2가 갖는 방어력을 감산한 감산값을, 유저 U2가 갖는 히트 포인트로부터 감산하는 것으로 한다. 마찬가지로, 본 실시 형태에 관한 카드 게임에서는, 유저 U2가 카드 CD2를 사용하여 카드 CD1을 공격하는 경우, 카드 CD2가 갖는 공격력으로부터 카드 CD1이 갖는 방어력을 감산한 감산값을, 유저 U1이 갖는 히트 포인트로부터 감산하는 것으로 한다. 그리고, 본 실시 형태에 관한 카드 게임에서는, 일례로서, 유저 U1이, 유저 U2의 히트 포인트를 「0」 이하로 감소시킨 경우, 유저 U1은 카드 게임에 있어서 승리하고, 유저 U2는 패배하는 것으로 한다. 마찬가지로, 본 실시 형태에 관한 카드 게임에서는, 유저 U2가, 유저 U1의 히트 포인트를 「0」 이하로 감소시킨 경우, 유저 U2는 카드 게임에 있어서 승리하고, 유저 U1은 패배하는 것으로 한다. 또한, 게임의 룰은 상기에 한하지 않는 것은 당연하며, 카드끼리의 직접적인 공격과 방어가 이루어지는 게임에 한하지 않는다는 것도 또한 당연하다. 즉, 본 발명에 있어서, 게임은, 유저 Uq가, 카드 CDq 등의 「오브젝트」를 사용하여 실행하는 임의의 게임이면 된다.
도 1에 도시하는 바와 같이, 정보 처리 시스템(1)은, 정보 처리 장치(10)와, 화상을 표시하기 위한 표시부(21)를 구비하는 표시 장치(20)와, 각종 정보를 기억하는 기억 장치(30)(도 4 참조)와, 현실 공간 SP-R을 촬상하는 카메라 CMA(「제1 촬상부」의 일례)와, 현실 공간 SP-R에 있어서, 카드 CDq가 배치되어 있는 영역 Arq를 촬상하기 위한 카메라 CMT(「제2 촬상부」의 일례)를 갖는다.
카메라 CMA는, 현실 공간 SP-R을 촬상하고, 촬상하여 얻어진 화상(이하, 「촬상 화상」이라고 칭하는 경우가 있음. 「제1 화상」의 일례)을 나타내는 촬상 데이터 DA를, 주기적으로 출력한다. 또한, 카메라 CMA는, 카메라 CMA가 피사체를 촬상한 경우에, 카메라 CMA와 피사체의 사이의 거리에 따른 값을 나타내는 심도 정보 DS를, 주기적으로 출력한다. 즉, 카메라 CMA는, 현실 공간 SP-R 내의 피사체를 촬상함으로써, 피사체의 형상, 모양 및 색채를 나타내는 촬상 데이터 DA와, 카메라 CMA 및 피사체의 사이의 거리에 따른 값을 나타내는 심도 정보 DS를 출력한다.
본 실시 형태에 있어서, 심도 정보 DS는, 촬상 데이터 DA가 나타내는 촬상 화상을 구성하는 복수의 화소의 각각에 대하여, 당해 화소에 대응하는 피사체의 부위와 카메라 CMA의 사이의 거리에 따른 값을 나타낸다. 단, 심도 정보 DS의 해상도는, 촬상 데이터 DA의 해상도보다 낮아도 된다. 예를 들어, 심도 정보 DS는, 촬상 데이터 DA가 나타내는 촬상 화상을 구성하는 복수의 화소 블록의 각각에 대하여, 당해 화소 블록에 대응하는 피사체의 부위와 카메라 CMA의 사이의 거리에 따른 값을 나타내도 된다. 이 경우, 각 화소 블록은, 촬상 데이터 DA가 나타내는 촬상 화상을 구성하는 복수의 화소 중, 2 이상의 화소로 구성된 것이어도 된다.
또한, 본 실시 형태에서는, 카메라 CMA가, 현실 공간 SP-R에 있어서, 위치 및 방향을 변화시키는 것이 가능한 경우를 상정한다.
또한, 본 실시 형태에서는, 설명의 편의상, 현실 공간 SP-R에 고정된 월드 좌표계 ΣW와, 카메라 CMA에 고정된 카메라 좌표계 ΣC를 도입한다.
여기서, 월드 좌표계 ΣW란, 예를 들어 현실 공간 SP-R의 소정 위치에 원점을 갖고, 서로 직교하는 XW축, YW축 및 ZW축을 갖는 3축의 직교 좌표계이다. 본 실시 형태에서는, 도 1에 도시하는 바와 같이, +ZW 방향이, 연직 상향 방향인 경우를, 일례로서 상정한다.
또한, 카메라 좌표계 ΣC란, 예를 들어 카메라 CMA 상의 소정 개소에 원점을 갖고, 서로 직교하는 XC축, YC축 및 ZC축을 갖는 3축의 직교 좌표계이다. 본 실시 형태에서는, 도 1에 도시하는 바와 같이, +ZC 방향이, 카메라 CMA가 갖는 광학계의 광축 방향인 경우를, 일례로서 상정한다. 또한, 카메라 좌표계 ΣC로서는, 카메라 CMA로부터의 거리를 나타내는 좌표축과, 카메라 CMA가 갖는 광학계의 광축 방향으로부터의 각도를 나타내는 좌표축을 갖는 극좌표계를 채용해도 된다.
카메라 CMT는, 테이블 TB 상의 영역 Arq에 배치된 카드 CDq를 촬상하고, 촬상하여 얻어진 화상을 나타내는 촬상 데이터 DT를, 주기적으로 출력한다.
기억 장치(30)는, 카드 디자인 정보, 캐릭터 정보, 마커 정보 및 상대 위치 정보를 기억하고 있다. 여기서, 카드 디자인 정보란, 카드 CDq에 그려진 캐릭터 Vq의 무늬에 관한 정보이다. 또한, 캐릭터 정보란, 캐릭터 Vq의 3차원 형상을 나타내는 정보이다. 또한, 본 실시 형태에 있어서, 마커 정보란, 월드 좌표계 ΣW에 있어서의 마커 MK의 위치 및 방향과, 마커 MK의 형상 및 크기를 나타내는 정보이다. 단, 마커 정보는, 적어도 월드 좌표계 ΣW에 있어서의 마커 MK의 위치 및 방향과, 마커 MK의 형상만을 나타내는 정보이면 되며, 마커 MK의 크기를 포함하지 않는 정보여도 된다. 또한, 상대 위치 정보에 대해서는, 후술한다.
정보 처리 장치(10)는, 표시부(21)에 있어서 표시해야 할 화상을 나타내는 표시 데이터 Dout를 생성하는 처리인, 표시 데이터 생성 처리를 실행한다. 본 실시 형태에 있어서, 표시 데이터 생성 처리란, 카메라 CMA로부터 출력되는 촬상 데이터 DA 및 심도 정보 DS와, 카메라 CMT로부터 출력되는 촬상 데이터 DT와, 기억 장치(30)에 기억되어 있는, 카드 디자인 정보, 캐릭터 정보, 마커 정보 및 상대 위치 정보에 기초하여, 표시부(21)에 있어서 표시해야 할 화상을 나타내는 표시 데이터 Dout를 생성하는 처리이다.
구체적으로는, 정보 처리 장치(10)는, 표시 데이터 생성 처리에 있어서, 촬상 데이터 DT 및 카드 디자인 정보에 기초하여, 카드 CDq의 종류를 특정하고, 카드 CDq에 그려져 있는 캐릭터 Vq의 종류를 특정한다.
또한, 정보 처리 장치(10)는, 표시 데이터 생성 처리에 있어서, 촬상 데이터 DA 및 마커 정보에 기초하여, 월드 좌표계 ΣW에 있어서의 카메라 CMA의 위치 WPC 및 방향 WRC를 특정한다(도 7 참조). 또한, 위치를 나타내는 부호 P 및 방향을 나타내는 부호 R의 좌측 상단의 첨자 「W」는, 당해 위치 및 방향이, 월드 좌표계 ΣW에 있어서의 위치 또는 방향인 것을 의미하는 것으로 한다. 또한, 마커 정보가 마커 MK의 크기를 포함하지 않는 정보인 경우, 정보 처리 장치(10)는, 촬상 데이터 DA 및 마커 정보에 추가하여, 심도 정보 DS에 기초하여, 월드 좌표계 ΣW에 있어서의 카메라 CMA의 위치 WPC 및 방향 WRC를 특정하면 된다.
또한, 정보 처리 장치(10)는, 표시 데이터 생성 처리에 있어서, 촬상 데이터 DA 및 심도 정보 DS에 기초하여, 카메라 좌표계 ΣC에 있어서의 유저 Uq의 위치 CPUq 및 방향 CRUq를 특정한다(도 7 참조). 또한, 위치를 나타내는 부호 P 및 방향을 나타내는 부호 R의 좌측 상단의 첨자 「C」는, 당해 위치 및 방향이, 카메라 좌표계 ΣC에 있어서의 위치 또는 방향인 것을 의미하는 것으로 한다.
그리고, 정보 처리 장치(10)는, 표시 데이터 생성 처리에 있어서, 상대 위치 정보와, 유저 Uq의 위치 CPUq에 기초하여, 카메라 좌표계 ΣC에 있어서의 캐릭터 Vq의 위치 CPVq를 결정한다(도 7 참조). 여기서, 상대 위치 정보란, 현실 공간 SP-R에 캐릭터 Vq가 존재한다고 가정한 경우에, 월드 좌표계 ΣW에 있어서, 유저 Uq로부터 캐릭터 Vq의 위치를 나타내는 벡터 WPUVq를 나타내는 정보이다(도 7 참조). 본 실시 형태에서는, 벡터 WPUVq가 미리 정해져 있는 것으로 한다. 즉, 본 실시 형태에서는, 현실 공간 SP-R에 캐릭터 Vq가 존재한다고 가정한 경우에, 현실 공간 SP-R에 있어서, 유저 Uq와 캐릭터 Vq가 「소정의 위치 관계」를 갖도록, 캐릭터 Vq의 위치가 정해지는 경우를 상정한다.
또한, 정보 처리 장치(10)는, 표시 데이터 생성 처리에 있어서, 카메라 좌표계 ΣC에 있어서의 유저 Uq의 방향 CRUq에 기초하여, 카메라 좌표계 ΣC에 있어서의 캐릭터 Vq의 방향 CRVq를 결정한다(도 7 참조).
그리고, 정보 처리 장치(10)는, 표시 데이터 생성 처리에 있어서, 카메라 좌표계 ΣC에 있어서의 캐릭터 Vq의 위치 CPVq 및 방향 CRVq에 기초하여, 표시부(21)에 있어서 캐릭터 Vq를 나타내는 캐릭터 화상 GVq의 형상을 결정한다. 여기서, 캐릭터 화상 GVq의 형상이란, 캐릭터 정보가 나타내는 3차원 형상을 갖는 캐릭터 Vq가, 카메라 좌표계 ΣC에 있어서, 위치 CPVq에 존재하며, 또한 방향 CRVq를 갖고 있는 경우에, 당해 캐릭터 Vq를, 카메라 CMA로부터 촬상한 결과로서 얻어지는 화상의 형상이다.
그 후, 정보 처리 장치(10)는, 표시 데이터 생성 처리에 있어서, 촬상 데이터 DA가 나타내는 촬상 화상과, 캐릭터 화상 GVq 등, 촬상 화상 이외의 화상인 비촬상 화상을 합성한 합성 화상 GG를 나타내는 표시 데이터 Dout를 생성한다. 또한, 본 실시 형태에 있어서, 정보 처리 장치(10)는, 비촬상 화상에 대하여, 캐릭터 화상 GVq 외에, 유저 Uq의 히트 포인트를 나타내는 히트 포인트 화상 GHPq를 포함시키는 것으로 한다.
도 2 및 도 3은, 표시 데이터 Dout에 기초하는 합성 화상 GG가, 표시부(21)에 표시되어 있는 모습을 예시하는 도면이다.
이 중, 도 2는, 현실 공간 SP-R에 있어서, 카메라 CMA가, 유저 U1 및 유저 U2의 -YW측으로부터, 유저 U1 및 유저 U2를 촬상한 경우에, 표시부(21)에 표시되는 합성 화상 GG를 도시하고 있다.
또한, 도 3은, 현실 공간 SP-R에 있어서, 카메라 CMA가, 유저 U1의 +XW측으로부터, 유저 U1을 촬상한 경우에, 표시부(21)에 표시되는 합성 화상 GG를 도시하고 있다.
상술한 바와 같이, 합성 화상 GG는, 촬상 데이터 DA가 나타내는 촬상 화상과, 정보 처리 장치(10)에 있어서 생성된 비촬상 화상을 포함한다.
도 2 및 도 3에 예시되는 바와 같이, 촬상 화상은, 유저 Uq를 촬상하여 얻어지는 유저 화상 GUq와, 벽 WL을 촬상하여 얻어지는 벽 화상 GWL과, 테이블 TB를 촬상하여 얻어지는 테이블 화상 GTB와, 마커 MK를 촬상하여 얻어지는 마커 화상 GMK의, 일부 또는 전부를 포함한다. 또한, 비촬상 화상은, 상술한 바와 같이, 캐릭터 화상 GVq와, 히트 포인트 화상 GHP의, 일부 또는 전부를 포함한다.
또한, 캐릭터 화상 GVq는 「제2 화상」의 일례이고, 유저 화상 GUq는 「제3 화상」의 일례이고, 벽 화상 GWL은 「제4 화상」의 일례이다.
본 실시 형태에 있어서, 촬상 화상은, 피사체의 형상, 모양 및 색채를 나타내지만, 본 발명은 이러한 양태에 한정되는 것은 아니다. 촬상 화상 중 일부분은, 피사체에 대한, 형상, 윤곽, 색채 및 모양 중 일부만을 나타내는 것이어도 된다. 예를 들어, 촬상 화상 중, 유저 화상 GUq 이외의 부분에 대해서는, 피사체의 형상, 모양 및 색채를 나타내고, 유저 화상 GUq에 대해서는, 유저 Uq의 골격 등의 형상, 또는 유저 Uq의 실루엣 등의 윤곽만을 나타내도 된다. 또한, 유저 Uq의 전부 또는 일부에 모자이크 등의 가공을 실시한 화상도 유저 화상 GUq에 포함할 수 있다.
이하에서는, 합성 화상 GG에 의해 표현되는 3차원의 가상적인 공간을, 「표시 공간 SP-V」라고 칭한다. 표시 공간 SP-V는, 현실 공간 SP-R에 대하여, 비촬상 화상에 의해 표시되는 캐릭터 Vq 등의 가상적인 물체를 부가한 공간이다. 즉, 표시 공간 SP-V는, 비촬상 화상에 의해 표시되는 캐릭터 Vq 등의 가상적인 물체가 존재하는 점을 제외하고, 현실 공간 SP-R과 마찬가지의 공간이다. 이 때문에, 이하에서는, 설명의 편의상, 표시 공간 SP-V에 있어서의 위치 및 방향을, 월드 좌표계 ΣW를 이용하여 표현하는 것으로 한다.
또한, 도 2 및 도 3에서는, 상대 위치 정보가 나타내는 벡터 WPUV1이, 유저 U1로부터 보아 -XW 방향이며, 또한 +YW 방향을 향하는 벡터인 경우를 예시하고 있다. 이 때문에, 도 2 및 도 3에 예시하는 합성 화상 GG에서는, 캐릭터 화상 GV1 중, 유저 화상 GU1과 겹치는 부분을 비표시로 함으로써, 카메라 CMA로부터 보아 캐릭터 V1의 앞쪽에 유저 U1이 위치하는 모습을 표현하고 있다.
또한, 도 2에서는, 상대 위치 정보가 나타내는 벡터 WPUV2가, 유저 U2로부터 보아 +YW 방향을 향하는 벡터인 경우를 예시하고 있다. 이 때문에, 도 2에 예시하는 합성 화상 GG에서는, 캐릭터 화상 GV2 중, 유저 화상 GU2와 겹치는 부분을 비표시로 함으로써, 카메라 CMA로부터 보아 캐릭터 V2의 앞쪽에 유저 U2가 위치하는 모습을 표현하고 있다.
[1.2. 정보 처리 시스템의 구성]
이하, 도 4 및 도 5를 참조하면서, 정보 처리 시스템(1)의 구성의 일례를 설명한다. 또한, 도 4는, 정보 처리 시스템(1)의 구성의 일례를 도시하는 기능 블록도이다. 또한, 도 5는, 정보 처리 장치(10)의 하드웨어 구성의 일례를 도시하는 구성도이다.
도 4에 예시하는 바와 같이, 정보 처리 시스템(1)은, 상술한 바와 같이, 정보 처리 장치(10)와, 표시 장치(20)와, 기억 장치(30)와, 카메라 CMA와, 카메라 CMT와, 이들 복수의 구성 요소가 서로 통신을 할 때 사용되는 네트워크 Nw를 구비한다.
정보 처리 장치(10)는, 정보 처리 장치(10)의 각 부를 제어하는 제어부(11)와, 정보 처리 장치(10)의 제어 프로그램 PRG를 포함하는 각종 정보를 기억하는 기억부(12)와, 정보 처리 장치(10)의 외부 장치와의 사이의 통신을 실행하기 위한 통신부(13)와, 정보 처리 장치(10)의 조작자에 의한 조작을 접수하기 위한 조작부(14)와, 광 디스크 등의 기록 매체로부터 정보를 읽어들이기 위한 정보 읽기부(15)를 구비한다.
제어부(11)는, 표시 제어부(110)와, 오브젝트 특정부(115)와, 카메라 위치 특정부(116)와, 피사체 위치 특정부(117)를 구비한다.
또한, 본 실시 형태에 있어서, 카메라 위치 특정부(116)는 「제1 특정부」의 일례이고, 오브젝트 특정부(115)는 「제2 특정부」의 일례이다.
오브젝트 특정부(115)는, 촬상 데이터 DT에 기초하여, 카드 CDq에 그려져 있는 캐릭터 Vq의 종류를 특정한다. 즉, 오브젝트 특정부(115)는, 촬상 데이터 DT에 기초하여, 카드 CDq의 종류를 특정한다.
카메라 위치 특정부(116)는, 촬상 데이터 DA가 나타내는 마커 화상 GMK와, 마커 정보에 기초하여, 월드 좌표계 ΣW에 있어서의 카메라 CMA의 위치 WPC 및 방향 WRC를 특정한다. 이에 의해, 카메라 좌표계 ΣC에 있어서의 위치 CP 및 방향 CR과, 월드 좌표계 ΣW에 있어서의 위치 WP 및 방향 WR을 서로 변환시키는 것이 가능한, 좌표 변환식을 얻을 수 있다. 또한, 카메라 위치 특정부(116)는, 월드 좌표계 ΣW에 있어서의 카메라 CMA의 위치 WPC 및 방향 WRC 중 적어도 한쪽을 특정하는 것이어도 된다.
피사체 위치 특정부(117)는, 촬상 데이터 DA 및 심도 정보 DS 중 유저 화상 GUq에 대응하는 정보에 기초하여, 카메라 좌표계 ΣC에 있어서의 유저 Uq의 위치 CPUq 및 방향 CRUq를 특정한다.
표시 제어부(110)는, 캐릭터 위치 결정부(111)와, 겹침 추출부(112)와, 원근 판정부(113)와, 표시 정보 생성부(114)를 구비한다.
캐릭터 위치 결정부(111)는, 상대 위치 정보가 나타내는 벡터 WPUVq와, 피사체 위치 특정부(117)에 의해 특정된, 카메라 좌표계 ΣC에 있어서의 유저 Uq의 위치 CPUq 및 방향 CRUq에 기초하여, 카메라 좌표계 ΣC에 있어서의 캐릭터 Vq의 위치 CPVq 및 방향 CRVq를 결정한다.
겹침 추출부(112)는, 합성 화상 GG에 있어서의, 유저 화상 GUq와 캐릭터 화상 GVq의 겹침을 추출한다.
원근 판정부(113)는, 카메라 좌표계 ΣC에 있어서의 유저 Uq의 위치 CPUq와, 카메라 좌표계 ΣC에 있어서의 캐릭터 Vq의 위치 CPVq에 기초하여, 유저 Uq 및 캐릭터 Vq 중 어느 것이, 카메라 CMA에 가까운지를 판정한다.
표시 정보 생성부(114)는, 촬상 데이터 DA가 나타내는 촬상 화상과, 겹침 추출부(112)에 있어서의 추출 결과와, 원근 판정부(113)에 있어서의 판정 결과에 기초하여, 합성 화상 GG를 나타내는 표시 데이터 Dout를 생성한다.
도 5에 도시하는 바와 같이, 정보 처리 장치(10)는, 정보 처리 장치(10)의 각 부를 제어하는 프로세서(1000)와, 각종 정보를 기억하는 메모리(1001)와, 정보 처리 장치(10)의 외부에 존재하는 외부 장치와의 통신을 행하기 위한 통신 장치(1002)와, 정보 처리 장치(10)의 조작자에 의한 조작을 접수하기 위한 입력 조작 장치(1003)와, 기록 매체로부터 정보를 읽어들이기 위한 디스크 장치(1004)를 구비한다.
메모리(1001)는, 비일시적(non-transitory) 기록 매체이며, 예를 들어 프로세서(1000)의 작업 영역으로서 기능하는 RAM(Random Access Memory) 등의 휘발성 메모리와, 정보 처리 장치(10)의 제어 프로그램 PRG 등의 각종 정보를 기억하는 EEPROM(Electrically Erasable Programmable Read-Only Memory) 등의 불휘발성 메모리를 포함하며, 기억부(12)로서의 기능을 제공한다.
프로세서(1000)는, 예를 들어 CPU(Central Processing Unit)이며, 메모리(1001)에 기억된 제어 프로그램 PRG를 실행하고, 당해 제어 프로그램 PRG에 따라 동작함으로써, 제어부(11)로서 기능한다.
통신 장치(1002)는, 네트워크 Nw를 통하여, 정보 처리 장치(10)의 외부에 존재하는 외부 장치와의 통신을 행하기 위한 하드웨어이며, 통신부(13)로서의 기능을 제공한다.
입력 조작 장치(1003)는, 예를 들어 조작 버튼이며, 정보 처리 장치(10)의 조작자의 조작을 접수하는 조작부(14)로서의 기능을 제공한다. 입력 조작 장치(1003)는, 예를 들어 조작 버튼, 터치 패널, 키보드, 조이 스틱 및 마우스 등의 포인팅 디바이스의 일부 또는 전부를 포함하는, 1개 또는 복수의 기기로 구성되는 것이어도 된다.
디스크 장치(1004)는, 예를 들어 광 디스크 장치이며, 광 디스크 등의 기록 매체에 기록된 제어 프로그램 PRG 등의 각종 정보를 읽어들이는 정보 읽기부(15)로서의 기능을 제공한다.
또한, 프로세서(1000)는, CPU에 추가하여, 또는 CPU 대신에, GPU(Graphics Processing Unit), DSP(Digital Signal Processor), 또는 FPGA(Field Programmable Gate Array) 등의, 하드웨어를 포함하여 구성되는 것이어도 된다. 이 경우, 프로세서(1000)에 의해 실현되는 제어부(11)의 일부 또는 전부는, DSP 등의 하드웨어에 의해 실현되어도 된다.
[1.3. 정보 처리 장치의 동작]
도 6 및 도 7을 참조하면서, 정보 처리 장치(10)가 표시 데이터 생성 처리를 실행하는 경우에 있어서의, 당해 정보 처리 장치(10)의 동작의 일례를 설명한다. 또한, 도 6은, 정보 처리 장치(10)가 표시 데이터 생성 처리를 실행하는 경우에 있어서의, 당해 정보 처리 장치(10)의 동작의 일례를 도시하는 흐름도이다. 또한, 도 7은, +ZW측으로부터 표시 공간 SP-V를 본 경우에 있어서의, 유저 Uq, 벽 WL, 캐릭터 Vq 및 카메라 CMA 등의, 표시 공간 SP-V에 존재하는 각종 물체의 위치 관계를 설명하기 위한 설명도이다. 또한, 본 실시 형태에서는, 일례로서, 정보 처리 장치(10)의 조작자 등에 의해, 표시 데이터 생성 처리를 개시시킨다는 취지를 지시하는 조작이 조작부(14)로부터 입력된 경우에, 정보 처리 장치(10)가, 도 6에 도시하는 표시 데이터 생성 처리를 개시시키는 경우를 상정한다.
도 6에 도시하는 바와 같이, 오브젝트 특정부(115)는, 표시 데이터 생성 처리에 있어서, 카메라 CMT로부터 출력되는 촬상 데이터 DT에 기초하여, 카드 CDq의 종류를 특정한다(S100).
구체적으로는, 오브젝트 특정부(115)는, 스텝 S100에 있어서, 촬상 데이터 DT가 나타내는 카드 CDq에 그려진 무늬와, 카드 디자인 정보가 나타내는 캐릭터 Vq의 무늬에 기초하여, 카드 CDq에 그려져 있는 캐릭터 Vq의 종류를 특정함으로써, 카드 CDq의 종류를 특정한다.
또한, 오브젝트 특정부(115)는, 스텝 S100에 있어서, 촬상 데이터 DT 이외의 정보에 기초하여, 카드 CDq의 종류를 특정해도 된다.
예를 들어, 카드 CDq가 무선 통신 기능을 갖는 경우, 오브젝트 특정부(115)는, 당해 카드 CDq로부터 수신한, 카드 CDq의 종류를 식별하기 위한 정보에 기초하여, 카드 CDq의 종류를 특정해도 된다. 또한, 오브젝트 특정부(115)는, 예를 들어 카메라 CMA로부터 출력되는 촬상 데이터 DA에 기초하여, 카드 CDq의 종류를 특정해도 된다. 이 경우, 오브젝트 특정부(115)는, 촬상 데이터 DA에 추가하여, 심도 정보 DS에 기초하여, 카드 CDq의 종류를 특정해도 된다.
카메라 위치 특정부(116)는, 표시 데이터 생성 처리에 있어서, 촬상 데이터 DA에 기초하여, 월드 좌표계 ΣW에 있어서의 카메라 CMA의 위치 WPC 및 방향 WRC를 특정한다(S102).
구체적으로는, 카메라 위치 특정부(116)는, 스텝 S102에 있어서, 우선, 촬상 데이터 DA에 기초하여, 도 7에 도시하는, 카메라 좌표계 ΣC에 있어서의 마커 MK의 위치 CPM 및 방향 CRM을 특정한다. 다음에, 카메라 위치 특정부(116)는, 카메라 좌표계 ΣC에 있어서의 마커 MK의 위치 CPM 및 방향 CRM과, 마커 정보가 나타내는, 월드 좌표계 ΣW에 있어서의 마커 MK의 위치 WPM 및 방향 WRM에 기초하여, 월드 좌표계 ΣW에 있어서의 카메라 CMA의 위치 WPC 및 방향 WRC를 특정한다(도 7 참조).
또한, 카메라 위치 특정부(116)는, 스텝 S102에 있어서, 월드 좌표계 ΣW에 있어서의 카메라 CMA의 위치 WPC 및 방향 WRC 중 적어도 한쪽을 특정하는 것이어도 된다.
또한, 카메라 위치 특정부(116)는, 스텝 S102에 있어서, 촬상 데이터 DA 이외의 정보에 기초하여, 월드 좌표계 ΣW에 있어서의 카메라 CMA의 위치 WPC 및 방향 WRC를 특정해도 된다.
예를 들어, 카메라 CMT가 카메라 CMA를 촬상하는 경우, 카메라 위치 특정부(116)는, 카메라 CMT에 의한 촬상 결과를 나타내는 촬상 데이터 DT에 기초하여, 월드 좌표계 ΣW에 있어서의 카메라 CMA의 위치 WPC 및 방향 WRC를 특정해도 된다.
또한, 예를 들어 카메라 CMA는, 지자기 센서, 가속도 센서 및 각속도 센서 등의, 각종 센서를 구비하고 있어도 된다. 이 경우, 카메라 위치 특정부(116)는, 각종 센서로부터의 출력에 기초하여, 월드 좌표계 ΣW에 있어서의 카메라 CMA의 위치 WPC 및 방향 WRC의 변화량을 특정해도 된다. 일례로서, 카메라 위치 특정부(116)는, 가속도 센서의 출력 및 지자기 센서의 출력에 기초하여, 월드 좌표계 ΣW에 있어서의 카메라 CMA의 위치 WPC의 변화를 산출하고, 또한 각속도 센서의 출력에 기초하여, 월드 좌표계 ΣW에 있어서의 카메라 CMA의 방향 WRC의 변화를 산출해도 된다. 그리고, 카메라 위치 특정부(116)가, 월드 좌표계 ΣW에 있어서의 카메라 CMA의 위치 WPC 및 방향 WRC의 변화량을 특정 가능한 경우, 어떤 시각에 있어서, 월드 좌표계 ΣW에 있어서의 카메라 CMA의 위치 WPC 및 방향 WRC를 특정할 수 있으면, 그 이후의 시각에 있어서도, 월드 좌표계 ΣW에 있어서의 카메라 CMA의 위치 WPC 및 방향 WRC를 특정할 수 있다. 이 때문에, 카메라 위치 특정부(116)가, 월드 좌표계 ΣW에 있어서의 카메라 CMA의 위치 WPC 및 방향 WRC의 변화량을 특정 가능하면, 카메라 CMA가 마커 MK를 촬상하고 있지 않은 기간이 존재하는 경우라도, 월드 좌표계 ΣW에 있어서의 카메라 CMA의 위치 WPC 및 방향 WRC를 특정할 수 있다. 또한, 카메라 위치 특정부(116)가, 월드 좌표계 ΣW에 있어서의 카메라 CMA의 위치 WPC 및 방향 WRC의 변화량을 특정 가능하면, 카메라 CMT가 카메라 CMA를 촬상하고 있지 않은 기간이 존재하는 경우라도, 월드 좌표계 ΣW에 있어서의 카메라 CMA의 위치 WPC 및 방향 WRC를 특정할 수 있다.
또한, 예를 들어 카메라 CMA는, GPS(Global Positioning System) 위성 등의 위치 정보 위성으로부터 출력되는 위치 정보 신호, 또는 현실 공간 SP-R에 마련된 신호 발신기(예를 들어, 옥내 GPS)로부터 출력되는 위치 정보 신호 등을 수신하는, 신호 수신부를 가져도 된다. 이 경우, 카메라 위치 특정부(116)는, 신호 수신부가 수신한 위치 정보 신호에 기초하여, 월드 좌표계 ΣW에 있어서의 카메라 CMA의 위치 WPC를 특정해도 된다.
피사체 위치 특정부(117)는, 촬상 데이터 DA 및 심도 정보 DS에 기초하여, 도 7에 도시하는, 카메라 좌표계 ΣC에 있어서의 유저 Uq의 위치 CPUq를 특정한다(S104). 또한, 피사체 위치 특정부(117)는, 스텝 S104에 있어서, 촬상 데이터 DA 및 심도 정보 DS에 기초하여, 카메라 CMA의 피사체 중, 유저 Uq 이외의 피사체의 위치를 특정해도 된다. 예를 들어, 피사체 위치 특정부(117)는, 스텝 S104에 있어서, 촬상 데이터 DA 및 심도 정보 DS에 기초하여, 카메라 좌표계 ΣC에 있어서의 벽 WL의 위치를 특정해도 된다.
피사체 위치 특정부(117)는, 촬상 데이터 DA 및 심도 정보 DS에 기초하여, 도 7에 도시하는, 카메라 좌표계 ΣC에 있어서의 유저 Uq의 방향 CRUq를 특정한다(S106). 또한, 피사체 위치 특정부(117)는, 스텝 S106에 있어서, 촬상 데이터 DA 및 심도 정보 DS에 기초하여, 카메라 CMA의 피사체 중, 유저 Uq 이외의 피사체의 형상을 특정해도 된다. 예를 들어, 피사체 위치 특정부(117)는, 스텝 S106에 있어서, 촬상 데이터 DA 및 심도 정보 DS에 기초하여, 카메라 좌표계 ΣC에 있어서의 벽 WL의 형상을 특정해도 된다. 또한, 상술한 바와 같이, 심도 정보 DS는, 카메라 CMA가 피사체를 촬상한 경우에, 피사체의 촬상 결과를 나타내는 복수의 화소 또는 복수의 화소 블록에 대하여, 당해 화소 또는 화소 블록에 대응하는 피사체의 부위와 카메라 CMA의 거리에 따른 값을 나타낸다. 이 때문에, 피사체 위치 특정부(117)는, 카메라 CMA의 피사체로서, 벽 WL 등의 물체가 포함되는 경우에는, 심도 정보 DS에 기초하여, 당해 물체의 형상을 특정할 수 있고, 또한 카메라 CMA의 피사체로서, 유저 Uq 등의 인물이 포함되는 경우에는, 심도 정보 DS에 기초하여, 당해 인물의 자세를 특정할 수 있다. 여기서, 인물의 자세란, 인물의 방향 및 인물의 자세 등을 포함하는 개념이다.
캐릭터 위치 결정부(111)는, 도 7에 도시하는, 카메라 좌표계 ΣC에 있어서의 캐릭터 Vq의 위치 CPVq를 결정한다(S108).
구체적으로는, 캐릭터 위치 결정부(111)는, 스텝 S108에 있어서, 스텝 S102에서 특정된, 월드 좌표계 ΣW에 있어서의 카메라 CMA의 위치 WPC 및 방향 WRC에 기초하여, 상대 위치 정보가 나타내는 벡터 WPUVq를, 카메라 좌표계 ΣC에 있어서 표현한 벡터 CPUVq로 변환시킨다. 다음에, 캐릭터 위치 결정부(111)는, 벡터 CPUVq와, 스텝 S104에서 특정된 유저 Uq의 위치 CPUq에 기초하여, 카메라 좌표계 ΣC에 있어서의 캐릭터 Vq의 위치 CPVq를 결정한다.
또한, 캐릭터 위치 결정부(111)는, 스텝 S108에 있어서, 다음과 같이, 카메라 좌표계 ΣC에 있어서의 캐릭터 Vq의 위치 CPVq를 결정해도 된다. 즉, 캐릭터 위치 결정부(111)는, 스텝 S108에 있어서, 우선, 스텝 S102에서 특정된, 월드 좌표계 ΣW에 있어서의 카메라 CMA의 위치 WPC 및 방향 WRC에 기초하여, 스텝 S104에서 특정된 카메라 좌표계 ΣC에 있어서의 유저 Uq의 위치 CPUq를, 월드 좌표계 ΣW에서 표현한 위치 WPUq로 변환시킨다. 다음에, 캐릭터 위치 결정부(111)는, 월드 좌표계 ΣW에 있어서의 유저 Uq의 위치 WPUq와, 상대 위치 정보가 나타내는 월드 좌표계 ΣW에 있어서의 벡터 WPUVq에 기초하여, 월드 좌표계 ΣW에 있어서의 캐릭터 Vq의 위치 WPVq를 결정한다. 그 후, 캐릭터 위치 결정부(111)는, 월드 좌표계 ΣW에 있어서의 캐릭터 Vq의 위치 WPVq를, 카메라 좌표계 ΣC에서 표현한 위치 CPVq로 변환시킨다.
캐릭터 위치 결정부(111)는, 도 7에 도시하는, 카메라 좌표계 ΣC에 있어서의 캐릭터 Vq의 방향 CRVq를 결정한다(S110).
구체적으로는, 캐릭터 위치 결정부(111)는, 스텝 S110에 있어서, 카메라 좌표계 ΣC에 있어서의 캐릭터 Vq의 방향 CRVq와, 스텝 S106에서 특정된 유저 Uq의 방향 CRUq가, 동일한 방향으로 되도록, 캐릭터 Vq의 방향 CRVq를 결정한다. 단, 캐릭터 위치 결정부(111)는, 스텝 S110에 있어서, 카메라 좌표계 ΣC에 있어서의 캐릭터 Vq의 방향 CRVq와, 카메라 좌표계 ΣC에 있어서의 유저 Uq의 방향 CRUq가, 소정의 각도 이하로 되도록, 캐릭터 Vq의 방향 CRVq를 결정해도 된다.
캐릭터 위치 결정부(111)는, 표시 공간 SP-V에 있어서의, 캐릭터 Vq와 벽 WL의 상대적인 위치 관계에 기초하여, 캐릭터 Vq의 위치 CPVq를 조정한다(S112).
구체적으로는, 캐릭터 위치 결정부(111)는, 스텝 S112에 있어서, 벡터 CPUVq의 연장선 상에 있어서의, 캐릭터 Vq와 벽 WL의 사이의 거리 LVE가, 소정의 거리 이상이며, 또한 유저 Uq로부터 보아, 캐릭터 Vq가 벽 WL보다 앞쪽에 위치하고 있다는 조건(이하, 「캐릭터 위치 조건」이라고 칭함)이 충족되는지 여부를 판정한다. 그리고, 캐릭터 위치 결정부(111)는, 당해 판정의 결과가 긍정인 경우, 캐릭터 Vq의 위치 CPVq를 변경하지 않고 유지한다. 한편, 캐릭터 위치 결정부(111)는, 당해 판정의 결과가 부정인 경우, 캐릭터 Vq를, 캐릭터 위치 조건이 충족될 때까지, 벡터 CPUVq와는 반대 방향으로 이동시킴으로써, 캐릭터 Vq의 위치 CPVq를 조정한다.
겹침 추출부(112)는, 유저 Uq를 나타내는 유저 화상 GUq와, 캐릭터 Vq를 나타내는 캐릭터 화상 GVq의, 겹침 부분을 추출한다(S114).
구체적으로는, 겹침 추출부(112)는, 스텝 S114에 있어서, 촬상 데이터 DA에 기초하여, 합성 화상 GG에 있어서, 유저 Uq를 나타내는 유저 화상 GUq를 배치한다. 또한, 겹침 추출부(112)는, 카메라 좌표계 ΣC에 있어서의 캐릭터 Vq의 위치 CPVq 및 방향 CRVq와, 캐릭터 정보가 나타내는 캐릭터 Vq의 3차원 형상에 기초하여, 합성 화상 GG에 있어서, 캐릭터 Vq를 나타내는 캐릭터 화상 GVq를 배치한다. 그리고, 겹침 추출부(112)는, 합성 화상 GG에 배치된 유저 화상 GUq 및 캐릭터 화상 GVq의 겹침 부분을 추출한다.
원근 판정부(113)는, 카메라 좌표계 ΣC에 있어서의 유저 Uq의 위치 CPUq와, 카메라 좌표계 ΣC에 있어서의 캐릭터 Vq의 위치 CPVq에 기초하여, 유저 Uq가 캐릭터 Vq보다 카메라 CMA에 가까운지 여부를 판정한다(S116).
표시 정보 생성부(114)는, 촬상 데이터 DA가 나타내는 촬상 화상과, 캐릭터 화상 GVq 등의 비촬상 화상을, 스텝 S114 및 S116의 결과에 따라 합성함으로써, 합성 화상 GG를 나타내는 표시 데이터 Dout를 생성한다(S118).
구체적으로는, 표시 정보 생성부(114)는, 스텝 S118에 있어서, 스텝 S116의 판정의 결과가 긍정인 경우, 캐릭터 화상 GVq 중, 스텝 S114에서 추출된 겹침 부분을 비표시로 한 상태에서, 촬상 화상 상에, 캐릭터 화상 GVq와, 히트 포인트 화상 GHP를 표시시킴으로써, 합성 화상 GG를 생성한다.
한편, 표시 정보 생성부(114)는, 스텝 S118에 있어서, 스텝 S116의 판정의 결과가 부정인 경우, 촬상 화상 상에, 캐릭터 화상 GVq와, 히트 포인트 화상 GHP를 표시시킴으로써, 합성 화상 GG를 생성한다. 이 경우, 유저 화상 GUq는, 유저 화상 GUq 중, 스텝 S114에서 추출된 겹침 부분이 비표시로 된 상태에서, 합성 화상 GG에 표시되게 된다.
표시 정보 생성부(114)는, 정보 처리 장치(10)의 조작자 등에 의해, 표시 데이터 생성 처리를 종료시킨다는 취지를 지시하는 조작이, 조작부(14)로부터 입력되었는지 여부를 판정한다(S120). 그리고, 표시 정보 생성부(114)는, 스텝 S120에 있어서의 판정의 결과가 긍정인 경우, 도 6에 도시하는 표시 데이터 생성 처리를 종료시킨다. 한편, 표시 정보 생성부(114)는, 스텝 S120에 있어서의 판정의 결과가 부정인 경우, 처리를 스텝 S100으로 진행시킨다.
[1.4. 제1 실시 형태의 결론]
이상에 있어서 설명한 바와 같이, 본 실시 형태에 따르면, 합성 화상 GG가 나타내는 표시 공간 SP-V에 있어서, 유저 Uq로부터 보아 캐릭터 Vq가 벡터 CPUVq에 의해 정해지는 위치에 배치된다.
이 때문에, 본 실시 형태에 따르면, 유저 Uq를 나타내는 유저 화상 GUq와, 캐릭터 Vq를 나타내는 유저 화상 GUq를, 관련지어 표시할 수 있다. 이에 의해, 본 실시 형태에 따르면, 정보 처리 시스템(1)에 의해, 유저 U1 및 유저 U2가 카드 게임을 실행하고 있는 모습을 표시부(21)에 표시시키는 경우에, 표시부(21)에 표시되는 합성 화상 GG에 있어서, 카드 게임의 임장감을 연출할 수 있다.
또한, 본 실시 형태에 따르면, 합성 화상 GG에 있어서의, 캐릭터 Vq를 나타내는 캐릭터 화상 GVq의 표시 위치가, 카메라 위치 특정부(116)에 의한, 월드 좌표계 ΣW에 있어서의 카메라 CMA의 위치 WPC 및 방향 WRC의 특정 결과와, 피사체 위치 특정부(117)에 의한, 카메라 좌표계 ΣC에 있어서의 유저 Uq의 위치 CPUq 및 방향 CRUq의 특정 결과에 기초하여 결정된다. 즉, 본 실시 형태에 따르면, 합성 화상 GG에 있어서의, 캐릭터 Vq를 나타내는 캐릭터 화상 GVq의 표시 위치가, 카드 CDq의 배치 위치 및 방향과는 관계없이 정해진다.
이 때문에, 본 실시 형태에 따르면, 캐릭터 Vq를 나타내는 캐릭터 화상 GVq의 표시 위치가, 카드 CDq의 배치 위치 및 방향의 영향을 받는 경우와 비교하여, 합성 화상 GG에 있어서의, 캐릭터 화상 GVq의 표시 위치를 용이하게 조정하는 것이 가능하게 된다.
또한, 본 실시 형태에 따르면, 합성 화상 GG에 있어서의 캐릭터 화상 GVq의 표시 위치 및 형상이, 카드 CDq의 배치 위치 및 방향과는 관계없이 정해진다.
이 때문에, 본 실시 형태에 따르면, 합성 화상 GG에 있어서의 캐릭터 화상 GVq의 표시 위치 및 형상이, 카드 CDq의 배치 위치 및 방향에 기초하여 정해지는 경우와 비교하여, 유저 Uq에 의한 카드 CDq의 배치의 수고를 저감할 수 있다.
또한, 본 실시 형태에 따르면, 카드 CDq에, 카드 CDq의 방향을 특정하기 위한 마커를 인쇄할 필요가 없다.
이 때문에, 본 실시 형태에 따르면, 합성 화상 GG에 있어서의 캐릭터 화상 GVq의 표시 위치 및 표시 형상이, 카드 CDq의 배치 위치 및 방향에 기초하여 정해지는 경우와 비교하여, 카드 CDq의 디자인의 자유도를 향상시킬 수 있다.
[2. 제2 실시 형태]
이하, 본 발명의 제2 실시 형태를 설명한다. 또한, 이하에 예시하는 각 형태에 있어서 작용이나 기능이 제1 실시 형태와 마찬가지인 요소에 대해서는, 제1 실시 형태의 설명에서 사용한 부호를 유용하여 각각의 상세한 설명을 적절하게 생략한다.
제2 실시 형태는, 월드 좌표계 ΣW에 있어서의 유저 Uq의 위치 및 방향이 미리 정해져 있는 점과, 월드 좌표계 ΣW에 있어서의 캐릭터 Vq의 위치 및 방향이 미리 정해져 있는 점에 있어서, 제1 실시 형태와 상이하다.
도 8은, 제2 실시 형태에 관한 정보 처리 시스템(1A)의 구성의 일례를 도시하는 기능 블록도이다. 정보 처리 시스템(1A)은, 제어부(11)를 구비하는 정보 처리 장치(10) 대신에, 제어부(11A)를 구비하는 정보 처리 장치(10A)를 구비하는 점을 제외하고, 도 4에 도시하는 제1 실시 형태에 관한 정보 처리 시스템(1)과 마찬가지로 구성되어 있다. 제어부(11A)는, 캐릭터 위치 결정부(111)를 구비하는 표시 제어부(110) 대신에, 캐릭터 위치 결정부(111A)를 구비하는 표시 제어부(110A)를 구비하는 점과, 피사체 위치 특정부(117)를 구비하지 않는 점을 제외하고, 도 4에 도시하는 제1 실시 형태에 관한 제어부(11)와 마찬가지로 구성되어 있다.
또한, 본 실시 형태에 있어서, 기억 장치(30)는, 카드 디자인 정보, 캐릭터 정보 및 마커 정보 외에, 월드 좌표계 ΣW에 있어서의 유저 Uq의 위치 WPUq 및 방향 WRUq를 나타내는 유저 위치 정보와, 월드 좌표계 ΣW에 있어서의 캐릭터 Vq의 위치 WPVq 및 방향 WRVq를 나타내는 캐릭터 위치 정보를 기억하고 있는 것으로 한다(도 10 참조). 여기서, 유저 위치 정보란, 예를 들어 유저 Uq가 착석하는 자리의 위치 및 방향을, 월드 좌표계 ΣW에 있어서 나타낸 정보여도 된다. 또한, 캐릭터 위치 정보란, 예를 들어 유저 Uq가 착석하는 자리의 후방 또는 상방의 위치와 당해 자리의 방향을, 월드 좌표계 ΣW에 있어서 나타낸 정보여도 된다. 또한, 본 실시 형태에 있어서, 기억 장치(30)는, 상대 위치 정보를 기억하고 있지 않아도 된다.
또한, 본 실시 형태에 있어서, 카메라 CMA는, 적어도 촬상 데이터 DA를 출력하면 되며, 심도 정보 DS를 출력하지 않아도 된다.
도 9 및 도 10을 참조하면서, 정보 처리 장치(10A)가, 표시 데이터 Dout를 생성하는 처리인 표시 데이터 생성 처리를 실행하는 경우에 있어서의, 정보 처리 장치(10A)의 동작의 일례를 설명한다. 또한, 도 9는, 정보 처리 장치(10A)가 표시 데이터 생성 처리를 실행하는 경우에 있어서의, 정보 처리 장치(10A)의 동작의 일례를 도시하는 흐름도이다. 또한, 도 10은, +ZW측으로부터 표시 공간 SP-V를 본 경우에 있어서의, 각종 물체의 위치 관계를 설명하기 위한 설명도이다.
도 9에 도시하는 바와 같이, 본 실시 형태에 관한 표시 데이터 생성 처리는, 스텝 S104, S106 및 S112의 처리를 실행하지 않는 점과, 스텝 S108 및 S110 대신에, 스텝 S200 및 S202의 처리를 실행하는 점을 제외하고, 도 6에 도시하는 제1 실시 형태에 관한 표시 데이터 생성 처리와 마찬가지의 처리이다.
도 9에 도시하는 바와 같이, 표시 데이터 생성 처리가 개시되면, 오브젝트 특정부(115)는, 카드 CDq의 종류를 특정한다(S100). 다음에, 카메라 위치 특정부(116)는, 월드 좌표계 ΣW에 있어서의 카메라 CMA의 위치 WPC 및 방향 WRC를 특정한다(S102).
그리고, 캐릭터 위치 결정부(111A)는, 도 10에 도시하는 바와 같이, 캐릭터 위치 정보가 나타내는, 월드 좌표계 ΣW에 있어서의 캐릭터 Vq의 위치 WPVq와, 월드 좌표계 ΣW에 있어서의 카메라 CMA의 위치 WPC 및 방향 WRC에 기초하여, 카메라 좌표계 ΣC에 있어서의 캐릭터 Vq의 위치 CPVq를 특정한다(S200).
또한, 캐릭터 위치 결정부(111A)는, 도 10에 도시하는 바와 같이, 캐릭터 위치 정보가 나타내는, 월드 좌표계 ΣW에 있어서의 캐릭터 Vq의 방향 WRVq와, 월드 좌표계 ΣW에 있어서의 카메라 CMA의 위치 WPC 및 방향 WRC에 기초하여, 카메라 좌표계 ΣC에 있어서의 캐릭터 Vq의 방향 CRVq를 특정한다(S202).
그 후, 겹침 추출부(112)는, 유저 화상 GUq와 캐릭터 화상 GVq의 겹침을 추출한다(S114). 그리고, 원근 판정부(113)는, 카메라 CMA로부터 본 유저 Uq 및 캐릭터 Vq의 원근을 판정한다(S116). 다음에, 표시 정보 생성부(114)는, 합성 화상 GG를 나타내는 표시 데이터 Dout를 생성한다(S118). 그 후, 표시 정보 생성부(114)는, 표시 데이터 생성 처리의 종료를 판정한다(S120).
이상과 같이, 본 실시 형태에 따르면, 월드 좌표계 ΣW에 있어서의 카메라 CMA의 위치 WPC 및 방향 WRC에 기초하여, 카메라 좌표계 ΣC에 있어서의 캐릭터 Vq의 위치 CPVq 및 방향 CRVq를 특정한다. 이 때문에, 본 실시 형태에 따르면, 카메라 CMA의 위치 또는 방향에 관계없이, 캐릭터 Vq와 유저 Uq를 관련지어 표시할 수 있다.
[3. 제3 실시 형태]
이하, 본 발명의 제3 실시 형태를 설명한다.
제3 실시 형태는, 카메라 CMT로부터 출력되는 촬상 데이터 DT를 사용하지 않고, 캐릭터 화상 GVq에 의해 표시되는 캐릭터 Vq의 종류가 지정되는 점에 있어서, 제2 실시 형태와 상이하다.
도 11은, 제3 실시 형태에 관한 정보 처리 시스템(1B)의 구성의 일례를 도시하는 기능 블록도이다. 정보 처리 시스템(1B)은, 제어부(11A)를 구비하는 정보 처리 장치(10A) 대신에, 제어부(11B)를 구비하는 정보 처리 장치(10B)를 구비하는 점과, 카메라 CMT를 구비하지 않는 점을 제외하고, 도 8에 도시하는 제2 실시 형태에 관한 정보 처리 시스템(1A)과 마찬가지로 구성되어 있다. 제어부(11B)는, 캐릭터 위치 결정부(111A)를 구비하는 표시 제어부(110A) 대신에, 캐릭터 위치 결정부(111B)를 구비하는 표시 제어부(110B)를 구비하는 점과, 오브젝트 특정부(115)를 구비하지 않는 점을 제외하고, 도 8에 도시하는 제2 실시 형태에 관한 제어부(11A)와 마찬가지로 구성되어 있다.
본 실시 형태에 있어서, 기억 장치(30)는, 캐릭터 정보, 마커 정보, 유저 위치 정보 및 캐릭터 위치 정보를 기억하고 있다. 즉, 본 실시 형태에 있어서, 기억 장치(30)는, 카드 디자인 정보와, 상대 위치 정보를 기억하고 있지 않아도 된다.
또한, 본 실시 형태에 있어서, 카메라 CMA는, 적어도 촬상 데이터 DA를 출력하면 되며, 심도 정보 DS를 출력하지 않아도 된다.
도 12는, 정보 처리 장치(10B)가, 표시 데이터 Dout를 생성하는 처리인 표시 데이터 생성 처리를 실행하는 경우에 있어서의, 정보 처리 장치(10B)의 동작의 일례를 도시하는 흐름도이다.
도 12에 도시하는 바와 같이, 본 실시 형태에 관한 표시 데이터 생성 처리는, 스텝 S100의 처리를 실행하지 않는 점과, 스텝 S300의 처리를 실행하는 점을 제외하고, 도 9에 도시하는 제2 실시 형태에 관한 표시 데이터 생성 처리와 마찬가지의 처리이다.
도 12에 도시하는 바와 같이, 표시 데이터 생성 처리가 개시되면, 카메라 위치 특정부(116)는, 월드 좌표계 ΣW에 있어서의 카메라 CMA의 위치 WPC 및 방향 WRC를 특정한다(S102). 다음에, 캐릭터 위치 결정부(111B)는, 카메라 좌표계 ΣC에 있어서의 캐릭터 Vq의 위치 CPVq를 특정한다(S200). 그리고, 캐릭터 위치 결정부(111B)는, 카메라 좌표계 ΣC에 있어서의 캐릭터 Vq의 방향 CRVq를 특정한다(S202).
그 후, 캐릭터 위치 결정부(111B)는, 캐릭터 Vq의 종류를 결정하고, 당해 결정한 종류의 캐릭터 Vq에 대응하는 캐릭터 정보에 기초하여, 캐릭터 Vq의 3차원 형상을 결정한다(S300). 또한, 캐릭터 위치 결정부(111B)는, 스텝 S300에 있어서, 캐릭터 Vq의 종류를, 예를 들어 정보 처리 장치(10B)의 조작자가, 조작부(14)를 사용하여 입력한 정보에 기초하여 결정해도 된다. 또는, 캐릭터 위치 결정부(111B)가, 스텝 S300에 있어서 결정하는 캐릭터 Vq의 종류는, 미리 기억 장치(30)에 기억되어 있어도 된다.
그 후, 겹침 추출부(112)는, 유저 화상 GUq와 캐릭터 화상 GVq의 겹침을 추출한다(S114). 다음에, 원근 판정부(113)는, 카메라 CMA로부터 본 유저 Uq 및 캐릭터 Vq의 원근을 판정한다(S116). 그리고, 표시 정보 생성부(114)는, 합성 화상 GG를 나타내는 표시 데이터 Dout를 생성한다(S118). 그 후, 표시 정보 생성부(114)는, 표시 데이터 생성 처리의 종료를 판정한다(S120).
이상과 같이, 본 실시 형태에 따르면, 월드 좌표계 ΣW에 있어서의 카메라 CMA의 위치 WPC 및 방향 WRC에 기초하여, 카메라 좌표계 ΣC에 있어서의 캐릭터 Vq의 위치 CPVq 및 방향 CRVq를 특정한다. 이 때문에, 본 실시 형태에 따르면, 카메라 CMA의 위치 또는 방향에 관계없이, 캐릭터 Vq와 유저 Uq를 관련지어 표시할 수 있다.
[4. 제4 실시 형태]
이하, 본 발명의 제4 실시 형태를 설명한다.
제4 실시 형태는, 월드 좌표계 ΣW에 있어서의 카메라 CMA의 위치 WPC 및 방향 WRC를 특정하지 않고, 합성 화상 GG에 있어서의, 캐릭터 화상 GVq의 표시 위치를 결정하는 점에 있어서, 제1 실시 형태와 상이하다.
도 13은, 제4 실시 형태에 관한 정보 처리 시스템(1C)의 구성의 일례를 도시하는 기능 블록도이다. 정보 처리 시스템(1C)은, 제어부(11)를 구비하는 정보 처리 장치(10) 대신에, 제어부(11C)를 구비하는 정보 처리 장치(10C)를 구비하는 점을 제외하고, 도 4에 도시하는 제1 실시 형태에 관한 정보 처리 시스템(1)과 마찬가지로 구성되어 있다. 제어부(11C)는, 캐릭터 위치 결정부(111)를 구비하는 표시 제어부(110) 대신에, 캐릭터 위치 결정부(111C)를 구비하는 표시 제어부(110C)를 구비하는 점과, 카메라 위치 특정부(116)를 구비하지 않는 점을 제외하고, 도 4에 도시하는 제1 실시 형태에 관한 제어부(11)와 마찬가지로 구성되어 있다.
본 실시 형태에 있어서, 기억 장치(30)는, 카드 디자인 정보와, 캐릭터 정보를 기억하고 있다. 즉, 본 실시 형태에 있어서, 기억 장치(30)는, 마커 정보와, 상대 위치 정보를 기억하고 있지 않아도 된다. 또한, 본 실시 형태에 있어서, 현실 공간 SP-R에는, 마커 MK를 마련하지 않아도 된다.
도 14 및 도 15를 참조하면서, 정보 처리 장치(10C)가, 표시 데이터 Dout를 생성하는 처리인 표시 데이터 생성 처리를 실행하는 경우에 있어서의, 정보 처리 장치(10C)의 동작의 일례를 설명한다. 또한, 도 14는, 정보 처리 장치(10C)가 표시 데이터 생성 처리를 실행하는 경우에 있어서의, 정보 처리 장치(10C)의 동작의 일례를 도시하는 흐름도이다. 또한, 도 15는, +ZW측으로부터 표시 공간 SP-V를 본 경우에 있어서의, 각종 물체의 위치 관계를 설명하기 위한 설명도이다.
도 14에 도시하는 바와 같이, 본 실시 형태에 관한 표시 데이터 생성 처리는, 스텝 S102의 처리를 실행하지 않는 점과, 스텝 S400의 처리를 실행하는 점과, 스텝 S108의 처리 대신에, 스텝 S402의 처리를 실행하는 점을 제외하고, 도 6에 도시하는 제1 실시 형태에 관한 표시 데이터 생성 처리와 마찬가지의 처리이다.
도 14에 도시하는 바와 같이, 표시 데이터 생성 처리가 개시되면, 오브젝트 특정부(115)가, 카드 CDq의 종류를 특정한다(S100).
또한, 피사체 위치 특정부(117)는, 촬상 데이터 DA 및 심도 정보 DS에 기초하여, 도 15에 도시하는, 카메라 좌표계 ΣC에 있어서의 유저 Uq의 위치 CPUq를 특정한다(S104).
또한, 피사체 위치 특정부(117)는, 촬상 데이터 DA 및 심도 정보 DS에 기초하여, 도 15에 도시하는, 카메라 좌표계 ΣC에 있어서의 유저 Uq의 방향 CRUq를 특정한다(S106).
그리고, 캐릭터 위치 결정부(111C)는, 카메라 좌표계 ΣC에 있어서의 유저 Uq의 방향 CRUq에 기초하여, 유저 Uq로부터 본 캐릭터 Vq의 위치를 나타내는 벡터 CPUVq를 결정한다(S400). 구체적으로는, 캐릭터 위치 결정부(111C)는, 스텝 S400에 있어서, 도 15에 도시하는 바와 같이, 방향 CRUq와 벡터 CPUVq가 이루는 각도가, 각도 θA로 되도록, 벡터 CPUVq를 결정한다.
또한, 캐릭터 위치 결정부(111C)는, 스텝 S104에서 특정한 카메라 좌표계 ΣC에 있어서의 유저 Uq의 위치 CPUq와, 스텝 S400에서 결정한 벡터 CPUVq에 기초하여, 카메라 좌표계 ΣC에 있어서의 캐릭터 Vq의 위치 CPVq를 결정한다(S402).
그 후, 캐릭터 위치 결정부(111C)는, 카메라 좌표계 ΣC에 있어서의 캐릭터 Vq의 방향 CRVq를 결정한다(S110). 다음에, 캐릭터 위치 결정부(111C)는, 표시 공간 SP-V에 있어서의, 캐릭터 Vq와 벽 WL의 상대적인 위치 관계에 기초하여, 캐릭터 Vq의 위치 CPVq를 조정한다(S112). 그리고, 겹침 추출부(112)는, 유저 화상 GUq와 캐릭터 화상 GVq의 겹침을 추출한다(S114). 다음에, 원근 판정부(113)는, 카메라 CMA로부터 본 유저 Uq 및 캐릭터 Vq의 원근을 판정한다(S116). 그리고, 표시 정보 생성부(114)는, 합성 화상 GG를 나타내는 표시 데이터 Dout를 생성한다(S118). 그 후, 표시 정보 생성부(114)는, 표시 데이터 생성 처리의 종료를 판정한다(S120).
이상과 같이, 본 실시 형태에 따르면, 카메라 좌표계 ΣC에 있어서의 유저 Uq의 방향 CRUq의 특정 결과에 기초하여, 카메라 좌표계 ΣC에 있어서의 캐릭터 Vq의 위치 CPVq를 결정한다. 이 때문에, 본 실시 형태에 따르면, 카메라 CMA의 위치 또는 방향, 및 유저 Uq의 위치 또는 방향에 관계없이, 캐릭터 Vq와 유저 Uq를 관련지어 표시할 수 있다.
또한, 본 실시 형태에 있어서, 캐릭터 위치 결정부(111C)는, 카메라 좌표계 ΣC에 있어서의 유저 Uq의 방향 CRUq의 특정 결과에 기초하여, 카메라 좌표계 ΣC에 있어서의 캐릭터 Vq의 위치 CPVq를 결정하지만, 본 발명은 이러한 양태에 한정되는 것은 아니다.
예를 들어, 도 16 및 도 17에 도시하는 바와 같이, 유저 U1 및 유저 U2의 상대적인 위치 관계에 기초하여, 카메라 좌표계 ΣC에 있어서의 캐릭터 Vq의 위치 CPVq를 결정해도 된다. 또한, 도 16은, 정보 처리 장치(10C)가 표시 데이터 생성 처리를 실행하는 경우에 있어서의, 정보 처리 장치(10C)의 동작의 다른 예를 도시하는 흐름도이다. 도 16에 도시하는 표시 데이터 생성 처리는, 스텝 S400 대신에, 스텝 S404의 처리를 실행하는 점을 제외하고, 도 14에 도시하는 표시 데이터 생성 처리와 마찬가지의 처리이다. 또한, 도 17은, +ZW측으로부터 표시 공간 SP-V를 본 경우에 있어서의, 각종 물체의 위치 관계를 설명하기 위한 설명도이다.
도 16에 도시하는 바와 같이, 표시 데이터 생성 처리가 개시되면, 오브젝트 특정부(115)가, 카드 CDq의 종류를 특정한다(S100).
또한, 피사체 위치 특정부(117)는, 촬상 데이터 DA 및 심도 정보 DS에 기초하여, 도 17에 도시하는, 카메라 좌표계 ΣC에 있어서의 유저 Uq의 위치 CPUq를 특정한다(S104). 또한, 도 16 및 도 17에 도시하는 예에서는, 피사체 위치 특정부(117)는, 스텝 S104에 있어서, 유저 U1의 위치 CPU1과, 유저 U2의 위치 CPU2의 양쪽을 특정하는 것으로 한다.
또한, 피사체 위치 특정부(117)는, 촬상 데이터 DA 및 심도 정보 DS에 기초하여, 도 17에 도시하는, 카메라 좌표계 ΣC에 있어서의 유저 Uq의 방향 CRUq를 특정한다(S106).
그리고, 캐릭터 위치 결정부(111C)는, 도 17에 도시하는 바와 같이, 카메라 좌표계 ΣC에 있어서, 유저 U1 및 유저 U2의 상대적인 위치 관계를 나타내는 벡터 CPUU에 기초하여, 유저 Uq로부터 본 캐릭터 Vq의 위치를 나타내는 벡터 CPUVq를 결정한다(S404). 구체적으로는, 캐릭터 위치 결정부(111C)는, 스텝 S404에 있어서, 우선, 유저 U1의 위치 CPU1과, 유저 U2의 위치 CPU2에 기초하여, 카메라 좌표계 ΣC에 있어서, 유저 Uq로부터 다른 유저 U의 위치를 나타내는 벡터 CPUU를 산출한다. 다음에, 캐릭터 위치 결정부(111C)는, 벡터 CPUU와 벡터 CPUVq가 이루는 각도가, 각도 θB로 되도록, 벡터 CPUVq를 결정한다.
그 후, 캐릭터 위치 결정부(111C)가, 유저 Uq의 위치 CPUq와, 벡터 CPUVq에 기초하여, 카메라 좌표계 ΣC에 있어서의 캐릭터 Vq의 위치 CPVq를 결정한다(S402).
또한, 다른 예로서는, 도 18 및 도 19에 도시하는 바와 같이, 유저 Uq의 위치에 기초하여, 카메라 좌표계 ΣC에 있어서의 캐릭터 Vq의 위치 CPVq를 결정해도 된다. 또한, 도 18은, 정보 처리 장치(10C)가 표시 데이터 생성 처리를 실행하는 경우에 있어서의, 정보 처리 장치(10C)의 동작의 제3 예를 도시하는 흐름도이다. 도 18에 도시하는 표시 데이터 생성 처리는, 스텝 S400 대신에, 스텝 S406의 처리를 실행하는 점을 제외하고, 도 14에 도시하는 표시 데이터 생성 처리와 마찬가지의 처리이다. 또한, 도 19는, +ZW측으로부터 표시 공간 SP-V를 본 경우에 있어서의, 각종 물체의 위치 관계를 설명하기 위한 설명도이다.
도 18 및 도 19에 도시하는 바와 같이, 캐릭터 위치 결정부(111C)는, 카메라 좌표계 ΣC에 있어서의 유저 Uq의 위치 CPUq에 기초하여, 유저 Uq로부터 본 캐릭터 Vq의 위치를 나타내는 벡터 CPUVq를 결정한다(S406). 구체적으로는, 캐릭터 위치 결정부(111C)는, 스텝 S406에 있어서, 위치 CPUq가 나타내는 방향과, 벡터 CPUVq와 이루는 각도가, 각도 θC로 되도록, 벡터 CPUVq를 결정한다.
그 후, 캐릭터 위치 결정부(111C)는, 유저 Uq의 위치 CPUq와, 벡터 CPUVq에 기초하여, 카메라 좌표계 ΣC에 있어서의 캐릭터 Vq의 위치 CPVq를 결정한다(S402).
[5. 제5 실시 형태]
이하, 본 발명의 제5 실시 형태를 설명한다.
제5 실시 형태는, 카메라 CMT로부터 출력되는 촬상 데이터 DT를 사용하지 않고, 캐릭터 화상 GVq에 의해 표시되는 캐릭터 Vq의 종류가 지정되는 점에 있어서, 제4 실시 형태와 상이하다.
도 20은, 제5 실시 형태에 관한 정보 처리 시스템(1D)의 구성의 일례를 도시하는 기능 블록도이다. 정보 처리 시스템(1D)은, 제어부(11C)를 구비하는 정보 처리 장치(10C) 대신에, 제어부(11D)를 구비하는 정보 처리 장치(10D)를 구비하는 점과, 카메라 CMT를 구비하지 않는 점을 제외하고, 도 13에 도시하는 제4 실시 형태에 관한 정보 처리 시스템(1C)과 마찬가지로 구성되어 있다. 제어부(11D)는, 캐릭터 위치 결정부(111C)를 구비하는 표시 제어부(110C) 대신에, 캐릭터 위치 결정부(111D)를 구비하는 표시 제어부(110D)를 구비하는 점과, 오브젝트 특정부(115)를 구비하지 않는 점을 제외하고, 도 14에 도시하는 제4 실시 형태에 관한 제어부(11C)와 마찬가지로 구성되어 있다.
본 실시 형태에 있어서, 기억 장치(30)는, 카드 디자인 정보와, 캐릭터 정보를 기억하고 있다. 또한, 본 실시 형태에 있어서, 현실 공간 SP-R에는, 마커 MK를 마련하지 않아도 된다.
도 21은, 정보 처리 장치(10D)가, 표시 데이터 Dout를 생성하는 처리인 표시 데이터 생성 처리를 실행하는 경우에 있어서의, 정보 처리 장치(10D)의 동작의 일례를 도시하는 흐름도이다.
도 21에 도시하는 바와 같이, 본 실시 형태에 관한 표시 데이터 생성 처리는, 스텝 S100의 처리를 실행하지 않는 점과, 스텝 S300의 처리를 실행하는 점을 제외하고, 도 14에 도시하는 제4 실시 형태에 관한 표시 데이터 생성 처리와 마찬가지의 처리이다. 즉, 캐릭터 위치 결정부(111D)는, 스텝 S400, S402, S110, S112 및 S300의 처리를 실행한다. 단, 캐릭터 위치 결정부(111D)는, 스텝 S400 대신에, 스텝 S404, 또는 스텝 S406의 처리를 실행해도 된다.
[6. 변형예]
이상의 각 형태는 다양하게 변형될 수 있다. 구체적인 변형의 양태를 이하에 예시한다. 이하의 예시로부터 임의로 선택된 2 이상의 양태는, 서로 모순되지 않는 범위 내에서 적절하게 병합될 수 있다. 또한, 이하에 예시하는 변형예에 있어서 작용이나 기능이 실시 형태와 동등한 요소에 대해서는, 이상의 설명에서 참조한 부호를 유용하여 각각의 상세한 설명을 적절하게 생략한다.
[변형예 1]
상술한 제1 내지 제5 실시 형태에 있어서, 표시 공간 SP-V에 있어서의 캐릭터 Vq의 위치 WPVq는, 일정 위치, 또는 유저 Uq의 위치 WPUq 혹은 방향 WRUq에 따른 위치로 되지만, 본 발명은 이러한 양태에 한정되는 것은 아니다. 표시 공간 SP-V에 있어서의 캐릭터 Vq의 위치 WPVq는, 카드 게임의 진행에 따라 변화해도 되고, 또는 유저 Uq의 동작에 따라 변화해도 된다.
예를 들어, 유저 U1이 카드 CD1을 사용하여 유저 U2의 카드 CD2를 공격하는 경우, 유저 U1의 카드 CD1이 유저 U2의 카드 CD2에 의해 공격을 받고 있는 경우, 또는 유저 U1이 소정의 동작을 한 경우에, 표시 공간 SP-V에 있어서, 캐릭터 V1을, 도 2에 도시하는 바와 같은 유저 U1의 배후의 위치로부터, 도 22에 도시하는 바와 같은 유저 U1의 전방의 위치로 이동시켜도 된다. 여기서, 유저 U1의 소정의 동작이란, 예를 들어 카드 CD1로 카드 CD2를 공격하는 것을 나타내는 동작이어도 된다. 카드 CD1로 카드 CD2를 공격하는 것을 나타내는 유저 U1의 동작이란, 예를 들어 유저 U1이 카드 CD1을 가리킨 후에 카드 CD2를 가리키는 동작이어도 되고, 유저 U1이 카드 CD1을 카드 CD2에 겹치는 동작이어도 되며, 그 밖에 유저 U1이 카드 CD1을 사용하여 행하는 동작이어도 된다. 또한, 유저 U1과 유저 U2의 카드가 각각 1매씩, 합계 2매밖에 테이블 TB에 배치되어 있지 않은 경우 등, 카드를 지정하지 않아도 공격 지시임이 명확한 경우에는, 자진(自陣) 영역으로서 설정되는 영역의 임의의 장소를 가리키는 동작을 한 후, 상대진 영역으로서 설정되는 영역의 임의의 장소를 가리키는 동작을 하는 일련의 동작이어도 된다. 즉, 유저의 의도가 명확하다면 반드시 카드를 가리키는 동작이 아니어도 된다. 또한, 유저 U1의 소정의 동작이란, 예를 들어 게임에 있어서의 소정의 효과를 발동시키기 위한 동작이어도 된다. 여기서, 게임에 있어서의 소정의 효과란, 예를 들어 카드 CD1의 공격력을 증대시키는 효과여도 되고, 카드 CD1의 방어력을 증대시키는 효과여도 되고, 카드 CD2의 공격력을 삭감시키는 효과여도 된다. 즉, 게임에 있어서의 소정의 효과란, 예를 들어 유저 U1에 있어서, 게임의 진행이 유리하게 되는 효과와 같은, 게임의 진행에 관한 효과여도 된다. 게임에 있어서의 소정의 효과를 발동시키기 위한 유저 U1의 동작이란, 예를 들어 유저 U1이, 유저 U1이 갖는 카드 CD1 이외의 다른 카드를 카드 CD1에 겹치는 동작이어도 되고, 유저 U1이, 카드 CD1을 다른 카드에 겹치는 동작이어도 되며, 그 밖에 유저 U1이 카드 CD1을 사용하여 행하는 동작이어도 된다. 또한, 유저 U1의 소정의 동작이란, 예를 들어 카드 CD1의 게임에 있어서의 역할을 변경하는 동작이어도 된다. 여기서, 카드 CD1의 게임에 있어서의 역할이란, 예를 들어 카드 CD1이 카드 CD2를 공격하는 역할, 및 카드 CD1이 카드 CD2에 의한 공격으로부터 카드 CD1 또는 유저 U1을 방어하는 역할 중, 한쪽 또는 양쪽을 포함하는 개념이어도 된다. 카드 CD1의 게임에 있어서의 역할을 변경하는 유저 U1의 동작이란, 예를 들어 유저 U1이, 카드 CD1의 방향을 변경하는 동작이어도 되며, 그 밖에 유저 U1이 카드 CD1을 사용하여 행하는 동작이어도 된다. 또한, 유저 U1의 소정의 동작이란, 예를 들어 게임을 일시적으로 중단시키는 동작이어도 된다. 여기서, 게임을 일시적으로 중단시키는 유저 U1의 동작이란, 예를 들어 유저 U1이, 카드 CD1을 뒤집는 동작이어도 되며, 그 밖에 유저 U1이 카드 CD1을 사용하여 행하는 동작이어도 된다. 또한, 이상의 설명에 있어서는, 유저 U1의 소정의 동작으로서, 유저 U1이 카드 CD1을 사용하여 행하는 동작을 예시하였지만, 유저 U1의 소정의 동작은, 유저 U1이 카드 CD1을 사용하지 않고 행하는 동작이어도 되고, 유저 U1이 카드 CD1을 사용하여 행하는 동작과 동시에 실행되는 동작이어도 된다. 여기서, 유저 U1이 카드 CD1을 사용하지 않고 행하는 동작, 및 유저 U1이 카드 CD1을 사용하여 행하는 동작과 동시에 실행되는 동작이란, 예를 들어 유저 U1이, 소정의 문언을 발음하는 동작이어도 되고, 유저 U1이, 소정의 제스처를 실행하는 동작이어도 된다.
이들의 경우, 정보 처리 장치(10, 10A, 10B, 10C 또는 10D)(이하, 「정보 처리 장치(10) 등」이라고 총칭함)의 조작자는, 조작부(14)를 사용하여, 유저 Uq가 카드 CDq를 사용하여 공격하고 있음을 나타내는 정보를 입력하거나, 또는 유저 Uq가 소정의 동작을 실행하고 있음을 나타내는 정보를 입력해도 된다. 그리고, 정보 처리 장치(10) 등은, 정보 처리 장치(10) 등의 조작자에 의한 정보의 입력에 기초하여, 유저 Uq가 카드 CDq를 사용하여 공격하고 있음, 또는 유저 Uq가 소정의 동작을 실행하고 있음을 인식해도 된다.
또한, 정보 처리 장치(10) 등은, 카메라 CMA로부터 출력되는 촬상 데이터 DA 및 심도 정보 DS에 기초하여, 유저 Uq가, 소정의 동작을 실행하였음을 인식해도 된다.
또한, 정보 처리 장치(10)의 캐릭터 위치 결정부(111)는, 상대 위치 정보가 나타내는 벡터 WPUVq의 크기 또는 방향을 변화시킴으로써, 표시 공간 SP-V에 있어서의 캐릭터 Vq의 위치 WPVq를 변화시켜도 된다.
또한, 정보 처리 장치(10A 또는 10B)의 캐릭터 위치 결정부(111A 또는 111B)는, 캐릭터 위치 정보가 나타내는 캐릭터 Vq의 위치 WPVq를 변화시킴으로써, 표시 공간 SP-V에 있어서의 캐릭터 Vq의 위치 WPVq를 변화시켜도 된다.
또한, 정보 처리 장치(10C 또는 10D)의 캐릭터 위치 결정부(111C 또는 111C)는, 각도 θA, θB 또는 θC의 크기와, 벡터 CPUVq의 크기 중 적어도 한쪽을 변화시킴으로써, 표시 공간 SP-V에 있어서의 캐릭터 Vq의 위치 WPVq를 변화시켜도 된다.
[변형예 2]
상술한 제1 내지 제5 실시 형태 및 변형예 1에 있어서, 캐릭터 Vq는, 일정 형상을 갖지만, 본 발명은 이러한 양태에 한정되는 것은 아니며, 캐릭터 Vq의 형상은 변화해도 된다.
구체적으로는, 표시 제어부(110, 110A, 110B, 110C 또는 110D)(이하, 「표시 제어부(110) 등」이라고 총칭함)는, 캐릭터 Vq의 형상을, 카드 게임의 진행에 따라, 또는 유저 Uq의 동작 혹은 자세에 따라 변화시켜도 된다. 여기서, 캐릭터 Vq의 형상이란, 예를 들어 캐릭터 Vq의 자세이다.
예를 들어, 표시 제어부(110) 등은, 유저 U1의 카드 CD1이 유저 U2의 카드 CD2에 의해 공격을 받고 있는 경우, 또는 유저 U1이 소정의 동작을 한 경우에, 캐릭터 V1을, 도 2에 도시하는 바와 같은, 날개를 펴고 있지 않은 자세로부터, 도 23에 도시하는 바와 같은, 날개를 펴 유저 U1을 보호하는 자세로, 자세 변화시켜도 된다.
또한, 표시 제어부(110) 등은, 캐릭터 Vq가, 도 23에 도시하는 바와 같은, 날개를 펴 유저 Uq를 보호하는 자세를 취하는 경우, 캐릭터 Vq의 동체 부분이, 카메라 CMA로부터 보아, 유저 Uq의 배후에 가려지고, 캐릭터 Vq의 날개의 일부가, 카메라 CMA로부터 보아, 유저 Uq보다 앞쪽에 위치하도록, 유저 화상 GUq 및 캐릭터 화상 GVq를 표시시켜도 된다.
또한, 표시 제어부(110) 등은, 유저 U1이, 게임을 일시적으로 중단시키는 동작을 실행한 경우, 캐릭터 V1의 자세를, 캐릭터 V1이 휴식하고 있음을 나타내는 자세로 변화시켜도 된다.
[변형예 3]
상술한 제1 내지 제5 실시 형태 및 변형예 1 또는 2에 있어서, 카메라 CMA는, 현실 공간 SP-R에 있어서, 위치 WPC 및 방향 WRC를 변화시킬 수 있지만, 본 발명은 이러한 양태에 한정되는 것은 아니다. 카메라 CMA는, 현실 공간 SP-R의 소정의 장소에 배치되어 있어도 된다. 이 경우, 기억 장치(30)는, 월드 좌표계 ΣW에 있어서의 카메라 CMA의 위치 WPC 및 방향 WRC를 나타내는 정보를 기억하고 있어도 된다.
[변형예 4]
상술한 제1 내지 제5 실시 형태 및 변형예 1 내지 3에 있어서, 정보 처리 시스템(1, 1A, 1B, 1C 및 1D)(이하, 「정보 처리 시스템(1) 등」이라고 총칭함)은, 기억 장치(30)를 구비하지만, 본 발명은 이러한 양태에 한정되는 것은 아니다. 정보 처리 시스템(1) 등은, 기억 장치(30)를 구비하지 않고 구성되어 있어도 된다. 이 경우, 정보 처리 장치(10) 등이 구비하는 기억부(12)가, 카드 디자인 정보, 캐릭터 정보, 마커 정보, 상대 위치 정보, 유저 위치 정보 및 캐릭터 위치 정보의, 일부 또는 전부를 기억하고 있어도 된다.
[변형예 5]
상술한 제1 내지 제5 실시 형태 및 변형예 1 내지 4에 있어서, 정보 처리 장치(10) 등은, 심도 정보 DS에 기초하여, 카메라 CMA의 피사체의 각 부위와 카메라 CMA의 거리에 따른 값(심도)을, 카메라 CMA의 피사체의 전체에 대하여 배열시킨 「심도 맵」을 작성해도 된다. 이 경우, 정보 처리 장치(10) 등은, 심도 맵과, 카메라 CMA로부터 본 캐릭터 Vq의 심도에 기초하여, 카메라 CMA로부터 본, 캐릭터 Vq와, 피사체의 각 부위의 원근을 판정해도 된다. 그리고, 이 경우, 정보 처리 장치(10) 등은, 캐릭터 화상 GVq의 일부, 및 피사체를 촬상하여 얻어진 촬상 화상의 일부가, 합성 화상 GG에 있어서 겹치는 경우에는, 원근의 판정 결과에 기초하여, 캐릭터 화상 GVq, 및 촬상 화상의 일부 중, 카메라 CMA로부터 먼 쪽에 대응하는 화상을 비표시로 해도 된다.
또한, 정보 처리 장치(10) 등은, 촬상 데이터 DA 및 심도 정보 DS 중 한쪽 또는 양쪽에 기초하여, 유저 Uq의 형상, 윤곽, 또는 유저 Uq의 얼굴 위치를 특정해도 된다. 이 경우, 정보 처리 장치(10) 등은, 심도 맵, 유저 Uq의 윤곽을 나타내는 정보 및 심도 맵, 또는 유저 Uq의 얼굴 위치 및 심도 맵에 기초하여, 유저 Uq와, 유저 Uq 이외의 피사체와의 상대적인 위치 관계를 특정해도 된다. 그리고, 이 경우, 특정한 상대적인 위치 관계에 기초하여, 표시 공간 SP-V에 있어서의 캐릭터 Vq의 위치를 결정하고, 당해 결정 결과와, 심도 맵에 기초하여, 캐릭터 화상 GVq를 표시해도 된다.
[변형예 6]
상술한 제1 내지 제5 실시 형태 및 변형예 1 내지 5에서는, 유저 Uq가 카드 CDq 등의 「오브젝트」를 사용하여 행하는 게임이 실행되는 경우를 예시하여 설명하였지만, 본 발명은 이러한 양태에 한정되는 것은 아니다. 본원 발명은, 게임 외에, 연극 또는 프리젠테이션 등의, 유저 Uq가 오브젝트를 사용하여 행하는 오브젝트 이용 행위를 행하는 경우에 대해서도 적용 가능하다.
[7. 부기]
이상의 기재로부터, 본 발명은 예를 들어 이하와 같이 파악된다. 또한, 각 양태의 이해를 용이하게 하기 위해, 이하에서는, 도면의 참조 부호를 편의적으로 괄호쓰기로 부기하지만, 본 발명을 도시된 양태로 한정한다는 취지는 아니다.
[부기 1]
본 발명의 일 양태에 관한 기록 매체는, 프로세서(예를 들어, 프로세서(1000))를, 오브젝트(예를 들어, 카드 CDq)가 배치된 현실 공간을 촬상하는 제1 촬상부(예를 들어, 카메라 CMA)의, 상기 현실 공간에 있어서의 위치 및 자세 중 적어도 한쪽을 특정하는 제1 특정부(예를 들어, 카메라 위치 특정부(116))와, 상기 제1 촬상부에 의한 촬상 결과에 기초하는 제1 화상(예를 들어, 현실 공간 SP-R을 촬상하여 얻어진 화상)을 표시부(예를 들어, 표시부(21))에 표시시키고, 상기 오브젝트에 대응하는 제2 화상(예를 들어, 캐릭터 화상 GVq)을, 상기 표시부 중, 상기 제1 특정부에 의한 특정 결과에 기초하는 위치에 표시시키는 표시 제어부(예를 들어, 표시 제어부(110))로서 기능시키기 위한 프로그램(예를 들어, 제어 프로그램 PRG)을 기록한 비일시적 기록 매체인 것을 특징으로 한다.
이 양태에 따르면, 현실 공간을 촬상하는 제1 촬상부의 위치 및 자세에 기초하여, 표시부에 있어서의 제2 화상의 표시 위치를 결정한다. 즉, 이 양태에 따르면, 현실 공간에 있어서의 오브젝트의 위치 및 자세에 의존하지 않고, 표시부에 있어서의 제2 화상의 표시 위치를 결정할 수 있다. 이 때문에, 이 양태에 따르면, 현실 공간에 있어서 오브젝트를 소정의 위치에 배치하는 등의 수고를 들이지 않고, 오브젝트에 대응하는 제2 화상의 표시부에 있어서의 표시 위치를 결정할 수 있다.
또한, 이 양태에 따르면, 현실 공간에 있어서의 오브젝트의 위치 및 자세에 의한 제약을 받지 않고, 표시부에 있어서의 제2 화상의 표시 위치를 결정할 수 있다. 이 때문에, 이 양태에 따르면, 현실 공간에 있어서의 오브젝트의 위치 및 자세에 기초하여, 표시부에 있어서의 제2 화상의 표시 위치가 결정되는 경우와 비교하여, 표시부에 있어서의 제2 화상의 표시 위치에 관한 자유도를 높일 수 있다.
또한, 이 양태에 따르면, 오브젝트에 있어서, 현실 공간에 있어서의 당해 오브젝트의 위치 및 자세를 특정하기 위한 특징을 표시시킬 필요가 없다. 이 때문에, 이 양태에 따르면, 현실 공간에 있어서의 오브젝트의 위치 및 자세에 기초하여, 표시부에 있어서의 제2 화상의 표시 위치가 결정되는 경우와 비교하여, 오브젝트의 디자인 상의 자유도를 높이는 것이 가능하게 된다.
또한, 상기 양태에 있어서, 「오브젝트」란, 예를 들어 유저가 게임, 연극, 또는 프리젠테이션 등의 오브젝트 이용 행위를 위해 사용하는 오브젝트여도 된다.
[부기 2]
본 발명의 다른 양태에 관한 기록 매체는, 부기 1에 기재된 프로그램을 기록한 비일시적 기록 매체이며, 상기 제1 특정부는, 상기 제1 촬상부에 의한 촬상 결과에 기초하여, 상기 제1 촬상부의 상기 현실 공간에 있어서의 위치 및 자세 중 적어도 한쪽을 특정하는 것을 특징으로 한다.
이 양태에 따르면, 현실 공간을 촬상하는 제1 촬상부에 의한 촬상 결과에 기초하여, 표시부에 있어서의 제2 화상의 표시 위치를 결정할 수 있다. 이 때문에, 이 양태에 따르면, 현실 공간에 있어서의 오브젝트의 위치 및 자세에 의존하지 않고, 표시부에 있어서의 제2 화상의 표시 위치를 결정할 수 있다.
[부기 3]
본 발명의 다른 양태에 관한 기록 매체는, 부기 1 또는 2에 기재된 프로그램을 기록한 비일시적 기록 매체이며, 상기 제1 화상은, 상기 현실 공간 내의 유저를 나타내는 제3 화상(예를 들어, 유저 화상 GUq)을 포함하고, 상기 표시 제어부는, 상기 표시부에 있어서, 상기 제2 화상의 적어도 일부와 상기 제3 화상의 적어도 일부가 겹치는 경우에, 상기 제1 특정부에 의한 특정 결과에 기초하여, 상기 제2 화상의 적어도 일부, 또는 상기 제3 화상의 적어도 일부 중, 어느 한쪽을, 비표시로 하는 것을 특징으로 한다.
이 양태에 따르면, 제2 화상의 일부와 제3 화상의 일부가 겹치는 경우에, 제2 화상의 일부 및 제3 화상의 일부 중 한쪽을 비표시로 한다. 이 때문에, 이 양태에 따르면, 표시부에 표시되는 화상에 있어서, 깊이를 표현할 수 있다.
또한, 상기 양태에 있어서, 「제3 화상」이란, 예를 들어 제1 촬상부에 의해 유저를 촬상한 결과로서 얻어지는, 유저의 형상, 윤곽, 색채 및 모양의 일부 또는 전부를 나타내는 화상이어도 된다. 구체적으로는, 「제3 화상」이란, 예를 들어 유저의 형상, 윤곽, 색채 및 모양 모두를 나타내는 화상이어도 된다. 또한, 「제3 화상」이란, 예를 들어 유저의 골격 등의 유저의 형상을 나타내는 화상이어도 되고, 유저의 실루엣 등의 유저의 윤곽을 나타내는 화상이어도 된다. 즉, 「제3 화상」은, 예를 들어 유저의 색채 및 모양 중 적어도 한쪽을 포함하지 않는 화상이어도 된다.
[부기 4]
본 발명의 다른 양태에 관한 기록 매체는, 부기 1 내지 3에 기재된 프로그램을 기록한 비일시적 기록 매체이며, 상기 제1 화상은, 상기 현실 공간 내의 유저를 나타내는 제3 화상을 포함하고, 상기 표시 제어부는, 상기 제1 특정부에 의한 특정 결과에 기초하여, 상기 표시부에 있어서의, 상기 제2 화상과 상기 제3 화상의 상대적인 위치 관계를 결정하고, 당해 결정의 결과에 기초하여, 상기 제2 화상 및 상기 제3 화상을 상기 표시부에 표시시키는 것을 특징으로 한다.
이 양태에 따르면, 현실 공간을 촬상하는 제1 촬상부의 위치 및 자세에 기초하여, 표시부에 있어서의 제2 화상과 제3 화상의 상대적인 위치 관계를 결정한다. 이 때문에, 이 양태에 따르면, 현실 공간에 있어서의 제1 촬상부의 위치 및 자세가 변화하는 경우라도, 표시부에 있어서 제2 화상과 제3 화상을 관련지어 표시하는 등의 연출을 행할 수 있다.
[부기 5]
본 발명의 다른 양태에 관한 기록 매체는, 부기 1 내지 4에 기재된 프로그램을 기록한 비일시적 기록 매체이며, 상기 제1 화상은, 상기 현실 공간 내의 유저를 나타내는 제3 화상과, 상기 현실 공간 중 상기 유저의 배경(예를 들어, 벽 WL)을 나타내는 제4 화상(예를 들어, 벽 화상 GWL)을 포함하고, 상기 표시 제어부는, 상기 제1 특정부에 의한 특정 결과에 기초하여, 상기 표시부에 있어서의, 상기 제2 화상과 상기 제3 화상과 상기 제4 화상의 상대적인 위치 관계를 결정하고, 당해 결정의 결과에 기초하여, 상기 제2 화상, 상기 제3 화상 및 상기 제4 화상을, 상기 표시부에 표시시키는 것을 특징으로 한다.
이 양태에 따르면, 현실 공간을 촬상하는 제1 촬상부의 위치 및 자세에 기초하여, 표시부에 있어서의 제2 화상과 제3 화상과 제4 화상의 상대적인 위치 관계를 결정한다. 이 때문에, 이 양태에 따르면, 현실 공간에 있어서의 제1 촬상부의 위치 및 자세가 변화하는 경우라도, 표시부에 있어서 제2 화상과 제3 화상을 관련지어 표시하는 등의 연출을 행할 수 있다.
[부기 6]
본 발명의 다른 양태에 관한 기록 매체는, 부기 1 내지 5에 기재된 프로그램을 기록한 비일시적 기록 매체이며, 상기 프로세서를, 상기 오브젝트를 촬상하는 제2 촬상부(예를 들어, 카메라 CMT)에 의한 촬상 결과에 기초하여, 상기 오브젝트의 종류를 특정하는 제2 특정부(예를 들어, 오브젝트 특정부(115))로서 더 기능시키고, 상기 제2 화상은, 상기 제2 특정부가 특정한 오브젝트의 종류에 따른 화상인 것을 특징으로 한다.
이 양태에 따르면, 표시부에 있어서, 현실 공간에 배치된 오브젝트의 종류에 따른 화상을 제2 화상으로서 표시시킨다. 이 때문에, 이 양태에 따르면, 예를 들어 현실 공간에 배치된 오브젝트의 종류에 상관없이 동일한 화상을 제2 화상으로서 표시하는 경우와 비교하여, 표시부에 있어서 표시되는 화상에 있어서, 임장감을 연출하는 것이 가능하게 된다.
[부기 7]
본 발명의 다른 양태에 관한 기록 매체는, 부기 1 내지 6에 기재된 프로그램을 기록한 비일시적 기록 매체이며, 상기 제1 화상은, 상기 현실 공간 내의 유저를 나타내는 제3 화상을 포함하고, 상기 제2 화상은, 상기 오브젝트에 대응하는 캐릭터를 나타내는 화상이며, 상기 표시 제어부는, 상기 표시부에 의해 표시되는 표시 공간에 있어서, 상기 제2 화상으로서 표시되는 상기 캐릭터와, 상기 제3 화상으로서 표시되는 상기 유저가, 소정의 위치 관계를 갖도록, 상기 표시부에 대하여, 상기 제2 화상 및 상기 제3 화상을 표시시키는 것을 특징으로 한다.
이 양태에 따르면, 표시 공간에 있어서, 캐릭터와 유저가 소정의 위치 관계를 유지하도록, 표시부에 있어서, 제2 화상 및 제3 화상을 표시시킨다. 즉, 이 양태에 따르면, 현실 공간에 있어서, 제1 촬상부의 위치 및 자세가 변화한 경우라도, 표시 공간에 있어서의, 캐릭터 및 유저의 상대적인 위치 관계의 변화를 억제하는 것이 가능하게 된다. 이 때문에, 이 양태에 따르면, 현실 공간에 있어서의 제1 촬상부의 위치 및 자세를 변화시킴으로써, 표시 공간에 있어서 캐릭터 및 유저를 촬상하는 가상 카메라의 위치 및 자세를 변화시킨다고 하는 연출이 가능하게 된다.
[부기 8]
본 발명의 다른 양태에 관한 기록 매체는, 부기 1 내지 7에 기재된 프로그램을 기록한 비일시적 기록 매체이며, 상기 제1 화상은, 상기 현실 공간 내의 유저를 나타내는 제3 화상과, 상기 현실 공간 중 상기 유저의 배경을 나타내는 제4 화상을 포함하고, 상기 제2 화상은, 상기 오브젝트에 대응하는 캐릭터를 나타내는 화상이며, 상기 표시 제어부는, 상기 표시부에 의해 표시되는 표시 공간에 있어서, 상기 제2 화상으로서 표시되는 상기 캐릭터가, 상기 제3 화상으로서 표시되는 상기 유저와, 상기 제4 화상으로서 표시되는 상기 배경의 사이에 위치하도록, 상기 표시부에 대하여, 상기 제2 화상, 상기 제3 화상 및 상기 제4 화상을 표시시키는 것을 특징으로 한다.
이 양태에 따르면, 표시 공간에 있어서, 캐릭터가 유저 및 배경의 사이에 위치하도록, 표시부에 있어서, 제2 화상과 제3 화상과 제4 화상을 표시시킨다. 이 때문에, 이 양태에 따르면, 표시 공간에 있어서, 배경보다 앞쪽에 캐릭터가 위치하는 연출이 가능하게 된다.
[부기 9]
본 발명의 다른 양태에 관한 기록 매체는, 부기 1 내지 8에 기재된 프로그램을 기록한 비일시적 기록 매체이며, 상기 제1 화상은, 상기 현실 공간 내의 유저를 나타내는 제3 화상을 포함하고, 상기 제2 화상은, 상기 오브젝트에 대응하는 캐릭터를 나타내는 화상이며, 상기 표시 제어부는, 상기 유저가 소정의 동작을 실행한 경우에, 상기 표시부에 의해 표시되는 표시 공간에 있어서, 상기 제2 화상으로서 표시되는 상기 캐릭터와, 상기 제3 화상으로서 표시되는 상기 유저의, 상대적인 위치 관계가 변화하도록, 상기 표시부에 대하여, 상기 제2 화상 및 상기 제3 화상을 표시시키는 것을 특징으로 한다.
이 양태에 따르면, 유저의 동작에 기초하여, 표시 공간에 있어서의 유저와 캐릭터의 상대적인 위치 관계를 변화시킨다. 이 때문에, 이 양태에 따르면, 표시부에 표시되는 화상에 있어서, 유저가 소정의 동작을 실행한 것을 강조하여 표현한다고 하는 연출이 가능하게 된다.
또한, 상기 양태에 있어서, 「소정의 동작」이란, 예를 들어 유저의 자세가 소정의 변화를 하는 것이어도 되고, 유저가 소정의 문언을 발언하는 것이어도 된다.
[부기 10]
본 발명의 다른 양태에 관한 기록 매체는, 부기 1 내지 9에 기재된 프로그램을 기록한 비일시적 기록 매체이며, 상기 제1 화상은, 상기 현실 공간 내의 유저를 나타내는 제3 화상을 포함하고, 상기 제2 화상은, 상기 오브젝트에 대응하는 캐릭터를 나타내는 화상이며, 상기 표시 제어부는, 상기 표시부에 의해 표시되는 표시 공간에 있어서, 상기 캐릭터의 자세가, 상기 유저의 자세에 기초하는 자세로 되도록, 상기 표시부에 있어서, 상기 제2 화상을 표시시키는 것을 특징으로 한다.
이 양태에 따르면, 표시 공간에 있어서의 캐릭터의 자세가, 유저의 자세에 기초하는 자세로 되도록, 표시부에 있어서 제2 화상을 표시한다. 이 때문에, 이 양태에 따르면, 표시부에 표시되는 화상에 있어서, 유저 및 캐릭터의 일체감을 연출할 수 있다.
또한, 상기 양태에 있어서, 「캐릭터 또는 유저의 자세」란, 예를 들어 캐릭터 또는 유저의 방향이어도 되고, 캐릭터 또는 유저의 자세여도 된다.
[부기 11]
본 발명의 다른 양태에 관한 기록 매체는, 부기 1 내지 10에 기재된 프로그램을 기록한 비일시적 기록 매체이며, 상기 제1 화상은, 상기 현실 공간 내의 유저를 나타내는 제3 화상을 포함하고, 상기 제2 화상은, 상기 오브젝트에 대응하는 캐릭터를 나타내는 화상이며, 상기 표시 제어부는, 상기 표시부에 의해 표시되는 표시 공간에 있어서, 상기 제3 화상으로서 표시되는 상기 유저의 방향과, 상기 제2 화상으로서 표시되는 상기 캐릭터의 방향이 이루는 각도가, 소정의 각도 이하로 되도록, 상기 표시부에 있어서, 상기 제2 화상을 표시시키는 것을 특징으로 한다.
이 양태에 따르면, 예를 들어 표시 공간에 있어서, 유저의 방향과, 캐릭터의 방향이, 대략 동일하게 되도록, 표시부에 있어서 제2 화상을 표시한다. 이 때문에, 이 양태에 따르면, 표시부에 표시되는 화상에 있어서, 유저 및 캐릭터의 일체감을 연출할 수 있다.
[부기 12]
본 발명의 일 양태에 관한 정보 처리 장치는, 오브젝트가 배치된 현실 공간을 촬상하는 제1 촬상부의, 상기 현실 공간에 있어서의 위치 및 자세 중 적어도 한쪽을 특정하는 제1 특정부와, 상기 제1 촬상부에 의한 촬상 결과에 기초하는 제1 화상을 표시부에 표시시키고, 상기 오브젝트에 대응하는 제2 화상을, 상기 표시부 중, 상기 제1 특정부에 의한 특정 결과에 기초하는 위치에 표시시키는 표시 제어부를 구비하는 것을 특징으로 한다.
이 양태에 따르면, 현실 공간을 촬상하는 제1 촬상부의 위치 및 자세에 기초하여, 표시부에 있어서의 제2 화상의 표시 위치를 결정한다. 즉, 이 양태에 따르면, 현실 공간에 있어서의 오브젝트의 위치 및 자세에 의존하지 않고, 표시부에 있어서의 제2 화상의 표시 위치를 결정할 수 있다. 이 때문에, 이 양태에 따르면, 현실 공간에 있어서 오브젝트를 소정의 위치에 배치하는 등의 수고를 들이지 않고, 오브젝트에 대응하는 제2 화상의 표시부에 있어서의 표시 위치를 결정할 수 있다.
[부기 13]
본 발명의 일 양태에 관한 정보 처리 시스템은, 오브젝트가 배치된 현실 공간을 촬상하는 제1 촬상부와, 표시부와, 정보 처리 장치를 구비하는 정보 처리 시스템이며, 상기 정보 처리 장치는, 상기 제1 촬상부의, 상기 현실 공간에 있어서의 위치 및 자세 중 적어도 한쪽을 특정하는 제1 특정부와, 상기 제1 촬상부에 의한 촬상 결과에 기초하는 제1 화상을 상기 표시부에 표시시키고, 상기 오브젝트에 대응하는 제2 화상을, 상기 표시부 중, 상기 제1 특정부에 의한 특정 결과에 기초하는 위치에 표시시키는 표시 제어부를 구비하는 것을 특징으로 한다.
이 양태에 따르면, 현실 공간을 촬상하는 제1 촬상부의 위치 및 자세에 기초하여, 표시부에 있어서의 제2 화상의 표시 위치를 결정한다. 즉, 이 양태에 따르면, 현실 공간에 있어서의 오브젝트의 위치 및 자세에 의존하지 않고, 표시부에 있어서의 제2 화상의 표시 위치를 결정할 수 있다. 이 때문에, 이 양태에 따르면, 현실 공간에 있어서 오브젝트를 소정의 위치에 배치하는 등의 수고를 들이지 않고, 오브젝트에 대응하는 제2 화상의 표시부에 있어서의 표시 위치를 결정할 수 있다.
[부기 14]
본 발명의 일 양태에 관한 표시 방법은, 오브젝트가 배치된 현실 공간을 촬상하는 제1 촬상부의, 상기 현실 공간에 있어서의 위치 및 자세 중 적어도 한쪽을 특정하고, 상기 제1 촬상부에 의한 촬상 결과에 기초하는 제1 화상을 표시부에 표시시키고, 상기 오브젝트에 대응하는 제2 화상을, 상기 표시부 중, 상기 특정 결과에 기초하는 위치에 표시시키는 것을 특징으로 한다.
이 양태에 따르면, 현실 공간을 촬상하는 제1 촬상부의 위치 및 자세에 기초하여, 표시부에 있어서의 제2 화상의 표시 위치를 결정한다. 즉, 이 양태에 따르면, 현실 공간에 있어서의 오브젝트의 위치 및 자세에 의존하지 않고, 표시부에 있어서의 제2 화상의 표시 위치를 결정할 수 있다. 이 때문에, 이 양태에 따르면, 현실 공간에 있어서 오브젝트를 소정의 위치에 배치하는 등의 수고를 들이지 않고, 오브젝트에 대응하는 제2 화상의 표시부에 있어서의 표시 위치를 결정할 수 있다.
1: 정보 처리 시스템
10: 정보 처리 장치
11: 제어부
12: 기억부
13: 통신부
14: 조작부
15: 정보 읽기부
20: 표시 장치
21: 표시부
30: 기억 장치
110: 표시 제어부
111: 캐릭터 위치 결정부
112: 겹침 추출부
113: 원근 판정부
114: 표시 정보 생성부
115: 오브젝트 특정부
116: 카메라 위치 특정부
117: 피사체 위치 특정부
1000: 프로세서

Claims (12)

  1. 프로세서를,
    오브젝트가 배치된 현실 공간을 촬상하는 제1 촬상부의,
    상기 현실 공간에 있어서의 위치 및 자세 중 적어도 한쪽을 특정하는 제1 특정부와,
    상기 제1 촬상부에 의한 촬상 결과에 기초하는 제1 화상을 표시부에 표시시키고,
    상기 오브젝트에 대응하는 제2 화상을,
    상기 표시부 중, 상기 제1 특정부에 의한 특정 결과에 기초하는 위치에 표시시키는 표시 제어부
    로서 기능시키기 위한, 프로그램을 기록한 비일시적 기록 매체.
  2. 제1항에 있어서,
    상기 제1 특정부는,
    상기 제1 촬상부에 의한 촬상 결과에 기초하여,
    상기 제1 촬상부의 상기 현실 공간에 있어서의 위치 및 자세 중 적어도 한쪽을 특정하는
    것을 특징으로 하는 프로그램을 기록한 비일시적 기록 매체.
  3. 제1항 또는 제2항에 있어서,
    상기 제1 화상은,
    상기 현실 공간 내의 유저를 나타내는 제3 화상을 포함하고,
    상기 표시 제어부는,
    상기 표시부에 있어서,
    상기 제2 화상의 적어도 일부와 상기 제3 화상의 적어도 일부가 겹치는 경우에,
    상기 제1 특정부에 의한 특정 결과에 기초하여,
    상기 제2 화상의 적어도 일부, 또는 상기 제3 화상의 적어도 일부 중, 어느 한쪽을, 비표시로 하는
    것을 특징으로 하는 프로그램을 기록한 비일시적 기록 매체.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 제1 화상은,
    상기 현실 공간 내의 유저를 나타내는 제3 화상을 포함하고,
    상기 표시 제어부는,
    상기 제1 특정부에 의한 특정 결과에 기초하여,
    상기 표시부에 있어서의,
    상기 제2 화상과 상기 제3 화상의 상대적인 위치 관계를 결정하고,
    당해 결정의 결과에 기초하여,
    상기 제2 화상 및 상기 제3 화상을 상기 표시부에 표시시키는
    것을 특징으로 하는 프로그램을 기록한 비일시적 기록 매체.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 제1 화상은,
    상기 현실 공간 내의 유저를 나타내는 제3 화상과,
    상기 현실 공간 중 상기 유저의 배경을 나타내는 제4 화상을 포함하고,
    상기 표시 제어부는,
    상기 제1 특정부에 의한 특정 결과에 기초하여,
    상기 표시부에 있어서의,
    상기 제2 화상과 상기 제3 화상과 상기 제4 화상의 상대적인 위치 관계를 결정하고,
    당해 결정의 결과에 기초하여,
    상기 제2 화상, 상기 제3 화상 및 상기 제4 화상을, 상기 표시부에 표시시키는
    것을 특징으로 하는 프로그램을 기록한 비일시적 기록 매체.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서,
    상기 프로세서를,
    상기 오브젝트를 촬상하는 제2 촬상부에 의한 촬상 결과에 기초하여,
    상기 오브젝트의 종류를 특정하는 제2 특정부
    로서 더 기능시키고,
    상기 제2 화상은,
    상기 제2 특정부가 특정한 오브젝트의 종류에 따른 화상인
    것을 특징으로 하는 프로그램을 기록한 비일시적 기록 매체.
  7. 제1항 내지 제6항 중 어느 한 항에 있어서,
    상기 제1 화상은,
    상기 현실 공간 내의 유저를 나타내는 제3 화상을 포함하고,
    상기 제2 화상은,
    상기 오브젝트에 대응하는 캐릭터를 나타내는 화상이며,
    상기 표시 제어부는,
    상기 표시부에 의해 표시되는 표시 공간에 있어서,
    상기 제2 화상으로서 표시되는 상기 캐릭터와,
    상기 제3 화상으로서 표시되는 상기 유저가,
    소정의 위치 관계를 갖도록,
    상기 표시부에 대하여, 상기 제2 화상 및 상기 제3 화상을 표시시키는
    것을 특징으로 하는 프로그램을 기록한 비일시적 기록 매체.
  8. 제1항 내지 제7항 중 어느 한 항에 있어서,
    상기 제1 화상은,
    상기 현실 공간 내의 유저를 나타내는 제3 화상과,
    상기 현실 공간 중 상기 유저의 배경을 나타내는 제4 화상을 포함하고,
    상기 제2 화상은,
    상기 오브젝트에 대응하는 캐릭터를 나타내는 화상이며,
    상기 표시 제어부는,
    상기 표시부에 의해 표시되는 표시 공간에 있어서,
    상기 제2 화상으로서 표시되는 상기 캐릭터가,
    상기 제3 화상으로서 표시되는 상기 유저와,
    상기 제4 화상으로서 표시되는 상기 배경의 사이에 위치하도록,
    상기 표시부에 대하여, 상기 제2 화상, 상기 제3 화상 및 상기 제4 화상을 표시시키는
    것을 특징으로 하는 프로그램을 기록한 비일시적 기록 매체.
  9. 제1항 내지 제8항 중 어느 한 항에 있어서,
    상기 제1 화상은,
    상기 현실 공간 내의 유저를 나타내는 제3 화상을 포함하고,
    상기 제2 화상은,
    상기 오브젝트에 대응하는 캐릭터를 나타내는 화상이며,
    상기 표시 제어부는,
    상기 유저가 소정의 동작을 실행한 경우에,
    상기 표시부에 의해 표시되는 표시 공간에 있어서,
    상기 제2 화상으로서 표시되는 상기 캐릭터와,
    상기 제3 화상으로서 표시되는 상기 유저의,
    상대적인 위치 관계가 변화하도록,
    상기 표시부에 대하여, 상기 제2 화상 및 상기 제3 화상을 표시시키는
    것을 특징으로 하는 프로그램을 기록한 비일시적 기록 매체.
  10. 오브젝트가 배치된 현실 공간을 촬상하는 제1 촬상부의,
    상기 현실 공간에 있어서의 위치 및 자세 중 적어도 한쪽을 특정하는 제1 특정부와,
    상기 제1 촬상부에 의한 촬상 결과에 기초하는 제1 화상을 표시부에 표시시키고,
    상기 오브젝트에 대응하는 제2 화상을,
    상기 표시부 중, 상기 제1 특정부에 의한 특정 결과에 기초하는 위치에 표시시키는 표시 제어부
    를 구비하는
    것을 특징으로 하는 정보 처리 장치.
  11. 오브젝트가 배치된 현실 공간을 촬상하는 제1 촬상부와,
    표시부와,
    정보 처리 장치
    를 구비하는 정보 처리 시스템이며,
    상기 정보 처리 장치는,
    상기 제1 촬상부의,
    상기 현실 공간에 있어서의 위치 및 자세 중 적어도 한쪽을 특정하는 제1 특정부와,
    상기 제1 촬상부에 의한 촬상 결과에 기초하는 제1 화상을 상기 표시부에 표시시키고,
    상기 오브젝트에 대응하는 제2 화상을,
    상기 표시부 중, 상기 제1 특정부에 의한 특정 결과에 기초하는 위치에 표시시키는 표시 제어부
    를 구비하는
    것을 특징으로 하는 정보 처리 시스템.
  12. 오브젝트가 배치된 현실 공간을 촬상하는 제1 촬상부의,
    상기 현실 공간에 있어서의 위치 및 자세 중 적어도 한쪽을 특정하고,
    상기 제1 촬상부에 의한 촬상 결과에 기초하는 제1 화상을 표시부에 표시시키고,
    상기 오브젝트에 대응하는 제2 화상을,
    상기 표시부 중, 상기 특정한 결과에 기초하는 위치에 표시시키는
    것을 특징으로 하는 표시 방법.
KR1020207021557A 2017-12-28 2018-08-13 정보 처리 장치, 기록 매체, 정보 처리 시스템 및 표시 방법 KR102443397B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017254724A JP6857795B2 (ja) 2017-12-28 2017-12-28 情報処理装置、情報処理装置のプログラム、情報処理システム、及び、表示方法
JPJP-P-2017-254724 2017-12-28
PCT/JP2018/030205 WO2019130645A1 (ja) 2017-12-28 2018-08-13 情報処理装置、記録媒体、情報処理システム、及び、表示方法

Publications (2)

Publication Number Publication Date
KR20200100169A true KR20200100169A (ko) 2020-08-25
KR102443397B1 KR102443397B1 (ko) 2022-09-16

Family

ID=67063451

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207021557A KR102443397B1 (ko) 2017-12-28 2018-08-13 정보 처리 장치, 기록 매체, 정보 처리 시스템 및 표시 방법

Country Status (4)

Country Link
US (1) US11832000B2 (ko)
JP (1) JP6857795B2 (ko)
KR (1) KR102443397B1 (ko)
WO (1) WO2019130645A1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014093034A (ja) 2012-11-06 2014-05-19 Nintendo Co Ltd 情報処理用プログラム、情報処理装置、情報処理システム、および情報処理方法
JP2015170232A (ja) * 2014-03-10 2015-09-28 キヤノンマーケティングジャパン株式会社 情報処理装置、その制御方法、及びプログラム
WO2016152486A1 (ja) * 2015-03-20 2016-09-29 株式会社リコー 表示装置、表示制御方法、表示制御プログラムおよび表示システム
WO2017068824A1 (ja) * 2015-10-21 2017-04-27 シャープ株式会社 映像生成装置、映像生成装置の制御方法、表示システム、映像生成制御プログラム、およびコンピュータ読み取り可能な記録媒体

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3363861B2 (ja) * 2000-01-13 2003-01-08 キヤノン株式会社 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体
JP2004145448A (ja) 2002-10-22 2004-05-20 Toshiba Corp 端末装置、サーバ装置および画像加工方法
US8072470B2 (en) * 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
US9122053B2 (en) * 2010-10-15 2015-09-01 Microsoft Technology Licensing, Llc Realistic occlusion for a head mounted augmented reality display
US10972680B2 (en) 2011-03-10 2021-04-06 Microsoft Technology Licensing, Llc Theme-based augmentation of photorepresentative view
JP5718197B2 (ja) * 2011-09-14 2015-05-13 株式会社バンダイナムコゲームス プログラム及びゲーム装置
US9761049B2 (en) * 2014-03-28 2017-09-12 Intel Corporation Determination of mobile display position and orientation using micropower impulse radar
JP6362631B2 (ja) * 2016-01-15 2018-07-25 株式会社meleap 画像表示システム、画像表示システムの制御方法、画像配信システムおよびヘッドマウントディスプレイ
US10166473B2 (en) * 2016-07-29 2019-01-01 Justin Hanyan Wong System and method to provide augmented reality and remote gameplay for traditional trading card games
WO2018155233A1 (ja) 2017-02-23 2018-08-30 ソニー株式会社 画像処理装置、画像処理方法、および画像システム
US10543425B2 (en) 2017-05-16 2020-01-28 Sony Interactive Entertainment America Llc Systems and methods for detecting and displaying a boundary associated with player movement

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014093034A (ja) 2012-11-06 2014-05-19 Nintendo Co Ltd 情報処理用プログラム、情報処理装置、情報処理システム、および情報処理方法
JP2015170232A (ja) * 2014-03-10 2015-09-28 キヤノンマーケティングジャパン株式会社 情報処理装置、その制御方法、及びプログラム
WO2016152486A1 (ja) * 2015-03-20 2016-09-29 株式会社リコー 表示装置、表示制御方法、表示制御プログラムおよび表示システム
WO2017068824A1 (ja) * 2015-10-21 2017-04-27 シャープ株式会社 映像生成装置、映像生成装置の制御方法、表示システム、映像生成制御プログラム、およびコンピュータ読み取り可能な記録媒体

Also Published As

Publication number Publication date
KR102443397B1 (ko) 2022-09-16
WO2019130645A1 (ja) 2019-07-04
JP2019121100A (ja) 2019-07-22
JP6857795B2 (ja) 2021-04-14
US20200329196A1 (en) 2020-10-15
US11832000B2 (en) 2023-11-28

Similar Documents

Publication Publication Date Title
US8970623B2 (en) Information processing system, information processing method, information processing device and tangible recoding medium recording information processing program
US10471355B2 (en) Display system, method of controlling display system, image generation control program, and computer-readable storage medium
US9064335B2 (en) System, method, device and computer-readable medium recording information processing program for superimposing information
JP5145444B2 (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム
US9030493B2 (en) Image processing system, method and apparatus, and computer-readable medium recording image processing program
JP5586545B2 (ja) ゲームシステム、携帯型ゲーム装置、情報処理部の制御方法、および情報処理部の制御プログラム
JP5757790B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、及び、情報処理方法
JP5675260B2 (ja) 画像処理プログラム、画像処理装置、画像処理システム、及び、画像処理方法
JP5812665B2 (ja) 情報処理システム、情報処理装置、情報処理方法及び情報処理プログラム
US20130057574A1 (en) Storage medium recorded with program, information processing apparatus, information processing system, and information processing method
CN109407959B (zh) 虚拟场景中的虚拟对象控制方法、设备以及存储介质
US11562564B2 (en) Recording medium, information processing system, and display method
JP5563613B2 (ja) ゲーム装置、ゲーム装置の制御方法、及びプログラム
JP2012216073A (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム
JP6582205B2 (ja) 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、情報処理システム
KR20200100169A (ko) 정보 처리 장치, 기록 매체, 정보 처리 시스템 및 표시 방법
JP7364218B2 (ja) 情報処理装置、情報処理装置のプログラム、情報処理システム、及び、表示方法
JP6707224B2 (ja) 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、表示システム
JP6388270B1 (ja) 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、表示システム
JP2020074064A (ja) 情報処理装置、情報処理装置のプログラム、情報処理システム、及び、表示方法
KR20200112953A (ko) 정보 처리 장치, 기록 매체, 헤드 마운트 디스플레이 및 정보 처리 시스템
JP6923964B2 (ja) 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、表示システム
JP2019125335A (ja) 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、表示システム

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right