JP6368881B1 - 表示制御システム,端末装置,コンピュータプログラム,及び表示制御方法 - Google Patents

表示制御システム,端末装置,コンピュータプログラム,及び表示制御方法 Download PDF

Info

Publication number
JP6368881B1
JP6368881B1 JP2018074364A JP2018074364A JP6368881B1 JP 6368881 B1 JP6368881 B1 JP 6368881B1 JP 2018074364 A JP2018074364 A JP 2018074364A JP 2018074364 A JP2018074364 A JP 2018074364A JP 6368881 B1 JP6368881 B1 JP 6368881B1
Authority
JP
Japan
Prior art keywords
terminal device
display
unit
video
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018074364A
Other languages
English (en)
Other versions
JP2019184776A (ja
Inventor
寿之 猪子
寿之 猪子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TEAM LAB Inc
Original Assignee
TEAM LAB Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TEAM LAB Inc filed Critical TEAM LAB Inc
Priority to JP2018074364A priority Critical patent/JP6368881B1/ja
Application granted granted Critical
Publication of JP6368881B1 publication Critical patent/JP6368881B1/ja
Priority to US17/044,860 priority patent/US20210152730A1/en
Priority to EP18914480.1A priority patent/EP3779655A4/en
Priority to SG11202009928XA priority patent/SG11202009928XA/en
Priority to PCT/JP2018/038737 priority patent/WO2019198261A1/ja
Priority to AU2018418996A priority patent/AU2018418996B2/en
Priority to CN201880091889.5A priority patent/CN111936956A/zh
Priority to TW108111514A priority patent/TWI700588B/zh
Publication of JP2019184776A publication Critical patent/JP2019184776A/ja
Priority to US18/087,786 priority patent/US20230127443A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/32Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections
    • A63F13/323Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections between game devices with different hardware characteristics, e.g. hand-held game devices connectable to game consoles or arcade machines
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/825Fostering virtual characters
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/12Synchronisation between the display unit and other units, e.g. other display units, video-disc players
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • H04N21/41265The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42208Display device provided on the remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/14Detecting light within display terminals, e.g. using a single or a plurality of photosensors
    • G09G2360/144Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light being ambient light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof

Abstract

【課題】端末装置と表示装置が連動した表示制御システムを提供する。
【解決手段】表示制御システムは,撮影部を有する端末装置10と,映像を表示する表示装置50と,表示装置50を制御する制御装置20を備える。端末装置10又は制御装置20は,撮影部で撮影した撮影画像に基づいて,表示装置50が表示する映像内における撮影範囲を特定する。制御装置50は,特定された撮影範囲に基づいて表示装置50が表示する映像の表示状態を制御する。これにより,端末装置10の撮影範囲内に含まれるオブジェクトが映像内から消えたり,端末装置10の撮影範囲にオブジェクトを映像内に出現させたりするようなインタラクティブ性のある演出を行うことが可能になる。
【選択図】図1

Description

本発明は,所定の映像内における端末装置による撮影範囲を特定し,その撮影範囲に基づいて映像の表示状態を制御する表示制御システムや表示制御方法に関する。例えば,本発明に係るシステムでは,スクリーンに投影された映像内に動物が存在している場合に,端末装置でその動物を撮影すると映像内から動物が消えて,あたかも端末装置によって動物を捕獲したかのような演出を行うことができる。あるいは,端末装置で撮影している映像の撮影範囲内に動物や餌などを出現させる演出を行うこともできる。また,本発明は,このようなシステムで用いられる端末装置や,端末装置用のコンピュータプログラムに関する。
近年,高機能かつ多機能の携帯端末(いわゆるスマートフォン)の普及率が高まったことに伴い,利用者が持つ携帯端末に魅力的なコンテンツを提供することで,展示会や店舗への集客力を高めようとする試みが多く見受けられる。
例えば,特許文献1には,いわゆるAR(Augmented Reality)技術を利用した店舗集客支援システムが開示されている。特許文献1のシステムでは,店舗内の商品が配置されるエリアに設けられたスクリーンに所定のキャラクタの映像を投影し,この映像を利用者に携帯端末で撮影させ,その撮影画像に含まれるキャラクタを特定して,特定したキャラクタを捕獲済みとして図鑑に登録する。このシステムでは,利用者の携帯端末で撮影した画像をインターネットを介して管理サーバへ送信し,管理サーバにおいて撮影画像の解析を行い,その画像に含まれるキャラクタを特定する。スクリーンに投影されたキャラクタの映像にはマーキング情報(例:キャラクタの帽子の形状など)が埋め込まれているため,管理サーバは,撮影画像からこのマーキング情報を抽出することで,利用者がどの種類のキャラクタを撮影したのかを特定することができるようになっている。
特開2016−62273号公報
ところで,特許文献1のシステムでは,携帯端末から受信した撮影画像を管理サーバで解析することで,携帯端末がキャラクタの捕獲(撮影)に成功したか否かを判定しているに過ぎず,キャラクタの捕獲(撮影)に成功した場合であっても,キャラクタはスクリーン上に投影され続けることとなる。実世界において対象物を捕獲した場合,対象物はユーザの手元に移動し元々居た場所には残らないが,特許文献1のシステムでは,キャラクタが捕獲後もスクリーン上に残るため,実世界の状況とは乖離しているといえる。このように,特許文献1のシステムでは,スクリーン上のキャラクタを実際に捕獲したかのようなリアリティのある体験をユーザに対して与えることができないという問題がある。
また,特許文献1のシステムは,携帯端末がキャラクタの撮影に成功したか否かを管理サーバで判定することを前提としたものであるため,仮に携帯端末がキャラクタを含まないスクリーン上の映像を撮影している場合,その携帯端末が映像中のどの範囲を撮影しているかを特定することができない。このため,このシステムでは,例えば携帯端末による撮影範囲内に新しいキャラクタを出現させるといったインタラクティブ(双方向)な演出を行うことができない。
そこで,本発明は,表示装置が表示する映像を利用者が端末装置で撮影するシステムにおいて,リアリティのあるインタラクティブな演出を行えるようにすることを主たる目的とする。
本発明の第1の側面は表示制御システムに関する。表示制御システムは,撮影部を有する端末装置,映像を表示する表示装置,及びこの表示装置を制御する制御装置を備える。端末装置と制御装置は,通信回線(インターネットやLAN)を通じて相互に情報の授受を行えるように無線又は有線で接続されている。表示装置の例は,スクリーンに映像を投影するプロジェクタや,液晶パネルや有機ELパネル等に映像を表示するディスプレイである。なお,表示装置が表示する「映像」には,動画及び静止画が含まれる。
端末装置が撮影部によって表示装置が表示している映像が撮影されると,端末装置又は制御装置は,撮影部で撮影した撮影画像に基づいて,表示装置が表示する映像内における撮影範囲を特定する。例えば,映像中に背景とオブジェクトが含まれる場合に,撮影画像を解析して背景を抽出し,抽出した背景を映像内の座標を特定するためのマップ情報(予め端末装置又は制御装置に記憶されている情報)と照合することで,その映像中の撮影範囲を特定することができる。なお,このマップ情報は,全体の映像内の一部を切り出した画像を予め複数蓄積しておき,この蓄積された画像を教師データとしてディープラーニング等の機械学習を実施することによって作成されたデータ(学習済みモデル)であってもよい。機械学習を利用することで,映像が動画であっても撮影範囲の座標を特定する精度が高まる。また,端末装置が自己の撮影画像に基づいて撮影範囲を特定して,その撮影範囲の情報を制御装置に送信することとしてもよいし,端末装置が撮影画像を制御装置に送信して,制御装置がその撮影画像に基づいて撮影範囲を特定してもよい。
その後,制御装置は,特定された撮影範囲に基づいて,表示装置を制御する。例えば,撮影範囲に含まれるオブジェクトを非表示にしたり,撮影範囲内にオブジェクトを出現させたり,端末装置の撮影範囲を示すフレームをリアルタイムに表示したりすることができる。このように,表示装置が表示している映像を端末装置が撮影した際に,その撮影範囲に応じて映像の表示状態をリアルタイムに制御することで,例えば端末装置によって撮影(捕獲)されたオブジェクトが映像中から消えるといったリアリティのあるインタラクティブな演出を行うことが可能になる。なお,端末装置による撮影範囲を利用した表示演出は,ここに挙げたものに限られず,その他に様々な形に応用することが可能である。
本発明に係るシステムにおいて,制御装置は,所定のオブジェクトを表示するように表示装置を制御し,特定された撮影範囲内にオブジェクトが含まれるか否かを判定し,ここでの判定の結果に基づいて表示装置によるオブジェクトの表示状態を制御することとしてもよい。オブジェクトは,制御装置による制御に基づいて,映像を構成するワールド座標系内でリアルタイムに動作するものであってもよい。
本発明に係るシステムにおいて,制御装置は,特定された撮影範囲内にオブジェクトが含まれる場合に,オブジェクトが非表示になるように表示装置を制御することが好ましい。このようにすれば,ユーザによって撮影されたオブジェクトが映像中から消えることとなるため,実際にユーザが映像内のオブジェクトを捕獲したかのようなリアリティのある体験を提供することができる。ただし,オブジェクトの表示制御はこれに限られず,例えば,端末装置の撮影範囲に含まれるオブジェクトの色を変えたり,オブジェクトを変形させたり,オブジェクトの行動を変化させるなど,様々な演出に応用することができる。
本発明に係るシステムにおいて,制御装置は,特定された撮影範囲内に所定のオブジェクトが出現するように表示装置を制御することが好ましい。このようにすれば,ユーザが映像内の任意の位置にオブジェクトを出現させることができるようになるため,ユーザに対して没入感のある体験を与えることができる。また,例えば,ユーザが一度映像内から捕獲したオブジェクトを,任意の別の場所に出現させるといった演出も可能となる。
本発明に係るシステムにおいて,端末装置が,映像内の座標を特定するためのマップ情報を記憶しており,マップ情報を参照することにより撮影範囲の座標情報を特定し,撮影範囲の座標情報を制御装置に送信することが好ましい。制御装置側で撮影画像を解析して撮影範囲を特定することも可能であるが,その場合には多数の端末装置が制御装置にアクセスが集中したときに制御装置の負荷が過大となりボトルネックが発生し処理の遅延を招く恐れがある。このため,撮影画像の解析処理は端末装置側で行い,撮影範囲の座標情報のみを制御装置に送信することとし,上記ボトルネックの発生を回避することが好ましい。
本発明に係るシステムにおいて,端末装置は,自己の現在位置を特定するための位置情報特定部を更に備えることとしてもよい。位置情報特定部の例は,イベント会場内に設置された超音波発生装置から出力されてる超音波の周波数を解析する超音波センサである。イベント会場内を複数のエリアに区分けし,エリアごとに出力周波数の異なる超音波発生装置を配置しておけば,その超音波の周波数を端末装置で解析することで,端末装置は自己の現在位置を特定することができる。その他の位置情報特定の例は,GPS受信機などが挙げられる。この場合に,端末装置又は制御装置は,撮影部で撮影した撮影画像と,位置情報特定部で特定した現在位置の情報とに基づいて,表示装置が表示する映像内における撮影範囲を特定することとしてもよい。このように,撮影画像に加えて端末装置の位置情報に基づいて映像内の撮影範囲を特定することで,その特定処理の精度を向上させることができる。例えば,会場内の広い範囲に亘って映像が表示されている場合に,映像内の背景が同じになる箇所が複数存在する可能性がある。その場合に,映像内の背景のみにでは端末装置の撮影範囲を特定することができない可能性がある。そこで,携帯端末の位置情報を参照することで,端末装置による撮影範囲を一意に特定することが容易になる。
本発明の第2の側面は,端末装置に関する。本発明に係る端末装置は,撮影部,記憶部,画像解析部,及び通信部を備える。撮影部は,画像を取得するためのカメラである。記憶部は,所定の映像内の座標を特定するためのマップ情報を記憶している。画像解析部は,撮影部で撮影した撮影画像とマップ情報に基づいて,映像内の撮影部による撮影範囲を特定する。通信部は,特定した撮影範囲に関する情報を映像の表示状態を制御する制御装置に送信する。
本発明の第3の側面は,携帯型情報通信端末を,上記第1の側面に係る表示制御システムの端末装置,又は上記第1の側面に係る端末装置として機能させるためのコンピュータプログラムに関する。コンピュータプログラムは,情報記憶媒体に記憶されたものであってもよいし,インターネットを通じてダウンロード可能なものであってもよい。
本発明の第4の側面は,表示制御方法に関する。本発明に係る表示制御方法は,端末装置又は制御装置が,端末装置の撮影部で撮影した撮影画像に基づいて,表示装置が表示する映像内における撮影範囲を特定する第1の工程と,制御装置が,特定された撮影範囲に基づいて,表示装置が表示する映像を制御する第2の工程とを含む。
本発明によれば,表示装置が表示する映像を利用者が端末装置で撮影するシステムにおいて,リアリティのあるインタラクティブな演出が可能となる。
図1は,表示制御システムの全体構成を模式的に示している。 図2は,表示制御システムを構成する各種装置の機能ブロックを示している。 図3は,動作オブジェクトを捕獲する演出の動作例を模式的に示している。 図4は,オブジェクト捕獲処理の一例を示したフロー図である。 図5は,マップ情報の例を概念的に示している。 図6は,動作オブジェクトを解放する演出の動作例を模式的に示している。 図7は,作用オブジェクトを解放する演出の動作例を模式的に示している。 図8は,オブジェクト捕獲処理の一例を示したフロー図である。
以下,図面を用いて本発明を実施するための形態について説明する。本発明は,以下に説明する形態に限定されるものではなく,以下の形態から当業者が自明な範囲で適宜変更したものも含む。
図1は,本発明の一実施形態に係る表示制御システム100の全体構成を模式的に示している。図1に示されるように,本発明に係る表示制御システム100は,端末装置10,制御装置20,及び表示装置50を備える。端末装置10と制御装置20は,インターネットやLANなどの通信回線を通じて接続されている。端末装置10は,システムのユーザによって所持される携帯型情報通信端末であり,例えばスマートフォンやタブレット型端末を用いることができる。端末装置10は,カメラ(撮影部)を有しており,表示装置50が表示する映像を撮影して画像を取得することができる。制御装置20は,表示装置50を制御して所定の映像を出力させる。本実施形態において,制御装置20は,通信回線を通じて互いに接続された管理装置30と描画装置41を含んで構成されている。管理装置30の例は,端末装置10と通信可能なウェブサーバであり,描画装置41の例は,表示装置50と同じ施設内に配置され表示装置50と有線又は無線で接続されたローカルPCである。表示装置50は,制御装置20の制御に従って所定の映像を出力する。本実施形態において,表示装置50は,スクリーン60に映像を投影するプロジェクタが採用されている。ただし,プロジェクタは,液晶ディスプレイや有機ELディスプレイなどのディスプレイ装置と置き換えることもできる。表示装置50は,イベント会場内に複数台設置してもよい。この場合,描画装置40と表示装置50は一対一で対応させることもできるし,一つの描画装置40に複数の表示装置50を接続することもできる。
図2は,表示制御システム100の機能ブロックを示している。図2に示されるように,端末装置20は,処理部11,記憶部12,通信部13,撮影部14,位置情報取得部15,出力部16,及び操作部17を有する。なお,図2では,端末装置10の機能構成として一般的なものを例示している。本システムでは,端末装置10が複数台存在することを想定しているが,各端末装置10はすべてが同じ構成を有している必要はなく,異なる構成を有していてもよい。
端末装置10の処理部11は,端末装置10が備える他の要素12〜17を制御する処理を行う。処理部11としては,CPU又はGPUといったプロセッサを利用することができる。処理部11は,記憶部12に記憶されているアプリケーションプログラム(コンピュータプログラム)を読み出し,このアプリケーションプログラムに従って他の要素を制御する。また,処理部11は,アプリケーションプログラムに従った演算結果を記憶部12に適宜書き込んだり読み出したりすることができる。
また,本実施形態において,端末装置10の処理部11は,画像解析部11a,位置特定部11b,及びオブジェクト特定部11cを有している。画像解析部11aは,撮影部14で取得した撮影画像を解析して,表示装置が生じする映像内における撮影範囲を特定する。その際に,画像解析部11aは,記憶部12に記憶されているマップ情報を参照することができる。このマップ情報は,映像全体の各点における座標位置に関する情報を持つ。位置特定部11bは,位置情報取得部15が取得した情報に基づいて自己の端末装置10の現在の位置を特定する。オブジェクト特定部11cは,制御装置20から得た情報に基づいて撮影画像に含まれるオブジェクトを特定したり,操作部17を介して入力されたユーザの指示に基づいてオブジェクトを選択したりする処理を行う。これら機能部11a〜11cが行う処理の詳細については,図4や図8に示したフロー図を参照して後述する。
端末装置10の記憶部12は,処理部11での演算処理等に用いられる情報を記憶するための要素である。具体的に説明すると,記憶部12は,汎用的な携帯型の情報通信端末を,本発明に係る表示制御システム100における端末装置10として機能させるアプリケーションプログラムを記憶している。このアプリケーションプログラムは,インターネットを経由して端末装置10にダウンロードされたものであってもよいし,端末装置10にプリインストールされたものであってもよい。また,記憶部12には,本システム用のアプリケーションプログラム以外にも,その他のプログラムが記憶されていてもよい。ユーザからの指示により,本システム用のアプリケーションプログラムが起動されると,このプログラムに従った処理が実行される。また,記憶部12には,端末装置10固有の端末IDや,それを所持するユーザ固有のユーザIDが記憶されていてもよい。また,記憶部12には,ネットワーク上の識別情報であるIPアドレスが記憶されている。さらに,記憶部12には,処理部11の画像解析部11aが撮影画像から映像中の撮影範囲を特定するのに参照するマップ情報が予め記憶されている。また,記憶部12には,端末装置10で捕獲又は解放が可能なオブジェクトに関する情報(画像データやオブジェクトの説明など)が,各オブジェクトのID情報と関連付けて記憶されている。記憶部12のストレージ機能は,例えばHDD及びSDDといった不揮発性メモリによって実現できる。また,記憶部12は,処理部11による演算処理の途中経過などを書き込む又は読み出すためのメモリとしての機能を有していてもよい。記憶部12のメモリ機能は,RAMやDRAMといった揮発性メモリにより実現できる。
端末装置10の通信部13は,制御装置20(具体的には管理装置30)との間で,インターネット等の通信回線を介して情報の授受を行うための要素である。通信部13は,処理部11の制御に従って,各種情報を制御装置20へ送信したり制御装置20から受信することができる。
撮影部14は,静止画又は動画の画像データを取得するためのカメラである。撮影部14を構成するカメラは,端末装置10に内蔵されているものを利用する。撮影部14によって取得された画像データは,処理部11へと送出され所定の演算処理が行われた後に,記憶部12に保存される。カメラは,例えば,レンズ,メカシャッター,シャッタードライバ,CCDイメージセンサユニットやCMOSイメージセンサユニットといった光電変換素子,光電変換素子から電荷量を読み出し画像データを生成するデジタルシグナルプロセッサ(DSP),ICメモリなどで構成される。
位置情報取得部部15は,端末装置10の現在の位置情報に関連する情報を取得するための要素である。端末装置10の位置情報取得部15は,例えば,イベント会場内に設置された超音波発生装置から発信される所定周波数の超音波を受信可能な超音波センサである。例えば,イベント会場は複数のエリアに区分され,各エリアに発生させる周波数の異なる超音波発生装置が配置されている。この場合には,各周波数の超音波が位置情報として機能することとなる。その他,位置情報取得部15は,GPS(Global Positioning System)を利用した測位を行う機能を持つGPS測位部であってもよい。具体的には,GPS測位部は,複数のGPS衛星から送られた電波に含まれる電波送信時間の情報に基づき,それぞれの電波を受信するのに要した時間を測定し,その時間を示す時間情報に基づいて,端末装置10の所在位置の緯度経度に関する情報を算出する。
出力部16は,端末装置10の利用者に向けて各種の情報を出力するための要素である。処理部11で演算処理された情報は,出力部16によって出力される。出力部16は,公知の情報通信端末に利用されている種々の外部出力装置を採用することができる。出力部16の例は,ディスプレイ,スピーカ,フラッシュライト,及びバイブレータであるが,これらに限定されない。出力部16は,端末制御部11の制御に従って,種々の情報を出力できる。
操作部17は,ユーザから端末装置10に対する情報の入力を受け付けるための要素である。操作部17を介して入力された情報は,処理部11へと伝達される。操作部17は,公知の情報通信端末に利用されている種々の入力装置を採用することができる。操作17の例は,タッチパネル,ボタン,カーソル,マイクロフォン,キーボード,及びマウスであるが,これらに限定されない。また,操作部17を構成するタッチパネルは,出力部16を構成するディスプレイと共に,タッチパネルディスプレイを構成していてもよい。
制御装置20は,表示装置50を制御するためのコンピュータである。制御装置20は,表示装置50の制御に,端末装置10から得た情報(具体的には撮影部による映像の撮影範囲に関する情報)を反映させることができる。前述したとおり,本実施形態において,制御装置20の機能は,ウェブサーバとしての管理装置30と,ローカルPCとしての描画装置40に分散されてる。ただし,表示装置50がインターネットを介してウェブサーバとしての管理装置30と直接通信可能である場合には,制御装置20の機能はこの管理装置30に集約することができるし,端末装置11がLANを介してローカルPCとしての描画装置40に直接通信可能である場合には,制御装置20の機能はこの描画装置40に集約することもできる。また,管理装置30と描画装置40はそれぞれ複数台のコンピュータによって構築されたものであってもよい。
管理装置30は,インターネットを介して端末装置10及び描画装置40に接続されている。管理装置30は,基本的に,映像をリアルタイムに生成するとともに,その映像を表示するための制御情報を描画装置40に対して送信して,この描画装置40に表示装置50を制御させる機能を担う。図2に示されるように,管理装置30は,少なくとも処理部31,記憶部32,及び通信部33を含んで構成されている。
管理装置30の処理部31としては,CPU又はGPUといったプロセッサを利用することができる。処理部31は,記憶部32に記憶されている映像コンテンツを読み出して,表示装置50から出力する映像をリアルタイムに生成する。本実施形態において,管理装置30の処理部31は,表示制御部31aとオブジェクト制御部31bを有する。表示制御部31aは,背景画像を中心として表示装置50に表示させる映像の表示状態を制御する。オブジェクト制御部31bは,前述した動作プログラム等に従って,映像内に存在するオブジェクトの表示状態や動作などを制御する。
管理装置30の記憶部32は,処理部31での演算処理等に用いられる情報を記憶するための要素である。記憶部32には,表示装置50で表示する映像を構成する映像コンテンツが記憶されている。映像コンテンツには,例えば,映像の背景画像(静止画及び動画を含む)や,この背景画像に重ねて表示するオブジェクトの画像,このオブジェクトを動作させるためのプログラムなどが含まれる。オブジェクトには,映像を構成するワールド座標系内を所定の動作プログラムに従って移動したり予め定められた行動を取るもの(動作オブジェクト:Action Object)や,自身は動作しないものの他の動作オブジェクトに対して作用するもの(作用オブジェクト:Interaction Object)が含まれる。また,動作オブジェクト同士で相互に作用するように動作プログラムを設定することもできる。記憶部32は,例えばHDD及びSDDといった不揮発性メモリや,RAM及びDRAMといった揮発性メモリにより実現できる。
管理装置30の通信部33は,端末装置10及び描画装置40との間で,インターネット等の通信回線を介して情報の授受を行うための要素である。通信部33は,処理部31の制御に従って,各種情報を端末装置10や描画装置40に対して送受信することができる。
描画装置40は,インターネットを介して管理装置30に接続され,有線又は無線LANで表示装置50に接続されている。描画装置40は,基本的に,管理装置30から受信した映像の表示制御情報に従って,表示装置30に映像を表示させる。図2に示されるように,描画装置40は,少なくとも描画部41,記憶部42,及び通信部43を含んで構成されている。描画装置41としては,CPU又はGPUといったプロセッサを利用すればよい。記憶部42は,例えばHDD及びSDDといった不揮発性メモリや,RAM及びDRAMといった揮発性メモリにより実現できる。通信部43は,管理装置30との間で,インターネット等の通信回線を介して情報の授受を行うための要素である。
表示装置50は,描画装置40からの制御に従って所定の映像を表示する。表示装置50としては,スクリーンや壁に映像を投影するプロジェクタを採用してもよいし,映像を表示可能な液晶ディスプレイや有機ELディスプレイを採用してもよい。また,表示装置50は,3次元のホログラム映像を表示するものであってもよい。その他,表示装置50としては公知のものを適宜採用できる。
続いて,図3及び図4を参照して,端末装置10及び制御装置20(管理装置30及び描画装置40)が行う処理の一例を説明する。ここでは,ユーザが端末装置10を利用して映像内のオブジェクトを捕獲する場合の処理について説明する。
図3は,動作オブジェクトの捕獲処理の概要を示している。図3(a)に示されるように,ユーザが端末装置10のカメラを起動して,このカメラを映像が投影されているスクリーン60に向けると,そのカメラによる撮影範囲がスクリーン60上にフレームFが表示される。なお,ユーザに撮影範囲を分かりやすく示すためにこのフレームFを表示することが好ましいが,フレームFの表示は必須ではない。また,スクリーン60に投影されている映像には,例えば動物などキャラクタを象った動作オブジェクトAOが表示されている。動作オブジェクトAOは,所定の動作プログラムに従って映像空間内で所定の行動を取る。また,動作オブジェクトが端末装置10の撮影範囲に入っている状態で,ユーザが端末装置10に対して捕獲アクションの操作を入力すると,端末装置10はカメラから撮影画像を取得する。すると,スクリーン60上の映像からユーザが撮影した動作オブジェクトAOが消える。これにより,ユーザに対して映像内の動作オブジェクトを捕獲したかのような体験を与えることができる。以下図4を参照して,このようなオブジェクトの捕獲フローについて説明する。
まず,ユーザが端末装置10のカメラ(撮影部14)を起動する(ステップS1−1)。ユーザが端末装置10のカメラをスクリーン60に向けて映像を撮影すると,端末装置10の画像解析部11aは,リアルタイムで連続的にカメラによって撮影されている画像を解析して,映像内における撮影範囲を特定する(ステップS1−2)。撮影範囲の特定は,次のように行う。すなわち,端末装置10の記憶部12には,映像全体の各点における座標を示したマップ情報が記憶されている。図5には,マップ情報のデータ構造を概念的に示している。マップ情報には,映像全体の背景画像(図示省略)とともに,その映像内の各座標点がプロットされている。このため,本実施形態において,映像内の各座標点は,端末装置10にとって既知の情報として扱われる。カメラから取得された撮影画像には,少なくとも部分的に背景画像が映り込むと想定される(撮影画像にオブジェクトのみが写り込み背景画像が含まれない場合も想定されるが,その場合にはフレームを非表示又は捕獲失敗とすればよい)。画像解析部11aは,撮影画像内に写り込んだ背景画像と,マップ情報の背景画像とを照合して,カメラによる撮影範囲を特定する。その際,矩形状の撮影範囲のうち,少なくとも対角線上の2点の角部の座標情報(P1,P2)を特定すればよい。これら2点の角部の座標情報が撮影範囲を特定するための情報ととなる。
なお,映像を構成する背景画像は,静止画だけでなく動画とすることもできる。背景画像が動画の場合,静止画の場合よりも撮影範囲を特定することが困難になる。その場合,動画で構成された背景画像の部分的なキャプチャ画像を多数作成し,各キャプチャ画像に座標情報を与えて多数の教師データを蓄積する。そして,この教師データを元に機械学習を実施し,その学習結果(学習済みモデル)をマップ情報として利用する。これにより,背景画像が動画であっても,撮影範囲の特定の精度が向上する。
次に,端末装置10の位置特定部11bは,位置情報取得部15で取得した位置情報に基づいて撮影位置を特定する(ステップS1−3)。位置情報取得部15が超音波センサで構成されている場合,位置特定部11bは,会場に設置された超音波発生装置が発生する超音波の周波数に基づいて撮影位置を特定すればよい。また,位置情報取得部15はGPS受信機であってもよい。
次に,端末装置10の通信部13は,端末装置10の端末IDと共に,撮影範囲に関する情報と撮影位置の位置情報を管理装置30に送信する(ステップS1−4)。管理装置30の表示制御部31aは,ここで受信した撮影範囲情報と位置情報に基づいて,端末装置10のカメラを向けられた映像を表示している表示装置50を特定する。そして,管理装置30の表示制御部31aは,特定した表示装置50の映像内に端末装置10の撮影範囲に対応したフレームの画像を表示させるための表示制御命令を生成し,これを描画装置40に送信する(ステップS1−5)。描画装置40は,管理装置30から受信した命令に従って表示装置50を制御する。これにより,図3(a)に示されるように,表示装置50によって,スクリーン60上に端末装置10の撮影範囲に対応したフレームFが投影されるようになる。ユーザは,手元の端末装置10のディスプレイをみたり,あるいはスクリーン60に表示されたフレームFをみたりしながら,カメラの撮影範囲に動作オブジェクトAOが入り込むように,カメラの向きや角度,拡大倍率を調整する。
次に,端末装置10の処理部11は,ユーザが操作部17を介して端末装置10に捕獲アクションに関する操作を入力したか否かを判断する(ステップS1−6)。捕獲アクションの例は,表示画面上の特定部位をタッチする操作や音声の入力操作である。捕獲アクションが入力されない限りは,ステップS1−2からステップS1−5を繰り返すこととなる。捕獲アクションが入力されると,カメラのシャッターが切られて撮影画像(静止画)が取得される。その場合,端末装置10の通信部13は,ステップS1−4と同様に,端末装置10の端末IDと共に,撮影範囲に関する情報と撮影位置の位置情報を管理装置30に送信する(ステップS1−7)。また,このとき,端末装置10を操作するユーザ固有のユーザIDを管理装置30に送信してもよい。
次に,管理装置30のオブジェクト制御部31bは,端末装置10から受信した撮影範囲情報と位置情報に基づいて,その端末装置10の撮影範囲に含まれているオブジェクトを判定する(ステップS1−8)。オブジェクト制御部31bは,記憶部32に記憶されている動作プログラムに基づいて,映像空間内に存在する各種オブジェクトを制御する要素である。このため,オブジェクト制御部31bは,映像空間内に存在する各種オブジェクトの位置をすべて把握している。オブジェクト制御部31bは,撮影範囲を示す座標情報と各種オブジェクトの座標情報とを照会して,その撮影範囲に捕獲可能なオブジェクトが存在するか否かを判断する。捕獲可能なオブジェクトは,動作プログラムに従って行動する動作オブジェクトであってもよいし,他の動作オブジェクトに対して作用するもの作用オブジェクトであってもよい。動作オブジェクトの例は,動物などのキャラクタを象ったオブジェクトである。また,作用オブジェクトの例は,動物の餌などを象ったオブジェクトである。図3の例では,鹿の動物オブジェクトが端末装置10の撮影範囲に含まれている。このため,オブジェクト制御部31bは,この鹿の動作オブジェクトが端末装置10によって捕獲されたと判定する。なお,もし端末装置10の撮影範囲にオブジェクトが含まれていない場合には,オブジェクトの捕獲失敗とみなしてこのフローを終了させる。
次に,管理装置30の処理部31は,上記ステップS1−8で捕獲されたと判定したオブジェクトに関する情報を端末装置10に送信する(ステップS1−9)。オブジェクトに関する情報としては,オブジェクト固有のID情報が挙げられる。端末装置10の記憶部12には,各オブジェクトのID情報に関連付けて,オブジェクトの画像データや説明などの情報が記憶されている。このため,管理装置30から端末装置10に対して捕獲の対象となったオブジェクトのID情報を送信すれば,端末装置10はそのID情報に基づいて捕獲したオブジェクトに関連する情報(画像データや説明)を記憶部12から読み出すことができる。なお,端末装置10の記憶部12に記憶されていないオブジェクトに関しては,管理装置30から端末装置10に対して,オブジェクトのID情報に加えて,オブジェクトの画像データや説明に関する情報を配信することとしてもよい。このようにして,端末装置10のオブジェクト特定部11cは,管理装置30から受信したオブジェクトのID情報などに基づいて,自身のカメラで撮影(捕獲)したオブジェクトを特定する(ステップS1−10)。
次に,端末装置10の処理部11は,ステップS1−10で特定したオブジェクトに関する情報を出力部16(ディスプレイ)に表示する(ステップS1−11)。例えば,ユーザが捕獲に成功したオブジェクトの画像や,そのオブジェクトの説明などを表示すればよい。図3(b)に示した例では,ユーザは鹿の動作オブジェクトを捕獲したため,端末装置10には鹿の画像や,鹿の生態に関するテキスト情報などがディスプレイに表示される。また,端末装置10の処理部11は,ステップS1−10で特定したオブジェクトに関する情報を記憶部12に記憶する(ステップS1−12)。このように,ユーザが捕獲したオブジェクトを端末装置10に記憶しておくことできる。例えば,ユーザが捕獲したオブジェクトの一覧を図鑑形式で端末装置10に表示することとしてもよい。
他方で,管理装置30のオブジェクト制御部31bは,端末装置10の撮影範囲に含まれるオブジェクトを非表示にするための制御命令を生成して,描画装置40に送信する。これにより,描画装置40は,制御命令に従って,端末装置10によって撮影されたオブジェクトを消すように表示装置50を制御する(ステップS1−13)。例えば,図3(b)に示されるように,ユーザが鹿の動作オブジェクトAOの捕獲(撮影)に成功すると,それに連動してスクリーン60に投影されている映像から鹿の動作オブジェクトAOが消えることとなる。このように,スクリーン60上の映像をユーザのアクションに連動させることで,よりリアリティのある体験をユーザに提供できる。
次に,管理装置30の処理部31は,ユーザの捕獲アクションに関する情報を記憶部32に記憶する(ステップS1−14)。例えば,端末装置10固有の端末IDやユーザ固有のユーザIDと関連付けて,捕獲に成功したオブジェクトのID情報や,捕獲時刻,捕獲場所(座標)などを記憶部32に登録する。これにより,ユーザの行動履歴などを管理装置30で管理することができる。
続いて,図6から図8を参照して,端末装置10及び制御装置20(管理装置30及び描画装置40)が行う処理の別例を説明する。ここでは,ユーザが端末装置10を利用して映像内にオブジェクトを解放する場合の処理について説明する。
図6は,ユーザが一度捕獲に成功した動作オブジェクトを再び解放する例を示している。つまり,図3においてユーザは鹿の動作オブジェクトを捕獲しているが,図6ではこの鹿のオブジェクトを映像内の別の場所に解放している。このように,本システムでは,捕獲に成功したオブジェクトを別の場所に自由に移動させることが可能である。他方で,図7は,ユーザが餌の作用オブジェクトを解放する例を示している。餌の作用オブジェクトは,システムの運営者がユーザに与えたアイテムであってもよいし,ユーザが図4に示したフローに従って映像内から捕獲したアイテムであってもよい。餌の作用オブジェクトを映像内に解放すると,その付近に存在する動作オブジェクトがそれに誘引されるようにプログラムされている。このように,ユーザは,本システムを利用して,動作オブジェクトの捕獲や解放,あるいはその動作オブジェクトへの餌付けなどを体験することができる。
オブジェクトの解放フローでは,まず,ユーザが端末装置10を操作して解放の対象となるオブジェクト(動作オブジェクト又は作用オブジェクト)を自由に選択する(ステップS2−1)。端末装置10の記憶部12には,一度ユーザが捕獲したオブジェクトや運営から提供されたオブジェクトが記憶されているため,その中からユーザが任意のオブジェクトを選択する。
ステップS2−2からステップS2−6は,それぞれ図4に示したステップS1−2からステップS1−5と同じ処理である。すなわち,ユーザが映像内の撮影範囲を理解しやすいように,端末装置10の撮影範囲に対応したフレームFをスクリーン60に表示する。
次に,端末装置10の処理部11は,解放の対象となるオブジェクトが選択された後に,ユーザが操作部17を介して端末装置10に解放アクションに関する操作を入力したか否かを判断する(ステップS2−7)。解放アクションの例は,捕獲アクションと同様に,表示画面上の特定部位をタッチする操作や音声の入力操作である。解放アクションが入力されない限りは,ステップS2−3からステップS2−6を繰り返すこととなる。解放アクションが入力されると,カメラのシャッターが切られて撮影画像(静止画)が取得される。その場合,端末装置10の通信部13は,端末IDと共に,撮影範囲に関する情報と,撮影位置の位置情報と,解放の対象として選択されたオブジェクトに関する情報(オブジェクトのID情報等)を管理装置30に送信する(ステップS2−8)。また,このとき,端末装置10を操作するユーザ固有のユーザIDを管理装置30に送信してもよい。
次に,管理装置30のオブジェクト制御部31aは,端末装置10から受信した上記情報に基づいて,解放の対象となるオブジェクトと,そのオブジェクトを出現させる映像内の位置(座標)を特定する(ステップS2−9)。すなわち,オブジェクト制御部31は,端末装置10から受信したオブジェクトのID情報に基づいて映像内に出現させるオブジェクトを特定するとともに,撮影範囲に関する情報に基づいてそのオブジェクトを出現させる映像内の位置を特定する。また,管理装置30オブジェクト制御部31aは,端末装置10で選択されたオブジェクトを,端末装置10の撮影範囲内に出現させるための制御命令を生成して,これを描画装置40に送信する。描画装置40は,この制御命令に従って,端末装置10の撮影範囲内に選択されたオブジェクトを表示するように表示装置50を制御することとなる(ステップS2−10)。これにより,例えば図6(b)や図7(b)に示されるように,スクリーン60に投影されている映像には,端末装置10の撮影範囲内に,ユーザが選択した動作オブジェクトAOや作用オブジェクトIOが出現するようになる。
次に,管理装置30の処理部31は,ユーザの解放アクションに関する情報を記憶部32に記憶する(ステップS2−11)。例えば,端末装置10固有の端末IDやユーザ固有のユーザIDと関連付けて,開放されたオブジェクトのID情報や,解放時刻,解放場所(座標)などを記憶部32に登録しておく。これにより,ユーザの行動履歴などを管理装置30で管理することができる。また,端末装置10においても,ユーザの解放アクションに関する情報を記憶部12に記憶する(ステップS2−12)。例えば,開放されたオブジェクトのID情報や,解放時刻,解放場所(座標)などが記憶部12に登録される。これにより,例えば一度解放されたオブジェクトは,次の解放フローでは解放対象として選択できないようになる。また,解放回数の制限があるオブジェクトについては,解放回数のカウントが1つ減ることとなる。
以上のように,本発明のシステムでは,端末装置10により映像内に含まれるオブジェクトの捕獲や解放が行われると,表示装置50が連動して映像内からそのオブジェクトが消えたり出現したりするようになる。これにより,本システムによればリアリティのあるインタラクティブな演出を行うことが可能になる。
以上,本願明細書では,本発明の内容を表現するために,図面を参照しながら本発明の実施形態の説明を行った。ただし,本発明は,上記実施形態に限定されるものではなく,本願明細書に記載された事項に基づいて当業者が自明な変更形態や改良形態を包含するものである。
例えば,本願明細書で詳しく説明した実施形態では,管理装置30にアクセスが集中してボトルネックが発生することを回避するために,端末装置10側で撮影画像を解析して,映像内の撮影範囲の座標を特定するようにしている。ただし,端末装置10から管理装置30に撮影画像を送信するようにすれば,管理装置30でその撮影画像を解析して映像内の撮影範囲の座標を特定することも可能である。その場合,映像内の座標を特定するためのマップ情報は,端末装置10の記憶部12ではなく,管理装置30の記憶部32に記憶しておけばよい。
本発明は,例えば,ディジタル図鑑にキャラクタの画像などをコレクションすることができるシステムに適用できる。従って,本発明は,エンターテイメント産業などにおいて好適に利用できる。
10…端末装置 11…処理部
12…記憶部 13…通信部
14…撮影部 15…位置情報取得部
16…出力部 17…操作部
20…制御装置 30…管理装置
31…処理部 32…記憶部
33…通信部 40…描画装置
41…描画部 42…記憶部
43…通信部 50…表示装置
60…スクリーン 100…表示制御システム
AO…動作オブジェクト IO…作用オブジェクト
F…フレーム

Claims (9)

  1. 撮影部を有する端末装置と,映像を表示する表示装置と,前記表示装置を制御する制御装置と,を備える表示制御システムであって,
    前記端末装置又は制御装置は,前記撮影部で撮影した撮影画像に基づいて,前記表示装置が表示する映像内における撮影範囲を特定し,
    前記制御装置は,特定された前記撮影範囲に基づいて,前記表示装置を制御する
    表示制御システム。
  2. 前記制御装置は,
    所定のオブジェクトを表示するように前記表示装置を制御し,
    特定された前記撮影範囲内に前記オブジェクトが含まれるか否かを判定し,
    前記判定の結果に基づいて,前記表示装置による前記オブジェクトの表示状態を制御する
    請求項1に記載の表示制御システム。
  3. 前記制御装置は,特定された前記撮影範囲内に前記オブジェクトが含まれる場合に,前記オブジェクトが非表示になるように前記表示装置を制御する
    請求項2に記載の表示制御システム。
  4. 前記制御装置は,特定された前記撮影範囲内に所定のオブジェクトが出現するように前記表示装置を制御する
    請求項1から請求項3のいずれかに記載の表示制御システム。
  5. 前記端末装置は,
    前記映像内の座標を特定するためのマップ情報を記憶しており,
    前記マップ情報を参照することにより前記撮影範囲の座標情報を特定し,
    前記撮影範囲の座標情報を前記制御装置に送信する
    請求項1から請求項4のいずれかに記載の表示制御システム。
  6. 前記端末装置は,自己の現在位置を特定するための位置情報特定部を更に備え,
    前記端末装置又は制御装置は,前記撮影部で撮影した撮影画像と,前記位置情報特定部で特定した現在位置の情報とに基づいて,前記表示装置が表示する映像内における撮影範囲を特定する
    請求項1から請求項5のいずれかに記載の表示制御システム。
  7. 撮影部と,
    所定の映像内の座標を特定するためのマップ情報を記憶した記憶部と,
    前記撮影部で撮影した撮影画像と前記マップ情報に基づいて,前記映像内の前記撮影部による撮影範囲を特定する画像解析部と,
    特定した前記撮影範囲に関する情報を前記映像の表示状態を制御する制御装置に送信する通信部と,を備える
    端末装置。
  8. 携帯型情報通信端末を請求項1に記載の前記端末装置として機能させるためのコンピュータプログラム。
  9. 端末装置又は制御装置が,前記端末装置の撮影部で撮影した撮影画像に基づいて,表示装置が表示する映像内における撮影範囲を特定する工程と,
    前記制御装置が,特定された前記撮影範囲に基づいて,前記表示装置が表示する映像を制御する工程と,を含む
    表示制御方法。
JP2018074364A 2018-04-09 2018-04-09 表示制御システム,端末装置,コンピュータプログラム,及び表示制御方法 Active JP6368881B1 (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
JP2018074364A JP6368881B1 (ja) 2018-04-09 2018-04-09 表示制御システム,端末装置,コンピュータプログラム,及び表示制御方法
CN201880091889.5A CN111936956A (zh) 2018-04-09 2018-10-17 基于特定出的拍摄范围控制显示装置的系统
SG11202009928XA SG11202009928XA (en) 2018-04-09 2018-10-17 System for controlling display device on basis of identified capture range
EP18914480.1A EP3779655A4 (en) 2018-04-09 2018-10-17 DISPLAY DEVICE CONTROL SYSTEM BASED ON AN IDENTIFIED CAPTURE RANGE
US17/044,860 US20210152730A1 (en) 2018-04-09 2018-10-17 System for Controlling Display Device on Basis of Identified Capture Range
PCT/JP2018/038737 WO2019198261A1 (ja) 2018-04-09 2018-10-17 特定された撮影範囲に基づいて表示装置を制御するシステム
AU2018418996A AU2018418996B2 (en) 2018-04-09 2018-10-17 System for controlling display device on basis of identified capture range
TW108111514A TWI700588B (zh) 2018-04-09 2019-04-01 顯示控制系統、終端裝置、電腦程式、控制裝置、以及顯示控制方法
US18/087,786 US20230127443A1 (en) 2018-04-09 2022-12-22 System for Controlling Display Device on Basis of Identified Capture Range

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018074364A JP6368881B1 (ja) 2018-04-09 2018-04-09 表示制御システム,端末装置,コンピュータプログラム,及び表示制御方法

Publications (2)

Publication Number Publication Date
JP6368881B1 true JP6368881B1 (ja) 2018-08-01
JP2019184776A JP2019184776A (ja) 2019-10-24

Family

ID=63036842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018074364A Active JP6368881B1 (ja) 2018-04-09 2018-04-09 表示制御システム,端末装置,コンピュータプログラム,及び表示制御方法

Country Status (8)

Country Link
US (2) US20210152730A1 (ja)
EP (1) EP3779655A4 (ja)
JP (1) JP6368881B1 (ja)
CN (1) CN111936956A (ja)
AU (1) AU2018418996B2 (ja)
SG (1) SG11202009928XA (ja)
TW (1) TWI700588B (ja)
WO (1) WO2019198261A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004289719A (ja) * 2003-03-25 2004-10-14 Fuji Photo Film Co Ltd 撮影システム及び撮影装置
JP2007193403A (ja) * 2006-01-17 2007-08-02 Hitachi Ltd ポインティングデバイス、ポインタ指示位置制御方法およびディスプレイシステム
JP2016062273A (ja) * 2014-09-17 2016-04-25 株式会社リコー 店舗集客支援システム、サーバ装置、プログラムおよび方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4701709B2 (ja) * 2004-12-24 2011-06-15 カシオ計算機株式会社 投影システム及び同システムに用いられる付加情報記録方法
EP1862969A1 (en) * 2006-06-02 2007-12-05 Eidgenössische Technische Hochschule Zürich Method and system for generating a representation of a dynamically changing 3D scene
US8226476B2 (en) * 2008-11-04 2012-07-24 Quado Media Inc. Multi-player, multi-screens, electronic gaming platform and system
US9189892B2 (en) * 2011-07-01 2015-11-17 Google Inc. Systems and methods for activities solver development in augmented reality applications
US8607154B2 (en) * 2011-07-07 2013-12-10 Watts And Associates, Inc. Systems, computer implemented methods, geographic weather-data selection interface display, and computer readable medium having program products to generate user-customized virtual weather data and user-customized weather-risk products responsive thereto
WO2013049248A2 (en) * 2011-09-26 2013-04-04 Osterhout Group, Inc. Video display modification based on sensor input for a see-through near-to-eye display
US9255813B2 (en) * 2011-10-14 2016-02-09 Microsoft Technology Licensing, Llc User controlled real object disappearance in a mixed reality display
JP6103526B2 (ja) * 2013-03-15 2017-03-29 オリンパス株式会社 撮影機器,画像表示機器,及び画像表示機器の表示制御方法
TWM491897U (zh) * 2014-05-13 2014-12-11 Chi-Chung Lin 智慧社區擴增實境系統
JP6366707B2 (ja) * 2014-06-06 2018-08-01 三菱電機株式会社 映像監視システム及び映像監視方法
US9779275B2 (en) * 2014-07-03 2017-10-03 Mitsubishi Electric Corporation Control system, terminal, information setting method, and program
US10001857B2 (en) * 2015-05-13 2018-06-19 Seiko Epson Corporation Display apparatus and method of controlling display apparatus
KR102647735B1 (ko) * 2015-06-11 2024-03-15 가시오게산키 가부시키가이샤 촬영 장치, 정보 취득 장치, 정보 취득 시스템, 송신 제어 방법, 정보 취득 방법 및 기록 매체에 저장된 컴퓨터 프로그램
JP6362631B2 (ja) * 2016-01-15 2018-07-25 株式会社meleap 画像表示システム、画像表示システムの制御方法、画像配信システムおよびヘッドマウントディスプレイ
US10068134B2 (en) * 2016-05-03 2018-09-04 Microsoft Technology Licensing, Llc Identification of objects in a scene using gaze tracking techniques
CN107659851B (zh) * 2017-03-28 2019-09-17 腾讯科技(北京)有限公司 全景图像的展示控制方法及装置
CN107528938B (zh) * 2017-07-26 2020-09-29 维沃移动通信有限公司 一种视频通话方法、终端及计算机可读存储介质
JP6981106B2 (ja) * 2017-08-29 2021-12-15 株式会社リコー 撮像装置、画像表示システム、操作方法、プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004289719A (ja) * 2003-03-25 2004-10-14 Fuji Photo Film Co Ltd 撮影システム及び撮影装置
JP2007193403A (ja) * 2006-01-17 2007-08-02 Hitachi Ltd ポインティングデバイス、ポインタ指示位置制御方法およびディスプレイシステム
JP2016062273A (ja) * 2014-09-17 2016-04-25 株式会社リコー 店舗集客支援システム、サーバ装置、プログラムおよび方法

Also Published As

Publication number Publication date
TWI700588B (zh) 2020-08-01
WO2019198261A1 (ja) 2019-10-17
AU2018418996A1 (en) 2020-10-29
CN111936956A (zh) 2020-11-13
US20210152730A1 (en) 2021-05-20
SG11202009928XA (en) 2020-11-27
US20230127443A1 (en) 2023-04-27
JP2019184776A (ja) 2019-10-24
EP3779655A4 (en) 2022-04-20
AU2018418996B2 (en) 2022-03-10
EP3779655A1 (en) 2021-02-17
TW201944250A (zh) 2019-11-16

Similar Documents

Publication Publication Date Title
JP2020087278A (ja) 動画合成装置、動画合成方法及び動画合成プログラム
CN115086736A (zh) 动态图像分发系统及其方法和记录介质
KR20150023406A (ko) 캡쳐된 지리적 메타데이터의 향상 방법
JP2020087277A (ja) 動画合成装置、動画合成方法及び動画合成プログラム
JP6721004B2 (ja) 画像管理システム、及び画像管理方法
JP2017162432A (ja) 画像処理システム、情報処理装置、情報端末、プログラム
EP3418860A1 (en) Provision of virtual reality content
JP6635573B2 (ja) 画像処理システム、画像処理方法、及びプログラム
CN103795915A (zh) 显示图像的图像显示装置以及方法
JP2016194784A (ja) 画像管理システム、通信端末、通信システム、画像管理方法、及びプログラム
JP2016194783A (ja) 画像管理システム、通信端末、通信システム、画像管理方法、及びプログラム
JP6617547B2 (ja) 画像管理システム、画像管理方法、プログラム
TWI811198B (zh) 收集系統、終端用程式以及收集方法
JP6368881B1 (ja) 表示制御システム,端末装置,コンピュータプログラム,及び表示制御方法
JP2023121636A (ja) 情報処理システム、通信システム、画像共有方法、プログラム
JP7266911B2 (ja) コレクションシステム用の端末装置及び方法
EP4294019A1 (en) Display terminal, communication system, display method, and communication method
JP6424927B2 (ja) 処理制御方法及び処理制御システム
JP2023184430A (ja) 表示端末、通信システム、表示方法、通信方法、及びプログラム
JP2023140923A (ja) 表示端末、情報処理システム、通信システム、表示方法、情報処理方法、通信方法、及びプログラム
JP2024033276A (ja) 通信システム、情報処理システム、動画作成方法、プログラム
KR20200031255A (ko) 인터랙션 콘텐츠에 대한 영상 데이터 공유 시스템 및 그 방법
JP2023121637A (ja) 情報処理システム、通信システム、画像送信方法、プログラム
JP2023140702A (ja) 表示端末、通信システム、表示方法、通信方法、及びプログラム
JP2024033277A (ja) 通信システム、情報処理システム、映像再生方法、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180502

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180502

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180612

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180709

R150 Certificate of patent or registration of utility model

Ref document number: 6368881

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250