JP7059940B2 - 投影システム、プロジェクションデバイスおよびクレードル - Google Patents

投影システム、プロジェクションデバイスおよびクレードル Download PDF

Info

Publication number
JP7059940B2
JP7059940B2 JP2018558810A JP2018558810A JP7059940B2 JP 7059940 B2 JP7059940 B2 JP 7059940B2 JP 2018558810 A JP2018558810 A JP 2018558810A JP 2018558810 A JP2018558810 A JP 2018558810A JP 7059940 B2 JP7059940 B2 JP 7059940B2
Authority
JP
Japan
Prior art keywords
mobile terminal
projection
projection device
posture
detection result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018558810A
Other languages
English (en)
Other versions
JPWO2018123152A1 (ja
Inventor
一弥 石井
茂 田中
三奈子 川田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2018123152A1 publication Critical patent/JPWO2018123152A1/ja
Application granted granted Critical
Publication of JP7059940B2 publication Critical patent/JP7059940B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/145Housing details, e.g. position adjustments thereof
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/32Details specially adapted for motion-picture projection
    • G03B21/50Control devices operated by the film strip during the run
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/54Accessories
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4854End-user interface for client configuration for modifying image parameters, e.g. image brightness, contrast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/001Slide projectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72415User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories for remote control of appliances
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions

Description

本技術は、投影システムに関する。詳しくは、映像を投影するプロジェクションデバイス、そのプロジェクションデバイスの姿勢を変化させるクレードル、および、それらを備える投影システムに関する。
従来、スクリーンや壁面等の投影面に画像を投影するプロジェクタが広く利用されている。また、このプロジェクタの機能を携帯電子機器に組み込んだものも知られている。例えば、プロジェクタの機能を有して、携帯電子機器の姿勢の変化および変化量に応じて、そのプロジェクタの投影内容および表示内容を変化させる携帯電子機器が提案されている(例えば、特許文献1参照。)。
特開2012-138686号公報
上述の従来技術では、利用者が携帯電子機器の姿勢を変化させるという直観的な操作に従って、投影内容および表示内容を変化させている。しかしながら、利用者が直接操作を行う機器と、投影を行う装置とが一体化されていると、利用者は常に投影面を意識しなければならず、実際の使用において不便な状況が生じ得る。また、プロジェクタの機能を携帯電子機器の一部の機能として付加した場合には、解像度や発光量などの性能面で、専用のプロジェクタには及ばないと考えられる。
本技術はこのような状況に鑑みて生み出されたものであり、携帯端末による直観的な操作により高機能な投影を行うことを目的とする。
本技術は、上述の問題点を解消するためになされたものであり、その第1の側面は、自身の姿勢の変化を検知する携帯端末と、映像信号を再生して投影面に投影するプロジェクションデバイスと、上記プロジェクションデバイスを支えるとともに上記携帯端末の検知結果に従って上記プロジェクションデバイスの姿勢を変化させるクレードルとを具備する投影システムである。これにより、携帯端末の検知結果に従ってプロジェクションデバイスの姿勢を変化させるという作用をもたらす。
また、この第1の側面において、上記携帯端末は、加速度センサおよびジャイロセンサのうち少なくとも1つのセンサにより上記姿勢の変化を検知するようにしてもよい。これにより、加速度および角速度の少なくとも何れかにより姿勢の変化を検知するという作用をもたらす。
また、この第1の側面において、上記クレードルは、上記プロジェクションデバイスの姿勢を変化させるモータと、上記モータを駆動するモータ駆動部とを備え、上記携帯端末、上記プロジェクションデバイスおよび上記クレードルの何れかは、上記携帯端末の姿勢の変化に基づいて上記モータを駆動するための制御信号を生成する制御信号生成部を備えるようにしてもよい。これにより、クレードルのモータを駆動してプロジェクションデバイスの姿勢を変化させるという作用をもたらす。
また、この第1の側面において、上記携帯端末は、上記映像信号を上記プロジェクションデバイスに供給するようにしてもよい。これにより、映像信号から供給された映像信号をプロジェクションデバイスから投影するという作用をもたらす。
また、この第1の側面において、上記プロジェクションデバイスは、上記映像信号を記憶する記憶部を備え、上記記憶部から上記映像信号を読み出して上記再生を行うようにしてもよい。これにより、プロジェクションデバイスの記憶部に記憶された映像信号を投影するという作用をもたらす。
また、この第1の側面において、上記携帯端末は、第1の音声出力部を備え、上記プロジェクションデバイスは、第2の音声出力部を備え、上記第1および第2の音声出力部は、上記映像信号に対応する互いに異なる音声信号をそれぞれ出力するようにしてもよい。これにより、携帯端末およびプロジェクションデバイスから互いに異なる音声信号をそれぞれ出力させるという作用をもたらす。
また、この第1の側面において、上記携帯端末、上記プロジェクションデバイスおよび上記クレードルを1組として、複数組を具備してもよい。これにより、複数の携帯端末の検知結果に従ってプロジェクションデバイスから異なる映像を投影させるという作用をもたらす。
また、本技術の第2の側面は、携帯端末の姿勢の変化を検知結果として受信する検知信号受信部と、上記検知結果に基づいて自身の姿勢を変化させるための制御信号を生成する制御信号生成部と、自身を支えるためのクレードルに上記制御信号を送信する制御信号送信部と上記検知結果に基づく投影方向に映像信号を投影する投影部とを具備するプロジェクションデバイスである。これにより、携帯端末の検知結果に従ってクレードルのモータを駆動することにより、プロジェクションデバイスの姿勢を変化させるという作用をもたらす。
また、本技術の第3の側面は、携帯端末の姿勢の変化を検知結果として受信する検知信号受信部と、上記検知結果に基づいて自身の姿勢を変化させるための制御信号を生成する制御信号生成部と、上記自身の姿勢を変化させるモータと、上記制御信号に従って上記モータを駆動するモータ駆動部と、上記検知結果に基づく投影方向に映像信号を投影する投影部とを具備するプロジェクションデバイスである。これにより、携帯端末の検知結果に従ってプロジェクションデバイスのモータを駆動することにより、プロジェクションデバイスの姿勢を変化させるという作用をもたらす。
また、本技術の第4の側面は、携帯端末の姿勢の変化を検知結果として受信する検知信号受信部と、上記プロジェクションデバイスの姿勢を変化させるモータと、上記検知結果に基づいて上記モータを駆動するための制御信号を生成する制御信号生成部と、上記制御信号に従って上記モータを駆動するモータ駆動部とを具備して、上記プロジェクションデバイスを支えるクレードルである。これにより、携帯端末の検知結果に従ってこのクレードルのモータを駆動することにより、プロジェクションデバイスの姿勢を変化させるという作用をもたらす。
本技術によれば、携帯端末による直観的な操作により高機能な投影を行うことができるという優れた効果を奏し得る。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術の実施の形態における投影システムの全体構成例を示す図である。 本技術の第1の実施の形態における投影システムの機能構成例を示す図である。 本技術の第1の実施の形態における投影システムの動作の第1の例を示すシーケンス図である。 本技術の第1の実施の形態における投影システムの動作の第2の例を示すシーケンス図である。 本技術の第1の実施の形態における投影システムの動作の第3の例を示すシーケンス図である。 本技術の第1の実施の形態における投影システムの第1の応用例を示す図である。 本技術の第1の実施の形態における投影システムの第2の応用例を示す図である。 本技術の第1の実施の形態における投影システムの第3の応用例を示す図である。 本技術の第1の実施の形態における投影システムの第4の応用例における映像例を示す図である。 本技術の第1の実施の形態における投影システムの第4の応用例を示す図である。 本技術の第1の実施の形態における投影システムの第1の変形例を示す図である。 本技術の第1の実施の形態における投影システムの第2の変形例を示す図である。 本技術の第2の実施の形態における投影システムの機能構成例を示す図である。 本技術の第2の実施の形態における投影システムの動作の第1の例を示すシーケンス図である。 本技術の第2の実施の形態における投影システムの動作の第2の例を示すシーケンス図である。 本技術の第3の実施の形態における投影システムの機能構成例を示す図である。 本技術の第3の実施の形態における投影システムの動作の第1の例を示すシーケンス図である。 本技術の第3の実施の形態における投影システムの動作の第2の例を示すシーケンス図である。
以下、本技術を実施するための形態(以下、実施の形態と称する)について説明する。説明は以下の順序により行う。
1.第1の実施の形態(携帯端末の姿勢変化をプロジェクションデバイスに伝える例)
2.第2の実施の形態(携帯端末の姿勢変化をクレードルに伝える例)
3.第3の実施の形態(プロジェクションデバイスが姿勢変化する例)
<1.第1の実施の形態>
[投影システムの構成]
図1は、本技術の実施の形態における投影システムの全体構成例を示す図である。この投影システムは、携帯端末100と、プロジェクションデバイス200と、クレードル300とを備える。
携帯端末100は、ユーザの操作対象となる携帯型の端末装置であり、例えば、スマートフォンや、タブレット端末などが想定される。ユーザは、この携帯端末100を手に持って、上下左右に携帯端末100の姿勢を変化させながら操作を行う。この携帯端末100の姿勢の変化は携帯端末100内で検知され、その検知結果は携帯端末100の外部に送信される。
プロジェクションデバイス200は、映像信号を再生して投影面600に投影するものである。このプロジェクションデバイス200は、投影時にはクレードル300に搭載される。
クレードル300は、プロジェクションデバイス200を搭載して支えるものである。このクレードル300はモータを備え、携帯端末100の検知結果に従って上下左右に回動可能である。すなわち、クレードル300の動作によってプロジェクションデバイス200の姿勢が変化する。
例えば、投影面600の位置601において映像が投影されている場合において、携帯端末100が左方向に水平移動し、または、左方向に傾けられると、その携帯端末100の姿勢の変化が携帯端末100内で検知される。その検知結果は携帯端末100の外部に送信され、プロジェクションデバイス200を介して、または、直接、クレードル300に供給される。クレードル300は、その姿勢の変化に対応する方向に回動し、プロジェクションデバイス200の姿勢を変化させる。これにより、プロジェクションデバイス200による映像の投影位置が、位置601から位置602に変化する。
図2は、本技術の第1の実施の形態における投影システムの機能構成例を示す図である。この第1の実施の形態では、携帯端末100内で検知された姿勢変化の検知結果は、プロジェクションデバイス200を介してクレードル300に供給される。
携帯端末100は、プロセッサ110と、ジャイロセンサ130と、加速度センサ140と、近距離無線通信部180と、ネットワーク通信部190とを備える。プロセッサ110は、携帯端末100の各部を制御する処理装置である。
ジャイロセンサ130は、携帯端末100の3次元方向の角速度を検出する角速度センサである。このジャイロセンサ130は、携帯端末100がある方向に回転した場合に、その回転の角速度を出力する。このジャイロセンサ130によって得られる角速度は、単位時間あたりの角度である。
加速度センサ140は、携帯端末100の3次元方向の加速度を検出する加速度センサである。この加速度センサ140は、携帯端末100がある方向に移動した場合に、その移動の加速度を出力する。この加速度センサ140によって得られる加速度は、単位時間あたりに速度が変化する割合である。
これらジャイロセンサ130および加速度センサ140における検出結果を組み合わせることにより、携帯端末100が傾けられた場合の傾きの方向や、携帯端末100が移動された場合の移動の方向を検知することができる。例えば、携帯端末100を手に持つ利用者が、携帯端末100を左右に並行移動(スライド)させた場合には、その移動方向が検知される。また、携帯端末100を手に持つ利用者が、携帯端末100を左右に傾けた場合には、その傾きの方向が検知される。また、携帯端末100を手に持つ利用者が、携帯端末100を正面において前後に傾けた場合と、上下に大きく振り回した場合とでは、検出される加速度が異なるため、加速度センサ140により検出された結果を参照することにより、両者を区別することができる。
なお、ここでは、携帯端末100に設けられるセンサとしてジャイロセンサ130および加速度センサ140を例示したが、携帯端末100は気圧センサや地磁気センサなどの他のセンサを備えてもよい。
近距離無線通信部180は、プロジェクションデバイス200との間で近距離無線通信を行うものである。ここで、近距離無線通信としては、例えば「Bluetooth(登録商標) Low Energy」を想定する。一般に、近距離無線通信では、消費電力を低く抑えるためにデータ転送レートも低く設定されている。そのため、本実施の形態において、近距離無線通信部180は、映像信号ではなく、ジャイロセンサ130および加速度センサ140によって得られた検知結果を送信するために用いられることを想定する。なお、この実施の形態では、ジャイロセンサ130および加速度センサ140によって得られた検知結果を、近距離無線通信を介して転送することを想定したが、無線LANなどの他の無線通信や、有線による接続によって転送するようにしてもよい。
ネットワーク通信部190は、プロジェクションデバイス200との間でネットワーク通信を行うものである。ここで、ネットワーク通信としては、例えばWiFi(登録商標)等の無線LANを想定する。本実施の形態において、ネットワーク通信部190は、映像信号を転送するために用いられることを想定する。
プロジェクションデバイス200は、プロセッサ210と、メモリ220と、投影部240と、近距離無線通信部280と、ネットワーク通信部290とを備える。
プロセッサ210は、プロジェクションデバイス200の各部を制御する処理装置である。メモリ220は、プロセッサ210の動作に必要なデータ等を記憶するメモリである。例えば、メモリ220には、携帯端末100から受信した映像信号が記憶される。プロセッサ210は、メモリ220に記憶された映像信号の再生処理を行う。なお、メモリ220は、特許請求の範囲に記載の記憶部の一例である。
投影部240は、プロセッサ210によって再生された映像を投影面に投影するものである。この投影部240は、ランプやレーザなどの光源を用いて映像を投影面に投影させる。特に、レーザ光源を用いた場合には、投影面において走査により点描画するため、黒い部分を明るくすることなく、投影面の全ての位置においてピントを合わせることが可能である。
近距離無線通信部280は、携帯端末100との間で近距離無線通信を行うものである。この近距離無線通信部280は、携帯端末100から送信されたジャイロセンサ130および加速度センサ140による検知結果を受信して、その検知結果をプロセッサ210に供給する。
ネットワーク通信部290は、携帯端末100との間でネットワーク通信を行うものである。このネットワーク通信部290は、携帯端末100から転送された映像信号を受信して、その映像信号をプロセッサ210に供給する。
クレードル300は、プロセッサ310と、モータ駆動部350と、モータ360とを備える。
プロセッサ310は、クレードル300の各部を制御する処理装置である。モータ360は、クレードル300に搭載されたプロジェクションデバイス200を上下左右に回動させるための動力を発生する動力源である。モータ360としては、例えばステッピングモータが想定される。モータ駆動部350は、モータ360を駆動するための機構である。
プロジェクションデバイス200がクレードル300に搭載された状態においては、プロセッサ310とプロセッサ210との間は電気的に接続される。したがって、クレードル300のプロセッサ310は、プロジェクションデバイス200のプロセッサ210からジャイロセンサ130および加速度センサ140による検知結果を受け取ることができる。プロセッサ310は、この検知結果に従ってプロジェクションデバイス200の姿勢を変化させる制御信号を生成する。モータ駆動部350は、この生成された制御信号に従ってモータ360を駆動する。これにより、携帯端末100の姿勢の変化に基づいて、プロジェクションデバイス200による映像の投影位置が変化する。
なお、プロセッサ110、210、310は、特許請求の範囲に記載の制御信号生成部の一例である。また、プロセッサ210は、特許請求の範囲に記載の制御信号送信部の一例である。また、プロセッサ310は、特許請求の範囲に記載の検知信号受信部の一例である。
[投影システムの動作]
図3は、本技術の第1の実施の形態における投影システムの動作の第1の例を示すシーケンス図である。以下では、検知結果の伝達に着目して説明するが、これと並行して、携帯端末100からプロジェクションデバイス200には映像信号が転送され、上述のように投影部240によって投影が行われる。
携帯端末100の姿勢が変化すると、ジャイロセンサ130および加速度センサ140によって角速度および加速度が検出される。これにより、携帯端末100のプロセッサ110は、角速度および加速度の検知結果であるセンサ情報を取得する(711)。携帯端末100の近距離無線通信部180は、このセンサ情報をプロジェクションデバイス200に送信する(713)。
プロジェクションデバイス200の近距離無線通信部280は、携帯端末100からセンサ情報を受信する(714)。プロジェクションデバイス200のプロセッサ210は、受信したセンサ情報をモータ駆動のためのパン・チルト信号に変換する(715)。すなわち、センサ情報に基づいて携帯端末100の姿勢の変化を認識し、その姿勢の変化に対応する動作を行うようにクレードル300のモータ360のパン・チルト信号を生成する。例えば、モータ360がステッピングモータであれば、プロセッサ210はその減速比を生成する。プロジェクションデバイス200のプロセッサ210は、電気的接続を介してクレードル300にパン・チルト信号を送信する(716)。なお、パン・チルト信号は、特許請求の範囲に記載の、モータを駆動するための制御信号の一例である。パンは左右方向の振りを行う動作であり、チルトは上下方向の振りを行う動作である。
クレードル300のプロセッサ310は、プロジェクションデバイス200からパン・チルト信号を受信する(717)。プロセッサ310は、パン・チルト信号をモータ駆動部350に供給する。モータ駆動部350は、パン・チルト信号によりモータ360を駆動する(719)。
図4は、本技術の第1の実施の形態における投影システムの動作の第2の例を示すシーケンス図である。上述の例ではプロジェクションデバイス200のプロセッサ210がパン・チルト信号を生成していたが、この例では携帯端末100においてこのパン・チルト信号を生成することを想定する。
携帯端末100の姿勢が変化すると、ジャイロセンサ130および加速度センサ140によって角速度および加速度が検出される。これにより、携帯端末100のプロセッサ110は、角速度および加速度の検知結果であるセンサ情報を取得する(721)。そして、プロセッサ110は、そのセンサ情報をモータ駆動のためのパン・チルト信号に変換する(722)。携帯端末100の近距離無線通信部180は、このパン・チルト信号をプロジェクションデバイス200に送信する(723)。
プロジェクションデバイス200の近距離無線通信部280は、携帯端末100からパン・チルト信号を受信する(724)。プロジェクションデバイス200のプロセッサ210は、電気的接続を介してクレードル300にパン・チルト信号を送信する(726)。
クレードル300のプロセッサ310は、プロジェクションデバイス200からパン・チルト信号を受信する(727)。プロセッサ310は、パン・チルト信号をモータ駆動部350に供給する。モータ駆動部350は、パン・チルト信号によりモータ360を駆動する(729)。このクレードル300における動作は、上述の第1の例と同様である。
図5は、本技術の第1の実施の形態における投影システムの動作の第3の例を示すシーケンス図である。上述の例では携帯端末100やプロジェクションデバイス200がパン・チルト信号を生成していたが、この例ではクレードル300においてこのパン・チルト信号を生成することを想定する。
携帯端末100の姿勢が変化すると、ジャイロセンサ130および加速度センサ140によって角速度および加速度が検出される。これにより、携帯端末100のプロセッサ110は、角速度および加速度の検知結果であるセンサ情報を取得する(731)。携帯端末100の近距離無線通信部180は、このセンサ情報をプロジェクションデバイス200に送信する(733)。この携帯端末100における動作は、上述の第1の例と同様である。
プロジェクションデバイス200の近距離無線通信部280は、携帯端末100からセンサ情報を受信する(734)。プロジェクションデバイス200のプロセッサ210は、電気的接続を介してクレードル300にセンサ情報を送信する(736)。
クレードル300のプロセッサ310は、プロジェクションデバイス200からセンサ情報を受信する(737)。そして、プロセッサ310は、そのセンサ情報をモータ駆動のためのパン・チルト信号に変換する(738)。プロセッサ310は、パン・チルト信号をモータ駆動部350に供給する。モータ駆動部350は、パン・チルト信号によりモータ360を駆動する(739)。
[投影システムの応用例]
図6は、本技術の第1の実施の形態における投影システムの第1の応用例を示す図である。この応用例は、ドライブゲームを想定したものである。携帯端末100のジャイロセンサ130および加速度センサ140を利用して、傾きによってプロジェクションデバイス200のパン・チルト操作を可能とする。これにより、ハンドルを切るように携帯端末100を傾けることによって、傾けた方向の映像を映し出すことができる。
ユーザが携帯端末100を水平持ちしている場合、プロジェクションデバイス200から投影される映像611は投影面の中央部分に映し出される。ユーザが携帯端末100を左側に傾けると(613)、携帯端末100の姿勢変化がプロジェクションデバイス200を介してクレードル300に伝達され、クレードル300はプロジェクションデバイス200を左側に傾ける。これにより、プロジェクションデバイス200から投影される映像612は投影面の左側に映し出される。このようにして、運転中にハンドルを切るように運転席から見た特定の方向の景色を映像として表示することができる。
図7は、本技術の第1の実施の形態における投影システムの第2の応用例を示す図である。この応用例は、迷宮(ダンジョン)探検ゲームを想定したものである。携帯端末100の傾きによってプロジェクションデバイス200のパン・チルト操作を可能とすることにより、サーチライトを振るように携帯端末100を傾けることによって、傾けた方向の迷宮内の映像を映し出すことができる。このとき、携帯端末100の画面には、迷宮の地図とキャラクタの位置を表示することができる。すなわち、プロジェクションデバイス200からは、携帯端末100の画面表示とは異なる映像を映し出すことができる。
ユーザが携帯端末100を水平持ちしている場合、プロジェクションデバイス200から投影される映像621の位置は投影面において変化しない。ユーザが携帯端末100を右側に傾けると(623)、携帯端末100の姿勢変化がプロジェクションデバイス200を介してクレードル300に伝達され、クレードル300はプロジェクションデバイス200を右側に傾ける。これにより、プロジェクションデバイス200から投影される映像622の位置は右側に変化する。このようにして、迷宮内であたかもサーチライトを振る動作が行われたかのように映像を表示することができ、この例のように宝箱を発見することができる。
図8は、本技術の第1の実施の形態における投影システムの第3の応用例を示す図である。この応用例は、FPS(First-Person Shooter)ゲームを想定したものである。このFPSゲームは、主人公の視点からゲーム内の空間を移動して、敵と戦うゲームの一種である。携帯端末100の傾きによってプロジェクションデバイス200のパン・チルト操作を可能とすることにより、ライフルのスコープから標的を拡大表示するように任意の映像を映し出すことができる。このとき、携帯端末100の画面には、人の目線における表示や、キャラクタの移動操作を行うインターフェースの表示を行うことができる。すなわち、プロジェクションデバイス200からは、携帯端末100の画面表示とは異なる映像を映し出すことができる。
ユーザが携帯端末100を水平持ちしている場合、プロジェクションデバイス200から投影される映像631の位置は投影面において変化しない。ユーザが携帯端末100を右側に傾けると(633)、携帯端末100の姿勢変化がプロジェクションデバイス200を介してクレードル300に伝達され、クレードル300はプロジェクションデバイス200を右側に傾ける。これにより、プロジェクションデバイス200から投影される映像632の位置は右側に変化する。このようにして、ライフルのスコープを見ながらあたかもライフルを振る動作が行われたかのように映像を表示することができ、この例のように敵の兵士を発見することができる。
図9および図10は、本技術の第1の実施の形態における投影システムの第4の応用例を示す図である。この応用例は、360度映像表示を想定したものである。携帯端末100の傾きまたはスライドによってプロジェクションデバイス200のパン・チルト操作を可能とすることにより、360度映像の見たい方向の映像を映し出すことができる。
例えば、図9に示すように、360度映像651において、特定の部分の映像652を表示しているときに携帯端末100において左上方向のスライド操作が行われた場合、左上方向の部分の映像653を表示することができる。
また、図10に示すように、ユーザが携帯端末100を水平持ちしている場合、プロジェクションデバイス200から投影される映像641の位置は投影面において変化しない。ユーザが携帯端末100を左上に傾け(643)、または、左上にスライドさせると(644)、携帯端末100の姿勢変化がプロジェクションデバイス200を介してクレードル300に伝達され、クレードル300はプロジェクションデバイス200を左上に傾ける。これにより、プロジェクションデバイス200から投影される映像642の位置は左上に変化する。このようにして、携帯端末100を動かした方向の映像が表示されるように、ユーザが見たい部分の360度映像を映し出すことができる。すなわち、上述のゲームの例のみならず、この実施の形態は映像表示全般に適用可能であり、例えば、広くAR(Augmented Reality:拡張現実)等にも応用することができる。
このように、本技術の第1の実施の形態では、携帯端末100の姿勢の変化の検知結果を、プロジェクションデバイス200を介してクレードル300に転送する。これにより、携帯端末100の姿勢の変化に従ってクレードル300がプロジェクションデバイス200の姿勢を変化させて、携帯端末100の姿勢変化に連動して映像の投影位置を変化させることができる。
[第1の変形例]
図11は、本技術の第1の実施の形態における投影システムの第1の変形例を示す図である。上述の実施の形態では、ネットワーク通信部によって携帯端末100からプロジェクションデバイス200に映像信号を供給していたが、他の方法によって映像信号を供給するようにしてもよい。この第1の変形例では、メモリカード231に記憶されている映像を表示することを想定する。
この第1の変形例では、プロジェクションデバイス200はメモリカードインターフェース230を備える。このメモリカードインターフェース230は、メモリカード231に記憶されている映像を読み出すためのインターフェースである。プロジェクションデバイス200のプロセッサ210は、メモリカードインターフェース230を介してメモリカード231に記憶されている映像を読み出して、メモリ220に記憶する。そして、プロセッサ210は、メモリ220に記憶された映像信号の再生処理を行う。他の構成については、上述の実施の形態と同様であるため、詳細な説明は省略する。なお、メモリ220およびメモリカード231は、特許請求の範囲に記載の記憶部の一例である。
[第2の変形例]
図12は、本技術の第1の実施の形態における投影システムの第2の変形例を示す図である。この第2の変形例では、携帯端末100は音声出力部170を備え、プロジェクションデバイス200は音声出力部270を備える。なお、音声出力部170は特許請求の範囲に記載の第1の音声出力部の一例であり、音声出力部270は特許請求の範囲に記載の第2の音声出力部の一例である。
音声出力部170および音声出力部270は、それぞれ異なる音声を出力することができる。例えば、携帯端末100の音声出力部170からはゲームのBGM(Back Ground Music)が出力され、一方、プロジェクションデバイス200の音声出力部270からは映像における発生音(例えば、迷宮における金属探知音)などが出力される。これにより、プロジェクションデバイス200による投影面における臨場感等を向上させることができる。
[第3の変形例]
上述の実施の形態においては、携帯端末100、プロジェクションデバイス200およびクレードル300は、それぞれ1台ずつであることを想定していた。しかし、これらはシステム全体としてはそれぞれ複数台を設けるようにしてもよい。その場合、1台の携帯端末100に対して1組のプロジェクションデバイス200およびクレードル300を対応させて、それらを複数設けることが想定される。例えば、携帯端末100のそれぞれにゲームのキャラクタを割り当てて、対応する携帯端末100の姿勢変化に応じてキャラクタの投影位置を変化させる。これにより、キャラクタ同士が連携して動作するようなゲームを実現することができる。
<2.第2の実施の形態>
[投影システムの構成]
図13は、本技術の第2の実施の形態における投影システムの機能構成例を示す図である。
この第2の実施の形態では、携帯端末100内で検知された姿勢変化の検知結果は、プロジェクションデバイス200を介さずに直接、クレードル300に供給される。そのため、この第2の実施の形態では、クレードル300は、近距離無線通信部380を備えて、携帯端末100との間で近距離無線通信を行う。この近距離無線通信により、クレードル300は、携帯端末100のジャイロセンサ130および加速度センサ140によって得られた検知結果を受信する。他の構成については、上述の実施の形態と同様であるため、詳細な説明は省略する。
[投影システムの動作]
図14は、本技術の第2の実施の形態における投影システムの動作の第1の例を示すシーケンス図である。
携帯端末100の姿勢が変化すると、ジャイロセンサ130および加速度センサ140によって角速度および加速度が検出される。これにより、携帯端末100のプロセッサ110は、角速度および加速度の検知結果であるセンサ情報を取得する(741)。携帯端末100の近距離無線通信部180は、このセンサ情報をクレードル300に送信する(743)。
クレードル300の近距離無線通信部380は、携帯端末100からセンサ情報を受信する(744)。そして、クレードル300のプロセッサ310は、そのセンサ情報をモータ駆動のためのパン・チルト信号に変換する(745)。プロセッサ310は、パン・チルト信号をモータ駆動部350に供給する。モータ駆動部350は、パン・チルト信号によりモータ360を駆動する(749)。
なお、この図においては省略されているが、これと並行してプロジェクションデバイス200の投影部240から映像が投射される。
図15は、本技術の第2の実施の形態における投影システムの動作の第2の例を示すシーケンス図である。上述の例ではクレードル300のプロセッサ310がパン・チルト信号を生成していたが、この例では携帯端末100においてこのパン・チルト信号を生成することを想定する。
携帯端末100の姿勢が変化すると、ジャイロセンサ130および加速度センサ140によって角速度および加速度が検出される。これにより、携帯端末100のプロセッサ110は、角速度および加速度の検知結果であるセンサ情報を取得する(751)。そして、プロセッサ110は、そのセンサ情報をモータ駆動のためのパン・チルト信号に変換する(752)。携帯端末100の近距離無線通信部180は、このパン・チルト信号をクレードル300に送信する(753)。
クレードル300の近距離無線通信部380は、携帯端末100からパン・チルト信号を受信する(754)。プロセッサ310は、パン・チルト信号をモータ駆動部350に供給する。モータ駆動部350は、パン・チルト信号によりモータ360を駆動する(759)。
このように、本技術の第2の実施の形態では、携帯端末100の姿勢の変化の検知結果を、プロジェクションデバイス200を介さずに直接、クレードル300に転送する。これにより、携帯端末100の姿勢の変化に従ってクレードル300がプロジェクションデバイス200の姿勢を変化させて、携帯端末100の姿勢変化に連動して映像の投影位置を変化させることができる。
なお、上述の第1の実施の形態において説明した第1乃至第3の変形例は、この第2の実施の形態にも適用することができる。
<3.第3の実施の形態>
[投影システムの構成]
図16は、本技術の第3の実施の形態における投影システムの機能構成例を示す図である。上述の第1および第2の実施の形態では、プロジェクションデバイス200とクレードル300はそれぞれ独立した装置として構成されることを想定したが、この第3の実施の形態では、プロジェクションデバイス200がモータを備えて、クレードルと同様の機能を備えることを想定する。すなわち、プロジェクションデバイスとクレードルが一体化した装置として構成される。
この第3の実施の形態におけるプロジェクションデバイス200は、プロセッサ210、メモリ220、投影部240、近距離無線通信部280、ネットワーク通信部290に加えて、モータ駆動部250とモータ260とを備える。モータ260は、プロジェクションデバイス200を上下左右に回動させるための動力を発生する動力源である。モータ260としては、例えばステッピングモータが想定される。モータ駆動部250は、モータ260を駆動するための機構である。
他の構成については、上述の第1および第2の実施の形態と同様であるため、詳細な説明は省略する。
[投影システムの動作]
図17は、本技術の第3の実施の形態における投影システムの動作の第1の例を示すシーケンス図である。
携帯端末100の姿勢が変化すると、ジャイロセンサ130および加速度センサ140によって角速度および加速度が検出される。これにより、携帯端末100のプロセッサ110は、角速度および加速度の検知結果であるセンサ情報を取得する(761)。携帯端末100の近距離無線通信部180は、このセンサ情報をプロジェクションデバイス200に送信する(763)。
プロジェクションデバイス200の近距離無線通信部280は、携帯端末100からセンサ情報を受信する(764)。そして、プロジェクションデバイス200のプロセッサ210は、そのセンサ情報をモータ駆動のためのパン・チルト信号に変換する(765)。プロセッサ210は、パン・チルト信号をモータ駆動部250に供給する。モータ駆動部250は、パン・チルト信号によりモータ260を駆動する(769)。
なお、この図においては省略されているが、これと並行してプロジェクションデバイス200の投影部240から映像が投射される。
図18は、本技術の第3の実施の形態における投影システムの動作の第2の例を示すシーケンス図である。上述の例ではプロジェクションデバイス200がパン・チルト信号を生成していたが、この例では携帯端末100においてこのパン・チルト信号を生成することを想定する。
携帯端末100の姿勢が変化すると、ジャイロセンサ130および加速度センサ140によって角速度および加速度が検出される。これにより、携帯端末100のプロセッサ110は、角速度および加速度の検知結果であるセンサ情報を取得する(771)。そして、プロセッサ110は、そのセンサ情報をモータ駆動のためのパン・チルト信号に変換する(772)。携帯端末100の近距離無線通信部180は、このパン・チルト信号をプロジェクションデバイス200に送信する(773)。
プロジェクションデバイス200の近距離無線通信部280は、携帯端末100からパン・チルト信号を受信する(774)。プロジェクションデバイス200のプロセッサ210は、パン・チルト信号をモータ駆動部250に供給する。モータ駆動部250は、パン・チルト信号によりモータ260を駆動する(779)
このように、本技術の第3の実施の形態では、携帯端末100の姿勢の変化の検知結果を、プロジェクションデバイス200に転送する。これにより、携帯端末100の姿勢の変化に従ってプロジェクションデバイス200が自身の姿勢を変化させて、携帯端末100の姿勢変化に連動して映像の投影位置を変化させることができる。
なお、上述の第1の実施の形態において説明した第1乃至第3の変形例は、この第3の実施の形態にも適用することができる。
ここまで説明したように、本技術の実施の形態では、携帯端末100の姿勢の変化の検知結果に従ってプロジェクションデバイス200の姿勢を変化させることにより、携帯端末100の姿勢変化に連動して映像の投影位置を変化させることができる。
なお、上述の実施の形態では、携帯端末100の姿勢の変化の検知結果に従ってプロジェクションデバイス200の姿勢を変化させることを想定したが、携帯端末100における画面上の操作に従ってプロジェクションデバイス200の姿勢を変化させてもよい。例えば、ユーザが携帯端末100の画面を突っつく操作(タップ操作)や、画面上をなぞる操作(スライド操作)により映像の変化を指示した場合に、プロジェクションデバイス200を回動等させるようにしてもよい。
なお、上述の実施の形態は本技術を具現化するための一例を示したものであり、実施の形態における事項と、特許請求の範囲における発明特定事項とはそれぞれ対応関係を有する。同様に、特許請求の範囲における発明特定事項と、これと同一名称を付した本技術の実施の形態における事項とはそれぞれ対応関係を有する。ただし、本技術は実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において実施の形態に種々の変形を施すことにより具現化することができる。
また、上述の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。この記録媒体として、例えば、CD(Compact Disc)、MD(MiniDisc)、DVD(Digital Versatile Disc)、メモリカード、ブルーレイディスク(Blu-ray(登録商標)Disc)等を用いることができる。
なお、本明細書に記載された効果はあくまで例示であって、限定されるものではなく、また、他の効果があってもよい。
なお、本技術は以下のような構成もとることができる。
(1)自身の姿勢の変化を検知する携帯端末と、
映像信号を再生して投影面に投影するプロジェクションデバイスと、
前記プロジェクションデバイスを支えるとともに前記携帯端末の検知結果に従って前記プロジェクションデバイスの姿勢を変化させるクレードルと
を具備する投影システム。
(2)前記携帯端末は、加速度センサおよびジャイロセンサのうち少なくとも1つのセンサにより前記姿勢の変化を検知する前記(1)に記載の投影システム。
(3)前記クレードルは、前記プロジェクションデバイスの姿勢を変化させるモータと、前記モータを駆動するモータ駆動部とを備え、
前記携帯端末、前記プロジェクションデバイスおよび前記クレードルの何れかは、前記携帯端末の姿勢の変化に基づいて前記モータを駆動するための制御信号を生成する制御信号生成部を備える
前記(2)に記載の投影システム。
(4)前記携帯端末は、前記映像信号を前記プロジェクションデバイスに供給する
前記(1)から(3)のいずれかに記載の投影システム。
(5)前記プロジェクションデバイスは、前記映像信号を記憶する記憶部を備え、前記記憶部から前記映像信号を読み出して前記再生を行う
前記(1)から(3)のいずれかに記載の投影システム。
(6)前記携帯端末は、第1の音声出力部を備え、
前記プロジェクションデバイスは、第2の音声出力部を備え、
前記第1および第2の音声出力部は、前記映像信号に対応する互いに異なる音声信号をそれぞれ出力する
前記(1)から(5)のいずれかに記載の投影システム。
(7)前記携帯端末、前記プロジェクションデバイスおよび前記クレードルを1組として、複数組を具備する前記(1)から(6)のいずれかに記載の投影システム。
(8)携帯端末の姿勢の変化を検知結果として受信する検知信号受信部と、
前記検知結果に基づいて自身の姿勢を変化させるための制御信号を生成する制御信号生成部と、
自身を支えるためのクレードルに前記制御信号を送信する制御信号送信部と
前記検知結果に基づく投影方向に映像信号を投影する投影部と
を具備するプロジェクションデバイス。
(9)携帯端末の姿勢の変化を検知結果として受信する検知信号受信部と、
前記検知結果に基づいて自身の姿勢を変化させるための制御信号を生成する制御信号生成部と、
前記自身の姿勢を変化させるモータと、
前記制御信号に従って前記モータを駆動するモータ駆動部と、
前記検知結果に基づく投影方向に映像信号を投影する投影部と
を具備するプロジェクションデバイス。
(10)携帯端末の姿勢の変化を検知結果として受信する検知信号受信部と、
前記プロジェクションデバイスの姿勢を変化させるモータと、
前記検知結果に基づいて前記モータを駆動するための制御信号を生成する制御信号生成部と、
前記制御信号に従って前記モータを駆動するモータ駆動部とを具備して、
前記プロジェクションデバイスを支えるクレードル。
100 携帯端末
110 プロセッサ
130 ジャイロセンサ
140 加速度センサ
170 音声出力部
180 近距離無線通信部
190 ネットワーク通信部
200 プロジェクションデバイス
210 プロセッサ
220 メモリ
230 メモリカードインターフェース
231 メモリカード
240 投影部
250 モータ駆動部
260 モータ
270 音声出力部
280 近距離無線通信部
290 ネットワーク通信部
300 クレードル
310 プロセッサ
350 モータ駆動部
360 モータ
380 近距離無線通信部

Claims (10)

  1. 自身の姿勢の変化を検知する携帯端末と、
    全体映像のうち前記携帯端末の検知結果に応じた一部の映像信号を再生して投影面に投影するプロジェクションデバイスと、
    前記プロジェクションデバイスを支えるとともに前記検知結果に従って前記プロジェクションデバイスの姿勢を変化させるクレードルと
    を具備する投影システム。
  2. 前記携帯端末は、加速度センサおよびジャイロセンサのうち少なくとも1つのセンサにより前記姿勢の変化を検知する請求項1記載の投影システム。
  3. 前記クレードルは、前記プロジェクションデバイスの姿勢を変化させるモータと、前記モータを駆動するモータ駆動部とを備え、
    前記携帯端末、前記プロジェクションデバイスおよび前記クレードルの何れかは、前記携帯端末の姿勢の変化に基づいて前記モータを駆動するための制御信号を生成する制御信号生成部を備える
    請求項2記載の投影システム。
  4. 前記携帯端末は、前記映像信号を前記プロジェクションデバイスに供給する
    請求項1記載の投影システム。
  5. 前記プロジェクションデバイスは、前記映像信号を記憶する記憶部を備え、前記記憶部から前記映像信号を読み出して前記再生を行う
    請求項1記載の投影システム。
  6. 前記携帯端末は、第1の音声出力部を備え、
    前記プロジェクションデバイスは、第2の音声出力部を備え、
    前記第1および第2の音声出力部は、前記映像信号に対応する互いに異なる音声信号をそれぞれ出力する
    請求項1記載の投影システム。
  7. 前記携帯端末、前記プロジェクションデバイスおよび前記クレードルを1組として、複数組を具備する請求項1記載の投影システム。
  8. 携帯端末の姿勢の変化を検知結果として受信する検知信号受信部と、
    前記検知結果に基づいて自身の姿勢を変化させるための制御信号を生成する制御信号生成部と、
    自身を支えるためのクレードルに前記制御信号を送信する制御信号送信部と
    全体映像のうち前記検知結果に応じた一部の映像信号を再生して前記検知結果に基づく投影方向に投影する投影部と
    を具備するプロジェクションデバイス。
  9. 携帯端末の姿勢の変化を検知結果として受信する検知信号受信部と、
    前記検知結果に基づいて自身の姿勢を変化させるための制御信号を生成する制御信号生成部と、
    前記自身の姿勢を変化させるモータと、
    前記制御信号に従って前記モータを駆動するモータ駆動部と、
    全体映像のうち前記検知結果に応じた一部の映像信号を再生して前記検知結果に基づく投影方向に投影する投影部と
    を具備するプロジェクションデバイス。
  10. 携帯端末の姿勢の変化を検知結果として受信する検知信号受信部と、
    全体映像のうち前記検知結果に応じた一部の映像信号を再生して投影面に投影するプロジェクションデバイスの姿勢を変化させるモータと、
    前記検知結果に基づいて前記モータを駆動するための制御信号を生成する制御信号生成部と、
    前記制御信号に従って前記モータを駆動するモータ駆動部とを具備して、
    前記プロジェクションデバイスを支えるクレードル。
JP2018558810A 2016-12-26 2017-09-11 投影システム、プロジェクションデバイスおよびクレードル Active JP7059940B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016250602 2016-12-26
JP2016250602 2016-12-26
PCT/JP2017/032714 WO2018123152A1 (ja) 2016-12-26 2017-09-11 投影システム、プロジェクションデバイスおよびクレードル

Publications (2)

Publication Number Publication Date
JPWO2018123152A1 JPWO2018123152A1 (ja) 2019-10-31
JP7059940B2 true JP7059940B2 (ja) 2022-04-26

Family

ID=62707144

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018558810A Active JP7059940B2 (ja) 2016-12-26 2017-09-11 投影システム、プロジェクションデバイスおよびクレードル

Country Status (5)

Country Link
US (1) US10582145B2 (ja)
EP (1) EP3562148B1 (ja)
JP (1) JP7059940B2 (ja)
CN (1) CN110100432B (ja)
WO (1) WO2018123152A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7043104B1 (ja) * 2021-05-31 2022-03-29 株式会社N sketch デバイス管理システム及びその管理方法、物品管理システム及びその管理方法、並びにデバイス及びその通信方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005309213A (ja) 2004-04-23 2005-11-04 Seiko Epson Corp プロジェクタシステム
JP2007101836A (ja) 2005-10-04 2007-04-19 Seiko Epson Corp プロジェクタ装置
JP2008072244A (ja) 2006-09-12 2008-03-27 Sony Computer Entertainment Inc 映像表示システム、映像表示装置、その制御方法及びプログラム
JP2008288682A (ja) 2007-05-15 2008-11-27 Nikon Corp 載置台
JP2009182435A (ja) 2008-01-29 2009-08-13 Seiko Epson Corp 投影システム、リモコン、プロジェクタ、投影システムの操作方法およびプログラム
JP2012138686A (ja) 2010-12-24 2012-07-19 Kyocera Corp 携帯電子機器
JP2013146049A (ja) 2011-12-15 2013-07-25 Sanyo Electric Co Ltd 画像表示装置および携帯機器
JP2013213877A (ja) 2012-03-30 2013-10-17 Jvc Kenwood Corp 投射装置および投射方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006042000A (ja) * 2004-07-28 2006-02-09 Sanyo Electric Co Ltd デジタルカメラ用クレードルおよびデジタルカメラシステム
CN201210221Y (zh) * 2008-05-30 2009-03-18 北京恒基伟业投资发展有限公司 一种投影角度调节装置
CN101968631B (zh) * 2009-07-27 2014-07-02 联想(北京)有限公司 便携终端的显示控制方法及便携终端
KR101657565B1 (ko) * 2010-04-21 2016-09-19 엘지전자 주식회사 증강 원격제어장치 및 그 동작 방법
CN101815191A (zh) * 2010-04-24 2010-08-25 中兴通讯股份有限公司 一种调整便携终端投影仪显示画面的方法、一种便携终端
US9134799B2 (en) * 2010-07-16 2015-09-15 Qualcomm Incorporated Interacting with a projected user interface using orientation sensors
KR101714050B1 (ko) * 2010-11-01 2017-03-08 삼성전자주식회사 휴대단말기의 데이터 표시장치 및 방법
JP2012163796A (ja) * 2011-02-08 2012-08-30 Seiko Epson Corp プロジェクターおよび認証方法
KR20120129664A (ko) * 2011-05-20 2012-11-28 삼성전자주식회사 프로젝터 및 프로젝터 제어방법
KR20120134412A (ko) * 2011-06-02 2012-12-12 삼성전자주식회사 디스플레이 장치, 디스플레이 시스템 및 그 영상 표시 방법
US8789953B2 (en) * 2012-01-30 2014-07-29 Yang Pan Video delivery system using tablet computer and detachable micro projectors
CN103366659B (zh) * 2012-03-26 2016-07-06 联想(北京)有限公司 显示控制方法及相关设备
WO2013147068A1 (ja) * 2012-03-30 2013-10-03 株式会社Jvcケンウッド 投射装置
US9406280B2 (en) * 2013-03-18 2016-08-02 Seiko Epson Corporation Image display device, image display system, and method of controlling image display device
TWI502486B (zh) * 2013-10-21 2015-10-01 Acer Inc 投影機、影像輸出裝置及其控制方法
JP6360296B2 (ja) * 2013-12-10 2018-07-18 キヤノン株式会社 画像送信装置、画像提示システム、制御方法、及びプログラム
JP6387641B2 (ja) * 2014-01-15 2018-09-12 セイコーエプソン株式会社 プロジェクター、表示装置、表示システムおよび表示装置の制御方法
TWI597658B (zh) * 2014-03-10 2017-09-01 緯創資通股份有限公司 電子裝置、顯示系統及影像處理方法
CN103916697A (zh) * 2014-04-04 2014-07-09 深圳市同洲电子股份有限公司 一种多应用显示的方法及相关智能终端
JP6386809B2 (ja) * 2014-06-23 2018-09-05 キヤノン株式会社 情報処理装置およびその制御方法、システム、並びにプログラム
CN105163054A (zh) * 2015-10-22 2015-12-16 高国华 一种兼容视频采集的无线超短焦投影仪系统及方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005309213A (ja) 2004-04-23 2005-11-04 Seiko Epson Corp プロジェクタシステム
JP2007101836A (ja) 2005-10-04 2007-04-19 Seiko Epson Corp プロジェクタ装置
JP2008072244A (ja) 2006-09-12 2008-03-27 Sony Computer Entertainment Inc 映像表示システム、映像表示装置、その制御方法及びプログラム
JP2008288682A (ja) 2007-05-15 2008-11-27 Nikon Corp 載置台
JP2009182435A (ja) 2008-01-29 2009-08-13 Seiko Epson Corp 投影システム、リモコン、プロジェクタ、投影システムの操作方法およびプログラム
JP2012138686A (ja) 2010-12-24 2012-07-19 Kyocera Corp 携帯電子機器
JP2013146049A (ja) 2011-12-15 2013-07-25 Sanyo Electric Co Ltd 画像表示装置および携帯機器
JP2013213877A (ja) 2012-03-30 2013-10-17 Jvc Kenwood Corp 投射装置および投射方法

Also Published As

Publication number Publication date
EP3562148B1 (en) 2023-05-31
CN110100432B (zh) 2022-04-08
US10582145B2 (en) 2020-03-03
EP3562148A1 (en) 2019-10-30
EP3562148A4 (en) 2020-04-22
WO2018123152A1 (ja) 2018-07-05
JPWO2018123152A1 (ja) 2019-10-31
CN110100432A (zh) 2019-08-06
US20190356879A1 (en) 2019-11-21

Similar Documents

Publication Publication Date Title
KR102378669B1 (ko) 감소된 홉을 이용해 두부 장착형 시스템 내에서 증강 가상 현실 장면을 생성하기 위한 시스템 및 방법
KR102158004B1 (ko) 두부 장착형 시스템과 연관된 홉을 감소시키기 위한 시스템 및 방법
JP6001542B2 (ja) 携帯デバイスによるインタラクティブアプリケーションのビデオキャプチャを可能とするためのシステム
US8907891B2 (en) Methods and systems for playing video games with a controller having a display that shares content with a main display
WO2017104579A1 (ja) 情報処理装置および操作受付方法
WO2016031028A1 (ja) 情報処理端末およびゲーム装置
WO2016144560A1 (en) Virtual reality headset connected to a mobile computing device
CN105579890A (zh) 头戴式显示器及其控制方法
JP6397698B2 (ja) 情報処理端末、情報処理プログラム、情報処理端末システム、および情報処理方法
CN104754214A (zh) 视频记录设备的图形用户界面
JP6396070B2 (ja) 画像融合システム、情報処理装置、情報端末、および情報処理方法
JP2019512120A (ja) 装置および関連する方法
US11878240B2 (en) Method, apparatus, device, and storage medium for perspective rotation
US11287896B2 (en) Display apparatus and control method thereof
JP7059940B2 (ja) 投影システム、プロジェクションデバイスおよびクレードル
JP2019128757A (ja) 頭部装着型表示装置、及び頭部装着型表示装置の制御方法
JP2019004243A (ja) 表示システム、表示装置、及び、表示システムの制御方法
JP6530453B2 (ja) ゲームプログラム及びゲームシステム
GB2517008A (en) Head-mountable apparatus and systems
KR102201740B1 (ko) 이동 단말기 및 그 제어방법
KR102619302B1 (ko) 휴대 단말기와 연동하여 트래킹 기능을 제공하는 단말기 거치대
KR102403719B1 (ko) 전자 장치 및 그 제어 방법
JP2024052524A (ja) 通信管理サーバ、通信システム、通信管理方法、及びプログラム
JP2024052610A (ja) 通信管理サーバ、通信システム、通信管理方法、及びプログラム
JP2017224358A (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220328

R151 Written notification of patent or utility model registration

Ref document number: 7059940

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151