JP7059940B2 - Projection system, projection device and cradle - Google Patents

Projection system, projection device and cradle Download PDF

Info

Publication number
JP7059940B2
JP7059940B2 JP2018558810A JP2018558810A JP7059940B2 JP 7059940 B2 JP7059940 B2 JP 7059940B2 JP 2018558810 A JP2018558810 A JP 2018558810A JP 2018558810 A JP2018558810 A JP 2018558810A JP 7059940 B2 JP7059940 B2 JP 7059940B2
Authority
JP
Japan
Prior art keywords
mobile terminal
projection
projection device
posture
detection result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018558810A
Other languages
Japanese (ja)
Other versions
JPWO2018123152A1 (en
Inventor
一弥 石井
茂 田中
三奈子 川田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2018123152A1 publication Critical patent/JPWO2018123152A1/en
Application granted granted Critical
Publication of JP7059940B2 publication Critical patent/JP7059940B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/145Housing details, e.g. position adjustments thereof
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/32Details specially adapted for motion-picture projection
    • G03B21/50Control devices operated by the film strip during the run
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/54Accessories
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4854End-user interface for client configuration for modifying image parameters, e.g. image brightness, contrast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/001Slide projectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72415User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories for remote control of appliances
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本技術は、投影システムに関する。詳しくは、映像を投影するプロジェクションデバイス、そのプロジェクションデバイスの姿勢を変化させるクレードル、および、それらを備える投影システムに関する。 This technique relates to a projection system. More specifically, the present invention relates to a projection device that projects an image, a cradle that changes the posture of the projection device, and a projection system including the projection device.

従来、スクリーンや壁面等の投影面に画像を投影するプロジェクタが広く利用されている。また、このプロジェクタの機能を携帯電子機器に組み込んだものも知られている。例えば、プロジェクタの機能を有して、携帯電子機器の姿勢の変化および変化量に応じて、そのプロジェクタの投影内容および表示内容を変化させる携帯電子機器が提案されている(例えば、特許文献1参照。)。 Conventionally, a projector that projects an image on a projection surface such as a screen or a wall surface has been widely used. It is also known that the function of this projector is incorporated into a portable electronic device. For example, a portable electronic device having a function of a projector and changing the projected content and the display content of the projector according to a change and an amount of change in the posture of the portable electronic device has been proposed (see, for example, Patent Document 1). .).

特開2012-138686号公報Japanese Unexamined Patent Publication No. 2012-138686

上述の従来技術では、利用者が携帯電子機器の姿勢を変化させるという直観的な操作に従って、投影内容および表示内容を変化させている。しかしながら、利用者が直接操作を行う機器と、投影を行う装置とが一体化されていると、利用者は常に投影面を意識しなければならず、実際の使用において不便な状況が生じ得る。また、プロジェクタの機能を携帯電子機器の一部の機能として付加した場合には、解像度や発光量などの性能面で、専用のプロジェクタには及ばないと考えられる。 In the above-mentioned conventional technique, the projection content and the display content are changed according to an intuitive operation in which the user changes the posture of the portable electronic device. However, if the device that the user directly operates and the device that performs the projection are integrated, the user must always be aware of the projection surface, which may cause inconvenience in actual use. Further, when the function of the projector is added as a part of the function of the portable electronic device, it is considered that the performance such as the resolution and the amount of light emission is inferior to that of the dedicated projector.

本技術はこのような状況に鑑みて生み出されたものであり、携帯端末による直観的な操作により高機能な投影を行うことを目的とする。 This technique was created in view of such a situation, and aims to perform high-performance projection by intuitive operation with a mobile terminal.

本技術は、上述の問題点を解消するためになされたものであり、その第1の側面は、自身の姿勢の変化を検知する携帯端末と、映像信号を再生して投影面に投影するプロジェクションデバイスと、上記プロジェクションデバイスを支えるとともに上記携帯端末の検知結果に従って上記プロジェクションデバイスの姿勢を変化させるクレードルとを具備する投影システムである。これにより、携帯端末の検知結果に従ってプロジェクションデバイスの姿勢を変化させるという作用をもたらす。 This technology was made to solve the above-mentioned problems, and the first aspect is a mobile terminal that detects a change in its own posture and a projection that reproduces a video signal and projects it on a projection surface. It is a projection system including a device and a cradle that supports the projection device and changes the posture of the projection device according to the detection result of the mobile terminal. This has the effect of changing the posture of the projection device according to the detection result of the mobile terminal.

また、この第1の側面において、上記携帯端末は、加速度センサおよびジャイロセンサのうち少なくとも1つのセンサにより上記姿勢の変化を検知するようにしてもよい。これにより、加速度および角速度の少なくとも何れかにより姿勢の変化を検知するという作用をもたらす。 Further, in the first aspect, the mobile terminal may detect the change in posture by at least one sensor of an acceleration sensor and a gyro sensor. This has the effect of detecting a change in posture based on at least one of acceleration and angular velocity.

また、この第1の側面において、上記クレードルは、上記プロジェクションデバイスの姿勢を変化させるモータと、上記モータを駆動するモータ駆動部とを備え、上記携帯端末、上記プロジェクションデバイスおよび上記クレードルの何れかは、上記携帯端末の姿勢の変化に基づいて上記モータを駆動するための制御信号を生成する制御信号生成部を備えるようにしてもよい。これにより、クレードルのモータを駆動してプロジェクションデバイスの姿勢を変化させるという作用をもたらす。 Further, in the first aspect, the cradle includes a motor that changes the posture of the projection device and a motor drive unit that drives the motor, and any one of the mobile terminal, the projection device, and the cradle A control signal generation unit that generates a control signal for driving the motor based on a change in the posture of the mobile terminal may be provided. This has the effect of driving the motor of the cradle to change the attitude of the projection device.

また、この第1の側面において、上記携帯端末は、上記映像信号を上記プロジェクションデバイスに供給するようにしてもよい。これにより、映像信号から供給された映像信号をプロジェクションデバイスから投影するという作用をもたらす。 Further, in the first aspect, the mobile terminal may supply the video signal to the projection device. This has the effect of projecting the video signal supplied from the video signal from the projection device.

また、この第1の側面において、上記プロジェクションデバイスは、上記映像信号を記憶する記憶部を備え、上記記憶部から上記映像信号を読み出して上記再生を行うようにしてもよい。これにより、プロジェクションデバイスの記憶部に記憶された映像信号を投影するという作用をもたらす。 Further, in the first aspect, the projection device may include a storage unit for storing the video signal, and may read the video signal from the storage unit to perform the reproduction. This has the effect of projecting the video signal stored in the storage unit of the projection device.

また、この第1の側面において、上記携帯端末は、第1の音声出力部を備え、上記プロジェクションデバイスは、第2の音声出力部を備え、上記第1および第2の音声出力部は、上記映像信号に対応する互いに異なる音声信号をそれぞれ出力するようにしてもよい。これにより、携帯端末およびプロジェクションデバイスから互いに異なる音声信号をそれぞれ出力させるという作用をもたらす。 Further, in the first aspect, the mobile terminal includes a first audio output unit, the projection device includes a second audio output unit, and the first and second audio output units are described above. It is also possible to output different audio signals corresponding to the video signals. This has the effect of outputting different audio signals from the mobile terminal and the projection device.

また、この第1の側面において、上記携帯端末、上記プロジェクションデバイスおよび上記クレードルを1組として、複数組を具備してもよい。これにより、複数の携帯端末の検知結果に従ってプロジェクションデバイスから異なる映像を投影させるという作用をもたらす。 Further, in the first aspect, a plurality of sets may be provided with the mobile terminal, the projection device and the cradle as one set. This has the effect of projecting different images from the projection device according to the detection results of a plurality of mobile terminals.

また、本技術の第2の側面は、携帯端末の姿勢の変化を検知結果として受信する検知信号受信部と、上記検知結果に基づいて自身の姿勢を変化させるための制御信号を生成する制御信号生成部と、自身を支えるためのクレードルに上記制御信号を送信する制御信号送信部と上記検知結果に基づく投影方向に映像信号を投影する投影部とを具備するプロジェクションデバイスである。これにより、携帯端末の検知結果に従ってクレードルのモータを駆動することにより、プロジェクションデバイスの姿勢を変化させるという作用をもたらす。 The second aspect of the present technology is a detection signal receiving unit that receives a change in the posture of the mobile terminal as a detection result, and a control signal that generates a control signal for changing its own posture based on the detection result. It is a projection device including a generation unit, a control signal transmission unit that transmits the control signal to a cradle for supporting itself, and a projection unit that projects a video signal in a projection direction based on the detection result. This has the effect of changing the posture of the projection device by driving the motor of the cradle according to the detection result of the mobile terminal.

また、本技術の第3の側面は、携帯端末の姿勢の変化を検知結果として受信する検知信号受信部と、上記検知結果に基づいて自身の姿勢を変化させるための制御信号を生成する制御信号生成部と、上記自身の姿勢を変化させるモータと、上記制御信号に従って上記モータを駆動するモータ駆動部と、上記検知結果に基づく投影方向に映像信号を投影する投影部とを具備するプロジェクションデバイスである。これにより、携帯端末の検知結果に従ってプロジェクションデバイスのモータを駆動することにより、プロジェクションデバイスの姿勢を変化させるという作用をもたらす。 Further, the third aspect of the present technology is a detection signal receiving unit that receives a change in the posture of the mobile terminal as a detection result, and a control signal that generates a control signal for changing its own posture based on the detection result. A projection device including a generation unit, a motor that changes its own posture, a motor drive unit that drives the motor according to the control signal, and a projection unit that projects a video signal in a projection direction based on the detection result. be. This has the effect of changing the posture of the projection device by driving the motor of the projection device according to the detection result of the mobile terminal.

また、本技術の第4の側面は、携帯端末の姿勢の変化を検知結果として受信する検知信号受信部と、上記プロジェクションデバイスの姿勢を変化させるモータと、上記検知結果に基づいて上記モータを駆動するための制御信号を生成する制御信号生成部と、上記制御信号に従って上記モータを駆動するモータ駆動部とを具備して、上記プロジェクションデバイスを支えるクレードルである。これにより、携帯端末の検知結果に従ってこのクレードルのモータを駆動することにより、プロジェクションデバイスの姿勢を変化させるという作用をもたらす。 The fourth aspect of the present technology is a detection signal receiving unit that receives a change in the posture of the mobile terminal as a detection result, a motor that changes the posture of the projection device, and driving the motor based on the detection result. It is a cradle that supports the projection device by including a control signal generation unit that generates a control signal for the purpose of the control signal and a motor drive unit that drives the motor according to the control signal. This has the effect of changing the posture of the projection device by driving the motor of this cradle according to the detection result of the mobile terminal.

本技術によれば、携帯端末による直観的な操作により高機能な投影を行うことができるという優れた効果を奏し得る。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。 According to this technique, it is possible to obtain an excellent effect that high-performance projection can be performed by intuitive operation by a mobile terminal. The effects described herein are not necessarily limited, and may be any of the effects described in the present disclosure.

本技術の実施の形態における投影システムの全体構成例を示す図である。It is a figure which shows the whole structure example of the projection system in embodiment of this technique. 本技術の第1の実施の形態における投影システムの機能構成例を示す図である。It is a figure which shows the functional structure example of the projection system in 1st Embodiment of this technique. 本技術の第1の実施の形態における投影システムの動作の第1の例を示すシーケンス図である。It is a sequence diagram which shows the 1st example of the operation of the projection system in 1st Embodiment of this technique. 本技術の第1の実施の形態における投影システムの動作の第2の例を示すシーケンス図である。It is a sequence diagram which shows the 2nd example of the operation of the projection system in 1st Embodiment of this technique. 本技術の第1の実施の形態における投影システムの動作の第3の例を示すシーケンス図である。It is a sequence diagram which shows the 3rd example of the operation of the projection system in 1st Embodiment of this technique. 本技術の第1の実施の形態における投影システムの第1の応用例を示す図である。It is a figure which shows the 1st application example of the projection system in 1st Embodiment of this technique. 本技術の第1の実施の形態における投影システムの第2の応用例を示す図である。It is a figure which shows the 2nd application example of the projection system in 1st Embodiment of this technique. 本技術の第1の実施の形態における投影システムの第3の応用例を示す図である。It is a figure which shows the 3rd application example of the projection system in 1st Embodiment of this technique. 本技術の第1の実施の形態における投影システムの第4の応用例における映像例を示す図である。It is a figure which shows the image example in the 4th application example of the projection system in the 1st Embodiment of this technique. 本技術の第1の実施の形態における投影システムの第4の応用例を示す図である。It is a figure which shows the 4th application example of the projection system in 1st Embodiment of this technique. 本技術の第1の実施の形態における投影システムの第1の変形例を示す図である。It is a figure which shows the 1st modification of the projection system in 1st Embodiment of this technique. 本技術の第1の実施の形態における投影システムの第2の変形例を示す図である。It is a figure which shows the 2nd modification of the projection system in 1st Embodiment of this technique. 本技術の第2の実施の形態における投影システムの機能構成例を示す図である。It is a figure which shows the functional structure example of the projection system in the 2nd Embodiment of this technique. 本技術の第2の実施の形態における投影システムの動作の第1の例を示すシーケンス図である。It is a sequence diagram which shows the 1st example of the operation of the projection system in the 2nd Embodiment of this technique. 本技術の第2の実施の形態における投影システムの動作の第2の例を示すシーケンス図である。It is a sequence diagram which shows the 2nd example of the operation of the projection system in the 2nd Embodiment of this technique. 本技術の第3の実施の形態における投影システムの機能構成例を示す図である。It is a figure which shows the functional structure example of the projection system in the 3rd Embodiment of this technique. 本技術の第3の実施の形態における投影システムの動作の第1の例を示すシーケンス図である。It is a sequence diagram which shows the 1st example of the operation of the projection system in 3rd Embodiment of this technique. 本技術の第3の実施の形態における投影システムの動作の第2の例を示すシーケンス図である。It is a sequence diagram which shows the 2nd example of the operation of the projection system in the 3rd Embodiment of this technique.

以下、本技術を実施するための形態(以下、実施の形態と称する)について説明する。説明は以下の順序により行う。
1.第1の実施の形態(携帯端末の姿勢変化をプロジェクションデバイスに伝える例)
2.第2の実施の形態(携帯端末の姿勢変化をクレードルに伝える例)
3.第3の実施の形態(プロジェクションデバイスが姿勢変化する例)
Hereinafter, embodiments for carrying out the present technology (hereinafter referred to as embodiments) will be described. The explanation will be given in the following order.
1. 1. First embodiment (example of transmitting the posture change of the mobile terminal to the projection device)
2. 2. Second embodiment (example of transmitting the posture change of the mobile terminal to the cradle)
3. 3. Third embodiment (example of the projection device changing its posture)

<1.第1の実施の形態>
[投影システムの構成]
図1は、本技術の実施の形態における投影システムの全体構成例を示す図である。この投影システムは、携帯端末100と、プロジェクションデバイス200と、クレードル300とを備える。
<1. First Embodiment>
[Projection system configuration]
FIG. 1 is a diagram showing an overall configuration example of a projection system according to an embodiment of the present technology. The projection system includes a mobile terminal 100, a projection device 200, and a cradle 300.

携帯端末100は、ユーザの操作対象となる携帯型の端末装置であり、例えば、スマートフォンや、タブレット端末などが想定される。ユーザは、この携帯端末100を手に持って、上下左右に携帯端末100の姿勢を変化させながら操作を行う。この携帯端末100の姿勢の変化は携帯端末100内で検知され、その検知結果は携帯端末100の外部に送信される。 The mobile terminal 100 is a portable terminal device to be operated by a user, and is assumed to be, for example, a smartphone or a tablet terminal. The user holds the mobile terminal 100 in his / her hand and operates while changing the posture of the mobile terminal 100 up / down / left / right. This change in posture of the mobile terminal 100 is detected inside the mobile terminal 100, and the detection result is transmitted to the outside of the mobile terminal 100.

プロジェクションデバイス200は、映像信号を再生して投影面600に投影するものである。このプロジェクションデバイス200は、投影時にはクレードル300に搭載される。 The projection device 200 reproduces a video signal and projects it onto the projection surface 600. The projection device 200 is mounted on the cradle 300 at the time of projection.

クレードル300は、プロジェクションデバイス200を搭載して支えるものである。このクレードル300はモータを備え、携帯端末100の検知結果に従って上下左右に回動可能である。すなわち、クレードル300の動作によってプロジェクションデバイス200の姿勢が変化する。 The cradle 300 mounts and supports the projection device 200. The cradle 300 is equipped with a motor and can rotate up, down, left and right according to the detection result of the mobile terminal 100. That is, the posture of the projection device 200 changes depending on the operation of the cradle 300.

例えば、投影面600の位置601において映像が投影されている場合において、携帯端末100が左方向に水平移動し、または、左方向に傾けられると、その携帯端末100の姿勢の変化が携帯端末100内で検知される。その検知結果は携帯端末100の外部に送信され、プロジェクションデバイス200を介して、または、直接、クレードル300に供給される。クレードル300は、その姿勢の変化に対応する方向に回動し、プロジェクションデバイス200の姿勢を変化させる。これにより、プロジェクションデバイス200による映像の投影位置が、位置601から位置602に変化する。 For example, when an image is projected at the position 601 of the projection surface 600, when the mobile terminal 100 moves horizontally to the left or is tilted to the left, the change in the posture of the mobile terminal 100 changes to the mobile terminal 100. Detected within. The detection result is transmitted to the outside of the mobile terminal 100 and supplied to the cradle 300 via the projection device 200 or directly. The cradle 300 rotates in a direction corresponding to the change in its posture, and changes the posture of the projection device 200. As a result, the projection position of the image by the projection device 200 changes from the position 601 to the position 602.

図2は、本技術の第1の実施の形態における投影システムの機能構成例を示す図である。この第1の実施の形態では、携帯端末100内で検知された姿勢変化の検知結果は、プロジェクションデバイス200を介してクレードル300に供給される。 FIG. 2 is a diagram showing a functional configuration example of the projection system according to the first embodiment of the present technology. In this first embodiment, the detection result of the posture change detected in the mobile terminal 100 is supplied to the cradle 300 via the projection device 200.

携帯端末100は、プロセッサ110と、ジャイロセンサ130と、加速度センサ140と、近距離無線通信部180と、ネットワーク通信部190とを備える。プロセッサ110は、携帯端末100の各部を制御する処理装置である。 The mobile terminal 100 includes a processor 110, a gyro sensor 130, an acceleration sensor 140, a short-range wireless communication unit 180, and a network communication unit 190. The processor 110 is a processing device that controls each part of the mobile terminal 100.

ジャイロセンサ130は、携帯端末100の3次元方向の角速度を検出する角速度センサである。このジャイロセンサ130は、携帯端末100がある方向に回転した場合に、その回転の角速度を出力する。このジャイロセンサ130によって得られる角速度は、単位時間あたりの角度である。 The gyro sensor 130 is an angular velocity sensor that detects the angular velocity of the mobile terminal 100 in the three-dimensional direction. When the mobile terminal 100 rotates in a certain direction, the gyro sensor 130 outputs the angular velocity of the rotation. The angular velocity obtained by this gyro sensor 130 is an angle per unit time.

加速度センサ140は、携帯端末100の3次元方向の加速度を検出する加速度センサである。この加速度センサ140は、携帯端末100がある方向に移動した場合に、その移動の加速度を出力する。この加速度センサ140によって得られる加速度は、単位時間あたりに速度が変化する割合である。 The acceleration sensor 140 is an acceleration sensor that detects the acceleration of the mobile terminal 100 in the three-dimensional direction. When the mobile terminal 100 moves in a certain direction, the acceleration sensor 140 outputs the acceleration of the movement. The acceleration obtained by the acceleration sensor 140 is the rate at which the speed changes per unit time.

これらジャイロセンサ130および加速度センサ140における検出結果を組み合わせることにより、携帯端末100が傾けられた場合の傾きの方向や、携帯端末100が移動された場合の移動の方向を検知することができる。例えば、携帯端末100を手に持つ利用者が、携帯端末100を左右に並行移動(スライド)させた場合には、その移動方向が検知される。また、携帯端末100を手に持つ利用者が、携帯端末100を左右に傾けた場合には、その傾きの方向が検知される。また、携帯端末100を手に持つ利用者が、携帯端末100を正面において前後に傾けた場合と、上下に大きく振り回した場合とでは、検出される加速度が異なるため、加速度センサ140により検出された結果を参照することにより、両者を区別することができる。 By combining the detection results of the gyro sensor 130 and the acceleration sensor 140, it is possible to detect the direction of inclination when the mobile terminal 100 is tilted and the direction of movement when the mobile terminal 100 is moved. For example, when a user holding the mobile terminal 100 moves (slides) the mobile terminal 100 left and right in parallel, the moving direction is detected. Further, when the user holding the mobile terminal 100 tilts the mobile terminal 100 to the left or right, the direction of the tilt is detected. Further, since the detected acceleration differs between the case where the user holding the mobile terminal 100 in his hand tilts the mobile terminal 100 back and forth in front and the case where the mobile terminal 100 is swung up and down greatly, it is detected by the acceleration sensor 140. By referring to the result, it is possible to distinguish between the two.

なお、ここでは、携帯端末100に設けられるセンサとしてジャイロセンサ130および加速度センサ140を例示したが、携帯端末100は気圧センサや地磁気センサなどの他のセンサを備えてもよい。 Although the gyro sensor 130 and the acceleration sensor 140 are exemplified here as the sensors provided in the mobile terminal 100, the mobile terminal 100 may be provided with other sensors such as a barometric pressure sensor and a geomagnetic sensor.

近距離無線通信部180は、プロジェクションデバイス200との間で近距離無線通信を行うものである。ここで、近距離無線通信としては、例えば「Bluetooth(登録商標) Low Energy」を想定する。一般に、近距離無線通信では、消費電力を低く抑えるためにデータ転送レートも低く設定されている。そのため、本実施の形態において、近距離無線通信部180は、映像信号ではなく、ジャイロセンサ130および加速度センサ140によって得られた検知結果を送信するために用いられることを想定する。なお、この実施の形態では、ジャイロセンサ130および加速度センサ140によって得られた検知結果を、近距離無線通信を介して転送することを想定したが、無線LANなどの他の無線通信や、有線による接続によって転送するようにしてもよい。 The short-range wireless communication unit 180 performs short-range wireless communication with the projection device 200. Here, as the short-range wireless communication, for example, "Bluetooth (registered trademark) Low Energy" is assumed. Generally, in short-range wireless communication, the data transfer rate is also set low in order to keep the power consumption low. Therefore, in the present embodiment, it is assumed that the short-range wireless communication unit 180 is used to transmit the detection result obtained by the gyro sensor 130 and the acceleration sensor 140 instead of the video signal. In this embodiment, it is assumed that the detection results obtained by the gyro sensor 130 and the acceleration sensor 140 are transferred via short-range wireless communication, but other wireless communication such as wireless LAN or by wire is used. It may be transferred by connection.

ネットワーク通信部190は、プロジェクションデバイス200との間でネットワーク通信を行うものである。ここで、ネットワーク通信としては、例えばWiFi(登録商標)等の無線LANを想定する。本実施の形態において、ネットワーク通信部190は、映像信号を転送するために用いられることを想定する。 The network communication unit 190 performs network communication with the projection device 200. Here, as the network communication, for example, a wireless LAN such as WiFi (registered trademark) is assumed. In the present embodiment, it is assumed that the network communication unit 190 is used for transferring a video signal.

プロジェクションデバイス200は、プロセッサ210と、メモリ220と、投影部240と、近距離無線通信部280と、ネットワーク通信部290とを備える。 The projection device 200 includes a processor 210, a memory 220, a projection unit 240, a short-range wireless communication unit 280, and a network communication unit 290.

プロセッサ210は、プロジェクションデバイス200の各部を制御する処理装置である。メモリ220は、プロセッサ210の動作に必要なデータ等を記憶するメモリである。例えば、メモリ220には、携帯端末100から受信した映像信号が記憶される。プロセッサ210は、メモリ220に記憶された映像信号の再生処理を行う。なお、メモリ220は、特許請求の範囲に記載の記憶部の一例である。 The processor 210 is a processing device that controls each part of the projection device 200. The memory 220 is a memory for storing data and the like necessary for the operation of the processor 210. For example, the memory 220 stores a video signal received from the mobile terminal 100. The processor 210 performs a reproduction process of the video signal stored in the memory 220. The memory 220 is an example of the storage unit described in the claims.

投影部240は、プロセッサ210によって再生された映像を投影面に投影するものである。この投影部240は、ランプやレーザなどの光源を用いて映像を投影面に投影させる。特に、レーザ光源を用いた場合には、投影面において走査により点描画するため、黒い部分を明るくすることなく、投影面の全ての位置においてピントを合わせることが可能である。 The projection unit 240 projects the image reproduced by the processor 210 onto the projection surface. The projection unit 240 projects an image onto a projection surface using a light source such as a lamp or a laser. In particular, when a laser light source is used, pointillism is drawn by scanning on the projection surface, so that it is possible to focus at all positions on the projection surface without brightening the black portion.

近距離無線通信部280は、携帯端末100との間で近距離無線通信を行うものである。この近距離無線通信部280は、携帯端末100から送信されたジャイロセンサ130および加速度センサ140による検知結果を受信して、その検知結果をプロセッサ210に供給する。 The short-range wireless communication unit 280 performs short-range wireless communication with the mobile terminal 100. The short-range wireless communication unit 280 receives the detection result by the gyro sensor 130 and the acceleration sensor 140 transmitted from the mobile terminal 100, and supplies the detection result to the processor 210.

ネットワーク通信部290は、携帯端末100との間でネットワーク通信を行うものである。このネットワーク通信部290は、携帯端末100から転送された映像信号を受信して、その映像信号をプロセッサ210に供給する。 The network communication unit 290 performs network communication with the mobile terminal 100. The network communication unit 290 receives the video signal transferred from the mobile terminal 100 and supplies the video signal to the processor 210.

クレードル300は、プロセッサ310と、モータ駆動部350と、モータ360とを備える。 The cradle 300 includes a processor 310, a motor drive unit 350, and a motor 360.

プロセッサ310は、クレードル300の各部を制御する処理装置である。モータ360は、クレードル300に搭載されたプロジェクションデバイス200を上下左右に回動させるための動力を発生する動力源である。モータ360としては、例えばステッピングモータが想定される。モータ駆動部350は、モータ360を駆動するための機構である。 The processor 310 is a processing device that controls each part of the cradle 300. The motor 360 is a power source that generates power for rotating the projection device 200 mounted on the cradle 300 up, down, left, and right. As the motor 360, for example, a stepping motor is assumed. The motor drive unit 350 is a mechanism for driving the motor 360.

プロジェクションデバイス200がクレードル300に搭載された状態においては、プロセッサ310とプロセッサ210との間は電気的に接続される。したがって、クレードル300のプロセッサ310は、プロジェクションデバイス200のプロセッサ210からジャイロセンサ130および加速度センサ140による検知結果を受け取ることができる。プロセッサ310は、この検知結果に従ってプロジェクションデバイス200の姿勢を変化させる制御信号を生成する。モータ駆動部350は、この生成された制御信号に従ってモータ360を駆動する。これにより、携帯端末100の姿勢の変化に基づいて、プロジェクションデバイス200による映像の投影位置が変化する。 When the projection device 200 is mounted on the cradle 300, the processor 310 and the processor 210 are electrically connected to each other. Therefore, the processor 310 of the cradle 300 can receive the detection result by the gyro sensor 130 and the acceleration sensor 140 from the processor 210 of the projection device 200. The processor 310 generates a control signal that changes the posture of the projection device 200 according to the detection result. The motor drive unit 350 drives the motor 360 according to the generated control signal. As a result, the projection position of the image by the projection device 200 changes based on the change in the posture of the mobile terminal 100.

なお、プロセッサ110、210、310は、特許請求の範囲に記載の制御信号生成部の一例である。また、プロセッサ210は、特許請求の範囲に記載の制御信号送信部の一例である。また、プロセッサ310は、特許請求の範囲に記載の検知信号受信部の一例である。 The processors 110, 210, and 310 are examples of the control signal generation unit described in the claims. Further, the processor 210 is an example of the control signal transmission unit described in the claims. Further, the processor 310 is an example of the detection signal receiving unit described in the claims.

[投影システムの動作]
図3は、本技術の第1の実施の形態における投影システムの動作の第1の例を示すシーケンス図である。以下では、検知結果の伝達に着目して説明するが、これと並行して、携帯端末100からプロジェクションデバイス200には映像信号が転送され、上述のように投影部240によって投影が行われる。
[Operation of projection system]
FIG. 3 is a sequence diagram showing a first example of the operation of the projection system according to the first embodiment of the present technique. Hereinafter, the description will be focused on the transmission of the detection result, but in parallel with this, the video signal is transferred from the mobile terminal 100 to the projection device 200, and projection is performed by the projection unit 240 as described above.

携帯端末100の姿勢が変化すると、ジャイロセンサ130および加速度センサ140によって角速度および加速度が検出される。これにより、携帯端末100のプロセッサ110は、角速度および加速度の検知結果であるセンサ情報を取得する(711)。携帯端末100の近距離無線通信部180は、このセンサ情報をプロジェクションデバイス200に送信する(713)。 When the posture of the mobile terminal 100 changes, the angular velocity and the acceleration are detected by the gyro sensor 130 and the acceleration sensor 140. As a result, the processor 110 of the mobile terminal 100 acquires the sensor information which is the detection result of the angular velocity and the acceleration (711). The short-range wireless communication unit 180 of the mobile terminal 100 transmits this sensor information to the projection device 200 (713).

プロジェクションデバイス200の近距離無線通信部280は、携帯端末100からセンサ情報を受信する(714)。プロジェクションデバイス200のプロセッサ210は、受信したセンサ情報をモータ駆動のためのパン・チルト信号に変換する(715)。すなわち、センサ情報に基づいて携帯端末100の姿勢の変化を認識し、その姿勢の変化に対応する動作を行うようにクレードル300のモータ360のパン・チルト信号を生成する。例えば、モータ360がステッピングモータであれば、プロセッサ210はその減速比を生成する。プロジェクションデバイス200のプロセッサ210は、電気的接続を介してクレードル300にパン・チルト信号を送信する(716)。なお、パン・チルト信号は、特許請求の範囲に記載の、モータを駆動するための制御信号の一例である。パンは左右方向の振りを行う動作であり、チルトは上下方向の振りを行う動作である。 The short-range wireless communication unit 280 of the projection device 200 receives sensor information from the mobile terminal 100 (714). The processor 210 of the projection device 200 converts the received sensor information into a pan / tilt signal for driving the motor (715). That is, the change in the posture of the mobile terminal 100 is recognized based on the sensor information, and the pan / tilt signal of the motor 360 of the cradle 300 is generated so as to perform the operation corresponding to the change in the posture. For example, if the motor 360 is a stepping motor, the processor 210 will generate its reduction ratio. The processor 210 of the projection device 200 transmits a pan / tilt signal to the cradle 300 via an electrical connection (716). The pan / tilt signal is an example of a control signal for driving a motor, which is described in the claims. Pan is an operation of swinging in the left-right direction, and tilt is an operation of swinging in the up-down direction.

クレードル300のプロセッサ310は、プロジェクションデバイス200からパン・チルト信号を受信する(717)。プロセッサ310は、パン・チルト信号をモータ駆動部350に供給する。モータ駆動部350は、パン・チルト信号によりモータ360を駆動する(719)。 The processor 310 of the cradle 300 receives a pan / tilt signal from the projection device 200 (717). The processor 310 supplies the pan / tilt signal to the motor drive unit 350. The motor drive unit 350 drives the motor 360 by the pan / tilt signal (719).

図4は、本技術の第1の実施の形態における投影システムの動作の第2の例を示すシーケンス図である。上述の例ではプロジェクションデバイス200のプロセッサ210がパン・チルト信号を生成していたが、この例では携帯端末100においてこのパン・チルト信号を生成することを想定する。 FIG. 4 is a sequence diagram showing a second example of the operation of the projection system according to the first embodiment of the present technique. In the above example, the processor 210 of the projection device 200 generates the pan / tilt signal, but in this example, it is assumed that the portable terminal 100 generates this pan / tilt signal.

携帯端末100の姿勢が変化すると、ジャイロセンサ130および加速度センサ140によって角速度および加速度が検出される。これにより、携帯端末100のプロセッサ110は、角速度および加速度の検知結果であるセンサ情報を取得する(721)。そして、プロセッサ110は、そのセンサ情報をモータ駆動のためのパン・チルト信号に変換する(722)。携帯端末100の近距離無線通信部180は、このパン・チルト信号をプロジェクションデバイス200に送信する(723)。 When the posture of the mobile terminal 100 changes, the angular velocity and the acceleration are detected by the gyro sensor 130 and the acceleration sensor 140. As a result, the processor 110 of the mobile terminal 100 acquires the sensor information which is the detection result of the angular velocity and the acceleration (721). Then, the processor 110 converts the sensor information into a pan / tilt signal for driving the motor (722). The short-range wireless communication unit 180 of the mobile terminal 100 transmits this pan / tilt signal to the projection device 200 (723).

プロジェクションデバイス200の近距離無線通信部280は、携帯端末100からパン・チルト信号を受信する(724)。プロジェクションデバイス200のプロセッサ210は、電気的接続を介してクレードル300にパン・チルト信号を送信する(726)。 The short-range wireless communication unit 280 of the projection device 200 receives a pan / tilt signal from the mobile terminal 100 (724). The processor 210 of the projection device 200 transmits a pan / tilt signal to the cradle 300 via an electrical connection (726).

クレードル300のプロセッサ310は、プロジェクションデバイス200からパン・チルト信号を受信する(727)。プロセッサ310は、パン・チルト信号をモータ駆動部350に供給する。モータ駆動部350は、パン・チルト信号によりモータ360を駆動する(729)。このクレードル300における動作は、上述の第1の例と同様である。 The processor 310 of the cradle 300 receives a pan / tilt signal from the projection device 200 (727). The processor 310 supplies the pan / tilt signal to the motor drive unit 350. The motor drive unit 350 drives the motor 360 by the pan / tilt signal (729). The operation of the cradle 300 is the same as that of the first example described above.

図5は、本技術の第1の実施の形態における投影システムの動作の第3の例を示すシーケンス図である。上述の例では携帯端末100やプロジェクションデバイス200がパン・チルト信号を生成していたが、この例ではクレードル300においてこのパン・チルト信号を生成することを想定する。 FIG. 5 is a sequence diagram showing a third example of the operation of the projection system according to the first embodiment of the present technique. In the above example, the mobile terminal 100 and the projection device 200 generate the pan / tilt signal, but in this example, it is assumed that the cradle 300 generates the pan / tilt signal.

携帯端末100の姿勢が変化すると、ジャイロセンサ130および加速度センサ140によって角速度および加速度が検出される。これにより、携帯端末100のプロセッサ110は、角速度および加速度の検知結果であるセンサ情報を取得する(731)。携帯端末100の近距離無線通信部180は、このセンサ情報をプロジェクションデバイス200に送信する(733)。この携帯端末100における動作は、上述の第1の例と同様である。 When the posture of the mobile terminal 100 changes, the angular velocity and the acceleration are detected by the gyro sensor 130 and the acceleration sensor 140. As a result, the processor 110 of the mobile terminal 100 acquires the sensor information which is the detection result of the angular velocity and the acceleration (731). The short-range wireless communication unit 180 of the mobile terminal 100 transmits this sensor information to the projection device 200 (733). The operation of the mobile terminal 100 is the same as that of the first example described above.

プロジェクションデバイス200の近距離無線通信部280は、携帯端末100からセンサ情報を受信する(734)。プロジェクションデバイス200のプロセッサ210は、電気的接続を介してクレードル300にセンサ情報を送信する(736)。 The short-range wireless communication unit 280 of the projection device 200 receives sensor information from the mobile terminal 100 (734). The processor 210 of the projection device 200 transmits sensor information to the cradle 300 via an electrical connection (736).

クレードル300のプロセッサ310は、プロジェクションデバイス200からセンサ情報を受信する(737)。そして、プロセッサ310は、そのセンサ情報をモータ駆動のためのパン・チルト信号に変換する(738)。プロセッサ310は、パン・チルト信号をモータ駆動部350に供給する。モータ駆動部350は、パン・チルト信号によりモータ360を駆動する(739)。 The processor 310 of the cradle 300 receives sensor information from the projection device 200 (737). Then, the processor 310 converts the sensor information into a pan / tilt signal for driving the motor (738). The processor 310 supplies the pan / tilt signal to the motor drive unit 350. The motor drive unit 350 drives the motor 360 by the pan / tilt signal (739).

[投影システムの応用例]
図6は、本技術の第1の実施の形態における投影システムの第1の応用例を示す図である。この応用例は、ドライブゲームを想定したものである。携帯端末100のジャイロセンサ130および加速度センサ140を利用して、傾きによってプロジェクションデバイス200のパン・チルト操作を可能とする。これにより、ハンドルを切るように携帯端末100を傾けることによって、傾けた方向の映像を映し出すことができる。
[Application example of projection system]
FIG. 6 is a diagram showing a first application example of the projection system according to the first embodiment of the present technique. This application example assumes a drive game. Using the gyro sensor 130 and the acceleration sensor 140 of the mobile terminal 100, it is possible to pan / tilt the projection device 200 by tilting. As a result, by tilting the mobile terminal 100 so as to turn the steering wheel, it is possible to project an image in the tilted direction.

ユーザが携帯端末100を水平持ちしている場合、プロジェクションデバイス200から投影される映像611は投影面の中央部分に映し出される。ユーザが携帯端末100を左側に傾けると(613)、携帯端末100の姿勢変化がプロジェクションデバイス200を介してクレードル300に伝達され、クレードル300はプロジェクションデバイス200を左側に傾ける。これにより、プロジェクションデバイス200から投影される映像612は投影面の左側に映し出される。このようにして、運転中にハンドルを切るように運転席から見た特定の方向の景色を映像として表示することができる。 When the user holds the mobile terminal 100 horizontally, the image 611 projected from the projection device 200 is projected on the central portion of the projection surface. When the user tilts the mobile terminal 100 to the left (613), the posture change of the mobile terminal 100 is transmitted to the cradle 300 via the projection device 200, and the cradle 300 tilts the projection device 200 to the left. As a result, the image 612 projected from the projection device 200 is projected on the left side of the projection surface. In this way, it is possible to display the scenery in a specific direction as seen from the driver's seat as an image as if turning the steering wheel while driving.

図7は、本技術の第1の実施の形態における投影システムの第2の応用例を示す図である。この応用例は、迷宮(ダンジョン)探検ゲームを想定したものである。携帯端末100の傾きによってプロジェクションデバイス200のパン・チルト操作を可能とすることにより、サーチライトを振るように携帯端末100を傾けることによって、傾けた方向の迷宮内の映像を映し出すことができる。このとき、携帯端末100の画面には、迷宮の地図とキャラクタの位置を表示することができる。すなわち、プロジェクションデバイス200からは、携帯端末100の画面表示とは異なる映像を映し出すことができる。 FIG. 7 is a diagram showing a second application example of the projection system according to the first embodiment of the present technique. This application example assumes a labyrinth (dungeon) exploration game. By enabling the pan / tilt operation of the projection device 200 by tilting the mobile terminal 100, by tilting the mobile terminal 100 as if swinging a searchlight, it is possible to project an image in the labyrinth in the tilted direction. At this time, the map of the labyrinth and the position of the character can be displayed on the screen of the mobile terminal 100. That is, the projection device 200 can project an image different from the screen display of the mobile terminal 100.

ユーザが携帯端末100を水平持ちしている場合、プロジェクションデバイス200から投影される映像621の位置は投影面において変化しない。ユーザが携帯端末100を右側に傾けると(623)、携帯端末100の姿勢変化がプロジェクションデバイス200を介してクレードル300に伝達され、クレードル300はプロジェクションデバイス200を右側に傾ける。これにより、プロジェクションデバイス200から投影される映像622の位置は右側に変化する。このようにして、迷宮内であたかもサーチライトを振る動作が行われたかのように映像を表示することができ、この例のように宝箱を発見することができる。 When the user holds the mobile terminal 100 horizontally, the position of the image 621 projected from the projection device 200 does not change on the projection plane. When the user tilts the mobile terminal 100 to the right (623), the posture change of the mobile terminal 100 is transmitted to the cradle 300 via the projection device 200, and the cradle 300 tilts the projection device 200 to the right. As a result, the position of the image 622 projected from the projection device 200 changes to the right. In this way, the image can be displayed as if the searchlight was shaken in the labyrinth, and the treasure chest can be found as in this example.

図8は、本技術の第1の実施の形態における投影システムの第3の応用例を示す図である。この応用例は、FPS(First-Person Shooter)ゲームを想定したものである。このFPSゲームは、主人公の視点からゲーム内の空間を移動して、敵と戦うゲームの一種である。携帯端末100の傾きによってプロジェクションデバイス200のパン・チルト操作を可能とすることにより、ライフルのスコープから標的を拡大表示するように任意の映像を映し出すことができる。このとき、携帯端末100の画面には、人の目線における表示や、キャラクタの移動操作を行うインターフェースの表示を行うことができる。すなわち、プロジェクションデバイス200からは、携帯端末100の画面表示とは異なる映像を映し出すことができる。 FIG. 8 is a diagram showing a third application example of the projection system according to the first embodiment of the present technique. This application example assumes an FPS (First-Person Shooter) game. This FPS game is a kind of game that moves in the space in the game from the viewpoint of the main character and fights against the enemy. By enabling the pan / tilt operation of the projection device 200 by tilting the mobile terminal 100, it is possible to project an arbitrary image so as to magnify and display the target from the scope of the rifle. At this time, on the screen of the mobile terminal 100, it is possible to display the display from the human line of sight and the interface for performing the movement operation of the character. That is, the projection device 200 can project an image different from the screen display of the mobile terminal 100.

ユーザが携帯端末100を水平持ちしている場合、プロジェクションデバイス200から投影される映像631の位置は投影面において変化しない。ユーザが携帯端末100を右側に傾けると(633)、携帯端末100の姿勢変化がプロジェクションデバイス200を介してクレードル300に伝達され、クレードル300はプロジェクションデバイス200を右側に傾ける。これにより、プロジェクションデバイス200から投影される映像632の位置は右側に変化する。このようにして、ライフルのスコープを見ながらあたかもライフルを振る動作が行われたかのように映像を表示することができ、この例のように敵の兵士を発見することができる。 When the user holds the mobile terminal 100 horizontally, the position of the image 631 projected from the projection device 200 does not change on the projection plane. When the user tilts the mobile terminal 100 to the right (633), the posture change of the mobile terminal 100 is transmitted to the cradle 300 via the projection device 200, and the cradle 300 tilts the projection device 200 to the right. As a result, the position of the image 632 projected from the projection device 200 changes to the right. In this way, the image can be displayed as if the action of swinging the rifle was performed while looking at the scope of the rifle, and the enemy soldier can be found as in this example.

図9および図10は、本技術の第1の実施の形態における投影システムの第4の応用例を示す図である。この応用例は、360度映像表示を想定したものである。携帯端末100の傾きまたはスライドによってプロジェクションデバイス200のパン・チルト操作を可能とすることにより、360度映像の見たい方向の映像を映し出すことができる。 9 and 10 are diagrams showing a fourth application example of the projection system according to the first embodiment of the present technique. This application example assumes a 360-degree video display. By enabling the pan / tilt operation of the projection device 200 by tilting or sliding the mobile terminal 100, it is possible to project a 360-degree image in the desired direction.

例えば、図9に示すように、360度映像651において、特定の部分の映像652を表示しているときに携帯端末100において左上方向のスライド操作が行われた場合、左上方向の部分の映像653を表示することができる。 For example, as shown in FIG. 9, when a slide operation in the upper left direction is performed on the mobile terminal 100 while displaying the image 652 of a specific portion in the 360-degree image 651, the image 653 in the upper left direction portion. Can be displayed.

また、図10に示すように、ユーザが携帯端末100を水平持ちしている場合、プロジェクションデバイス200から投影される映像641の位置は投影面において変化しない。ユーザが携帯端末100を左上に傾け(643)、または、左上にスライドさせると(644)、携帯端末100の姿勢変化がプロジェクションデバイス200を介してクレードル300に伝達され、クレードル300はプロジェクションデバイス200を左上に傾ける。これにより、プロジェクションデバイス200から投影される映像642の位置は左上に変化する。このようにして、携帯端末100を動かした方向の映像が表示されるように、ユーザが見たい部分の360度映像を映し出すことができる。すなわち、上述のゲームの例のみならず、この実施の形態は映像表示全般に適用可能であり、例えば、広くAR(Augmented Reality:拡張現実)等にも応用することができる。 Further, as shown in FIG. 10, when the user holds the mobile terminal 100 horizontally, the position of the image 641 projected from the projection device 200 does not change on the projection surface. When the user tilts the mobile terminal 100 to the upper left (643) or slides it to the upper left (644), the posture change of the mobile terminal 100 is transmitted to the cradle 300 via the projection device 200, and the cradle 300 moves the projection device 200. Tilt to the upper left. As a result, the position of the image 642 projected from the projection device 200 changes to the upper left. In this way, the 360-degree image of the portion desired by the user can be projected so that the image in the direction in which the mobile terminal 100 is moved is displayed. That is, not only the above-mentioned game example, but also this embodiment can be applied to video display in general, and can be widely applied to, for example, AR (Augmented Reality) and the like.

このように、本技術の第1の実施の形態では、携帯端末100の姿勢の変化の検知結果を、プロジェクションデバイス200を介してクレードル300に転送する。これにより、携帯端末100の姿勢の変化に従ってクレードル300がプロジェクションデバイス200の姿勢を変化させて、携帯端末100の姿勢変化に連動して映像の投影位置を変化させることができる。 As described above, in the first embodiment of the present technology, the detection result of the change in posture of the mobile terminal 100 is transferred to the cradle 300 via the projection device 200. As a result, the cradle 300 changes the posture of the projection device 200 according to the change in the posture of the mobile terminal 100, and the projection position of the image can be changed in conjunction with the change in the posture of the mobile terminal 100.

[第1の変形例]
図11は、本技術の第1の実施の形態における投影システムの第1の変形例を示す図である。上述の実施の形態では、ネットワーク通信部によって携帯端末100からプロジェクションデバイス200に映像信号を供給していたが、他の方法によって映像信号を供給するようにしてもよい。この第1の変形例では、メモリカード231に記憶されている映像を表示することを想定する。
[First modification]
FIG. 11 is a diagram showing a first modification of the projection system according to the first embodiment of the present technique. In the above-described embodiment, the video signal is supplied from the mobile terminal 100 to the projection device 200 by the network communication unit, but the video signal may be supplied by another method. In this first modification, it is assumed that the image stored in the memory card 231 is displayed.

この第1の変形例では、プロジェクションデバイス200はメモリカードインターフェース230を備える。このメモリカードインターフェース230は、メモリカード231に記憶されている映像を読み出すためのインターフェースである。プロジェクションデバイス200のプロセッサ210は、メモリカードインターフェース230を介してメモリカード231に記憶されている映像を読み出して、メモリ220に記憶する。そして、プロセッサ210は、メモリ220に記憶された映像信号の再生処理を行う。他の構成については、上述の実施の形態と同様であるため、詳細な説明は省略する。なお、メモリ220およびメモリカード231は、特許請求の範囲に記載の記憶部の一例である。 In this first modification, the projection device 200 includes a memory card interface 230. The memory card interface 230 is an interface for reading the video stored in the memory card 231. The processor 210 of the projection device 200 reads the image stored in the memory card 231 via the memory card interface 230 and stores it in the memory 220. Then, the processor 210 performs a reproduction process of the video signal stored in the memory 220. Since other configurations are the same as those in the above-described embodiment, detailed description thereof will be omitted. The memory 220 and the memory card 231 are examples of the storage units described in the claims.

[第2の変形例]
図12は、本技術の第1の実施の形態における投影システムの第2の変形例を示す図である。この第2の変形例では、携帯端末100は音声出力部170を備え、プロジェクションデバイス200は音声出力部270を備える。なお、音声出力部170は特許請求の範囲に記載の第1の音声出力部の一例であり、音声出力部270は特許請求の範囲に記載の第2の音声出力部の一例である。
[Second modification]
FIG. 12 is a diagram showing a second modification of the projection system according to the first embodiment of the present technique. In this second modification, the mobile terminal 100 includes an audio output unit 170, and the projection device 200 includes an audio output unit 270. The audio output unit 170 is an example of the first audio output unit described in the claims, and the audio output unit 270 is an example of the second audio output unit described in the claims.

音声出力部170および音声出力部270は、それぞれ異なる音声を出力することができる。例えば、携帯端末100の音声出力部170からはゲームのBGM(Back Ground Music)が出力され、一方、プロジェクションデバイス200の音声出力部270からは映像における発生音(例えば、迷宮における金属探知音)などが出力される。これにより、プロジェクションデバイス200による投影面における臨場感等を向上させることができる。 The audio output unit 170 and the audio output unit 270 can output different audio. For example, the BGM (Back Ground Music) of the game is output from the audio output unit 170 of the mobile terminal 100, while the sound generated in the video (for example, the metal detection sound in the labyrinth) is output from the audio output unit 270 of the projection device 200. Is output. This makes it possible to improve the sense of presence on the projection surface of the projection device 200.

[第3の変形例]
上述の実施の形態においては、携帯端末100、プロジェクションデバイス200およびクレードル300は、それぞれ1台ずつであることを想定していた。しかし、これらはシステム全体としてはそれぞれ複数台を設けるようにしてもよい。その場合、1台の携帯端末100に対して1組のプロジェクションデバイス200およびクレードル300を対応させて、それらを複数設けることが想定される。例えば、携帯端末100のそれぞれにゲームのキャラクタを割り当てて、対応する携帯端末100の姿勢変化に応じてキャラクタの投影位置を変化させる。これにより、キャラクタ同士が連携して動作するようなゲームを実現することができる。
[Third variant]
In the above-described embodiment, it is assumed that the mobile terminal 100, the projection device 200, and the cradle 300 are each one. However, a plurality of these may be provided for each of the system as a whole. In that case, it is assumed that one set of projection devices 200 and cradle 300 are associated with one mobile terminal 100, and a plurality of them are provided. For example, a game character is assigned to each of the mobile terminals 100, and the projection position of the character is changed according to the posture change of the corresponding mobile terminal 100. As a result, it is possible to realize a game in which the characters operate in cooperation with each other.

<2.第2の実施の形態>
[投影システムの構成]
図13は、本技術の第2の実施の形態における投影システムの機能構成例を示す図である。
<2. Second Embodiment>
[Projection system configuration]
FIG. 13 is a diagram showing a functional configuration example of the projection system according to the second embodiment of the present technology.

この第2の実施の形態では、携帯端末100内で検知された姿勢変化の検知結果は、プロジェクションデバイス200を介さずに直接、クレードル300に供給される。そのため、この第2の実施の形態では、クレードル300は、近距離無線通信部380を備えて、携帯端末100との間で近距離無線通信を行う。この近距離無線通信により、クレードル300は、携帯端末100のジャイロセンサ130および加速度センサ140によって得られた検知結果を受信する。他の構成については、上述の実施の形態と同様であるため、詳細な説明は省略する。 In this second embodiment, the detection result of the posture change detected in the mobile terminal 100 is directly supplied to the cradle 300 without going through the projection device 200. Therefore, in this second embodiment, the cradle 300 includes a short-range wireless communication unit 380 and performs short-range wireless communication with the mobile terminal 100. Through this short-range wireless communication, the cradle 300 receives the detection result obtained by the gyro sensor 130 and the acceleration sensor 140 of the mobile terminal 100. Since other configurations are the same as those in the above-described embodiment, detailed description thereof will be omitted.

[投影システムの動作]
図14は、本技術の第2の実施の形態における投影システムの動作の第1の例を示すシーケンス図である。
[Operation of projection system]
FIG. 14 is a sequence diagram showing a first example of the operation of the projection system according to the second embodiment of the present technique.

携帯端末100の姿勢が変化すると、ジャイロセンサ130および加速度センサ140によって角速度および加速度が検出される。これにより、携帯端末100のプロセッサ110は、角速度および加速度の検知結果であるセンサ情報を取得する(741)。携帯端末100の近距離無線通信部180は、このセンサ情報をクレードル300に送信する(743)。 When the posture of the mobile terminal 100 changes, the angular velocity and the acceleration are detected by the gyro sensor 130 and the acceleration sensor 140. As a result, the processor 110 of the mobile terminal 100 acquires the sensor information which is the detection result of the angular velocity and the acceleration (741). The short-range wireless communication unit 180 of the mobile terminal 100 transmits this sensor information to the cradle 300 (743).

クレードル300の近距離無線通信部380は、携帯端末100からセンサ情報を受信する(744)。そして、クレードル300のプロセッサ310は、そのセンサ情報をモータ駆動のためのパン・チルト信号に変換する(745)。プロセッサ310は、パン・チルト信号をモータ駆動部350に供給する。モータ駆動部350は、パン・チルト信号によりモータ360を駆動する(749)。 The short-range wireless communication unit 380 of the cradle 300 receives sensor information from the mobile terminal 100 (744). Then, the processor 310 of the cradle 300 converts the sensor information into a pan / tilt signal for driving the motor (745). The processor 310 supplies the pan / tilt signal to the motor drive unit 350. The motor drive unit 350 drives the motor 360 by the pan / tilt signal (749).

なお、この図においては省略されているが、これと並行してプロジェクションデバイス200の投影部240から映像が投射される。 Although omitted in this figure, an image is projected from the projection unit 240 of the projection device 200 in parallel with this.

図15は、本技術の第2の実施の形態における投影システムの動作の第2の例を示すシーケンス図である。上述の例ではクレードル300のプロセッサ310がパン・チルト信号を生成していたが、この例では携帯端末100においてこのパン・チルト信号を生成することを想定する。 FIG. 15 is a sequence diagram showing a second example of the operation of the projection system according to the second embodiment of the present technique. In the above example, the processor 310 of the cradle 300 generates the pan / tilt signal, but in this example, it is assumed that the mobile terminal 100 generates this pan / tilt signal.

携帯端末100の姿勢が変化すると、ジャイロセンサ130および加速度センサ140によって角速度および加速度が検出される。これにより、携帯端末100のプロセッサ110は、角速度および加速度の検知結果であるセンサ情報を取得する(751)。そして、プロセッサ110は、そのセンサ情報をモータ駆動のためのパン・チルト信号に変換する(752)。携帯端末100の近距離無線通信部180は、このパン・チルト信号をクレードル300に送信する(753)。 When the posture of the mobile terminal 100 changes, the angular velocity and the acceleration are detected by the gyro sensor 130 and the acceleration sensor 140. As a result, the processor 110 of the mobile terminal 100 acquires the sensor information which is the detection result of the angular velocity and the acceleration (751). Then, the processor 110 converts the sensor information into a pan / tilt signal for driving the motor (752). The short-range wireless communication unit 180 of the mobile terminal 100 transmits this pan / tilt signal to the cradle 300 (753).

クレードル300の近距離無線通信部380は、携帯端末100からパン・チルト信号を受信する(754)。プロセッサ310は、パン・チルト信号をモータ駆動部350に供給する。モータ駆動部350は、パン・チルト信号によりモータ360を駆動する(759)。 The short-range wireless communication unit 380 of the cradle 300 receives a pan / tilt signal from the mobile terminal 100 (754). The processor 310 supplies the pan / tilt signal to the motor drive unit 350. The motor drive unit 350 drives the motor 360 by the pan / tilt signal (759).

このように、本技術の第2の実施の形態では、携帯端末100の姿勢の変化の検知結果を、プロジェクションデバイス200を介さずに直接、クレードル300に転送する。これにより、携帯端末100の姿勢の変化に従ってクレードル300がプロジェクションデバイス200の姿勢を変化させて、携帯端末100の姿勢変化に連動して映像の投影位置を変化させることができる。 As described above, in the second embodiment of the present technology, the detection result of the change in posture of the mobile terminal 100 is directly transferred to the cradle 300 without going through the projection device 200. As a result, the cradle 300 changes the posture of the projection device 200 according to the change in the posture of the mobile terminal 100, and the projection position of the image can be changed in conjunction with the change in the posture of the mobile terminal 100.

なお、上述の第1の実施の形態において説明した第1乃至第3の変形例は、この第2の実施の形態にも適用することができる。 The first to third modifications described in the first embodiment described above can also be applied to the second embodiment.

<3.第3の実施の形態>
[投影システムの構成]
図16は、本技術の第3の実施の形態における投影システムの機能構成例を示す図である。上述の第1および第2の実施の形態では、プロジェクションデバイス200とクレードル300はそれぞれ独立した装置として構成されることを想定したが、この第3の実施の形態では、プロジェクションデバイス200がモータを備えて、クレードルと同様の機能を備えることを想定する。すなわち、プロジェクションデバイスとクレードルが一体化した装置として構成される。
<3. Third Embodiment>
[Projection system configuration]
FIG. 16 is a diagram showing a functional configuration example of the projection system according to the third embodiment of the present technology. In the first and second embodiments described above, it is assumed that the projection device 200 and the cradle 300 are configured as independent devices, respectively, but in the third embodiment, the projection device 200 includes a motor. It is assumed that it has the same function as the cradle. That is, it is configured as a device in which a projection device and a cradle are integrated.

この第3の実施の形態におけるプロジェクションデバイス200は、プロセッサ210、メモリ220、投影部240、近距離無線通信部280、ネットワーク通信部290に加えて、モータ駆動部250とモータ260とを備える。モータ260は、プロジェクションデバイス200を上下左右に回動させるための動力を発生する動力源である。モータ260としては、例えばステッピングモータが想定される。モータ駆動部250は、モータ260を駆動するための機構である。 The projection device 200 according to the third embodiment includes a processor 210, a memory 220, a projection unit 240, a short-range wireless communication unit 280, a network communication unit 290, and a motor drive unit 250 and a motor 260. The motor 260 is a power source that generates power for rotating the projection device 200 up, down, left, and right. As the motor 260, for example, a stepping motor is assumed. The motor drive unit 250 is a mechanism for driving the motor 260.

他の構成については、上述の第1および第2の実施の形態と同様であるため、詳細な説明は省略する。 Since other configurations are the same as those of the first and second embodiments described above, detailed description thereof will be omitted.

[投影システムの動作]
図17は、本技術の第3の実施の形態における投影システムの動作の第1の例を示すシーケンス図である。
[Operation of projection system]
FIG. 17 is a sequence diagram showing a first example of the operation of the projection system according to the third embodiment of the present technique.

携帯端末100の姿勢が変化すると、ジャイロセンサ130および加速度センサ140によって角速度および加速度が検出される。これにより、携帯端末100のプロセッサ110は、角速度および加速度の検知結果であるセンサ情報を取得する(761)。携帯端末100の近距離無線通信部180は、このセンサ情報をプロジェクションデバイス200に送信する(763)。 When the posture of the mobile terminal 100 changes, the angular velocity and the acceleration are detected by the gyro sensor 130 and the acceleration sensor 140. As a result, the processor 110 of the mobile terminal 100 acquires the sensor information which is the detection result of the angular velocity and the acceleration (761). The short-range wireless communication unit 180 of the mobile terminal 100 transmits this sensor information to the projection device 200 (763).

プロジェクションデバイス200の近距離無線通信部280は、携帯端末100からセンサ情報を受信する(764)。そして、プロジェクションデバイス200のプロセッサ210は、そのセンサ情報をモータ駆動のためのパン・チルト信号に変換する(765)。プロセッサ210は、パン・チルト信号をモータ駆動部250に供給する。モータ駆動部250は、パン・チルト信号によりモータ260を駆動する(769)。 The short-range wireless communication unit 280 of the projection device 200 receives sensor information from the mobile terminal 100 (764). Then, the processor 210 of the projection device 200 converts the sensor information into a pan / tilt signal for driving the motor (765). The processor 210 supplies a pan / tilt signal to the motor drive unit 250. The motor drive unit 250 drives the motor 260 by the pan / tilt signal (769).

なお、この図においては省略されているが、これと並行してプロジェクションデバイス200の投影部240から映像が投射される。 Although omitted in this figure, an image is projected from the projection unit 240 of the projection device 200 in parallel with this.

図18は、本技術の第3の実施の形態における投影システムの動作の第2の例を示すシーケンス図である。上述の例ではプロジェクションデバイス200がパン・チルト信号を生成していたが、この例では携帯端末100においてこのパン・チルト信号を生成することを想定する。 FIG. 18 is a sequence diagram showing a second example of the operation of the projection system according to the third embodiment of the present technique. In the above example, the projection device 200 generated the pan / tilt signal, but in this example, it is assumed that the mobile terminal 100 generates this pan / tilt signal.

携帯端末100の姿勢が変化すると、ジャイロセンサ130および加速度センサ140によって角速度および加速度が検出される。これにより、携帯端末100のプロセッサ110は、角速度および加速度の検知結果であるセンサ情報を取得する(771)。そして、プロセッサ110は、そのセンサ情報をモータ駆動のためのパン・チルト信号に変換する(772)。携帯端末100の近距離無線通信部180は、このパン・チルト信号をプロジェクションデバイス200に送信する(773)。 When the posture of the mobile terminal 100 changes, the angular velocity and the acceleration are detected by the gyro sensor 130 and the acceleration sensor 140. As a result, the processor 110 of the mobile terminal 100 acquires the sensor information which is the detection result of the angular velocity and the acceleration (771). Then, the processor 110 converts the sensor information into a pan / tilt signal for driving the motor (772). The short-range wireless communication unit 180 of the mobile terminal 100 transmits this pan / tilt signal to the projection device 200 (773).

プロジェクションデバイス200の近距離無線通信部280は、携帯端末100からパン・チルト信号を受信する(774)。プロジェクションデバイス200のプロセッサ210は、パン・チルト信号をモータ駆動部250に供給する。モータ駆動部250は、パン・チルト信号によりモータ260を駆動する(779) The short-range wireless communication unit 280 of the projection device 200 receives a pan / tilt signal from the mobile terminal 100 (774). The processor 210 of the projection device 200 supplies the pan / tilt signal to the motor drive unit 250. The motor drive unit 250 drives the motor 260 by the pan / tilt signal (779).

このように、本技術の第3の実施の形態では、携帯端末100の姿勢の変化の検知結果を、プロジェクションデバイス200に転送する。これにより、携帯端末100の姿勢の変化に従ってプロジェクションデバイス200が自身の姿勢を変化させて、携帯端末100の姿勢変化に連動して映像の投影位置を変化させることができる。 As described above, in the third embodiment of the present technology, the detection result of the change in posture of the mobile terminal 100 is transferred to the projection device 200. As a result, the projection device 200 can change its own posture according to the change in the posture of the mobile terminal 100, and can change the projection position of the image in conjunction with the change in the posture of the mobile terminal 100.

なお、上述の第1の実施の形態において説明した第1乃至第3の変形例は、この第3の実施の形態にも適用することができる。 The first to third modifications described in the first embodiment described above can also be applied to the third embodiment.

ここまで説明したように、本技術の実施の形態では、携帯端末100の姿勢の変化の検知結果に従ってプロジェクションデバイス200の姿勢を変化させることにより、携帯端末100の姿勢変化に連動して映像の投影位置を変化させることができる。 As described above, in the embodiment of the present technology, by changing the posture of the projection device 200 according to the detection result of the change in the posture of the mobile terminal 100, the projection of an image is linked to the change in the posture of the mobile terminal 100. The position can be changed.

なお、上述の実施の形態では、携帯端末100の姿勢の変化の検知結果に従ってプロジェクションデバイス200の姿勢を変化させることを想定したが、携帯端末100における画面上の操作に従ってプロジェクションデバイス200の姿勢を変化させてもよい。例えば、ユーザが携帯端末100の画面を突っつく操作(タップ操作)や、画面上をなぞる操作(スライド操作)により映像の変化を指示した場合に、プロジェクションデバイス200を回動等させるようにしてもよい。 In the above-described embodiment, it is assumed that the posture of the projection device 200 is changed according to the detection result of the change in the posture of the mobile terminal 100, but the posture of the projection device 200 is changed according to the operation on the screen of the mobile terminal 100. You may let me. For example, when the user instructs a change in the image by an operation of poking the screen of the mobile terminal 100 (tap operation) or an operation of tracing on the screen (slide operation), the projection device 200 may be rotated or the like. ..

なお、上述の実施の形態は本技術を具現化するための一例を示したものであり、実施の形態における事項と、特許請求の範囲における発明特定事項とはそれぞれ対応関係を有する。同様に、特許請求の範囲における発明特定事項と、これと同一名称を付した本技術の実施の形態における事項とはそれぞれ対応関係を有する。ただし、本技術は実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において実施の形態に種々の変形を施すことにより具現化することができる。 It should be noted that the above-described embodiment shows an example for embodying the present technology, and the matters in the embodiment and the matters specifying the invention within the scope of claims have a corresponding relationship with each other. Similarly, the matters specifying the invention within the scope of claims and the matters in the embodiment of the present technology having the same name have a corresponding relationship with each other. However, the present technique is not limited to the embodiment, and can be embodied by applying various modifications to the embodiment without departing from the gist thereof.

また、上述の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。この記録媒体として、例えば、CD(Compact Disc)、MD(MiniDisc)、DVD(Digital Versatile Disc)、メモリカード、ブルーレイディスク(Blu-ray(登録商標)Disc)等を用いることができる。 Further, the processing procedure described in the above-described embodiment may be regarded as a method having these series of procedures, or as a program for causing a computer to execute these series of procedures or as a recording medium for storing the program. You may catch it. As this recording medium, for example, a CD (Compact Disc), MD (MiniDisc), DVD (Digital Versatile Disc), memory card, Blu-ray Disc (Blu-ray (registered trademark) Disc) and the like can be used.

なお、本明細書に記載された効果はあくまで例示であって、限定されるものではなく、また、他の効果があってもよい。 It should be noted that the effects described in the present specification are merely examples and are not limited, and other effects may be obtained.

なお、本技術は以下のような構成もとることができる。
(1)自身の姿勢の変化を検知する携帯端末と、
映像信号を再生して投影面に投影するプロジェクションデバイスと、
前記プロジェクションデバイスを支えるとともに前記携帯端末の検知結果に従って前記プロジェクションデバイスの姿勢を変化させるクレードルと
を具備する投影システム。
(2)前記携帯端末は、加速度センサおよびジャイロセンサのうち少なくとも1つのセンサにより前記姿勢の変化を検知する前記(1)に記載の投影システム。
(3)前記クレードルは、前記プロジェクションデバイスの姿勢を変化させるモータと、前記モータを駆動するモータ駆動部とを備え、
前記携帯端末、前記プロジェクションデバイスおよび前記クレードルの何れかは、前記携帯端末の姿勢の変化に基づいて前記モータを駆動するための制御信号を生成する制御信号生成部を備える
前記(2)に記載の投影システム。
(4)前記携帯端末は、前記映像信号を前記プロジェクションデバイスに供給する
前記(1)から(3)のいずれかに記載の投影システム。
(5)前記プロジェクションデバイスは、前記映像信号を記憶する記憶部を備え、前記記憶部から前記映像信号を読み出して前記再生を行う
前記(1)から(3)のいずれかに記載の投影システム。
(6)前記携帯端末は、第1の音声出力部を備え、
前記プロジェクションデバイスは、第2の音声出力部を備え、
前記第1および第2の音声出力部は、前記映像信号に対応する互いに異なる音声信号をそれぞれ出力する
前記(1)から(5)のいずれかに記載の投影システム。
(7)前記携帯端末、前記プロジェクションデバイスおよび前記クレードルを1組として、複数組を具備する前記(1)から(6)のいずれかに記載の投影システム。
(8)携帯端末の姿勢の変化を検知結果として受信する検知信号受信部と、
前記検知結果に基づいて自身の姿勢を変化させるための制御信号を生成する制御信号生成部と、
自身を支えるためのクレードルに前記制御信号を送信する制御信号送信部と
前記検知結果に基づく投影方向に映像信号を投影する投影部と
を具備するプロジェクションデバイス。
(9)携帯端末の姿勢の変化を検知結果として受信する検知信号受信部と、
前記検知結果に基づいて自身の姿勢を変化させるための制御信号を生成する制御信号生成部と、
前記自身の姿勢を変化させるモータと、
前記制御信号に従って前記モータを駆動するモータ駆動部と、
前記検知結果に基づく投影方向に映像信号を投影する投影部と
を具備するプロジェクションデバイス。
(10)携帯端末の姿勢の変化を検知結果として受信する検知信号受信部と、
前記プロジェクションデバイスの姿勢を変化させるモータと、
前記検知結果に基づいて前記モータを駆動するための制御信号を生成する制御信号生成部と、
前記制御信号に従って前記モータを駆動するモータ駆動部とを具備して、
前記プロジェクションデバイスを支えるクレードル。
The present technology can have the following configurations.
(1) A mobile terminal that detects changes in one's posture,
A projection device that reproduces video signals and projects them onto a projection surface,
A projection system including a cradle that supports the projection device and changes the posture of the projection device according to the detection result of the mobile terminal.
(2) The projection system according to (1), wherein the mobile terminal detects a change in posture by using at least one of an acceleration sensor and a gyro sensor.
(3) The cradle includes a motor that changes the posture of the projection device and a motor drive unit that drives the motor.
The mobile terminal, the projection device, or the cradle, according to the above (2), which includes a control signal generation unit that generates a control signal for driving the motor based on a change in the posture of the mobile terminal. Projection system.
(4) The projection system according to any one of (1) to (3), wherein the mobile terminal supplies the video signal to the projection device.
(5) The projection system according to any one of (1) to (3), wherein the projection device includes a storage unit for storing the video signal, and reads the video signal from the storage unit to reproduce the video signal.
(6) The mobile terminal includes a first audio output unit.
The projection device includes a second audio output unit.
The projection system according to any one of (1) to (5) above, wherein the first and second audio output units output different audio signals corresponding to the video signals.
(7) The projection system according to any one of (1) to (6) above, wherein the mobile terminal, the projection device, and the cradle are set as one set, and a plurality of sets are provided.
(8) A detection signal receiving unit that receives a change in the posture of the mobile terminal as a detection result,
A control signal generation unit that generates a control signal for changing its own posture based on the detection result, and a control signal generation unit.
A projection device including a control signal transmitting unit that transmits the control signal to a cradle for supporting itself and a projection unit that projects a video signal in a projection direction based on the detection result.
(9) A detection signal receiving unit that receives a change in the posture of the mobile terminal as a detection result,
A control signal generation unit that generates a control signal for changing its own posture based on the detection result, and a control signal generation unit.
The motor that changes its own posture and
A motor drive unit that drives the motor according to the control signal,
A projection device including a projection unit that projects a video signal in a projection direction based on the detection result.
(10) A detection signal receiving unit that receives a change in the posture of the mobile terminal as a detection result,
A motor that changes the posture of the projection device,
A control signal generation unit that generates a control signal for driving the motor based on the detection result, and a control signal generation unit.
A motor driving unit that drives the motor according to the control signal is provided.
A cradle that supports the projection device.

100 携帯端末
110 プロセッサ
130 ジャイロセンサ
140 加速度センサ
170 音声出力部
180 近距離無線通信部
190 ネットワーク通信部
200 プロジェクションデバイス
210 プロセッサ
220 メモリ
230 メモリカードインターフェース
231 メモリカード
240 投影部
250 モータ駆動部
260 モータ
270 音声出力部
280 近距離無線通信部
290 ネットワーク通信部
300 クレードル
310 プロセッサ
350 モータ駆動部
360 モータ
380 近距離無線通信部
100 Mobile terminal 110 Processor 130 Gyro sensor 140 Acceleration sensor 170 Audio output unit 180 Short-range wireless communication unit 190 Network communication unit 200 Projection device 210 Processor 220 Memory 230 Memory card interface 231 Memory card 240 Projection unit 250 Motor drive unit 260 Motor 270 Audio Output unit 280 Short-range wireless communication unit 290 Network communication unit 300 Cradle 310 Processor 350 Motor drive unit 360 Motor 380 Short-range wireless communication unit

Claims (10)

自身の姿勢の変化を検知する携帯端末と、
全体映像のうち前記携帯端末の検知結果に応じた一部の映像信号を再生して投影面に投影するプロジェクションデバイスと、
前記プロジェクションデバイスを支えるとともに前記検知結果に従って前記プロジェクションデバイスの姿勢を変化させるクレードルと
を具備する投影システム。
A mobile terminal that detects changes in one's posture,
A projection device that reproduces a part of the whole image according to the detection result of the mobile terminal and projects it on the projection surface.
A projection system including a cradle that supports the projection device and changes the posture of the projection device according to the detection result.
前記携帯端末は、加速度センサおよびジャイロセンサのうち少なくとも1つのセンサにより前記姿勢の変化を検知する請求項1記載の投影システム。 The projection system according to claim 1, wherein the mobile terminal detects a change in posture by using at least one of an acceleration sensor and a gyro sensor. 前記クレードルは、前記プロジェクションデバイスの姿勢を変化させるモータと、前記モータを駆動するモータ駆動部とを備え、
前記携帯端末、前記プロジェクションデバイスおよび前記クレードルの何れかは、前記携帯端末の姿勢の変化に基づいて前記モータを駆動するための制御信号を生成する制御信号生成部を備える
請求項2記載の投影システム。
The cradle includes a motor that changes the posture of the projection device and a motor drive unit that drives the motor.
The projection system according to claim 2, wherein any of the mobile terminal, the projection device, and the cradle includes a control signal generation unit that generates a control signal for driving the motor based on a change in the posture of the mobile terminal. ..
前記携帯端末は、前記映像信号を前記プロジェクションデバイスに供給する
請求項1記載の投影システム。
The projection system according to claim 1, wherein the mobile terminal supplies the video signal to the projection device.
前記プロジェクションデバイスは、前記映像信号を記憶する記憶部を備え、前記記憶部から前記映像信号を読み出して前記再生を行う
請求項1記載の投影システム。
The projection system according to claim 1, wherein the projection device includes a storage unit for storing the video signal, and reads the video signal from the storage unit to reproduce the video signal.
前記携帯端末は、第1の音声出力部を備え、
前記プロジェクションデバイスは、第2の音声出力部を備え、
前記第1および第2の音声出力部は、前記映像信号に対応する互いに異なる音声信号をそれぞれ出力する
請求項1記載の投影システム。
The mobile terminal includes a first audio output unit.
The projection device includes a second audio output unit.
The projection system according to claim 1, wherein the first and second audio output units output different audio signals corresponding to the video signals.
前記携帯端末、前記プロジェクションデバイスおよび前記クレードルを1組として、複数組を具備する請求項1記載の投影システム。 The projection system according to claim 1, wherein the mobile terminal, the projection device, and the cradle are set as one set, and a plurality of sets are provided. 携帯端末の姿勢の変化を検知結果として受信する検知信号受信部と、
前記検知結果に基づいて自身の姿勢を変化させるための制御信号を生成する制御信号生成部と、
自身を支えるためのクレードルに前記制御信号を送信する制御信号送信部と
全体映像のうち前記検知結果に応じた一部の映像信号を再生して前記検知結果に基づく投影方向に投影する投影部と
を具備するプロジェクションデバイス。
A detection signal receiver that receives changes in the posture of the mobile terminal as a detection result,
A control signal generation unit that generates a control signal for changing its own posture based on the detection result, and a control signal generation unit.
With a control signal transmitter that transmits the control signal to a cradle to support itself
A projection device including a projection unit that reproduces a part of a video signal corresponding to the detection result of the entire video and projects it in a projection direction based on the detection result.
携帯端末の姿勢の変化を検知結果として受信する検知信号受信部と、
前記検知結果に基づいて自身の姿勢を変化させるための制御信号を生成する制御信号生成部と、
前記自身の姿勢を変化させるモータと、
前記制御信号に従って前記モータを駆動するモータ駆動部と、
全体映像のうち前記検知結果に応じた一部の映像信号を再生して前記検知結果に基づく投影方向に投影する投影部と
を具備するプロジェクションデバイス。
A detection signal receiver that receives changes in the posture of the mobile terminal as a detection result,
A control signal generation unit that generates a control signal for changing its own posture based on the detection result, and a control signal generation unit.
The motor that changes its own posture and
A motor drive unit that drives the motor according to the control signal,
A projection device including a projection unit that reproduces a part of a video signal corresponding to the detection result of the entire video and projects it in a projection direction based on the detection result.
携帯端末の姿勢の変化を検知結果として受信する検知信号受信部と、
全体映像のうち前記検知結果に応じた一部の映像信号を再生して投影面に投影するプロジェクションデバイスの姿勢を変化させるモータと、
前記検知結果に基づいて前記モータを駆動するための制御信号を生成する制御信号生成部と、
前記制御信号に従って前記モータを駆動するモータ駆動部とを具備して、
前記プロジェクションデバイスを支えるクレードル。
A detection signal receiver that receives changes in the posture of the mobile terminal as a detection result,
A motor that changes the posture of the projection device that reproduces a part of the video signal according to the detection result and projects it on the projection surface .
A control signal generation unit that generates a control signal for driving the motor based on the detection result, and a control signal generation unit.
A motor driving unit that drives the motor according to the control signal is provided.
A cradle that supports the projection device.
JP2018558810A 2016-12-26 2017-09-11 Projection system, projection device and cradle Active JP7059940B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016250602 2016-12-26
JP2016250602 2016-12-26
PCT/JP2017/032714 WO2018123152A1 (en) 2016-12-26 2017-09-11 Projection system, projection device, and cradle

Publications (2)

Publication Number Publication Date
JPWO2018123152A1 JPWO2018123152A1 (en) 2019-10-31
JP7059940B2 true JP7059940B2 (en) 2022-04-26

Family

ID=62707144

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018558810A Active JP7059940B2 (en) 2016-12-26 2017-09-11 Projection system, projection device and cradle

Country Status (5)

Country Link
US (1) US10582145B2 (en)
EP (1) EP3562148B1 (en)
JP (1) JP7059940B2 (en)
CN (1) CN110100432B (en)
WO (1) WO2018123152A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7043104B1 (en) * 2021-05-31 2022-03-29 株式会社N sketch Device management system and its management method, article management system and its management method, and device and its communication method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005309213A (en) 2004-04-23 2005-11-04 Seiko Epson Corp Projector system
JP2007101836A (en) 2005-10-04 2007-04-19 Seiko Epson Corp Projector
JP2008072244A (en) 2006-09-12 2008-03-27 Sony Computer Entertainment Inc Video display system, video display device, its control method, and program
JP2008288682A (en) 2007-05-15 2008-11-27 Nikon Corp Placing table
JP2009182435A (en) 2008-01-29 2009-08-13 Seiko Epson Corp Projection system, remote controller, projector, operation method of projection system, and program
JP2012138686A (en) 2010-12-24 2012-07-19 Kyocera Corp Mobile electronic device
JP2013146049A (en) 2011-12-15 2013-07-25 Sanyo Electric Co Ltd Image display device and portable device
JP2013213877A (en) 2012-03-30 2013-10-17 Jvc Kenwood Corp Projection device and projection method

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006042000A (en) * 2004-07-28 2006-02-09 Sanyo Electric Co Ltd Digital camera cradle and digital camera system
CN201210221Y (en) * 2008-05-30 2009-03-18 北京恒基伟业投资发展有限公司 Projection angle regulating device
CN101968631B (en) * 2009-07-27 2014-07-02 联想(北京)有限公司 Portable terminal and display and control method thereof
KR101657565B1 (en) * 2010-04-21 2016-09-19 엘지전자 주식회사 Augmented Remote Controller and Method of Operating the Same
CN101815191A (en) * 2010-04-24 2010-08-25 中兴通讯股份有限公司 Method for regulating display picture by using portable terminal projector and portable terminal
US9134799B2 (en) * 2010-07-16 2015-09-15 Qualcomm Incorporated Interacting with a projected user interface using orientation sensors
KR101714050B1 (en) * 2010-11-01 2017-03-08 삼성전자주식회사 Device and method for displaying data in wireless terminal
JP2012163796A (en) * 2011-02-08 2012-08-30 Seiko Epson Corp Projector and authentication method
KR20120129664A (en) * 2011-05-20 2012-11-28 삼성전자주식회사 Projector and method for controlling of projector
KR20120134412A (en) * 2011-06-02 2012-12-12 삼성전자주식회사 Display apparatus, display system and image display method thereof
US8789953B2 (en) * 2012-01-30 2014-07-29 Yang Pan Video delivery system using tablet computer and detachable micro projectors
CN103366659B (en) * 2012-03-26 2016-07-06 联想(北京)有限公司 Display control method and relevant device
WO2013147068A1 (en) * 2012-03-30 2013-10-03 株式会社Jvcケンウッド Projection device
US9406280B2 (en) * 2013-03-18 2016-08-02 Seiko Epson Corporation Image display device, image display system, and method of controlling image display device
TWI502486B (en) * 2013-10-21 2015-10-01 Acer Inc Projector, image output apparatus, and control method thereof
JP6360296B2 (en) * 2013-12-10 2018-07-18 キヤノン株式会社 Image transmission apparatus, image presentation system, control method, and program
JP6387641B2 (en) * 2014-01-15 2018-09-12 セイコーエプソン株式会社 Projector, display device, display system, and display device control method
TWI597658B (en) * 2014-03-10 2017-09-01 緯創資通股份有限公司 Electronic device, display system and image processing method
CN103916697A (en) * 2014-04-04 2014-07-09 深圳市同洲电子股份有限公司 Multi-application display method and relevant intelligent terminals
JP6386809B2 (en) * 2014-06-23 2018-09-05 キヤノン株式会社 Information processing apparatus, control method thereof, system, and program
CN105163054A (en) * 2015-10-22 2015-12-16 高国华 Wireless ultrashort-focus projector system and method compatible with video acquisition

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005309213A (en) 2004-04-23 2005-11-04 Seiko Epson Corp Projector system
JP2007101836A (en) 2005-10-04 2007-04-19 Seiko Epson Corp Projector
JP2008072244A (en) 2006-09-12 2008-03-27 Sony Computer Entertainment Inc Video display system, video display device, its control method, and program
JP2008288682A (en) 2007-05-15 2008-11-27 Nikon Corp Placing table
JP2009182435A (en) 2008-01-29 2009-08-13 Seiko Epson Corp Projection system, remote controller, projector, operation method of projection system, and program
JP2012138686A (en) 2010-12-24 2012-07-19 Kyocera Corp Mobile electronic device
JP2013146049A (en) 2011-12-15 2013-07-25 Sanyo Electric Co Ltd Image display device and portable device
JP2013213877A (en) 2012-03-30 2013-10-17 Jvc Kenwood Corp Projection device and projection method

Also Published As

Publication number Publication date
US10582145B2 (en) 2020-03-03
EP3562148A4 (en) 2020-04-22
CN110100432A (en) 2019-08-06
WO2018123152A1 (en) 2018-07-05
EP3562148A1 (en) 2019-10-30
EP3562148B1 (en) 2023-05-31
US20190356879A1 (en) 2019-11-21
JPWO2018123152A1 (en) 2019-10-31
CN110100432B (en) 2022-04-08

Similar Documents

Publication Publication Date Title
KR102378669B1 (en) Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system
KR102158004B1 (en) Systems and methods for reducing hops associated with a head mounted system
JP6001542B2 (en) System for enabling video capture of interactive applications on mobile devices
US8907891B2 (en) Methods and systems for playing video games with a controller having a display that shares content with a main display
WO2016031028A1 (en) Information-processing terminal and game device
WO2016144560A1 (en) Virtual reality headset connected to a mobile computing device
JP2017111669A (en) Information processing apparatus and operation reception method
CN105579890A (en) Head-mounted display and method of controlling the same
CN104754214A (en) Graphical user interface for video recording device
JP6396070B2 (en) Image fusion system, information processing apparatus, information terminal, and information processing method
US11878240B2 (en) Method, apparatus, device, and storage medium for perspective rotation
US11287896B2 (en) Display apparatus and control method thereof
JP7059940B2 (en) Projection system, projection device and cradle
JP2019128757A (en) Head-mounted display device and control method therefor
JP2019004243A (en) Display system, display device, and control method of display system
JP6530453B2 (en) Game program and game system
GB2517008A (en) Head-mountable apparatus and systems
US20220360619A1 (en) Program, information processing method and information processing device
KR102201740B1 (en) Mobile terminal and method for controlling the same
KR102619302B1 (en) Mobile terminal cradle providing tracking function in conjuction with mobile terminal
KR102403719B1 (en) Electronic device and control method thereof
KR102096883B1 (en) Method and system for advertizing
JP2024052524A (en) COMMUNICATION MANAGEMENT SERVER, COMMUNICATION SYSTEM, COMMUNICATION MANAGEMENT METHOD, AND PROGRAM
JP2024052610A (en) COMMUNICATION MANAGEMENT SERVER, COMMUNICATION SYSTEM, COMMUNICATION MANAGEMENT METHOD, AND PROGRAM
JP2020042480A (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220328

R151 Written notification of patent or utility model registration

Ref document number: 7059940

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151