JPWO2015145863A1 - Display system, attachment, display method, and program - Google Patents
Display system, attachment, display method, and program Download PDFInfo
- Publication number
- JPWO2015145863A1 JPWO2015145863A1 JP2016509900A JP2016509900A JPWO2015145863A1 JP WO2015145863 A1 JPWO2015145863 A1 JP WO2015145863A1 JP 2016509900 A JP2016509900 A JP 2016509900A JP 2016509900 A JP2016509900 A JP 2016509900A JP WO2015145863 A1 JPWO2015145863 A1 JP WO2015145863A1
- Authority
- JP
- Japan
- Prior art keywords
- video
- mobile terminal
- user
- attachment
- head
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 36
- 230000009471 action Effects 0.000 claims abstract description 52
- 230000000007 visual effect Effects 0.000 claims abstract description 12
- 210000003128 head Anatomy 0.000 claims description 211
- 230000033001 locomotion Effects 0.000 claims description 121
- 238000003384 imaging method Methods 0.000 claims description 41
- 238000004806 packaging method and process Methods 0.000 claims description 25
- 238000004891 communication Methods 0.000 claims description 22
- 238000001514 detection method Methods 0.000 claims description 18
- 238000003860 storage Methods 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 11
- 230000004308 accommodation Effects 0.000 claims description 8
- 238000005520 cutting process Methods 0.000 claims description 8
- 238000005516 engineering process Methods 0.000 description 20
- 230000003190 augmentative effect Effects 0.000 description 9
- 239000000463 material Substances 0.000 description 8
- 239000010410 layer Substances 0.000 description 7
- 230000002093 peripheral effect Effects 0.000 description 7
- 230000005236 sound signal Effects 0.000 description 7
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 6
- 238000009825 accumulation Methods 0.000 description 6
- 239000011521 glass Substances 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 210000004556 brain Anatomy 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 239000002184 metal Substances 0.000 description 4
- 239000000123 paper Substances 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 239000011347 resin Substances 0.000 description 4
- 229920005989 resin Polymers 0.000 description 4
- 229910010293 ceramic material Inorganic materials 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000005034 decoration Methods 0.000 description 3
- 230000004438 eyesight Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 210000000078 claw Anatomy 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 210000001525 retina Anatomy 0.000 description 2
- 238000010079 rubber tapping Methods 0.000 description 2
- 239000002356 single layer Substances 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 239000012780 transparent material Substances 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 239000002390 adhesive tape Substances 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003920 cognitive function Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 229920003023 plastic Polymers 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/64—Constructional details of receivers, e.g. cabinets or dust covers
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Devices For Indicating Variable Information By Combining Individual Elements (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
現実の視覚情報空間の情報量が拡大したかのような印象をユーザに与えることが可能な頭部近接型映像表示システムに好適な、安価かつ簡易な表示システムを提供する。近接ユニット(41)と端末収納ユニット(42)からなるアタッチメントに、携帯端末(2)を収納し、表示パネル(62)をレンズ(111)により拡大してユーザに視認(C)させる。携帯端末(2)は、アタッチメントへの接触をともなうユーザのアクション(D)を、携帯端末(2)のセンサにより検知して、検知されたアクションに応じて、表示パネル(62)への映像の表示を制御する。An inexpensive and simple display system suitable for a head proximity type video display system capable of giving an impression to a user as if the amount of information in an actual visual information space has expanded. The portable terminal (2) is housed in an attachment composed of the proximity unit (41) and the terminal housing unit (42), and the display panel (62) is enlarged by the lens (111) to be visually recognized (C) by the user. The mobile terminal (2) detects the user's action (D) with contact with the attachment by the sensor of the mobile terminal (2), and displays the video on the display panel (62) according to the detected action. Control the display.
Description
本発明は、表示システム、アタッチメント、表示方法、ならびに、プログラムに関する。本発明は、頭部近接型映像表示装置を頭部に近接させたユーザに対して映像を表示する頭部近接型映像表示システム及びこれに使用される頭部近接体、頭部近接型映像表示プログラムに好適である。 The present invention relates to a display system, an attachment, a display method, and a program. The present invention relates to a head proximity image display system that displays an image for a user who has placed a head proximity image display device close to the head, a head proximity body used in the head proximity image display system, and a head proximity image display Suitable for programs.
従来より盛んに研究されているバーチャルリアリティ(VR)技術は、種々の映像やコンピュータグラフィックス(CG)を用いて仮想世界や遠隔地の空間を創出し、人間の動作に応じてコンピュータにより映像を変化させるものである。これにより視聴者に、あたかもその場にいるような臨場感を抱かせることができる。しかし、ある程度の臨場感は得られても、それを現実に目の前でおきているものとして感じさせることはできなかった。このようなVR技術の問題点を解決するために、SR(Substitutional Reality System)システムという新しい技術が開発された。 Virtual reality (VR) technology, which has been studied extensively, creates virtual worlds and remote spaces using various images and computer graphics (CG), and displays images by computers according to human actions. It is something to change. This makes it possible for viewers to feel as if they were there. However, even though a certain level of presence was obtained, it was not possible to make it feel as if it was in front of you. In order to solve such problems of the VR technology, a new technology called SR (Substitutional Reality System) system has been developed.
SRシステムとは、仮想の代替世界と現実を差し替え、被験者に仮想と現実を区別無く体験させることを念頭に置いた技術である。このSR技術を実現するためには、現実において起きている事象を真実であると確信したり、或いは現実の中につじつまの合わない事象が発生した場合にそれに疑いを持ったりする、いわゆるメタ認知と呼ばれるヒトの高次認知機能をうまく操作する必要がある。従来において、このメタ認知の操作に伴う様々な技術的限界のため、SRシステムは未だ実用化に至っていないのが現状であった。即ち、このSRシステムの実用化を検討する上では、例えば、過去の映像や異なる場所の映像等、現実的に目の前で起きていない仮想的な代替事象を、いかに現実に目の前で起きている事象として視聴者に認識させるかが大きな課題となっている。 The SR system is a technology that keeps in mind that the virtual alternative world and the reality are replaced and the subject can experience the virtual and the reality without distinction. In order to realize this SR technology, it is so-called metacognition that is convinced that an event that occurs in reality is true, or that there is a suspicion when an inconsistent event occurs in reality. It is necessary to operate well the human higher cognitive function called. Conventionally, the SR system has not yet been put into practical use due to various technical limitations associated with this meta-cognition operation. In other words, in considering the practical application of this SR system, for example, virtual substitute events that have not occurred in front of the eyes, such as past images or images of different locations, can be seen in front of the eyes. A major issue is how to make viewers recognize that this is happening.
実際にこのような代替現実状態を実現する上で従来において試行された技術として、「拡張現実」、「テレプレゼンス技術」、「Google glass(登録商標)」がある。 As technologies that have been tried in the past to actually realize such an alternative reality state, there are “augmented reality”, “telepresence technology”, and “Google glass (registered trademark)”.
「拡張現実」とは、ユーザの視点から見える実際のライブ映像上に、CG(Computer Graphics)技術による視覚映像を重ね合わせ、例えばヘッドマウントディスプレイ等の表示装置を介して映し出す技術である。この「拡張現実」とは、本来現実には存在しない情報を新しく付加することが可能な技術である。この「拡張現実」に関して検討された従来技術として、例えば特許文献1〜3の開示技術が提案されている。しかし、この「拡張現実」は、重ね合わせる視覚画像がモノレイヤーであるため、これに重ね合わされたCGの背面に表示されている現実画像の情報が削られることになるという問題点がある。
“Augmented reality” is a technology in which a visual image based on CG (Computer Graphics) technology is superimposed on an actual live image that can be seen from the user's viewpoint, and is displayed via a display device such as a head-mounted display. This “augmented reality” is a technology that can newly add information that does not actually exist in reality. For example, disclosed techniques of
「テレプレゼンス技術」とは、遠隔地に設けられたカメラによって撮像される映像を、視聴者の頭部に装着されたヘッドマウントディスプレイを介してリアルタイムに映し出す。これとともに、この「テレプレゼンス技術」では、その視聴者の頭部の動きに連動してカメラの撮像方向を遠隔操作する。これにより、遠隔地のメンバーとその場で対面しているかのような臨場感を提供することも可能となる。しかしながら、この「テレプレゼンス技術」では、遠隔地に置かれたカメラによる撮像情報を視聴者に与えることを目的としたものであり、現実空間に新たな情報を付加することを目的とした技術ではない。 The “telepresence technology” is a real-time display of an image captured by a camera provided at a remote location via a head mounted display mounted on the viewer's head. At the same time, in this “telepresence technology”, the imaging direction of the camera is remotely controlled in conjunction with the movement of the viewer's head. As a result, it is possible to provide a sense of presence as if they are facing a remote member on the spot. However, this "telepresence technology" is intended to give viewers imaging information from a camera placed at a remote location, and it is a technology intended to add new information to the real space. Absent.
また最近において、「Google glass(登録商標)」と呼ばれる、メガネ型の拡張現実ウェアラブルコンピュータが提案されている。Google glass(登録商標)は、メガネを通じて視聴者に視認される現実空間に様々な情報を埋め込むというコンセプトであり、ハンズフリーに情報を表示し、自然言語音声コマンドでインターネットを使用することができるようになっている。しかしながら、このGoogle glass(登録商標)は、情報の表示領域が狭いため、複数の情報を表示する際には排他的にならざるをえず、これらを互いに重ね合わせた場合、下に隠れた情報を視聴者に視認させることができないという問題点があった。また、表示映像を現実と思わせる効果は考慮されておらず、持ち運び可能な小型モニターという用途を超えていない。 Recently, a glasses-type augmented reality wearable computer called “Google glass (registered trademark)” has been proposed. Google glass (registered trademark) is a concept of embedding various information in the real space that is visible to the viewer through glasses, so that information can be displayed hands-free and the Internet can be used with natural language voice commands It has become. However, this Google glass (registered trademark) has a narrow information display area, so it must be exclusive when displaying multiple pieces of information. There is a problem that the viewer cannot be visually recognized. In addition, the effect of making the displayed image look real is not taken into consideration, and it does not exceed the use of a portable small monitor.
このように、従来の「拡張現実」、「テレプレゼンス技術」、「Google glass(登録商標)」では、現実的に目の前で起きていない仮想の代替事象を、現実に目の前で起きている事象として視聴者に認識させるまでには至らない。即ち、仮想の代替事象を描写した映像そのもののCGや映像シーンの不自然さ等により、その仮想の代替事象を現実の事象として認識させる上で様々なメタ認知的な阻害要因が存在する。例えば「拡張現実」では、ライブ映像に重ね合わされたCGの不自然さにより、視聴者は、そのCG部分が人工的なものであると判断してしまう。また、「テレプレゼンス」では、そもそも遠隔地の映像が画面上に映し出されるため、視聴者がその映像を視認しても現実のものと解することはない。 As described above, in the conventional “augmented reality”, “telepresence technology”, and “Google glass (registered trademark)”, virtual substitute events that have not occurred in front of the eyes actually occur in front of the eyes. It does not lead to let the viewer recognize it as an event. That is, there are various meta-cognitive obstacles for recognizing the virtual substitute event as a real event due to the CG of the video describing the virtual substitute event or the unnaturalness of the video scene. For example, in “augmented reality”, the viewer determines that the CG portion is artificial because of the unnaturalness of the CG superimposed on the live video. In “telepresence”, video from a remote place is projected on the screen in the first place, so even if the viewer views the video, it is not interpreted as real.
仮想の代替事象を描写した代替映像を映し出す上で、CG映像がいかに精巧であっても、殆どの場合、視聴者は、明らかに現実とは異なる代替事象を描写した映像を視聴しているという認識は拭い去ることはできないという問題点があった。 Regardless of how sophisticated the CG video is to show the alternative video depicting a virtual alternative event, in most cases, the viewer is watching a video that clearly shows an alternative event that is different from reality. There was a problem that recognition could not be wiped away.
これに加えて、上述した従来技術では、何れもヘッドマウントディスプレイや、メガネ型の拡張現実ウェアラブルコンピュータ等、特別なデバイスが必要となるため、システム全体が高価なものとなってしまい、普及に時間がかかってしまうという問題があった。 In addition, the above-described conventional techniques all require special devices such as a head-mounted display and a glasses-type augmented reality wearable computer, so that the entire system becomes expensive, and time for dissemination becomes long. There was a problem that it took.
そこで、本発明は、上述した問題点に鑑みて案出されたものであり、その目的とするところは、ヘッドマウントディスプレイ等の代替となる安価で簡易に実現可能な表示システム、表示方法、アタッチメント、ならびに、プログラムを提供することにある。本発明は、現実的に目の前で起きていない事象を、現実に目の前で起きている事象として視聴者に認識させることが可能であり、しかも既に普及しているスマートフォン等を始めとした携帯端末を利用することにより容易に実現でき、安価なシステムとしてユーザに提供可能な頭部近接型映像表示システム及びこれに使用される頭部近接体、頭部近接型映像表示プログラムの提供に好適である。 Accordingly, the present invention has been devised in view of the above-described problems, and its object is to provide a display system, a display method, and an attachment that can be easily and inexpensively replaced with a head-mounted display or the like. As well as providing a program. The present invention allows a viewer to recognize an event that has not actually occurred in front of the user as an event that has actually occurred in front of the user, and has already been used in smartphones and the like. For providing a head proximity type video display system that can be easily realized by using a portable terminal and that can be provided to a user as an inexpensive system, a head proximity body used in the system, and a head proximity type video display program Is preferred.
本発明者は、上述した課題を解決するために、現実的に目の前で起きていない事象を、現実に目の前で起きている事象として視聴者に認識させることを、普及しているスマートフォン等を始めとした携帯端末のアプリケーションプログラムとして実装した頭部近接型映像表示システム及びこれに使用される頭部近接体、頭部近接型映像表示プログラムに適用するのに好適な、表示システム、表示方法、アタッチメント、ならびにプログラムを発明した。
ここで、本発明の表示システムは、
画面を有する携帯端末と、
携帯端末を、画面がユーザにより視認可能に収容するアタッチメントと、
を備え、
携帯端末は、
携帯端末が有するセンサにより、アタッチメントを介したユーザによるアクションを検知し、
検知されたアクションに応じて画面に表示する映像を制御する。In order to solve the above-mentioned problems, the present inventor has made it popular that the viewer recognizes an event that has not actually occurred in front of the eyes as an event that has actually occurred in front of the eyes. A head proximity type video display system implemented as an application program of a mobile terminal such as a smartphone and the like, a head proximity body used therefor, a display system suitable for application to a head proximity type video display program, Invented display methods, attachments, and programs.
Here, the display system of the present invention is:
A mobile terminal having a screen;
An attachment that houses the mobile terminal so that the screen is visible to the user;
With
Mobile devices
The sensor of the mobile terminal detects the action by the user through the attachment,
The video displayed on the screen is controlled according to the detected action.
本発明の頭部近接型映像表示システムは、1以上の代替映像が記録されている記録手段と、少なくとも上記記録手段に記録されている代替映像を表示する表示手段と、自らの動きを検出する動きセンサとを有する携帯端末と、映像視認時において当該ユーザの眼前に上記表示手段が位置するように上記携帯端末が収容される収容手段を有する頭部近接体とを備え、上記表示手段は、上記動きセンサにより検出された動きに応じて上記代替映像の表示を開始し又は停止する。 The head proximity type video display system of the present invention detects a movement of a recording means in which one or more alternative videos are recorded, a display means for displaying at least the alternative videos recorded in the recording means, and its own movement. A mobile terminal having a motion sensor; and a head proximity body having an accommodating means in which the portable terminal is accommodated so that the display means is positioned in front of the user's eyes during video viewing. The display of the substitute video is started or stopped according to the motion detected by the motion sensor.
また、本発明の頭部近接型映像表示システムにおいて、上記携帯端末は、ユーザと略同一の視点で現実空間をライブ映像として撮像する撮像手段を更に有し、上記表示手段は、上記動きセンサにより検出された動きに応じて、上記記録手段に記録されている代替映像又は上記撮像手段により撮像されたライブ映像の表示、停止を行い、又は上記代替映像と上記ライブ映像の表示の切り替えを行う。 Moreover, in the head proximity type video display system of the present invention, the portable terminal further includes an imaging unit that captures a real space as a live video from substantially the same viewpoint as the user, and the display unit includes the motion sensor. Depending on the detected movement, the alternative video recorded in the recording unit or the live video captured by the imaging unit is displayed and stopped, or the display of the alternative video and the live video is switched.
また、本発明の頭部近接型映像表示システムにおいて、上記頭部近接体は、映像視認時において上記ユーザの頭部に近接させる頭部フレームと、互いに上記ユーザの頭部よりも狭い間隔で上記頭部フレームにおける両側から突出された開閉自在の突出片とを有し、上記動きセンサは、ユーザによる突出片の開閉動作に応じた動きを検出する。 Further, in the head proximity type image display system of the present invention, the head proximity body includes a head frame that is close to the user's head when viewing the image, and the head frame that is closer to the user's head than the head frame. The head frame has openable and closable protruding pieces protruding from both sides, and the motion sensor detects a movement according to the opening / closing operation of the protruding piece by the user.
また、本発明の頭部近接型映像表示システムにおいて、上記動きセンサは、映像視認開始時において上記頭部近接体を頭部の手前まで移動させる動作と、頭部の手前において上記突出片の開閉動作に伴う減速とを検出する。 Further, in the head proximity type video display system of the present invention, the motion sensor moves the head proximity body to the front of the head at the start of visual recognition, and opens and closes the protruding piece in front of the head. Detects deceleration accompanying movement.
また、本発明の頭部近接型映像表示システムにおいて、上記頭部近接体は、上記収容手段に収容した上記携帯端末の表示手段により表示される映像を拡大するためのレンズを更に有する。 In the head proximity image display system of the present invention, the head proximity body further includes a lens for enlarging an image displayed by the display means of the portable terminal accommodated in the accommodation means.
また、本発明の頭部近接型映像表示システムにおいて、発明において、上記ユーザの頭部を略中心とした全方位について事前に時系列的に撮像した映像、もしくはリアルタイムに作成されたコンピューターグラフィックスなどの仮想的映像を一の代替映像として取得する代替映像取得手段を更に備え、上記携帯端末は、当該一の代替映像を再生する場合には、上記ユーザの視線又は頭部の動きに基づいて当該一の代替映像から表示すべき映像を上記時系列に沿って切り出す映像制御手段を更に有する。 Further, in the head proximity type video display system of the present invention, in the invention, the image taken in time series in advance in all directions centered on the user's head or computer graphics created in real time, etc. Alternative video acquisition means for acquiring the virtual video as one alternative video, and when the portable terminal reproduces the one alternative video, the mobile terminal is based on the user's line of sight or the movement of the head. Video control means for cutting out the video to be displayed from the one alternative video along the time series is further provided.
また、本発明の頭部近接型映像表示システムにおいて、上記代替映像取得手段は、公衆通信網に随時アクセスすることにより取得した情報、又は予め蓄積した情報を一の代替映像に加工する。 Further, in the head proximity type video display system of the present invention, the alternative video acquisition means processes information acquired by accessing the public communication network as needed or information stored in advance into one alternative video.
また、本発明の頭部近接型映像表示システムにおいて、音声データを取得する音声データ取得手段を更に備え、上記映像制御手段は、上記音声データ取得手段により取得された音声データを上記再生すべき代替映像に連動させて再生する。 The head proximity type video display system of the present invention further includes audio data acquisition means for acquiring audio data, wherein the video control means is an alternative to reproduce the audio data acquired by the audio data acquisition means. Play in conjunction with the video.
また、本発明の頭部近接体は、上記の頭部近接型映像表示システムに使用され、映像視認時において上記ユーザの眼前に上記表示手段が位置するように上記携帯端末が収容される収容手段を有する。 Further, the head proximity body of the present invention is used in the head proximity type video display system, and the storage means in which the portable terminal is stored so that the display means is positioned in front of the user's eyes when viewing the video. Have
また、本発明の頭部近接体において、映像視認時において上記ユーザの頭部に近接させる頭部フレームと、互いに上記ユーザの頭部よりも狭い間隔で上記頭部フレームにおける両側から突出された開閉自在の突出片とを有することを特徴とする。 Further, in the head proximity body of the present invention, a head frame that is close to the user's head when viewing an image, and an open / close projecting from both sides of the head frame at a smaller interval than the user's head And a free protruding piece.
本発明の頭部近接型映像表示プログラムは、頭部近接体を頭部に近接させたユーザに対して映像を表示することを携帯端末により実行させる頭部近接型映像表示プログラムにおいて、1以上の代替映像を記録する代替映像記録ステップと、上記携帯端末の動きを検出する動き検出ステップと、上記代替映像記録ステップにおいて記録した1以上の代替映像を表示することを、上記動き検出ステップにより検出された動きに応じて開始し、又は停止する表示ステップとを携帯端末により実行させる。 The head proximity type video display program according to the present invention is a head proximity type video display program that causes a mobile terminal to display a video for a user whose head proximity body is close to the head. It is detected by the motion detection step that an alternative video recording step for recording the alternative video, a motion detection step for detecting the movement of the portable terminal, and displaying one or more alternative videos recorded in the alternative video recording step. The display step of starting or stopping according to the movement is executed by the portable terminal.
上述した構成からなる本発明によれば、表示システム、表示方法、アタッチメント、ならびに、プログラムを提供することができる。本発明によれば、代替現実技術(現在と過去の映像を切り目無く、現実の延長として体験する技術)を利用することにより、いわば視覚情報空間を拡張することができる。特に本発明によれば、既に普及しているスマートフォン等を始めとした携帯端末を利用することにより容易に実現できるものであるから、安価なシステムとしてユーザに提供可能であり、急速な普及も期待できる。 According to the present invention having the above-described configuration, a display system, a display method, an attachment, and a program can be provided. According to the present invention, it is possible to expand the visual information space by using an alternative reality technology (a technology for experiencing current and past images seamlessly as an extension of reality). In particular, according to the present invention, since it can be easily realized by using a portable terminal such as a smartphone that has already been widely used, it can be provided to the user as an inexpensive system, and rapid spread is expected. it can.
特に上述した構成からなる本発明によれば、頭部近接体に携帯端末を収容させてユーザに使用させることで、ユーザに対してはあたかもヘッドマウントディスプレイを装着したかのような臨場感を持たせることが可能となり、しかも表示パネルによる映像表示の開始を、この頭部近接体の近接動作を通じて自動的にコントロールすることが可能となる。 In particular, according to the present invention having the above-described configuration, a user feels as if a head-mounted display is attached to the user by allowing the user to use the portable terminal housed in the head proximity body. In addition, the start of video display on the display panel can be automatically controlled through the proximity movement of the head proximity object.
特に本発明では、携帯端末を頭部近接体に収容した状態で使用する。このため、頭部近接体に覆われた携帯端末を操作することはユーザにとって非常に煩雑なものとなるが、本発明では、自然な近接動作のみで、映像の開始を自動的に行うことができるため、非常に操作性にも優れたものとなる。また、本発明によればワイヤレスで動作する携帯端末を介して動作可能なものであるため、システム全体の完全なワイヤレス化を実現させることが可能となる。 In particular, in the present invention, the portable terminal is used in a state of being accommodated in the head proximity body. For this reason, it is very troublesome for the user to operate the mobile terminal covered with the head proximity object. However, in the present invention, the video can be automatically started only by a natural proximity operation. Therefore, the operability is extremely excellent. Further, according to the present invention, since it can be operated via a portable terminal that operates wirelessly, it is possible to realize complete wirelessization of the entire system.
このような視覚情報空間の拡張により、ユーザが主体的に情報空間を操作し、代替映像を表示させて必要な情報にアクセスすることが可能となる。従来システムによれば、デバイスの持つ単一レイヤ上のスクリーンを通じてしか情報にアクセスすることができなかったため、新しい情報を付加するには、それを上書きしてオリジナルの情報を削除しなければならず、アクセシビリティが低かった。これに対して本発明によれば、ライブ映像として表示されている現実空間に、代替映像を介してオリジナルの情報を殆ど失うこと無く様々な情報を埋め込むことが可能となり、まるで現実の視覚情報空間の情報量が拡大したかのような印象をユーザに与えることを携帯端末により実現可能となる。 Such an expansion of the visual information space allows the user to independently operate the information space and display a substitute video to access necessary information. According to the conventional system, information can only be accessed through a screen on a single layer of the device. Therefore, to add new information, the original information must be deleted by overwriting it. The accessibility was low. On the other hand, according to the present invention, it is possible to embed various information in a real space displayed as a live video through an alternative video with almost no loss of original information. Giving the user the impression that the amount of information has expanded can be realized by the portable terminal.
以下、本発明に係る表示システムを代替現実コンテンツの提供に応用した頭部近接型映像表示システムの実施の形態について図面を参照しながら詳細に説明する。 Embodiments of a head proximity type video display system in which the display system according to the present invention is applied to provision of alternative reality content will be described in detail below with reference to the drawings.
図1は、本発明を適用した頭部近接型映像表示システム1の全体構成図を示している。この頭部近接型映像表示システム1は、携帯端末2を中心とし、これに接続された録画モジュール3と、頭部近接体4とを備え、更に携帯端末2を介して通信網5に接続されている。
FIG. 1 is an overall configuration diagram of a head proximity type
携帯端末2は、この頭部近接型映像表示システム1の全体を制御する、いわゆる中央制御機器としての役割を担う。この携帯端末2は、例えばスマートフォン、携帯電話機、タブレット型端末等として具現化されるが、これに限定されるものではなく、携帯型のゲーム機器、携帯型の音楽プレーヤー、ウェアラブル端末等、あらゆる携帯型の電子機器端末を含む概念である。
The
通信網5は、有線又は無線による通信ネットワークであればいかなるものであってもよく、例えばインターネット、イントラネット、エキストラネット、LAN(Local Area Network)、ISDN(Integrated Services Digital Network)、VAN(value added network)、CATV(Community Antenna Television)通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網等である。 The communication network 5 may be any wired or wireless communication network. For example, the Internet, an intranet, an extranet, a LAN (Local Area Network), an ISDN (Integrated Services Digital Network), a VAN (value added network). ), CATV (Community Antenna Television) communication network, virtual private network, telephone line network, mobile communication network, satellite communication network, and the like.
録画モジュール3は、現実の事象とは別に、過去の事象に基づく代替映像を予め録画するために使用されるものであり、パノラマビデオカメラ31を備えている。
The
パノラマビデオカメラ31は、例えば図2に示すように、基台311と、この基台311上に設けられたカメラアレイ312とを有している。基台311は、必要に応じて高さ調整が可能とされ、所望の映像を録画する上でふさわしい高さに随時設定される。カメラアレイ312は、本体320と、この本体320の内部に実装された複数の撮像装置321とを備えている。本体320には形成された開口にはそれぞれ撮像装置321が実装されており、当該開口を介して事物を撮像可能とされている。これら複数の撮像装置321は、互いに異なる方向を撮像可能とするため、その画角及び撮像方向がそれぞれ設定されている。また、各撮像装置321は、例えば図2に示すように本体320における全ての方向(水平方向に360°、鉛直方向に360°)を洩れなく撮像可能なように実装されていてもよい。しかも、この撮像装置321によれば、全ての方向について同時に撮像を行うことが可能となる。このため、部屋の中に居る人を撮像する際において、人が移動した場合には、その移動した人をカメラ本体内に構築される仮想的な一つの視点を中心とした全周囲で撮像した映像が生成されることとなる。ちなみにこの録画モジュール3は、上述した構成に限定されるものではなく、本体320の全ての方向を撮像可能な構成であればいかなるものに代替されるものであってもよい。
For example, as shown in FIG. 2, the
撮像装置321は、このようにして撮像した映像をそれぞれCCD(Charge Coupled Device)等の固体撮像素子を利用し、レンズを介して入射される被写体像を撮像面上に結像させ、光電変換により映像信号を生成し、これをインターフェース330を介して携帯端末2へもしくは記録用コンピュータへと送信する。
The
また、撮像装置321には図示しないマイクが実装されている場合もあり、この図示しないマイクは、周辺の音声を集音し、音声信号に変換する。この図示しないマイクは、変換したこの音声信号をインターフェース330を介して携帯端末2もしくは記録用コンピュータへと送信する。
In addition, a microphone (not shown) may be mounted on the
頭部近接体4は、携帯端末2のアタッチメントであり、当該アタッチメントに携帯端末2を収容することによって、図3の斜視図、及び図4の組立図に示すような、いわゆる視聴者に頭部に近接させ、ひいては装着も可能な、擬似的なヘッドマウントディスプレイとして構成される。この頭部近接体4に携帯端末2を収容することによって、メガネ型又はゴーグル型の表示装置が実現され、頭部近接体4は、大きく分類して近接ユニット41と、端末収容ユニット42とを備えている。アタッチメント頭部近接体4(アタッチメント)の各構成要素には、用途・機能に応じて、模様、色彩、装飾等を施すことができる。
The
近接ユニット41は、段ボール等の紙製、樹脂製等で構成されるが、これに限定されるものではなく、セラミック材料や金属等いかなる材料で構成されていてもよく、映像視認時においてユーザの頭部に近接させる頭部フレーム102と、この頭部フレーム102における両側から突出された突出片101a、101bとを備えている。
The
頭部フレーム102は、断面矩形状の筒状体で構成されている。この筒状の頭部フレーム102の内部には、端末収容ユニット42が挿入可能とされている。近接ユニット41は、この頭部フレーム102におけるC方向に向けてユーザの頭部へと近接させ、ひいては装着されることとなる。この頭部フレーム102は、互いに対向する側板102a、102bが形成され、この側板102aには、突出片101aがC方向に向けて突出するように取り付けられ、側板102bには、突出片101aがC方向に向けて突出するように取り付けられている。頭部フレーム102における側板102a、102bの間隔は、ユーザの一般的な頭部の幅とほぼ同等又はそれ以下である。
The
突出片101a、突出片101bは、それぞれ側板102a、102bに取り付けられていることから、これら突出片101a、突出片101b間の間隔は、ユーザの一般的な頭部と同等又はそれ以下とされている。この突出片101aは、側板102aに対してヒンジ機構103を介してD方向に開閉自在とされている。同様に突出片101bは、側板102bに対してヒンジ機構103を介してD方向に開閉自在とされている。なお、突出片101a、101bは、ゴムや紐等を介して互いに連結可能とされていてもよく、これらをユーザの頭部に被せることにより強固に装着することが可能となる。ユーザは突出片の角度Dを自由に調整し、外光からの影響を最小化することができる。
Since the protruding
このヒンジ機構103は、近接ユニット41が段ボールで構成されている場合には、このヒンジ機構103は、単にその段ボールの折り曲げ部分として構成されていればよい。またヒンジ機構103は、近接ユニット41が金属製や樹脂製等の場合には、突出片101、側板102の互いの接合位置に図示しない貫通孔を上下方向に設け、この図示しない貫通孔の軸を挿通させることにより、開閉自在なヒンジを構成するようにしてもよい。但し、この突出片101は、映像を視認しない、いわゆる通常状態において、D方向に開いた状態ではなく、突出片101a、101b同士がユーザの頭部よりも狭い状態とされていることが望ましい。
When the
端末収容ユニット42は、段ボール等の紙製、樹脂製等で構成されるが、これに限定されるものではなく、セラミック材料や金属等いかなる材料で構成されていてもよく、近接ユニット41に挿入可能なサイズで構成されており、C方向に設けられる後板110と、この後板110に形成されるレンズ111と、後板110、レンズ111と対向する、換言すればC方向と反対方向に設けられた前板112と、前板112と後板110との間に設けられ、特に前板112により近接させて配置される押さえ片113とを備えている。この前板112と押さえ片113との間には、携帯端末2を収容するための収容部114が形成されている。
The
レンズ111は、携帯端末2の表示パネル62から発せられる可視光を屈折させることが可能なレンズ媒体である。このレンズ111を通じて携帯端末2の表示パネル62上で表示される画像を拡大してユーザの視界に表示させることが可能となる。
レンズ111としては、非球面レンズ、たとえば、凸レンズ、平凸レンズ、フレネルレンズなどを採用することができるが、軽量かつ薄型であり、安価である点で、フレネルレンズは特に好適である。
このほか、視差を用いたステレオグラムやランダムドットによる立体映像を携帯端末2から提示する場合には、左右の視界を明確に分けた方が、ユーザにとって視認が容易となる。この場合には、左右に二つの接眼用の開口を空けることにより1枚のレンズを用いて2眼レンズを構成することもできるし、2枚のレンズを左右に配置しすることにより2眼レンズを構成することもできる。このように、多眼レンズを採用する場合には、レンズをその数だけ用意しても良いし、接眼用開口のそれぞれに個別のレンズを嵌め込んでも良い。さらに、左右の視界を遮る壁を、近接ユニット41内に設けても良い。The
As the
In addition, when a stereoscopic image using parallax or a stereoscopic image using random dots is presented from the
収容部114は、前板112と押さえ片113とが、携帯端末2を収容可能な程度の間隔を設けて構成される。携帯端末2は、表示パネル62側を図中C方向に向け、撮像部44側をC方向と反対方向に向けた状態で、この収容部114内に収容される。押さえ片113は、端末収容ユニット42における側板132a、132bから内部に向けてそれぞれ突出されてなり、携帯端末2における端部を支持可能な程度のサイズ及び形状とされている。その結果、携帯端末2における表示パネル62からの表示画像が押さえ片113により遮られてしまうのを防止することが可能となる。また、前板112には、溝123、124が2箇所に亘り設けられている。溝123は、ユーザが携帯端末2を取り出す場合において、これを手で掴みやすくするために設けられている。溝124は、携帯端末2の収容時においてちょうど撮像部44の位置に応じた箇所に設けられている。これにより撮像部44による撮影方向が、溝124により開放されることとなり、前板112により遮られることが無くなる。
The
図3に示すように、頭部近接体4は、上述した構成からなる端末収容ユニット42における収容部114に携帯端末2を収容させるとともに、当該端末収容ユニット42を近接ユニット41へ挿入することにより利用可能となる。実際に頭部近接体4をユーザに近接させる場合には、図5に示すように突出片101a、101bを開いた状態とし、近接ユニット41における頭部フレーム102をユーザの頭部に近接させる。これにより、ユーザの視界は、突出片101並びに頭部フレーム102を介して遮蔽され、レンズ111を介して拡大表示される携帯端末2の表示パネル62の表示画像に長時間に亘り集中させることが可能となる。その結果、ユーザは、あたかもヘッドマウントディスプレイを装着しているのと同等の没入感を味わうことが可能となる。この状態で、ユーザは、例えば近接ユニット41に挿入されている端末収容ユニット42を、ユーザに対して近接させ、又は離間させるようにしてもよい。これにより、ユーザの目と、レンズ111との距離を変更することができ、表示パネル62上に表示される画像への焦点を自在に合わせることが可能となる。
As shown in FIG. 3, the
図6(a)は携帯端末2の平面図であり、図6(b)は、その底面図を示している。 携帯端末2は、図6に示すように、表示パネル62と、ヘッドホン43と、撮像部44と、動きセンサ59とを備えている。
6A is a plan view of the
ヘッドホン43は、ユーザの耳に装着可能とされている。このヘッドホン43は、ユーザの耳を完全に被包するような形状、サイズで構成される場合に限定されるものではなく、小型のイヤホン式で構成されていてもよい。また、このヘッドホン43の構成は必須ではなく、必要に応じて省略するようにしてもよいが、使用時にはノイズキャンセリング機能を持つものが望ましい。
The
図7は、この携帯端末2のブロック構成を示している。携帯端末2は、上述した動きセンサ59、表示パネル62、ヘッドホン43、撮像部44に加え、マイク60、記録部69とを更に有している。携帯端末2は、周辺インターフェース(I/F)57と制御アプリケーション20とを備えている。電源スイッチ58、操作部65はこの周辺I/F57に接続されている。動きセンサ59、マイク60、表示パネル62、ヘッドホン43、撮像部44、記録部44はそれぞれ周辺I/F57に接続されている。
FIG. 7 shows a block configuration of the
表示パネル62は、撮像部44により撮像された映像、又は制御アプリケーション20から送信されてくる映像を表示する。この表示パネル62は、映像信号が入力された場合に、当該映像信号に基づいて画像を生成するための要素となる各信号(R,G,Bの3原色の信号)を発生する。また、発生した各RGB信号に基づく光を出射して合波し、その光を2次元に走査する。2次元に走査された光は、その中心線がユーザの瞳孔に収束するように変換され、ユーザの眼の網膜に投影される。
The
ヘッドホン43は、携帯端末2から送信されてくる音声信号が入力される。ヘッドホン43は、この入力されてくる音声信号に基づいた音声を出力する。
The
周辺I/F57は、動きセンサ59やマイク60、操作部65等から取得した情報を制御アプリケーション20へ伝達するための各種情報の送受信を中継する役割を担うインターフェースである。
The peripheral I /
電源スイッチ58は、例えば外部に露出した押圧可能なボタン型のスイッチで構成され、ユーザがこれを押圧することで、携帯端末2による処理動作を開始し、或いは当該処理動作を終了させる。
The
動きセンサ59は、携帯端末2の動きを検出する。この動きセンサ59は、ジャイロセンサ、加速度センサ、地磁気センサ等が用いられ、携帯端末2、ひいてはこれが収容された頭部近接体4の角度や傾き、更には速度を検出する。この動きセンサ59は、携帯端末2の位置そのものを検出するものであってもよい。また動きセンサ59は、体験環境に設置した図示しないカメラによるモーションキャプチャーシステムに置換するようにしてもよい。この動きセンサ59により取得されたユーザの頭部の動きに関するデータは、周辺I/F57を介して制御アプリケーション20へと送信される。
The
マイク60は、周囲の音声を集音し、これを音声信号に変換する。マイク60は、この変換した音声信号を周辺I/F57を介してヘッドホン43へと送信することができる。この送信される過程で、音声信号に何らかの処理が施されるようにしてもよい。なお、携帯端末2がアタッチメントである頭部近接体4に収容されている間は、マイク60もその内部に配置される。したがって、ユーザが頭部近接体4に触れたり、頭部近接体4を叩いたり、摩擦したり、突出片101a、101bを開閉する等して頭部近接体4を変形したり、等のユーザのアクションに起因する音は、頭部近接体4により共鳴して、マイク60により集音される。したがって、頭部近接体4固有の共鳴周波数帯でフィルタリング等をすることにより、外界の音声と、アタッチメントである頭部近接体4に対するユーザのアクションを区別することができる。
The
操作部65は、ユーザが自らの意思に基づく入力を行うためのいわゆるユーザインターフェースである。この操作部65は、ボタン、あるいは表示パネル66も兼ねたタッチスクリーン等で構成され、ユーザがこれを介して入力を行う。この操作部65において何らかの入力が行われた場合、その情報は、周辺I/F57を介して制御アプリケーション20へと送信される。ただし、携帯端末2がアタッチメントである頭部近接体4に収容されている間は、タッチスクリーンもその内部に配置される。そこで、後述するように、頭部近接体4にユーザの指が1本程度通るような小さな開口を設け、その開口を介してタッチスクリーンにタッチできるようにしても良い。開口を大きくすると、指がタッチできる領域も広がるが、外光が侵入しやすくなるため、没入感が劣る。そこで、指がタッチできる領域は狭くなるものの、小さい開口を設け、後述する方策によって、タッチスクリーン内に表示されたアイコンやボタン等の操作対象に対するタッチを可能とすることができる。
The
記録部69は、画像、映像その他各種データを記録するためのストレージである。この記録部69におけるデータの書き込み、読み出しは、制御アプリケーション20による制御に基づいて実行される。
The
制御アプリケーション20は、頭部近接型映像表示システム1全体を制御するためのアプリケーションソフトウェアである。この制御アプリケーションのソフトウェアそのものは、記録部69や図示しないメモリ等に記録されることとなる。
The
図8は、携帯端末2における制御アプリケーション20のステップ構成を示している。携帯端末2は、再生制御ステップS28につながる映像蓄積ステップS22と、ライブ映像取得ステップS23と、映像切出し方向更新ステップS25と、音声データ取得ステップS35と、動き検出ステップS38を有している。映像蓄積ステップS22は、代替映像取得ステップS21から連続するものであり、映像切出し方向更新ステップS25は、頭部方向特定ステップS24から連続するものである。
FIG. 8 shows a step configuration of the
代替映像取得ステップS21は、パノラマビデオカメラ31により撮像された映像を代替映像として取得する。また、この代替映像取得ステップS21では、通信網5を介して取得した各種情報やデータに基づいて加工した代替映像を取得する。さらには、この代替映像取得ステップS21では、フラッシュメモリや記録媒体を介して入力されてくる情報も代替映像として取得するようにしてもよいし、携帯端末2における図示しないユーザインターフェースを介して入力された情報に基づくものであってもよい。
In the alternative video acquisition step S21, the video captured by the
映像蓄積ステップS22は、代替映像取得ステップS21において取得された代替映像を蓄積する。この映像蓄積ステップS22における代替映像の蓄積は、例えば、記録部69において実行するようにしてもよい。なお、この映像蓄積ステップS22は、この代替映像取得ステップS21からの代替映像のみならず、当初から予め各種コンテンツや情報を蓄積しておき、これを代替映像として記憶するようにしてもよい。この映像蓄積ステップS22において記録部69により記録された代替映像は、再生制御ステップS28による制御の下で読み出される。
The video accumulation step S22 accumulates the alternative video acquired in the alternative video acquisition step S21. The storage of the substitute video in this video storage step S22 may be executed by the
ライブ映像取得ステップS23は、撮像部44により撮像された映像信号を取得する。
The live video acquisition step S <b> 23 acquires the video signal imaged by the
頭部方向特定ステップS24は、携帯端末2における動きセンサ59により検出された携帯端末2の動きを介して、ユーザの頭部の動きに関するデータを取得する。この頭部方向特定ステップS24は、取得したユーザの頭部の動きに関するデータから、実際にユーザの頭部の方向を特定する。
The head direction specifying step S <b> 24 acquires data related to the movement of the user's head through the movement of the
映像切出し方向更新ステップS25は、頭部方向特定ステップS24によって特定されたユーザの頭部の方向に基づいて、携帯端末2における表示パネル62に表示すべき映像の切出し方向を更新する。
In the video cutout direction update step S25, the cutout direction of the video to be displayed on the
音声データ取得ステップS35は、外部から音声を取得し、これを蓄積する。外部からの音声の取得方法としては、例えば公衆通信網から有線、無線を介して取得するようにしてもよいし、記録媒体に記録された音声データを読み出してこれを記録するようにしてもよい。ちなみに、この音声データ取得ステップS35は、一度取得した音声データを蓄積し、これを読み出して利用する場合に限定されるものではなく、外部から取得した音声データをそのままリアルタイムに音声出力させるようにしてもよい。音声データ取得ステップS35により取得された音声データ、或いは外部から取得した音声データは、ヘッドホン43により出力される。
The voice data acquisition step S35 acquires voice from outside and accumulates it. As an external audio acquisition method, for example, it may be acquired from a public communication network via wire or wireless, or audio data recorded on a recording medium may be read and recorded. . Incidentally, the audio data acquisition step S35 is not limited to the case where the acquired audio data is accumulated, and is read out and used. The audio data acquired from the outside is directly output in real time as it is. Also good. The sound data acquired in the sound data acquisition step S35 or the sound data acquired from the outside is output by the
再生制御ステップS28は、映像蓄積ステップS22において記録部69に蓄積されている代替映像や、ライブ映像取得ステップS23において取得されているライブ映像を再生するための処理を行う。再生制御ステップS28は、自らの再生動作において、映像切出し方向更新部ステップS25による情報を用いて映像再生の制御を行う。この再生制御ステップS28において制御された再生映像は、上述した表示パネル62に表示される。
The reproduction control step S28 performs a process for reproducing the substitute video stored in the
動き検出ステップS38は、携帯端末2における動きセンサ59により、携帯端末2の動きを検出することを行う。以下、この動き検出ステップS38による詳細な動作について説明をする。
In the motion detection step S38, the
この動き検出ステップS38は、図9、10に示すような頭部近接体4の近接動作を検出する。先ずユーザは、図9(a)に示すように、収容部114に携帯端末2を収容させた頭部近接体4を把持する。この段階で、制御アプリケーション20の動作は、操作部65を介してスタート状態となっているが、表示パネル62による映像の表示は未だ開始されていない。
This motion detection step S38 detects the proximity movement of the
次に図9(b)に示すようにこの頭部近接体4をユーザの頭部の手前まで移動させる。動きセンサ59は、この頭部近接体4の移動を、これに収容されている携帯端末2を介して検出していく。この段階でユーザは、頭部近接体4を近接させようとするが、実際のところ頭部フレーム102における側板102a、102bの間隔は、ユーザの一般的な頭部の幅とほぼ同等又はそれ以下とされている。このため、ユーザは図9(a)に示すように、自らの頭部の大きさに合わせて側板102a、102bを開く動作を行うこととなる。その結果、頭部近接体4は、このユーザによる側板102a、102bの開く動作に伴い、図9(b)に示すようなユーザの頭部の手前まで移動させる速度と比較して減速することとなる。動きセンサ59は、この頭部近接体4の移動速度の減速を、これに収容されている携帯端末2を介して検出する。
なお、この動作の際には、一般には、頭部近接体4の向きも変化する。たとえば、頭部近接体4を把持する段階で、携帯端末2の撮像部44が地面を向いていたとしても、頭部近接体4をユーザの頭部の手間まで移動する段階では、携帯端末2の撮像部44は水平方向に幾分起き上がることもある。
ただし、図9(a)(b)、ならびに、後述する図10(a)においては、ユーザの動作を大袈裟に表現し、頭部近接体4の向きの変化は起きていないかのように図示している。
さて、ユーザは、この側板102a、102bを開く動作を行った後、図10(b)に示すように、頭部フレーム102を頭部に近接させ、両側に形成された側板102により頭部の側方を遮蔽させる。ちなみに、この後の動作として、例えば側板102a、102bがゴムや紐等を介して互いに連結されている場合には、これらをユーザの頭部に被せることにより強固に装着するようにしてもよい。但し、本発明でいうところの装着は、このようなゴムや紐等をユーザの頭部に被せる強固な装着のみならず、図10(b)に示すようにユーザが手で把持しながら利用する場合も含まれる。Next, as shown in FIG. 9B, the
In this operation, generally, the orientation of the
However, in FIGS. 9 (a) and 9 (b) and FIG. 10 (a) to be described later, the user's actions are expressed roughly, and it is as if the orientation of the
Now, after performing the operation of opening the
動きセンサ59は、このような頭部近接体4の動きを、全て携帯端末2を介して検出していく。図11は、この近接過程における頭部近接体4に収容された携帯端末2の動きを、ユーザの側面から視認した状態を示している。当初の図9(a)に示すような頭部近接体4の把持状態をEとし、また図9(b)、図10(a)に示すような側板102a、102bの開く動作を行っている状態をFとする。また、ユーザの頭部への近接状態をGとする。このとき、E〜Fまでの移動速度は高速であるのに対して、F〜Gは低速になる。しかもFの到達時には、側板102a、102bを開く動作が必須となるため、F近傍において携帯端末2の移動速度は必ず低速になる。しかも、携帯端末2の傾きについても、状態Eでは、表示パネル62がほぼ上向きになっている場合が多いのに対して、状態F、Gでは、表示パネル62の向きがほぼ横向きになっている。
The
このため、このような携帯端末2の向きと、速度は、これを頭部近接体4に実装して頭部近接型映像表示システム1として利用する場合に起こりえる、特有の動きであるといえる。制御アプリケーション20は、動きセンサ59により、映像視認時において頭部近接体4を頭部の手前まで移動させる動作と、頭部の手前において突出片101の開閉動作に伴う減速とを検出した場合には、ユーザが表示パネル62を介した映像表示の開始を望んで、頭部近接体4を近接したものと判別し、実際にこの表示パネル62による映像表示を開始させる。これにより、SR映像体験のスタートを、ユーザの行動とスムーズに連動させることが可能となる。
For this reason, it can be said that the direction and speed of the
このように、本発明では、携帯端末2を頭部近接体4に収容した状態で使用する。このため、頭部近接体4に覆われた携帯端末2を操作することはユーザにとって非常に煩雑なものとなるが、本発明では、自然な近接動作のみで、映像の開始を自動的に行うことができるため、非常に操作性にも優れたものとなる。
Thus, in this invention, it uses in the state which accommodated the
また、本発明によればワイヤレスで動作する携帯端末2を介して動作可能なものであるため、システム全体の完全なワイヤレス化を実現させることが可能となる。
Further, according to the present invention, since it can operate via the
一方、動きセンサ59により上述した携帯端末2の動きが検出されなかった場合には、制御アプリケーション20は、表示パネル62を介した映像表示の開始を特段行うことはしない。実際に図11に示すような携帯端末2の動きは、本発明を利用するとき以外では、殆ど起こりえないものであるから、通常の携帯端末2の使用時には、上述した動きが動きセンサ59により殆ど検出されることはない。このため、通常の携帯端末2の使用時において、意図していないにもかかわらず誤って制御アプリケーション20が表示パネル62を介して映像の表示を開始することを防止することができる。
On the other hand, when the movement of the
ちなみに、ユーザが映像視認を終了させる場合には、
図10(b)、図10(a)、図9(b)、図9(a)の順に終了動作を行うのが通常である。図11でいうところの、G〜F、F〜Eの動作が順次行われることとなる。かかる場合において、G〜Fの動作速度と、F〜Eの動作速度では、後者の方が速い。このため、このような速度変化を動きセンサ59を介して検出することにより、ユーザが表示パネル62を介した映像表示の停止を望んで、頭部近接体4から離間したものと判別し、実際にこの表示パネル62による映像表示を終了させる。これにより、SR映像体験の終了を、ユーザの行動とスムーズに連動させることが可能となる。
また、停止動作は、上述の方法に限定されるものではなく、ユーザ自らが携帯端末2を頭部近接体4から取り出して、通常の操作部65による操作を通じて映像の視認の停止を指示するようにしてもよい。
また、本実施形態において、頭部近接体4をユーザの頭から外してから、映像の再生が停止されるまでには、一定の時間を要する。このため、ユーザが映画やビデオなどの映像コンテンツを代替映像として視聴している場合には、携帯端末2は、頭部近接体4をユーザの頭から外し始めた時点(図11の段階G)から再生が停止された時点(図11の段階E)までの経過時間を計測しておく。そして、頭部近接体4をユーザの頭に装着して表示を再開する際には、携帯端末2は、計測された経過時間、もしくは、これにある程度の猶予時間を加算した時間だけ、映像コンテンツを巻き戻してから、映像コンテンツの再生を再開することが望ましい。これにより、ユーザは、映像コンテンツを途切れなく視聴することが可能となる。By the way, when the user ends video viewing,
Normally, the end operation is performed in the order of FIG. 10 (b), FIG. 10 (a), FIG. 9 (b), and FIG. 9 (a). The operations G to F and F to E as referred to in FIG. 11 are sequentially performed. In such a case, the latter is faster in the operation speeds G to F and the operation speeds FE. For this reason, by detecting such a speed change via the
Further, the stopping operation is not limited to the above-described method, and the user himself takes out the
Further, in the present embodiment, it takes a certain time until the reproduction of the video is stopped after the
なお、本発明は、上述した頭部近接型映像表示システム1として具現化される場合に限定されるものではなく、ブレインマシンインターフェイス技術を用いて脳に直接情報を与えることでもよく、またこれを実現するためのアプリケーションプログラムとして具現化されるものであってもよい。
In addition, this invention is not limited to the case where it implement | achieves as the head proximity | contact proximity type | formula
次に、本発明を適用した頭部近接型映像表示システム1について、携帯端末2による表示パネル62の表示動作について説明する。
Next, the display operation of the
携帯端末2は、ライブ映像の表示と、代替映像の表示の何れかを表示パネル62上に表示させるか、或いはライブ映像と代替映像とを互いに組み合わせて表示パネル62上に表示させる。
The
ライブ映像表示では、撮像部44により撮像を行う。撮像部44により撮像されるライブ映像は、頭部近接体4に収容された携帯端末2の方向や位置に応じたものとなる。実際には、この頭部近接体4は、ユーザに近接されるため、ユーザの頭の向きや位置に応じたライブ映像がこの撮像部44を介して撮像される。撮像部44を介して撮像された被写体像は、撮像素子、レンズを介して撮像面上に結像され、光電変換により映像信号が生成される。
In live video display, the
携帯端末2は、このような映像信号を、ライブ映像取得ステップS23で受信し、再生制御ステップS28により、ライブ映像として再生されるための処理が施される。撮像されたライブ映像は、携帯端末2を介して表示パネル62へ送信される。
The
表示パネル62へ送られたライブ映像は、その映像信号に基づいて画像を生成するための要素となる各RGB信号に基づく光として出射され2次元的に走査される。これによりユーザの眼の網膜には撮像部44により撮像されたライブ映像が投影される。
The live video sent to the
上述したように、この撮像部44による撮影範囲は、ユーザの頭部の動きに応じたものなっている。このため、ユーザは、自らの頭部の動きに応じたライブ映像を表示パネル62を介して視認することが可能となるため、あたかも表示パネル62を介してユーザと略同一の視点で現実空間を視認しているのと同様の感覚を覚えさせることが可能となる。
As described above, the imaging range by the
このようなライブ映像表示を連続して実行していく過程で、携帯端末2は、代替映像の表示機会を常に、或いは間隔をおいて検出する。この代替映像の表示機会の検出の意味するところは、ユーザが代替映像の表示に関して何らかの意思を示した場合、或いは、ユーザの意思に関わらずに代替映像を表示する何らかの機会を捉えた場合を示すものである。
In the process of continuously executing such live video display, the
このユーザの意思に基づく代替映像の表示機会の検出は、例えば動きセンサ59により検出されたユーザの頭部の動きに基づくものであってもよい。また、上述した頭部近接体4の近接動作を動きセンサ59により検出し、これに応じて代替映像を表示するようにしてもよい。かかる場合には、当初からライブ映像を表示するのではなく、代替映像を表示することとなる。更には、代替映像の表示機会の検出は、操作部65を介してユーザからの何らかの意思表示が行われた場合であってもよいし、マイク60を介した音声入力を介して検出されるものであってもよく、さらには脳波、振動、運動、位置情報等、ユーザから取得したあらゆる情報に基づくものであってもよい。或いはユーザを含めて周囲の環境、例えば、何らかの匂いや熱、触感に基づいて代替映像の表示機会を検出してもよい。
The detection of the substitute video display opportunity based on the user's intention may be based on the movement of the user's head detected by the
なお、上述した操作部65を介した入力や、マイク60を介した音声入力があった場合には、その入力タイミングと同時に代替映像を表示する場合に加え、表示タイミングと入力タイミングとの間で時間的なタイムラグを意図的に発生させるようにしてもよい。これにより、ユーザに対して代替映像の表示を自分の感覚に基づいて行っているものと認識させることができ、当該代替映像の再生表示をより違和感無く実現できる。
When there is an input through the
またユーザの意思に基づかない代替映像の表示機会の検出としては、例えば間隔をおいて代替映像の表示に強制移行するものであってもよいし、或いは通信網5から受信した情報に基づいて代替映像の表示機会を検出するようにしてもよい。また、携帯端末2内に組み込まれた所定のプログラムやアルゴリズムに基づいて発生させたイベントを、代替映像の表示機会と捉えるようにしてもよい。
The detection of the substitute video display opportunity not based on the user's intention may be, for example, a forced transition to the display of the substitute video at intervals, or the substitute video based on the information received from the communication network 5 You may make it detect the display opportunity of an image | video. In addition, an event generated based on a predetermined program or algorithm incorporated in the
代替映像を表示するモードに移行した場合には、代替映像を表示パネル62上に表示させる。代替映像の表示方法の具体的な例は、後述する。
When the mode is switched to the mode for displaying the substitute video, the substitute video is displayed on the
このような代替映像の表示を終了後、再び通常のライブ映像のみの表示に戻るようにしてもよい。このライブ映像に戻る場合には、上述した代替映像の表示機会として検出する各種イベントを検出したことを期に行うようにしてもよい。 After the display of the substitute video, the normal live video may be displayed again. When returning to the live video, the above-described various events to be detected as an opportunity to display the alternative video may be detected.
なお本発明では、代替映像取得ステップS21において、1以上の代替映像を取得することを前提とする。ちなみに、この代替映像取得ステップS21では、2以上の代替映像を取得する場合には、予め2層以上に亘る、いわゆるマルチレイヤに亘る代替映像を取得し、これを記録部69へと記録しておく。そして、再生制御ステップS28による制御の下で、このマルチレイヤの代替映像の中から、1以上の代替映像を選択し、これをライブ映像と並列させて、或いは重ね合わせて再生する。
In the present invention, it is assumed that one or more alternative videos are acquired in the alternative video acquisition step S21. Incidentally, in this alternative video acquisition step S21, when two or more alternative videos are acquired, a so-called multi-layer alternative video is acquired in advance and recorded in the
また、本発明によればライブ映像と代替映像とを組み合わせて表示するようにしてもよい。かかる場合において、ライブ映像と代替映像とを互いに重ね合わせて表示する場合には、少なくとも一方の映像に対して背景を除去したり、人物を抽出したりする等の加工を施すようにしてもよい。これにより、現実に存在するものと認識されていた人物や自分自身の身体等の対象物を過去映像に対しても表示することができ、代替映像の現実感をより向上させることが可能となる。 Further, according to the present invention, a live video and a substitute video may be displayed in combination. In such a case, when the live video and the substitute video are displayed so as to overlap each other, processing such as removing the background or extracting a person from at least one of the videos may be performed. . As a result, it is possible to display a target object such as a person who has been recognized to exist in reality or a person's own body on a past image, and it is possible to further improve the reality of an alternative image. .
また、例えば、代替映像とライブ映像の画質が、同一又は近似するものとして設定してもよい。これにより、ユーザは、ライブ映像と代替映像を重ね合わせて再生しても、違和感を覚えなくなる。これらの効果は、代替映像とライブ映像を重ね合わせる場合のみならず、これらを互いに切り換えて表示する場合や、互いに並列させて表示する場合も同様の効果を得ることが可能となる。 For example, the image quality of the substitute video and the live video may be set to be the same or similar. Thereby, even if a user superimposes and reproduces | regenerates a live image | video and an alternative image | video, it does not feel discomfort. These effects can be obtained not only when the substitute video and the live video are superimposed, but also when the video is switched to each other or displayed in parallel with each other.
また、代替映像とライブ映像との重ね合わせの映像を生成する上で、その代替映像の不透明度と、ライブ映像の不透明度は、再生制御ステップS28においてそれぞれ調整する。例えば、ライブ映像の透明度のみを制御するようにしてもよいし、ライブ映像のみならず代替映像の不透明度も制御するようにしてもよい。これにより、ライブ映像による映像表示を薄く残しつつ、代替映像を表示させることも可能となる。このときライブ映像に対して代替映像がフェードイン又はフェードアウトするような構成を採用するようにしてもよい。これにより、ライブ画像には存在しない人物、建物、情報等が出現又は消滅しても、ユーザは違和感を覚えることが無くなる。 Further, when generating a video in which the alternative video and the live video are superimposed, the opacity of the alternative video and the opacity of the live video are adjusted in the reproduction control step S28, respectively. For example, only the transparency of the live video may be controlled, or the opacity of the substitute video as well as the live video may be controlled. As a result, it is possible to display the substitute video while keeping the video display of the live video thin. At this time, a configuration may be adopted in which the substitute video fades in or out with respect to the live video. As a result, even if a person, building, information, or the like that does not exist in the live image appears or disappears, the user does not feel uncomfortable.
なお、代替映像とライブ映像の不透明度は、表示パネル62の画素毎に設定することが可能である。代替映像とライブ映像を常時重ね合わせる場合においても、実際に重ね合わせが起きているのは、空間全体の一部だけに留めることも可能となる。また、画素単位で代替映像とライブ映像の不透明度を自由に設定することにより、代替映像とライブ映像が互いに混合する環境空間の範囲や、その形状を自由に変化させることが可能である。更にその画素毎の不透明度の変化を時系列的に変化させ、動きセンサ59等により検出したユーザのアクションに基づいて動的に変化させるようにしてもよい。
Note that the opacity of the substitute video and the live video can be set for each pixel of the
また、本発明では、代替映像を表示する際において、匂い、熱、振動、触覚、音声の少なくとも1つをユーザに対して及ぼすための手段を別途設けるようにしてもよい。例えば、代替映像として、天災に関する緊急速報を流す場合において、ユーザに注意喚起するために振動や音声でそれを通知するようにしてもよい。 In the present invention, when displaying the substitute video, a means for exerting at least one of odor, heat, vibration, touch, and sound on the user may be separately provided. For example, in the case where an emergency bulletin about natural disaster is played as an alternative video, it may be notified by vibration or voice to alert the user.
更に、本発明では、一の代替映像をライブ映像と重ね合わせて、或いは並行して再生する場合に限定されるものではない。映像蓄積部22には2以上の代替映像が蓄積されていることから、2以上の代替映像をライブ映像と重ね合わせて、或いは並行して再生するようにしてもよい。 Further, the present invention is not limited to the case where one alternative video is reproduced with being overlapped with the live video or in parallel. Since two or more alternative videos are stored in the video storage unit 22, the two or more alternative videos may be superimposed on the live video or reproduced in parallel.
このように、本発明では、代替映像を2つ以上に予めマルチレイヤ化しておき、このうち所望の1以上の代替映像を選んでライブ映像と組み合わせて表示させることが可能となる。また、本発明によれば、この表示すべき代替映像のうち、所望のものを順次切り換えることもできる。 As described above, in the present invention, it is possible to multi-layer two or more alternative videos in advance, and select one or more desired alternative videos and display them in combination with the live video. Further, according to the present invention, it is possible to sequentially switch a desired one of the alternative videos to be displayed.
所望の代替映像の選択や切替は、或いは代替映像とライブ映像の切り替えをユーザの頭部の動き、ひいてはその頭部に近接させた頭部近接体4の動きに基づいて実行するようにしてもよい。かかる場合には、動きセンサ59により検出した頭部の動きに基づいて、切替を行うようにしてもよい。またこれに限定されるものではなく、操作部65を介してユーザからの何らかの意思表示が行われた場合であってもよいし、マイク60を介した音声入力を介して検出されるものであってもよく、さらには脳波、振動、位置情報等、ユーザから取得したあらゆる情報に基づくものであってもよい。或いはユーザを含めて周囲の環境、例えば、何らかの匂いや熱、触感に基づいて代替映像の表示機会を検出してもよい。
Selection or switching of a desired substitute image, or switching between the substitute image and the live image may be executed based on the movement of the user's head, and consequently the movement of the
また、上述した実施の形態においては、1以上の代替映像を代替映像取得ステップS21において事前に取得してこれを記録部69に記録し、必要に応じてこの記録部69から代替映像を読み出す場合を例にとり説明をしたが、これに限定されるものでない。例えば、ライブ映像の表示時において、代替映像が新たに必要となった場合、その新たに必要となる代替映像を、その都度通信網5から取得するようにしてもよい。
In the above-described embodiment, one or more alternative videos are acquired in advance in the alternative video acquisition step S21 and recorded in the
本発明によれば、代替現実技術(現在と過去の映像を切り目無く、現実の延長として体験する技術)を利用することにより、いわば視覚情報空間を拡張することができる。このような視覚情報空間の拡張により、ユーザが主体的に情報空間を操作し、代替映像を表示させて必要な情報にアクセスすることが可能となる。 According to the present invention, it is possible to expand the visual information space by using an alternative reality technology (a technology for experiencing current and past images seamlessly as an extension of reality). Such an expansion of the visual information space allows the user to independently operate the information space and display a substitute video to access necessary information.
更に本発明によれば、音声データ取得ステップS35において取得した音声データを一緒に再生するようにしてもよい。かかる場合には、携帯端末2は、再生すべき代替映像に連動させてこの音声データを再生するようにしてもよい。例えば、再生すべき映像が地図情報であるのであれば、これに連動したアナウンスを音声データとして連動させて再生するようにしてもよい。また再生すべき映像がゲームに関するコンテンツ映像であれば、当該コンテンツに連動させた効果音や音楽を音声データとして連動させて再生するようにしてもよい。
Furthermore, according to the present invention, the audio data acquired in the audio data acquisition step S35 may be reproduced together. In such a case, the
また、本発明によれば、携帯端末2とは異なる他の電子機器、又は他の携帯端末との間でワイアレスで連動させて動作させるようにしてもよい。これにより、複数のユーザ間でSR映像体験を同期させることもできる。実際には、この制御アプリケーション20は、外部からも制御可能であるため、他の電子機器又は他の携帯端末から同期のための制御を行わせることで、SR映像体験の共有化を実現できる。
Further, according to the present invention, the electronic device may be operated in a wirelessly interlocked manner with another electronic device different from the
また映像視認時における携帯端末2の操作は、操作部65を介して行う場合に限定されるものではない。ユーザが突出片101をタップすることを動きセンサ59により検出することで、操作部65の操作に代替させるようにしてもよい。かかる場合には、突出片101のタップの回数を動きセンサ59が検出することで、映像の再生や停止を行ったり、早送り等を自在に行わせることが可能となる。
Further, the operation of the
以下の実施例において、代替映像の例について説明をする。但し、この代替映像は以下の実施例に限定されるものではなく、他のいかなるコンテンツ、データを代替映像化するようにしてもよい。 In the following embodiments, examples of alternative videos will be described. However, this alternative video is not limited to the following embodiments, and any other content and data may be converted into the alternative video.
(代替映像)
以下、代替映像の例について説明をする。但し、この代替映像は以下の実施例に限定されるものではなく、他のいかなるコンテンツ、データを代替映像化するようにしてもよい。(Alternative video)
Hereinafter, an example of an alternative video will be described. However, this alternative video is not limited to the following embodiments, and any other content and data may be converted into the alternative video.
代替映像の例としては、先ず通信網5から取得したあらゆる情報を用いることができる。上述の例では、携帯端末2は、ユーザの位置情報を取得して、その位置情報に対応する、建物や道路等の地理的な表示(地図情報)を通信網5から取得する。そして、ライブ映像に表示されている事象に合わせてその地図情報を表示する。
As an example of the substitute video, first, any information acquired from the communication network 5 can be used. In the above-described example, the
(過去映像)
この代替映像としては、過去に撮像した過去映像を適用するようにしてもよい。この過去映像の撮影は、録画モジュール3を用いて行う。具体的には、この録画モジュール3におけるパノラマビデオカメラ31により、全方位に向けて時系列的に撮像を行う。図12(a)の平面図は、位置Pに配置されたパノラマビデオカメラ31により、全方位に向けて映像を撮影している状態を示している。パノラマビデオカメラ31における撮像装置321により、水平方向に向けて360°に亘り洩れなく撮像を行う。この撮像は、垂直方向に向けても同時に撮像されるが、以下の例では、この水平方向への撮像を例にとり説明をする。(Past video)
As this alternative image, a past image captured in the past may be applied. The past video is shot using the
このようにして、過去映像の撮像が行われると、複数の撮像装置321により各方向に対して時系列的に順次画像が撮像される。そして撮像された画像は、携帯端末2へと送られることとなる。このため、過去映像の撮像が終了した段階で、携帯端末2における映像蓄積部22には、位置Pを中心にして水平方向全方位に亘って撮像された動画像が蓄積されている状態となる。このとき、図示しないマイクにより音声を同時に収録しておいてもよい。
In this manner, when past images are captured, images are sequentially captured in time series in each direction by the plurality of
次にこの過去映像を代替映像として撮像する場合には、
図12(b)に示すように、かつて過去映像の撮影を行った、同じ位置Pに頭部近接体4を近接させたユーザが存在するものとする。過去映像を表示パネル62上に表示させる際には、携帯端末2は、記録部69において蓄積されている過去映像を読み出し、上述の同様のプロセスで表示パネル62上にこれを表示する。Next, when taking this past video as an alternative video,
As shown in FIG. 12 (b), it is assumed that there is a user who has taken a past video and has brought the
このとき、動きセンサ59により検出した頭部の動きにより検出した視線方向を、表示パネル62上の表示に反映させるようにしてもよい。携帯端末2には動きセンサ59を介して検出された、ユーザの頭部の向きや視線方向に関する情報を送られてくる。動きセンサ59による頭部方向に関する情報は、頭部方向特定ステップS24により、実際のユーザの頭部方向が特定される。
At this time, the line-of-sight direction detected by the movement of the head detected by the
次に頭部方向特定ステップS24を介して、実際にユーザが捉らえようとする視覚を特定する。仮にユーザが正面を向いている場合を特定した場合には、
図12(b)の実線で示す範囲の視覚に反映される映像を切り出せばよい。しかしながら、頭部方向特定ステップS24により、ユーザが点線で示される領域を視覚として捉えている場合には、映像切出し方向更新ステップS25により、切り出すべき映像の範囲を矢印方向へとシフトさせる。再生制御ステップS28は、このようにシフトさせた範囲の映像を記録部69に記録されている映像から切り出す。このとき、過去映像は時系列的に録画されているものであるから、この切り出すタイミングもかかる時系列に沿って切り出すことが望ましい。携帯端末2における表示パネル62に、このようにシフトした範囲で切り出した映像を表示することで、ユーザに対して、あたかも自らの頭部の向き等に応じた視覚で映像を視認している現実感覚を持たせることが可能となる。過去映像を撮像したパノラマビデオカメラ31の位置Pと、携帯端末2を近接させたユーザの頭部の位置Pが同一であることから、そのような感覚を植え付けることが可能となる。Next, the vision that the user actually wants to capture is specified through the head direction specifying step S24. If you specify that the user is facing the front,
It is only necessary to cut out an image reflected in the vision in the range indicated by the solid line in FIG. However, when the user recognizes the area indicated by the dotted line as a vision in the head direction specifying step S24, the range of the video to be extracted is shifted in the arrow direction by the video extraction direction updating step S25. The reproduction control step S28 cuts out the video in the range shifted in this way from the video recorded in the
このような過去映像としての代替映像のみを表示パネル62上に表示させるようにしてもよいし、ライブ映像と組み合わせて表示させるようにしてもよい。ユーザは、当初ライブ映像を視認しているが、気づかぬ間にこの過去映像に切り換えられる。しかし、ユーザは、当初からライブ映像を視認していることから、過去映像に切り換えられていても、自分自身はライブ映像を視認している意識のままでいる。つまり、当初にあえてライブ映像をユーザに視認させることで、過去映像への切り替えに気づかせ難くさせている。このとき、代替映像の表示に切り替わった後に、図示しないマイクにより録音した音声もヘッドホン43を介して流すことで、よりユーザに対し、ライブ映像をあたかも視認している感覚を与えることができる。
Only such a substitute video as a past video may be displayed on the
なお、過去映像を代替映像として表示する際には、上述した実施の形態に限定されるものではない。例えば、過去映像を撮像したパノラマビデオカメラ31の位置Pと、頭部近接体4を近接させたユーザの頭部の位置Pが同一である場合に限定されず、互いに異なる位置であってもよい。また、頭部方向や視線方向の双方を識別して過去映像の切り出しを行う場合に限定されず、頭部方向、視線方向の何れか一方を識別して過去映像の切り出しを行うようにしてもよい。
In addition, when displaying a past image as a substitute image, the present invention is not limited to the above-described embodiment. For example, it is not limited to the case where the position P of the
なお、この過去映像を代替映像として表示する際には、以下に説明するような各種工夫を盛り込むようにしてもよい。 In addition, when displaying this past image as a substitute image, various ideas as described below may be incorporated.
例えば、過去映像とライブ映像の画質が、同一又は近似するものとして設定してもよい。かかる場合には、携帯端末2は、ライブ映像、過去映像のそれぞれを撮像した撮像素子の特性データから求められた調整値を介して画質調整を行う。或いはこの携帯端末2は、予め画質標準を定めておき、これにライブ映像、過去映像の画質が近似するように自動的に画質調整を行うようにしてもよい。これにより、ユーザは、ライブ映像から過去映像への切り替わりにつき違和感を覚えなくなり、過去映像をあたかもライブ映像を視認しているような感覚を味合わせることが可能となる。これらの効果は、過去映像とライブ映像を切り換えて表示する場合のみならず、互いに並列させて表示する場合、或いは互いに重ね合わせて表示する場合も同様の効果を得ることが可能となる。
For example, the image quality of the past video and the live video may be set to be the same or similar. In such a case, the
特に代替映像を過去映像とする場合において、過去映像に表示される対象物とライブ映像に表示される対象物を混在させるようにしてもよい。これにより、過去映像と現在映像との区別をより難しくすることが可能となる。 In particular, when the substitute video is a past video, the target displayed on the past video and the target displayed on the live video may be mixed. Thereby, it becomes possible to make it more difficult to distinguish the past video from the current video.
(ゲーム等のコンテンツ映像)
代替映像としては、例えばゲームに関するコンテンツ映像を当てはめるようにしてもよい。近年は、ヘッドマウントディスプレイを利用したゲームが制作されているが、これらを代替映像に当てはめ、プレイヤーとしてのユーザからのアクション(動きセンサ59、操作部65等による入力に基づく)をそのゲームに反映させる。代替映像は、複数に亘りレイヤ化されていることから、ゲームコンテンツに関する映像も複数に亘りレイヤ化しておき、場面に応じてこれらを順次読み出して表示する。このときレイヤ化されているゲームコンテンツ映像を互いに重ね合わせ、或いはこれらを互いにフェードアウト、フェードインさせることでユーザに対して、違和感の無い代替画像間の移り変わりを表現することが可能となる。(Game content video)
As an alternative video, for example, a content video related to a game may be applied. In recent years, games using a head-mounted display have been produced, but these are applied to alternative images, and actions from the user as a player (based on input from the
(映画等の映像コンテンツ)
代替映像として、例えば映画等を始めとした映像コンテンツを再生するようにしてもよい。係る場合には、第1の代替映像として通常の映画コンテンツを再生し、第2の代替映像として、その映画コンテンツに関する付随情報を再生するようにしてもよい。この付随情報としては、例えば映画コンテンツに関する視聴者からのコメントを通信網から取得して流すようにしてもよいし、キャストや今までのあらすじ、人物関係等を表示するようにしてもよい。また、第3の代替映像には、映画と関係の無いニュースや天気予報等を再生するようにしてもよい。(Video content such as movies)
For example, video content such as a movie may be reproduced as an alternative video. In such a case, normal movie content may be played back as the first substitute video, and accompanying information regarding the movie content may be played back as the second substitute video. As this accompanying information, for example, a comment from a viewer regarding movie content may be acquired from a communication network and flowed, or a cast, a synopsis up to now, personal relationships, etc. may be displayed. Moreover, you may make it reproduce | regenerate the news, weather forecast, etc. which are unrelated to a movie to a 3rd alternative image | video.
(投資情報等のリアルタイムコンテンツ)
代替映像として、投資情報(株、為替、債権、先物取引)をリアルタイムに再生するようにしてもよい。かかる場合には、第1の代替映像において、ある銘柄の5分足のチャートを、また第2の代替映像では、その銘柄の日足のチャートを表示するようにしてもよい。また第1の代替映像には、日足、月足のチャートを並べて表示し、第2の代替映像には、為替のチャートを載せてもよいし、或いはリアルタイムに取得したニュース、さらには気配値を表示するようにしてもよい。何れの場合においても、通信網5からリアルタイムに投資情報を取得して、これを複数レイヤに亘る代替情報とする。ユーザは、この複数レイヤからなる代替情報のうち、自らが確認したい投資情報を指定することで、これらが読み出されて表示パネル62上に表示されることとなる。(Real-time content such as investment information)
As an alternative video, investment information (stock, exchange rate, bond, futures transaction) may be reproduced in real time. In such a case, a chart of a 5-minute bar for a certain brand may be displayed in the first alternative video, and a daily chart of the brand may be displayed in the second alternative video. In addition, a chart of daily and monthly bars may be displayed side by side on the first alternative video, and a chart of exchange rates may be placed on the second alternative video, or news acquired in real time, and a quotation May be displayed. In any case, investment information is acquired from the communication network 5 in real time, and this is used as alternative information over a plurality of layers. The user designates investment information that the user wants to check among the alternative information composed of a plurality of layers, and these are read out and displayed on the
(アプリケーションによる表示)
携帯情報端末(携帯電話、スマートフォン)や、タブレット型端末、PC等に適用される各種アプリケーションを代替映像として再生するようにしてもよい。かかる場合には、これらのアプリケーションを通信網5から取得して記録部69に蓄積しておく。必要に応じてアプリケーションが記録部69から読み出され、代替映像として再生されることとなる。(Display by application)
Various applications applied to portable information terminals (mobile phones, smartphones), tablet terminals, PCs, and the like may be reproduced as alternative videos. In such a case, these applications are acquired from the communication network 5 and stored in the
(他の場所で撮影された映像)
ユーザが実際にライブ映像や代替映像を視聴している地点と異なる地点で撮像された映像、代替映像としてこれを再生するようにしてもよい。かかる場合には、異なる場所に設置した録画モジュール3により、事前に又はリアルタイムに映像を撮像し、これを携帯端末2へと送信する。代替映像取得ステップS21では、この送信されてくる映像を代替映像として取得し、事前に撮像した映像であれば、これを記録部69に一度蓄積する。ライブ映像の背景を取り除き、上記代替映像と重ねて表示する事で、離れた場所に自分自身がいるかのような感覚を作り出す事が可能である。(Images taken elsewhere)
You may make it reproduce | regenerate this as a video image | photographed at the point different from the point where the user is actually viewing live video or a substitute image, and a substitute image. In such a case, a video is captured in advance or in real time by the
(付随情報)
ライブ映像として劇場で観劇をする場合、或いは競技場等でスポーツ観戦をする場合に、これに関する付随情報を代替映像として再生するようにしてもよい。例えば携帯端末2の位置情報等を取得した上で、その位置が競技場であればその時間帯において行われる競技の情報を、またその位置が劇場であればその時間帯において公演予定の劇に関する情報を通信網5から取得する。そして、この通信網5から取得した情報を代替映像として再生する。もしくは、複数のパノラマカメラからとった映像を複数の代替映像としてもよく、それらを使用者の意図に応じて切り替える事もできる。(Accompanying information)
When a theater is played as a live video or when a sporting event is performed at a stadium or the like, accompanying information regarding this may be reproduced as a substitute video. For example, after acquiring the location information of the
(電子メール)
電子メールの画面を代替映像として表示するようにしてもよい。携帯端末2は、通信網5を介して受信したメール又はこれに関する情報を代替映像として、これを再生する。(e-mail)
An e-mail screen may be displayed as an alternative video. The
(テレビジョン放送)
代替映像としては、テレビジョン放送を適用するようにしてもよい。これにより、ユーザは、ライブ映像と組み合わせて代替映像からテレビジョン放送を視聴することも可能となる。(Television broadcasting)
As an alternative video, a television broadcast may be applied. Thereby, the user can view the television broadcast from the alternative video in combination with the live video.
上記の実施例では、本発明を代替映像を提供するために応用していたが、本発明は、ヘッドマウントディスプレイ等の代替となるものを安価かつ簡易に提供する表示システムにかかるものであり、その最小構成は、画面を有する携帯端末2を、頭部近接体4であるアタッチメントに収容することで実現される。
In the above embodiment, the present invention has been applied to provide an alternative video, but the present invention relates to a display system that provides an alternative such as a head-mounted display inexpensively and easily, The minimum configuration is realized by housing the
たとえば、携帯端末2において、ビデオ映像を再生し、これをユーザが視聴する場合を想定する。ビデオ映像の視聴にあたっては、再生、一時停止、早送り、巻き戻しなどの操作を行いたい状況がある。
For example, assume that the
携帯端末2がタッチスクリーンを有するスマートフォンにより構成され、アタッチメントに収容されていない状況では、タッチスクリーンに表示されたアイコンやボタン等をタッチすることでこのような操作が可能となる。
In a situation where the
一方、携帯端末2がアタッチメントに収容されている状況では、タッチスクリーンもアタッチメントの内部に配置されてしまう。そこで、本実施例では、タッチスクリーンにユーザがタッチできるように、端末収容ユニット42の底面に指1本が通る程度の小さな開口を設ける。開口を小さくするのは、アタッチメント内部に外光が侵入することをできるだけ防止するためである。
On the other hand, in a situation where the
ユーザは、アタッチメントの開口を介して、タッチスクリーンに触れることができる。開口が小さいため、その全面に触れることはできない。たとえば、右利きのユーザ用に、ユーザから見て右側底面に開口を設けた場合には、ユーザは、タッチスクリーンの右側にはタッチ可能であるが、左側には指が届かないため、タッチできない。すなわち、タッチ可能領域は、タッチスクリーンの一部に限定される。 The user can touch the touch screen through the opening of the attachment. Since the opening is small, the entire surface cannot be touched. For example, if a right-handed user has an opening on the right bottom surface for a right-handed user, the user can touch the right side of the touch screen but cannot touch the left side because his / her finger does not reach. . That is, the touchable area is limited to a part of the touch screen.
そこで、本実施例では、携帯端末2を収容したアタッチメントの傾きを、携帯端末2の動きセンサ59により検知する。そして、この傾きに応じて、タッチスクリーン内に表示される操作対象の位置を変化させる。
Therefore, in this embodiment, the inclination of the attachment housing the
たとえば、操作対象が一列に並べられている場合には、検知された傾きの方向に、その列を巡回的に進行させる。そして、進行の経路が、タッチ可能領域を通過するようにする。 For example, when the operation objects are arranged in a line, the line is cyclically advanced in the direction of the detected inclination. Then, the path of travel passes through the touchable area.
すると、所望の操作対象がタッチ可能領域外に表示されていたとしても、携帯端末2を収容したアタッチメントを傾けることで、その操作対象をタッチ可能領域内に移動させることができる。タッチ可能領域内に所望の操作対象が移動した後は、ユーザの指を、アタッチメント底部の開口を介してタッチスクリーンに表示された所望の操作対象にタッチすることで、当該操作対象に対応付けられる処理が実行される。
Then, even if a desired operation target is displayed outside the touchable region, the operation target can be moved into the touchable region by tilting the attachment that houses the
複数の操作対象をどのように並べるか、検知された傾きに応じてどのように移動させるか、は任意である。 It is arbitrary how a plurality of operation objects are arranged and how they are moved according to the detected inclination.
たとえば、複数行複数列に操作対象が並んでいる場合には、一回傾けて戻すごとに、その傾きの方向に、行と列が1つずつ巡回、すなわち、斜めに巡回スクロールするようにしても良い。 For example, if the operation target is arranged in multiple rows and multiple columns, each tilt and return, the row and the column are rotated one by one in the direction of the tilt, that is, the diagonal scroll is performed obliquely. Also good.
このほか、容器の中に粘性のある液体を入れ、その中に物体を投入して、容器を傾ける物理シミュレーションを利用しても良い。すなわち、検知された傾きを容器の傾きに適用し、操作対象を物体に対応付ける。ユーザは、携帯端末2を収容したアタッチメントの傾きを調整することで、開口を介してアタッチメント内部に挿入した指に所望の操作対象を近付けた後、当該操作対象にタッチすることができる。
In addition, a physical simulation in which a viscous liquid is put into a container, an object is put into the container, and the container is tilted may be used. That is, the detected inclination is applied to the inclination of the container, and the operation target is associated with the object. The user can touch the operation target after adjusting the inclination of the attachment housing the
上記実施例では、アタッチメントの突出片101の開閉やタップ、アタッチメントの開口を介した携帯端末2のタッチスクリーンへのタッチ等により、携帯端末2により表示される映像を制御していた。ここで、アタッチメントは箱のような形状をしている。このため、その表面を叩いたり、摩擦したり、少しだけ凹ませて戻したり、あるいは突出片101を開閉したりタップしたり、など、アタッチメントへの接触をともなうアクションをユーザが行うと、そのアクションに起因する音声が発生し、その箱形状によって共鳴する。共鳴した音声は、携帯端末2のマイク60から集音することができる。
In the above-described embodiment, the image displayed on the
また、上記のようなアクションを行った場合には、アタッチメントに収容された携帯端末2の位置や向きも変化する。この動きは、動きセンサ59により検知することが可能である。
Moreover, when the above actions are performed, the position and orientation of the
そこで、本実施形態では、ユーザによる上記のようなアクションによって生じる音声ならびに動きの一方もしくは双方によって、アタッチメントに収容された携帯端末2により表示される映像の制御を行う。
Therefore, in the present embodiment, the video displayed by the
上記のように、アタッチメントへの接触をともなうアクションに起因してアタッチメントが発生させる音声は、アタッチメントにより共鳴されてから、マイク60により集音させる。したがって、集音された音声に対して、アタッチメントにより共鳴される周波数帯のみを通過させるバンドパスフィルタを適用する等の手法により、外界の音声との分離を簡易に行うことができる。
As described above, the sound generated by the attachment due to the action accompanied by the contact with the attachment is collected by the
このほか、同一のアタッチメントに対して複数のユーザに同じ操作(たとえば同じ箇所に対するタップ操作)をさせ、そのときに検知された音声や動きを記録して、音声や動きのテンプレートをあらかじめ抽出しておく手法もある。 In addition, let multiple users perform the same operation (for example, tap operation on the same part) for the same attachment, record the voice and movement detected at that time, extract the voice and movement template in advance There is also a technique to leave.
たとえば、アタッチメントの右側を1回タップすると、マイク60を介してタップ音が検出されるとともに、携帯端末2が1回だけ微小に左に移動してから右に戻る動きが検出される。アタッチメントの右側を摩擦すると、マイク60を介して摩擦音が検出されるとともに、携帯端末2が振動する動きが検出されるが、左側の振動は右側の振動に比べて小さい。このような音声や動きの特徴を実験により収集することで、各アクションに対するテンプレートを用意することが可能である。
For example, when the right side of the attachment is tapped once, a tap sound is detected via the
そして、携帯端末2は、運用時に検出された音声や動きを、あらかじめ用意されたテンプレートと対比して、その類似度が所定の比較基準において十分に高いテンプレートを選び出し、当該テンプレートに対応付けられたアクションをユーザが実行した、と判断する。
Then, the
たとえば、映像再生中は、右側1回タップで再生と停止の切り換え、右側2回タップで早送り、左側2回タップで巻き戻し、右側を摩擦するとメニュー表示、などようにアクションと処理を対応付けることができる。メニューが表示された後は、右側の摩擦もしくは左側の摩擦でメニュー内のアイテムを指すカーソルを移動させ、右側1回タップでカーソルに指されたアイテムを選択、などのようにアクションと処理を対応付けることができる。ここで、アクションの種類や回数と処理の対応付けは、任意に変更が可能である。 For example, during video playback, you can associate actions with processes such as switching between playback and stop with one tap on the right, fast-forwarding with two taps on the right, rewinding with two taps on the left, and menu display when rubbing the right. it can. After the menu is displayed, move the cursor pointing to the item in the menu with the friction on the right side or the friction on the left side, and select the item pointed to by the cursor with a single tap on the right side, etc. be able to. Here, the association between the type and number of actions and the process can be arbitrarily changed.
本実施例によれば、突出片101の有無にかかわらず、ユーザによるアタッチメントへの接触を伴うアクションを識別することで、ユーザの没入感を損わずに携帯端末2を制御することができる。
According to the present embodiment, regardless of the presence or absence of the protruding piece 101, the
本実施例に係るアタッチメントは、携帯端末2の運搬や販売時に携帯端末2を包装する箱により構成される。
ここで、包装とは、物品の輸送、保管などにあたって価値及び状態を保護するために適切な材料、容器などを物品に施す技術および施した状態のことであり、個装、内装、外装に分類される。また、包装は、その目的に応じて、輸送を目的とした工業包装、輸送包装、配送包装など、販売を目的とした商業包装などに区別され、工業包装、輸送包装、配送包装などを梱包とも称する。本願における包装は、上記の全てを含む概念である。
図13(a)、(b)、(c)、(d)は、携帯端末の包装箱によりアタッチメントを構成する手順の説明図である。以下、本図を参照して説明する。本図では、携帯端末2およびこれを包装する箱の断面が図示されている。本図では、理解を容易にするため、各部の厚さや大きさ、隙間を誇張して図示している。The attachment according to the present embodiment is configured by a box that wraps the
Here, packaging is the technology and state of applying appropriate materials, containers, etc. to an article to protect the value and state of the article during transportation, storage, etc., and is classified into individual packaging, interior decoration, and exterior packaging. Is done. Depending on the purpose of packaging, packaging is classified into industrial packaging intended for transportation, transportation packaging, delivery packaging, and other commercial packaging intended for sale. Called. Packaging in the present application is a concept including all of the above.
FIGS. 13 (a), (b), (c), and (d) are explanatory diagrams of a procedure for configuring an attachment with a packaging box of a portable terminal. Hereinafter, a description will be given with reference to FIG. In this figure, the cross section of the
携帯端末2を包装する箱501は、蓋502、本体503、トレー504からなる。蓋502は本体503を覆い、トレー504は携帯端末2をその上に載せた状態で、本体503の内部に収納されている(本図(a))。蓋502および本体503は、段ボール等の紙、あるいは各種の樹脂等で構成することができるが、これに限定されるものではなく、セラミック材料や金属等いかなる材料で構成されていてもよく、その素材は任意に選択が可能である。また、これらに対しては、その用途や機能に応じて、模様、色彩、装飾等を施すことができる。
A
一般には、携帯端末2の出荷時には、トレー504の底面に、携帯端末2の画面とは反対側の面(背面)が接するように、携帯端末2がトレー504の上に載せられる。また、トレー504のうち、携帯端末2が収まる領域の一部には、爪と呼ばれる突起が生成されており、携帯端末2を嵌め込むことによって、携帯端末2を容易に固定することができる。本図では、爪がある箇所の断面が示されている。
In general, when the
トレー504は、透明なプラスチックなどの素材で構成されており、携帯端末2を載せる領域の中央部分に薄型のレンズとして、フレネルレンズ505が一体形成されている。ユーザは、本体503から携帯端末2とトレー502を取り出した後、ミシン目もしくは切取り線に沿ってトレー504を切断をすることで、フレネルレンズ505を得ることができる(本図(b))。また、蓋502にもミシン目もしくは切取り線が設けられており、これに沿って切断をすることで、ユーザが接眼するための開口506が得られる(本図(b))。
The
ユーザが蓋502の開口506に、フレネルレンズ505を取り付けると(本図(c))、近接ユニット41に相当する部材が完成する。フレネルレンズ505は、たとえば蓋502の開口506の縁に切れ目を入れ、これに挟むことにより固定したり、粘着テープなどを利用して接着することができる。
When the user attaches the
ユーザは、トレー504を裏返して携帯端末2を固定し、本体503に挿入する(本図(c))ことで、携帯端末2を本体503に固定する。これにより、携帯端末2が収容された端末収容ユニット42に相当する部材が完成する。
The user turns the
この後は、ユーザは、蓋502を本体503に被せる(本図(d))と携帯端末2を収容した頭部近接体4(アタッチメント)が完成する。ユーザは、蓋502を本体503に被せる位置を調整することで、携帯端末2の画面にピントを合わせることができる。
Thereafter, when the user puts the
なお、本体503には、あらかじめ用意されたミシン目もしくは切取り線に沿って切断を行うことで、携帯端末2のタッチスクリーンに指をタッチさせるための開口や、携帯端末2からヘッドホン用のコードを出すための開口を作成することができる。
The
また、フレネルレンズ505は、トレー504と一体成形する必要はなく、別途添付しても良いし、出荷当初から蓋502に取り付けておいても良い。また、上記説明では、トレー504を裏返して挿入することで、携帯端末2を固定しているが、トレー504を使わずに、本体503の底や壁面に切り掛きや突起を設け、これをストッパとして携帯端末2を固定することとしても良い。この態様では、携帯端末2の出荷時に利用される梱包箱(化粧箱)のみならず、各種の通信販売の輸送用の段ボール箱などから頭部近接体4(アタッチメント)を作成することができる。
Further, the
このほか、フレネルレンズ505がトレー504とは別に用意されており、トレー504の底面が透明な素材でできている場合には、携帯端末2をトレー504に対して裏返し、トレー504の底面に携帯端末2の画面が接するように載せて、携帯端末を固定した後、携帯端末2の画面がトレー504の底面を介して外側に見えるように、本体503内にトレー504を裏返して収める。
In addition, when the
そして、蓋502の開口506に設置されたフレネルレンズ505を介して携帯端末2の画面が見えるように、蓋502を本体503に被せれば良い。
Then, the
このほかにもトレー504からフレネルレンズ505を切り離さずに済ませる手法がある。図14(a)、(b)、(c)は、携帯端末の包装箱によりアタッチメントを構成する手順の説明図である。以下、本図を参照して説明する。
In addition to this, there is a method for eliminating the
本態様も、上記態様と同様に、トレー504底面にフレネルレンズ505が成形されている(本図(a))。
In this embodiment, a
そこで、携帯端末2を取り出して本体503の底に、切り欠き等を利用したストッパ(図示せず)で固定する(本図(b))。すると、本体収容ユニット42ができる。
Therefore, the
一方、トレー504は裏返して本体502に挿入する(本図(b))。これにより、最も簡易な接眼ユニット41ができる。
On the other hand, the
すなわち、トレー504を裏返して本体502に挿入することで、最も簡易なアタッチメントとすることができる。トレー504の側面からの外光の侵入を防止するため、トレー504の側面には不透明な素材を使用しても良いし、透明な素材を使用する場合には、トレー504の側面に遮光用のシールやテープなどを貼り付けることとしても良い。
That is, by turning the
この態様では、本体503にフラップ(図示せず。)を用意しておくと、当該フラップを、収容ユニット42の突出片101として利用することもできる。
In this aspect, if a flap (not shown) is prepared in the
このほか、蓋501に開口506を設けて、トレー504の爪を蓋501に設けられた溝に差し込む(図示せず。)などの固定方法により、蓋501にトレー504を固定した上で、本体502にトレー504を挿入しても良い(本図(c))。この態様では、蓋501にトレー504を裏返して固定することで、接眼ユニット41とする。この態様では、収容ユニット42の内部と外部の両方の面で接眼ユニット41に接することとなるので、摩擦が十分に働き、ピントの調整をした後も、収容ユニット42と接眼ユニット41がずれにくくなる。
In addition, the
また、トレー504にフレネルレンズ505が設けられている態様では、トレー504を裏返す必要は必ずしもない。図15(a)、(b)は、携帯端末の包装箱により構成されたアタッチメントの説明図である。本図(a)に示すように、一旦トレー504を本体502から外し、本体502の底面に携帯端末2を固定してから、トレー504を再度本体502に同じ向きで挿入すると、トレー504の底面のフレネルレンズ505を介して携帯端末2の画面を視認することができる。
Further, in the aspect in which the
また、本図(b)に示すように、開口506を設けた蓋501にトレー502を接着等により固定してから、本体502に被せることとすれば、外光を効率良く遮断しながら、トレー504の底面のフレネルレンズ505を介して携帯端末2の画面を視認することができる。
In addition, as shown in FIG. 5B, if the
上記例では、1枚のフレネルレンズ505を接眼用に利用したが、トレー502の底面に2つの丸型の凸レンズを成形しても良い。この場合には、蓋501に2つの丸型の開口を設けて被せるか、あるいは、トレー502の凸レンズ以外の部分を不透明な部材で成形したり、あるいは、シールや紙等の不透明な部材で遮光することで、簡易にアタッチメント4を構成することもできる。
In the above example, one
このように、本実施例によれば、安価かつ簡易にヘッドマウントディスプレイ等の代替となる表示システムをユーザに提供することができる。 Thus, according to the present embodiment, it is possible to provide the user with a display system that is an alternative to a head mounted display and the like at low cost and easily.
(総括)
以上説明した通り、本願に係る表示システムは、
画面を有する携帯端末と、
前記携帯端末を、前記画面がユーザにより視認可能に収容するアタッチメントと、
を備える表示システムであって、
前記携帯端末は、
前記携帯端末が有するセンサにより、前記アタッチメントを介した前記ユーザによるアクションを検知し、
前記検知されたアクションに応じて前記画面に表示する映像を制御する。(Summary)
As described above, the display system according to the present application is
A mobile terminal having a screen;
An attachment for accommodating the portable terminal so that the screen is visible by a user;
A display system comprising:
The portable terminal is
The sensor of the portable terminal detects an action by the user via the attachment,
The video to be displayed on the screen is controlled according to the detected action.
また、本願発明の表示システムにおいて、
前記携帯端末は、
前記アタッチメントから発せられる音声ならびに前記携帯端末の動きを前記センサにより検知し、
前記検知された音声ならびに動きが、前記ユーザによる前記アタッチメントへの接触、前記アタッチメントの摩擦、もしくは前記アタッチメントの変形を含むアクションに起因して発せられたものであるか否かを識別し、
前記識別されたアクションに応じて、前記画面に表示する前記映像を制御する..ように構成することができる。In the display system of the present invention,
The portable terminal is
Detecting voice emitted from the attachment and movement of the mobile terminal by the sensor,
Identifying whether the sensed voice and movement is caused by an action including contact to the attachment by the user, friction of the attachment, or deformation of the attachment;
The video to be displayed on the screen is controlled in accordance with the identified action.
また、本願発明の表示システムにおいて、
前記携帯端末は、
前記アタッチメントから発せられる音声を前記センサにより検知し、
前記検知された音声が、前記ユーザによる前記アタッチメントへの接触、前記アタッチメントの摩擦、もしくは前記アタッチメントの変形を含むアクションに起因して発せられたものであるか否かを識別し、
前記識別されたアクションに応じて、前記画面に表示する前記映像を制御する
ように構成することができる。In the display system of the present invention,
The portable terminal is
The sound emitted from the attachment is detected by the sensor,
Identifying whether the sensed sound is emitted due to an action including contact to the attachment by the user, friction of the attachment, or deformation of the attachment;
The video to be displayed on the screen can be controlled according to the identified action.
また、本願発明の表示システムにおいて、
前記携帯端末は、
前記検知された音声の周波数成分をアタッチメントが共鳴する周波数帯か否かにより分類して、前記アクションに起因して発せられたものであるか否かを識別する
ように構成することができる。In the display system of the present invention,
The portable terminal is
The frequency component of the detected sound can be classified according to whether or not the frequency band in which the attachment resonates, and can be configured to identify whether or not the sound is generated due to the action.
また、本願発明の表示システムにおいて、
前記携帯端末は、
前記携帯端末の動きを前記センサにより検知し、
前記検知された動きが、前記ユーザによる前記アタッチメントへの接触、前記アタッチメントの摩擦、もしくは前記アタッチメントの変形を含むアクションに起因して発せられたものであるか否かを識別し、
前記識別されたアクションに応じて、前記画面に表示する前記映像を制御する
ように構成することができる。In the display system of the present invention,
The portable terminal is
The movement of the mobile terminal is detected by the sensor,
Identifying whether the detected movement is caused by an action including contact to the attachment by the user, friction of the attachment, or deformation of the attachment;
The video to be displayed on the screen can be controlled according to the identified action.
また、本願発明の表示システムにおいて、
前記画面はタッチスクリーンであり、
前記アタッチメントは、前記ユーザが前記タッチスクリーンの一部の領域にタッチ可能とするための開口を有し、
前記携帯端末は、
前記検出された動きに基づいて、前記映像に含まれる操作対象の位置を前記タッチ可能な領域の内外に移動させ、
前記タッチスクリーンにより、前記ユーザが前記タッチ可能な領域の内に移動した前記操作対象に対するタッチが検知されると、当該タッチに応じて、前記画面に表示する前記映像を制御する
ように構成することができる。In the display system of the present invention,
The screen is a touch screen;
The attachment has an opening for enabling the user to touch a partial area of the touch screen;
The portable terminal is
Based on the detected movement, the position of the operation target included in the video is moved in and out of the touchable area,
The touch screen is configured to control the video displayed on the screen according to the touch when the touch on the operation target that the user has moved into the touchable area is detected. Can do.
また、本願発明の表示システムにおいて、
前記携帯端末は、前記画面を前記ユーザが視認する方向を撮影方向とするカメラを有し、
前記アタッチメントは、前記カメラが現実空間のライブ映像を撮影可能に、前記携帯端末を収容し、
前記識別されたアクションに応じて、前記画面に表示する前記映像を前記ライブ映像もしくは非ライブ映像に切り換える
ように構成することができる。In the display system of the present invention,
The mobile terminal has a camera whose shooting direction is a direction in which the user visually recognizes the screen,
The attachment accommodates the portable terminal so that the camera can shoot a live video of a real space,
According to the identified action, the video displayed on the screen can be switched to the live video or the non-live video.
また、本願発明の表示システムにおいて、
前記携帯端末は、
前記非ライブ映像が前記画面に表示される間、前記センサにより検出された動きに基づいて、パノラマ映像ならびに3次元映像を含む代替映像から部分映像を切り出して、前記切り出された部分映像を前記非ライブ映像とする
ように構成することができる。In the display system of the present invention,
The portable terminal is
While the non-live video is displayed on the screen, based on the movement detected by the sensor, a partial video is cut out from the alternative video including the panoramic video and the 3D video, and the cut-out partial video is removed from the non-live video. It can be configured to be live video.
また、本願発明の表示システムにおけるアタッチメントにおいて、
前記アタッチメントは、
前記携帯端末をトレーにより固定し、前記トレーを本体に収納し、前記本体を蓋で覆うことにより、前記携帯端末を包装する箱において、
前記トレーの底面の一部を切除することにより、前記トレーに設けられた開口を介して、前記携帯端末の画面が視認可能なように前記携帯端末を固定し、
前記開口が設けられ、前記携帯端末を固定する前記トレーを前記本体に収納し、
前記蓋の上面の一部を切除することにより前記蓋に設けられた開口を介して、前記携帯端末の前記画面を視認可能なように前記蓋で前記本体を覆う
ことにより構成されるようにすることができる。In addition, in the attachment in the display system of the present invention,
The attachment is
In the box for packaging the portable terminal by fixing the portable terminal with a tray, storing the tray in the main body, and covering the main body with a lid,
By fixing a part of the bottom surface of the tray, the mobile terminal is fixed so that the screen of the mobile terminal is visible through an opening provided in the tray.
The opening is provided, the tray for fixing the mobile terminal is stored in the main body,
By covering a part of the upper surface of the lid and covering the main body with the lid so that the screen of the portable terminal can be visually recognized through an opening provided in the lid. be able to.
また、本願発明の表示システムにおけるアタッチメントにおいて、
前記トレーは、前記底面の一部をレンズとした透明体により構成され、
前記蓋に設けられた開口に、前記トレーから切除されたレンズが装着される
ように構成することができる。In addition, in the attachment in the display system of the present invention,
The tray is constituted by a transparent body having a lens at a part of the bottom surface,
A lens cut out from the tray can be attached to the opening provided in the lid.
また、本願発明の表示システムにおけるアタッチメントにおいて、
前記アタッチメントは、
前記携帯端末をトレーにより固定し、前記トレーを本体に収納し、前記本体を蓋で覆うことにより、前記携帯端末を包装する箱において、
前記トレーは、前記底面の一部をレンズとした透明体により構成され、
前記携帯端末の画面が視認可能なように前記携帯端末を前記本体の底面に固定し、
前記レンズを介して前記携帯端末の前記画面が視認可能なように前記トレーを前記本体に収納する
ことにより構成されるようにすることができる。In addition, in the attachment in the display system of the present invention,
The attachment is
In the box for packaging the portable terminal by fixing the portable terminal with a tray, storing the tray in the main body, and covering the main body with a lid,
The tray is constituted by a transparent body having a lens at a part of the bottom surface,
The mobile terminal is fixed to the bottom surface of the main body so that the screen of the mobile terminal is visible,
The tray can be housed in the main body so that the screen of the portable terminal can be visually recognized through the lens.
また、本願発明の表示システムにおけるアタッチメントにおいて、
前記アタッチメントは、
前記携帯端末をトレーにより固定し、前記トレーを本体に収納し、前記本体を蓋で覆うことにより、前記携帯端末を包装する箱において、
前記トレーは、前記底面の一部をレンズとした透明体により構成され、
前記トレーの底面から前記レンズを切除することにより前記トレーに設けられた開口を介して、前記携帯端末の画面が視認可能なように前記携帯端末を固定し、
前記開口が設けられ、前記携帯端末を固定する前記トレーを前記本体に収納し、
前記蓋の上面の一部を切除することにより前記蓋に設けられた開口に、前記トレーから切除されたレンズを装着し、
前記開口に装着された前記レンズを介して、前記携帯端末の前記画面を視認可能なように前記蓋で前記本体を覆う
ことにより構成されるようにすることができる。In addition, in the attachment in the display system of the present invention,
The attachment is
In the box for packaging the portable terminal by fixing the portable terminal with a tray, storing the tray in the main body, and covering the main body with a lid,
The tray is constituted by a transparent body having a lens at a part of the bottom surface,
The mobile terminal is fixed so that the screen of the mobile terminal is visible through an opening provided in the tray by cutting the lens from the bottom surface of the tray,
The opening is provided, the tray for fixing the mobile terminal is stored in the main body,
A lens excised from the tray is attached to the opening provided in the lid by excising a part of the upper surface of the lid,
The main body may be covered with the lid so that the screen of the portable terminal can be visually recognized through the lens attached to the opening.
本願発明のアタッチメントは、
画面を有する携帯端末を、前記画面がユーザにより視認可能に収容するアタッチメントであって、
前記ユーザによる前記アタッチメントに対する接触をともなうアクションに起因して発生した音声もしくは動きを、前記携帯端末に伝達し、
前記アタッチメントは、
前記携帯端末をトレーにより固定し、前記トレーを本体に収納し、前記本体を蓋で覆うことにより、前記携帯端末を包装する箱において、
前記トレーは、前記底面の一部をレンズとした透明体により構成され、
前記携帯端末の画面が視認可能なように前記携帯端末を前記本体の底面に固定し、
前記レンズを介して前記携帯端末の前記画面が視認可能なように前記トレーを前記本体に収納する。The attachment of the present invention is
An attachment that houses a mobile terminal having a screen so that the screen can be viewed by a user,
Transmitting voice or movement generated due to an action accompanied by a contact with the attachment by the user to the mobile terminal;
The attachment is
In the box for packaging the portable terminal by fixing the portable terminal with a tray, storing the tray in the main body, and covering the main body with a lid,
The tray is constituted by a transparent body having a lens at a part of the bottom surface,
The mobile terminal is fixed to the bottom surface of the main body so that the screen of the mobile terminal is visible,
The tray is stored in the main body so that the screen of the portable terminal can be visually recognized through the lens.
本願発明に係る表示方法は、
携帯端末が実行する表示方法であって、前記携帯端末は画面を有し、前記携帯端末は、前記画面がユーザにより視認可能にアタッチメントに収容され、
前記携帯端末が、前記携帯端末が有するセンサにより、前記アタッチメントを介した前記ユーザによるアクションを検知する検知ステップ、
前記検知されたアクションに応じて前記画面に表示する映像を制御する制御ステップ
を備える。The display method according to the present invention is as follows:
A display method executed by a mobile terminal, wherein the mobile terminal has a screen, and the mobile terminal is accommodated in an attachment so that the screen can be viewed by a user,
A detection step in which the mobile terminal detects an action by the user via the attachment by a sensor of the mobile terminal;
A control step of controlling an image displayed on the screen in accordance with the detected action.
本願発明に係るプログラムは、携帯端末を制御するプログラムであって、前記携帯端末は画面を有し、前記携帯端末は、前記画面がユーザにより視認可能にアタッチメントに収容され、
前記プログラムは、前記携帯端末に、
前記携帯端末が有するセンサにより、前記アタッチメントを介した前記ユーザによるアクションを検知し、
前記検知されたアクションに応じて前記画面に表示する映像を制御する。The program according to the present invention is a program for controlling a mobile terminal, wherein the mobile terminal has a screen, and the mobile terminal is accommodated in an attachment such that the screen is visible by a user,
The program is stored in the mobile terminal.
The sensor of the portable terminal detects an action by the user via the attachment,
The video to be displayed on the screen is controlled according to the detected action.
前記プログラムは、コンピュータ読取可能な非一時的(non-transitory)な情報記録媒体に記録することができる。当該情報記録媒体は、本願発明に係る携帯端末を実現するためのコンピュータとは独立して配布、販売することができる。また、前記プログラムは、インターネット等のコンピュータ通信網による一時的(transitory)な通信媒体を介して配布サーバから本願発明に係る携帯端末を実現するためのコンピュータへ配布、販売することも可能である。 The program can be recorded on a computer-readable non-transitory information recording medium. The information recording medium can be distributed and sold independently of the computer for realizing the portable terminal according to the present invention. In addition, the program can be distributed and sold from a distribution server to a computer for realizing the portable terminal according to the present invention via a temporary communication medium by a computer communication network such as the Internet.
本発明によれば、ヘッドマウントディスプレイ等の代替となる安価で簡易に実現可能な表示システム、表示方法、アタッチメント、ならびに、プログラムを提供することができる。 According to the present invention, it is possible to provide a display system, a display method, an attachment, and a program that can be easily realized at low cost as an alternative to a head-mounted display or the like.
なお、本出願においては、2014年3月28日に日本国に出願した特許出願特願2014-067716を基礎とする優先権を主張するものとし、指定国の法令が許す限り当該基礎出願の内容を本願に取り込むものとする。 In this application, we shall claim priority based on Japanese Patent Application No. 2014-067716 filed in Japan on March 28, 2014, and the contents of the basic application as long as the laws of the designated country permit. Is incorporated into the present application.
1 頭部近接型映像表示システム
2 携帯端末
3 録画モジュール
4 頭部近接体(アタッチメント)
5 通信網
20 制御アプリケーション
22 映像蓄積部
31 パノラマビデオカメラ
41 近接ユニット
42 端末収容ユニット
43 ヘッドホン
44 撮像部
58 電源スイッチ
59 動きセンサ
60 マイク
62 表示パネル
65 操作部
66 表示パネル
69 記録部
101 突出片
102 側板
102 頭部フレーム
103 ヒンジ機構
110 後板
111 レンズ
112 前板
113 押さえ片
114 収容部
123 溝
124 溝
311 基台
312 カメラアレイ
320 本体
321 各撮像装置
321 撮像装置
330 インターフェース
501 箱
502 蓋
503 本体
504 トレー
505 フレネルレンズ
506 開口
S21 代替映像取得ステップ
S22 映像蓄積ステップ
S23 ライブ映像取得ステップ
S24 頭部方向特定ステップ
S25 方向更新ステップ
S25 方向更新部ステップ
S28 再生制御ステップ
S35 音声データ取得ステップ
S38 検出ステップ1 Head proximity
5
Claims (26)
前記携帯端末を、前記画面がユーザにより視認可能に収容するアタッチメントと、
を備える表示システムであって、
前記携帯端末は、
前記携帯端末が有するセンサにより、前記アタッチメントを介した前記ユーザによるアクションを検知し、
前記検知されたアクションに応じて前記画面に表示する映像を制御する
ことを特徴とする表示システム。A mobile terminal having a screen;
An attachment for accommodating the portable terminal so that the screen is visible by a user;
A display system comprising:
The portable terminal is
The sensor of the portable terminal detects an action by the user via the attachment,
A display system that controls an image to be displayed on the screen in accordance with the detected action.
前記アタッチメントから発せられる音声ならびに前記携帯端末の動きを前記センサにより検知し、
前記検知された音声ならびに動きが、前記ユーザによる前記アタッチメントへの接触、前記アタッチメントの摩擦、もしくは前記アタッチメントの変形を含むアクションに起因して発せられたものであるか否かを識別し、
前記識別されたアクションに応じて、前記画面に表示する前記映像を制御する
ことを特徴とする請求項1に記載の表示システム。The portable terminal is
Detecting voice emitted from the attachment and movement of the mobile terminal by the sensor,
Identifying whether the sensed voice and movement is caused by an action including contact to the attachment by the user, friction of the attachment, or deformation of the attachment;
2. The display system according to claim 1, wherein the video to be displayed on the screen is controlled according to the identified action.
前記アタッチメントから発せられる音声を前記センサにより検知し、
前記検知された音声が、前記ユーザによる前記アタッチメントへの接触、前記アタッチメントの摩擦、もしくは前記アタッチメントの変形を含むアクションに起因して発せられたものであるか否かを識別し、
前記識別されたアクションに応じて、前記画面に表示する前記映像を制御する
ことを特徴とする請求項1に記載の表示システム。The portable terminal is
The sound emitted from the attachment is detected by the sensor,
Identifying whether the sensed sound is emitted due to an action including contact to the attachment by the user, friction of the attachment, or deformation of the attachment;
2. The display system according to claim 1, wherein the video to be displayed on the screen is controlled according to the identified action.
前記検知された音声の周波数成分をアタッチメントが共鳴する周波数帯か否かにより分類して、前記アクションに起因して発せられたものであるか否かを識別する
ことを特徴とする請求項1に記載の表示システム。The portable terminal is
2. The frequency component of the detected sound is classified according to whether or not the frequency band in which an attachment resonates, and whether or not the sound component is emitted due to the action is identified. Display system described.
前記携帯端末の動きを前記センサにより検知し、
前記検知された動きが、前記ユーザによる前記アタッチメントへの接触、前記アタッチメントの摩擦、もしくは前記アタッチメントの変形を含むアクションに起因して発せられたものであるか否かを識別し、
前記識別されたアクションに応じて、前記画面に表示する前記映像を制御する
ことを特徴とする請求項1に記載の表示システム。The portable terminal is
The movement of the mobile terminal is detected by the sensor,
Identifying whether the detected movement is caused by an action including contact to the attachment by the user, friction of the attachment, or deformation of the attachment;
2. The display system according to claim 1, wherein the video to be displayed on the screen is controlled according to the identified action.
前記アタッチメントは、前記ユーザが前記タッチスクリーンの一部の領域にタッチ可能とするための開口を有し、
前記携帯端末は、
前記検出された動きに基づいて、前記映像に含まれる操作対象の位置を前記タッチ可能な領域の内外に移動させ、
前記タッチスクリーンにより、前記ユーザが前記タッチ可能な領域の内に移動した前記操作対象に対するタッチが検知されると、当該タッチに応じて、前記画面に表示する前記映像を制御する
ことを特徴とする請求項2または5に記載の表示システム。The screen is a touch screen;
The attachment has an opening for enabling the user to touch a partial area of the touch screen;
The portable terminal is
Based on the detected movement, the position of the operation target included in the video is moved in and out of the touchable area,
When the touch on the operation target that the user has moved within the touchable area is detected by the touch screen, the video displayed on the screen is controlled according to the touch. The display system according to claim 2 or 5.
前記アタッチメントは、前記カメラが現実空間のライブ映像を撮影可能に、前記携帯端末を収容し、
前記識別されたアクションに応じて、前記画面に表示する前記映像を前記ライブ映像もしくは非ライブ映像に切り換える
ことを特徴とする請求項2または5に記載の表示システム。The mobile terminal has a camera whose shooting direction is a direction in which the user visually recognizes the screen,
The attachment accommodates the portable terminal so that the camera can shoot a live video of a real space,
6. The display system according to claim 2, wherein the video to be displayed on the screen is switched to the live video or the non-live video in accordance with the identified action.
前記非ライブ映像が前記画面に表示される間、前記センサにより検出された動きに基づいて、パノラマ映像ならびに3次元映像を含む代替映像から部分映像を切り出して、前記切り出された部分映像を前記非ライブ映像とする
ことを特徴とする請求項6に記載の表示システム。The portable terminal is
While the non-live video is displayed on the screen, based on the movement detected by the sensor, a partial video is cut out from the alternative video including the panoramic video and the 3D video, and the cut-out partial video is removed from the non-live video. The display system according to claim 6, wherein the display system is a live video.
前記携帯端末をトレーにより固定し、前記トレーを本体に収納し、前記本体を蓋で覆うことにより、前記携帯端末を包装する箱において、
前記トレーの底面の一部を切除することにより、前記トレーに設けられた開口を介して、前記携帯端末の画面が視認可能なように前記携帯端末を固定し、
前記開口が設けられ、前記携帯端末を固定する前記トレーを前記本体に収納し、
前記蓋の上面の一部を切除することにより前記蓋に設けられた開口を介して、前記携帯端末の前記画面を視認可能なように前記蓋で前記本体を覆う
ことにより構成されることを特徴とする請求項1から8のいずれか1項に記載の表示システムにおけるアタッチメント。The attachment is
In the box for packaging the portable terminal by fixing the portable terminal with a tray, storing the tray in the main body, and covering the main body with a lid,
By fixing a part of the bottom surface of the tray, the mobile terminal is fixed so that the screen of the mobile terminal is visible through an opening provided in the tray.
The opening is provided, the tray for fixing the mobile terminal is stored in the main body,
The cover is configured to cover the main body with the lid so that the screen of the mobile terminal can be visually recognized through an opening provided in the lid by cutting off a part of the upper surface of the lid. The attachment in the display system according to any one of claims 1 to 8.
前記蓋に設けられた開口に、前記トレーから切除されたレンズが装着される
ことを特徴とする請求項9に記載のアタッチメント。The tray is constituted by a transparent body having a lens at a part of the bottom surface,
10. The attachment according to claim 9, wherein a lens cut from the tray is attached to an opening provided in the lid.
前記携帯端末をトレーにより固定し、前記トレーを本体に収納し、前記本体を蓋で覆うことにより、前記携帯端末を包装する箱において、
前記トレーは、前記底面の一部をレンズとした透明体により構成され、
前記携帯端末の画面が視認可能なように前記携帯端末を前記本体の底面に固定し、
前記レンズを介して前記携帯端末の前記画面が視認可能なように前記トレーを前記本体に収納する
ことにより構成されることを特徴とする請求項1から8のいずれか1項に記載の表示システムにおけるアタッチメント。The attachment is
In the box for packaging the portable terminal by fixing the portable terminal with a tray, storing the tray in the main body, and covering the main body with a lid,
The tray is constituted by a transparent body having a lens at a part of the bottom surface,
The mobile terminal is fixed to the bottom surface of the main body so that the screen of the mobile terminal is visible,
9. The display system according to claim 1, wherein the display system is configured by storing the tray in the main body so that the screen of the portable terminal can be visually recognized through the lens. Attachment in.
前記携帯端末をトレーにより固定し、前記トレーを本体に収納し、前記本体を蓋で覆うことにより、前記携帯端末を包装する箱において、
前記トレーは、前記底面の一部をレンズとした透明体により構成され、
前記トレーの底面から前記レンズを切除することにより前記トレーに設けられた開口を介して、前記携帯端末の画面が視認可能なように前記携帯端末を固定し、
前記開口が設けられ、前記携帯端末を固定する前記トレーを前記本体に収納し、
前記蓋の上面の一部を切除することにより前記蓋に設けられた開口に、前記トレーから切除されたレンズを装着し、
前記開口に装着された前記レンズを介して、前記携帯端末の前記画面を視認可能なように前記蓋で前記本体を覆う
ことにより構成されることを特徴とする請求項11に記載のアタッチメント。The attachment is
In the box for packaging the portable terminal by fixing the portable terminal with a tray, storing the tray in the main body, and covering the main body with a lid,
The tray is constituted by a transparent body having a lens at a part of the bottom surface,
The mobile terminal is fixed so that the screen of the mobile terminal is visible through an opening provided in the tray by cutting the lens from the bottom surface of the tray,
The opening is provided, the tray for fixing the mobile terminal is stored in the main body,
A lens excised from the tray is attached to the opening provided in the lid by excising a part of the upper surface of the lid,
12. The attachment according to claim 11, wherein the attachment is configured to cover the main body with the lid so that the screen of the mobile terminal can be visually recognized through the lens attached to the opening.
前記ユーザによる前記アタッチメントに対する接触をともなうアクションに起因して発生した音声もしくは動きを、前記携帯端末に伝達し、
前記アタッチメントは、
前記携帯端末をトレーにより固定し、前記トレーを本体に収納し、前記本体を蓋で覆うことにより、前記携帯端末を包装する箱において、
前記トレーは、前記底面の一部をレンズとした透明体により構成され、
前記携帯端末の画面が視認可能なように前記携帯端末を前記本体の底面に固定し、
前記レンズを介して前記携帯端末の前記画面が視認可能なように前記トレーを前記本体に収納する
ことにより構成されることを特徴とするアタッチメント。An attachment that houses a mobile terminal having a screen so that the screen can be viewed by a user,
Transmitting voice or movement generated due to an action accompanied by a contact with the attachment by the user to the mobile terminal;
The attachment is
In the box for packaging the portable terminal by fixing the portable terminal with a tray, storing the tray in the main body, and covering the main body with a lid,
The tray is constituted by a transparent body having a lens at a part of the bottom surface,
The mobile terminal is fixed to the bottom surface of the main body so that the screen of the mobile terminal is visible,
The attachment is configured by storing the tray in the main body so that the screen of the portable terminal can be visually recognized through the lens.
前記携帯端末が、前記携帯端末が有するセンサにより、前記アタッチメントを介した前記ユーザによるアクションを検知する検知ステップ、
前記検知されたアクションに応じて前記画面に表示する映像を制御する制御ステップ
を備えることを特徴とする表示方法。A display method executed by a mobile terminal, wherein the mobile terminal has a screen, and the mobile terminal is accommodated in an attachment so that the screen can be viewed by a user,
A detection step in which the mobile terminal detects an action by the user via the attachment by a sensor of the mobile terminal;
A display method comprising: a control step of controlling an image displayed on the screen in accordance with the detected action.
前記プログラムは、前記携帯端末に、
前記携帯端末が有するセンサにより、前記アタッチメントを介した前記ユーザによるアクションを検知し、
前記検知されたアクションに応じて前記画面に表示する映像を制御する
処理を実行させることを特徴とするプログラム。A program for controlling a mobile terminal, wherein the mobile terminal has a screen, and the mobile terminal is accommodated in an attachment so that the screen can be viewed by a user,
The program is stored in the mobile terminal.
The sensor of the portable terminal detects an action by the user via the attachment,
A program for executing a process of controlling an image displayed on the screen in accordance with the detected action.
映像視認時において当該ユーザの眼前に上記表示手段が位置するように上記携帯端末が収容される収容手段を有する頭部近接体とを備え、
上記表示手段は、上記動きセンサにより検出された動きに応じて上記代替映像の表示を開始し又は停止すること
を特徴とする頭部近接型映像表示システム。A portable terminal having recording means for recording one or more alternative videos, display means for displaying at least the alternative videos recorded in the recording means, and a motion sensor for detecting its own movement;
A head proximity body having an accommodating means for accommodating the portable terminal so that the display means is positioned in front of the user's eyes at the time of visual recognition,
The head proximity image display system, wherein the display means starts or stops displaying the substitute image in accordance with the motion detected by the motion sensor.
上記表示手段は、上記動きセンサにより検出された動きに応じて、上記記録手段に記録されている代替映像又は上記撮像手段により撮像されたライブ映像の表示、停止を行い、又は上記代替映像と上記ライブ映像の表示の切り替えを行うこと
を特徴とする請求項16記載の頭部近接型映像表示システム。The mobile terminal further includes an imaging unit that captures the real space as a live video from the same viewpoint as the user
The display means displays and stops the alternative video recorded in the recording means or the live video imaged by the imaging means according to the motion detected by the motion sensor, or the alternative video and the above 17. The head proximity type video display system according to claim 16, wherein the live video display is switched.
上記動きセンサは、ユーザによる突出片の開閉動作に応じた動きを検出すること
を特徴とする請求項16記載の頭部近接型映像表示システム。The head proximity body includes a head frame that is close to the user's head when visually recognizing an image, and an openable / closable protruding piece that protrudes from both sides of the head frame at a narrower interval than the user's head. And
17. The head proximity image display system according to claim 16, wherein the movement sensor detects a movement according to an opening / closing operation of the protruding piece by a user.
映像視認開始時において上記頭部近接体を頭部の手前まで移動させる動作と、頭部の手前において上記突出片の開閉動作に伴う減速とを検出すること
を特徴とする請求項18記載の頭部近接型映像表示システム。The motion sensor
19. The head according to claim 18, wherein an operation of moving the head proximity object to the front of the head at the start of video viewing and a deceleration accompanying the opening / closing operation of the protruding piece in front of the head are detected. Close proximity type image display system.
を特徴とする請求項16記載の頭部近接型映像表示システム。17. The head proximity image display system according to claim 16, wherein the head proximity body further includes a lens for enlarging an image displayed by the display means of the mobile terminal accommodated in the accommodation means. .
上記携帯端末は、当該一の代替映像を再生する場合には、上記ユーザの視線又は頭部の動きに基づいて当該一の代替映像から表示すべき映像を上記時系列に沿って切り出す映像制御手段を更に有すること
を特徴とする請求項16記載の頭部近接型映像表示システム。Alternative video acquisition means for acquiring, as one alternative video, a video captured in time series in advance in all directions about the user's head or a virtual video such as computer graphics created in real time In addition,
When the mobile terminal reproduces the one alternative video, the video control means for cutting out the video to be displayed from the one alternative video along the time series based on the line of sight of the user or the movement of the head 17. The head proximity image display system according to claim 16, further comprising:
を特徴とする請求項21記載の頭部近接型映像表示システム。22. The head proximity type image display system according to claim 21, wherein the substitute image acquisition means processes information acquired by accessing the public communication network as needed or information stored in advance into one substitute image. .
上記映像制御手段は、上記音声データ取得手段により取得された音声データを上記再生すべき代替映像に連動させて再生すること
を特徴とする請求項22記載の頭部近接型映像表示システム。Voice data acquisition means for acquiring voice data,
23. The head proximity type video display system according to claim 22, wherein the video control unit reproduces the audio data acquired by the audio data acquisition unit in conjunction with the substitute video to be reproduced.
を特徴とする頭部近接体。17. A head used in the head proximity type video display system according to claim 16, further comprising a storage unit in which the mobile terminal is stored so that the display unit is positioned in front of the user's eyes when viewing the video. Close proximity body.
を特徴とする請求項24記載の頭部近接体。A head frame that is close to the user's head when the image is viewed; and an openable and closable protruding piece that protrudes from both sides of the head frame at a narrower interval than the user's head. The head proximity body according to claim 24.
1以上の代替映像を記録する代替映像記録ステップと、
上記携帯端末の動きを検出する動き検出ステップと、
上記代替映像記録ステップにおいて記録した1以上の代替映像を表示することを、上記動き検出ステップにより検出された動きに応じて開始し、又は停止する表示ステップとを携帯端末により実行させることを特徴とする頭部近接型映像表示プログラム。In a head proximity type video display program that causes a mobile terminal to display a video for a user who has a head proximity body close to the head,
An alternative video recording step of recording one or more alternative videos;
A motion detection step for detecting the motion of the mobile terminal;
Displaying one or more alternative videos recorded in the alternative video recording step is started by a portable terminal in accordance with the motion detected in the motion detection step or stopped. Head proximity type video display program.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014067716 | 2014-03-28 | ||
JP2014067716 | 2014-03-28 | ||
PCT/JP2014/080393 WO2015145863A1 (en) | 2014-03-28 | 2014-11-17 | Display system, attachment, display method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2015145863A1 true JPWO2015145863A1 (en) | 2017-04-13 |
JP6278490B2 JP6278490B2 (en) | 2018-02-14 |
Family
ID=54194433
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016509900A Expired - Fee Related JP6278490B2 (en) | 2014-03-28 | 2014-11-17 | Display system, attachment, display method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6278490B2 (en) |
WO (1) | WO2015145863A1 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101867153B1 (en) * | 2016-05-25 | 2018-06-12 | 민상규 | Phone protection case having virtual reality function |
US10095311B2 (en) * | 2016-06-15 | 2018-10-09 | Immersion Corporation | Systems and methods for providing haptic feedback via a case |
CN106019597A (en) | 2016-07-27 | 2016-10-12 | 北京小米移动软件有限公司 | Virtual reality glasses |
CN206087893U (en) * | 2016-09-12 | 2017-04-12 | 中兴通讯股份有限公司 | Mobile phone packaging box |
JP6262890B1 (en) * | 2017-01-13 | 2018-01-17 | 株式会社日本エスシーマネージメント | Viewing device, underwater space viewing system, and underwater space viewing method |
JP6937983B2 (en) * | 2017-05-30 | 2021-09-22 | 株式会社電通 | Underwater AR goggles |
JP7130765B2 (en) | 2018-10-03 | 2022-09-05 | マクセル株式会社 | Head mounted display and head mounted display system |
KR102624540B1 (en) * | 2021-11-16 | 2024-01-15 | 장영진 | Wearable Device for Ocular Motor Training Using Augmented Reality Images |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012221435A (en) * | 2011-04-14 | 2012-11-12 | Lenovo Singapore Pte Ltd | Method of waking up electronic device including touch panel and electronic device |
JP2013077013A (en) * | 2012-11-20 | 2013-04-25 | Sony Corp | Display device and display method |
-
2014
- 2014-11-17 WO PCT/JP2014/080393 patent/WO2015145863A1/en active Application Filing
- 2014-11-17 JP JP2016509900A patent/JP6278490B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012221435A (en) * | 2011-04-14 | 2012-11-12 | Lenovo Singapore Pte Ltd | Method of waking up electronic device including touch panel and electronic device |
JP2013077013A (en) * | 2012-11-20 | 2013-04-25 | Sony Corp | Display device and display method |
Non-Patent Citations (1)
Title |
---|
SIMON ROCKMAN: "'Oculus Rift? Tchah, try 'Oculus Thrift' ... You bet your vrAse we tested these bargain VR specs'", THE REGISTER, JPN7015000309, 21 March 2014 (2014-03-21), GB, ISSN: 0003715620 * |
Also Published As
Publication number | Publication date |
---|---|
WO2015145863A1 (en) | 2015-10-01 |
JP6278490B2 (en) | 2018-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6278490B2 (en) | Display system, attachment, display method, and program | |
US9927948B2 (en) | Image display apparatus and image display method | |
CN108605166B (en) | Method and equipment for presenting alternative image in augmented reality | |
US9922448B2 (en) | Systems and methods for generating a three-dimensional media guidance application | |
CN106576184B (en) | Information processing device, display device, information processing method, program, and information processing system | |
Lelyveld | Virtual reality primer with an emphasis on camera-captured VR | |
TWI530157B (en) | Method and system for displaying multi-view images and non-transitory computer readable storage medium thereof | |
US20140123015A1 (en) | Information processing system, information processing apparatus, and storage medium | |
CN111970456B (en) | Shooting control method, device, equipment and storage medium | |
JP6292658B2 (en) | Head-mounted video display system and method, head-mounted video display program | |
US10156898B2 (en) | Multi vantage point player with wearable display | |
CN110036416A (en) | Device and correlation technique for space audio | |
US11354871B2 (en) | Head-mountable apparatus and methods | |
KR20180095197A (en) | Mobile terminal and method for controlling the same | |
CN114327700A (en) | Virtual reality equipment and screenshot picture playing method | |
US20180192031A1 (en) | Virtual Reality Viewing System | |
CN106954093B (en) | Panoramic video processing method, device and system | |
JP2010268128A (en) | Control apparatus, imaging apparatus, imaging system, image acquisition method and program | |
WO2020206647A1 (en) | Method and apparatus for controlling, by means of following motion of user, playing of video content | |
KR20170046947A (en) | Mobile terminal and method for controlling the same | |
JP6720575B2 (en) | Video playback device and video processing device | |
JP2020025275A (en) | Video and audio reproduction device and method | |
US20240364962A1 (en) | Display device and operating method thereof | |
EP4455831A1 (en) | Display device and operating method thereof | |
US20150070465A1 (en) | Interactive television |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171018 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171018 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20171018 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20171101 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180111 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6278490 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |