JP2012163853A - Display device, information service system, information service method, and program - Google Patents

Display device, information service system, information service method, and program Download PDF

Info

Publication number
JP2012163853A
JP2012163853A JP2011025315A JP2011025315A JP2012163853A JP 2012163853 A JP2012163853 A JP 2012163853A JP 2011025315 A JP2011025315 A JP 2011025315A JP 2011025315 A JP2011025315 A JP 2011025315A JP 2012163853 A JP2012163853 A JP 2012163853A
Authority
JP
Japan
Prior art keywords
information
display
display device
subtitle
caption
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011025315A
Other languages
Japanese (ja)
Other versions
JP5715842B2 (en
Inventor
Keiichiro Iwano
圭一郎 岩野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NS Solutions Corp
Original Assignee
NS Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NS Solutions Corp filed Critical NS Solutions Corp
Priority to JP2011025315A priority Critical patent/JP5715842B2/en
Publication of JP2012163853A publication Critical patent/JP2012163853A/en
Application granted granted Critical
Publication of JP5715842B2 publication Critical patent/JP5715842B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To display subtitle information more properly.SOLUTION: A display device with a display unit includes detection means for detecting a position of the display device and display control means for displaying subtitle information at a display position in the display unit, identified according to the position detected by the detection means.

Description

本発明は、表示装置、情報提供システム、情報提供方法、及びプログラムに関する。   The present invention relates to a display device, an information providing system, an information providing method, and a program.

映画館で上映される外国で作成された映画については、外国語で上映して日本語の字幕を映しこむケースと、日本語に吹き替えて字幕を映さないで上映するケースとがある。このような工夫により、様々な観客に対応できるようになる。しかしながら、例えば前者のケースでは、幾つかの問題が残されている。
例えば、2ヵ国語の字幕に対応するためには、同じスクリーン(会場)で行う場合には別の時間帯で2回上演をするか、同じ時間帯で上演したい場合は言語毎にスクリーンを設定する必要がある。つまり、言語毎に時間帯と会場とを確保しなければならない。また、例えば、日本語の字幕で上映するとしても、ある年齢層に合わせて字幕を作成することになり、言葉遣いや漢字の使い方によっては若年層に分かり難い表現が混入するおそれがある。
近年、バーチャルリアリティを利用し、観客が装着したHMD(Head Mounted Display)に字幕を表示する技術が開示されている(例えば、特許文献1参照。)。この技術では、HMDに字幕が表示されるので、同じスクリーンを見ている複数の観客が、それぞれ好きな言語の字幕を見ることができる。
There are cases where movies produced in foreign countries are screened in movie theaters and are shown in foreign languages and Japanese subtitles are projected, and cases where Japanese subtitles are dubbed and not shown. Such a device makes it possible to deal with various audiences. However, for example, in the former case, some problems remain.
For example, in order to support subtitles in two languages, when performing on the same screen (venue), perform twice at different times, or set a screen for each language if you want to perform at the same time There is a need to. In other words, a time zone and a venue must be secured for each language. In addition, for example, even if Japanese subtitles are screened, subtitles are created according to a certain age group, and depending on the wording and usage of kanji, expressions that are difficult to understand may be mixed into younger generations.
In recent years, a technique for displaying subtitles on an HMD (Head Mounted Display) worn by a spectator using virtual reality has been disclosed (for example, see Patent Document 1). In this technique, subtitles are displayed on the HMD, so that a plurality of spectators who are viewing the same screen can view subtitles in their favorite languages.

特開2001−069024号公報Japanese Patent Laid-Open No. 2001-069024

しかしながら、特許文献1に記載の技術では、HMDに表示される字幕がHMD内の所定座標付近に固定されて表示されるという問題がある。   However, the technique described in Patent Document 1 has a problem in that captions displayed on the HMD are fixed and displayed near predetermined coordinates in the HMD.

本発明はこのような問題点に鑑みなされたもので、字幕情報をより適切に表示することを目的とする。   The present invention has been made in view of such problems, and an object thereof is to display subtitle information more appropriately.

そこで、本発明に係る表示装置は、表示部を有する表示装置であって、当該表示装置の位置を検出する検出手段と、前記検出手段で検出された位置に応じて特定される前記表示部における表示位置に字幕情報を表示する表示制御手段と、を有することを特徴とする。   Therefore, a display device according to the present invention is a display device having a display unit, the detection unit detecting a position of the display device, and the display unit specified according to the position detected by the detection unit Display control means for displaying subtitle information at the display position.

本発明によれば、字幕情報をより適切に表示することができる。   According to the present invention, caption information can be displayed more appropriately.

HMDの一例を示す図である。It is a figure which shows an example of HMD. AR提供システムの一例を示す図である。It is a figure which shows an example of AR provision system. HMDのハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of HMD. プロジェクタのハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of a projector. HMD及びプロジェクタの機能構成の一例を示す図である。It is a figure which shows an example of a function structure of HMD and a projector. 字幕データのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of caption data. 情報提供システムのシーケンスの一例を示す図である。It is a figure which shows an example of the sequence of an information provision system. データ配信処理に係るフローチャートの一例を示す図である。It is a figure which shows an example of the flowchart which concerns on a data delivery process. 表示制御処理に係るフローチャートの一例を示す図である。It is a figure which shows an example of the flowchart which concerns on a display control process. HMDの表示態様の一例を示す図である。It is a figure which shows an example of the display mode of HMD. HMDの表示態様の一例を示す図である。It is a figure which shows an example of the display mode of HMD. 字幕情報のデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of subtitle information. データ配信処理に係るフローチャートの一例を示す図である。It is a figure which shows an example of the flowchart which concerns on a data delivery process. 字幕情報のデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of subtitle information. 管理テーブルのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of a management table. データ配信処理に係るフローチャートの一例を示す図である。It is a figure which shows an example of the flowchart which concerns on a data delivery process. 表示制御処理に係るフローチャートの一例を示す図である。It is a figure which shows an example of the flowchart which concerns on a display control process. 字幕の表示タイミングの一例を示す図である。It is a figure which shows an example of the display timing of a caption. HMDの表示態様の一例を示す図である。It is a figure which shows an example of the display mode of HMD. HMDの表示態様の一例を示す図である。It is a figure which shows an example of the display mode of HMD.

以下、本発明の実施形態について図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1の実施形態)
図1は、本実施形態に係るHMDの一例(HMD100)を示す図である。HMD100は、表示装置(コンピュータ)の一例であり、ディスプレイ10を有する。
本実施形態では、ユーザは、HMD100を頭部に装着し、画像が映し出されるスクリーン900を、ディスプレイ10を介して見ることで映画を鑑賞する。
この際、ディスプレイ10には、シーンに応じた字幕情報(ARデータの一例)がスクリーン900の外側に位置するように表示される。
本実施形態では、現実空間に整合する位置にARデータ(コンピュータグラフィックス画像など)をディスプレイ10に表示することで、拡張された現実感(AR:Augmented Reality)をユーザに提供する。
(First embodiment)
FIG. 1 is a diagram illustrating an example of an HMD (HMD 100) according to the present embodiment. The HMD 100 is an example of a display device (computer) and includes a display 10.
In this embodiment, the user views the movie by wearing the HMD 100 on the head and viewing the screen 900 on which the image is displayed via the display 10.
At this time, caption information (an example of AR data) corresponding to the scene is displayed on the display 10 so as to be located outside the screen 900.
In the present embodiment, AR data (computer graphics image or the like) is displayed on the display 10 at a position that matches the real space, thereby providing the user with an expanded reality (AR).

図2は、AR提供システムの一例(情報提供システム)を示す図である。情報提供システムは、HMD100及びプロジェクタ200を含んで構成される。HMD100及びプロジェクタ200は、互いに無線通信が可能に構成されている。
HMD100は、HMD100における各種の制御を司る制御機能120と、字幕の言語の指定を受け付ける言語指定機能130とを有する。
プロジェクタ200は、情報提供装置(コンピュータ)の一例であり、フィルム220を読み込んでスクリーン900に画像を映し出す投影機能210と、各種のデータ240を用いてプロジェクタ200における各種の制御を司る制御機能230と、を有する。
FIG. 2 is a diagram illustrating an example of an AR providing system (information providing system). The information providing system includes an HMD 100 and a projector 200. The HMD 100 and the projector 200 are configured to be capable of wireless communication with each other.
The HMD 100 includes a control function 120 that controls various types of control in the HMD 100, and a language designation function 130 that accepts designation of a subtitle language.
The projector 200 is an example of an information providing device (computer), and includes a projection function 210 that reads a film 220 and displays an image on the screen 900, and a control function 230 that controls various controls in the projector 200 using various data 240. Have.

例えば、プロジェクタ200の制御機能230は、投影機能210によりフィルム220の読み込みに応じて字幕データが読み出されると、一連の字幕データ(字幕情報)をHMD100に送信する。なお、字幕データの詳細については、図5を参照して説明する。
他方、HMD100の制御機能120は、HMD100に設けられている撮影装置15を介してリアルタイムに現実空間を捉える。また、制御機能120は、撮影装置15の映像からスクリーン900に設けられたマーカ(910、920、930、940)を認識することでスクリーン900(外形)を特定し、ディスプレイ10におけるスクリーン900の外側に字幕情報を表示する。
なお、制御機能120、言語指定機能130、制御機能230の詳細については、図4を参照して説明する。
For example, the control function 230 of the projector 200 transmits a series of caption data (caption information) to the HMD 100 when the projection function 210 reads the caption data in accordance with the reading of the film 220. The details of the caption data will be described with reference to FIG.
On the other hand, the control function 120 of the HMD 100 captures a real space in real time via the photographing device 15 provided in the HMD 100. Further, the control function 120 identifies the screen 900 (outer shape) by recognizing the markers (910, 920, 930, 940) provided on the screen 900 from the image of the photographing device 15, and the outside of the screen 900 in the display 10. Displays subtitle information.
Details of the control function 120, the language designation function 130, and the control function 230 will be described with reference to FIG.

図3Aは、HMD100のハードウェア構成の一例を示す図である。HMD100は、ディスプレイ10、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、HD(Hard Disk)14、撮影装置15、入力装置16、及びインタフェース装置17を有する。
ディスプレイ10は、表示部の一例であり、透過型の液晶ディスプレイ等であり、ARデータを表示すると共に、ディスプレイ10を介して現実空間を視認可能に構成される。CPU11は、必要に応じて、ROM12、HD14などからプログラムを読み出してプログラムを実行する。プログラムが実行されることで、HMD100における機能、及び後述のフローチャートに係る処理が実現される。
FIG. 3A is a diagram illustrating an example of a hardware configuration of the HMD 100. The HMD 100 includes a display 10, a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, an HD (Hard Disk) 14, a photographing device 15, an input device 16, and an interface device 17. Have.
The display 10 is an example of a display unit, and is a transmissive liquid crystal display or the like. The display 10 is configured to display AR data and to be able to visually recognize a real space through the display 10. The CPU 11 reads the program from the ROM 12, the HD 14, etc. as necessary, and executes the program. By executing the program, functions in the HMD 100 and processing according to a flowchart described later are realized.

ROM12は、HMD100の電源投入時に最初に読み込まれるプログラム等を記憶する。RAM13は、HMD100のメインメモリとして機能する。HD14は、プログラムに加えてCPU11により算出された数値データ等を記憶する。
なお、HMD100は、RAM13、HD14などの記憶部に記憶される各種の情報を、CD−ROM、USB等の媒体から取得してもよいし、ネットワーク等を通じてダウンロードしてもよい。
撮影装置15は、現実空間の撮影を行う。入力装置16は、操作ボタンなどを含んで構成され、操作ボタンの操作(ユーザ操作)に応答して各種の情報を入力する。インタフェース装置17は、外部装置(プロジェクタ200等)と通信を行い、後述の機器ID、言語データなどを送信し、字幕情報などを受信する。インタフェース装置17で受信されたデータは、RAM13、HD14などの記憶部に記憶される。
The ROM 12 stores a program that is read first when the power of the HMD 100 is turned on. The RAM 13 functions as a main memory of the HMD 100. The HD 14 stores numerical data calculated by the CPU 11 in addition to the program.
Note that the HMD 100 may acquire various types of information stored in a storage unit such as the RAM 13 and the HD 14 from a medium such as a CD-ROM or USB, or may download the information via a network or the like.
The imaging device 15 captures a real space. The input device 16 includes operation buttons and the like, and inputs various information in response to operation of the operation buttons (user operation). The interface device 17 communicates with an external device (such as the projector 200), transmits a device ID, language data, and the like, which will be described later, and receives subtitle information and the like. Data received by the interface device 17 is stored in a storage unit such as the RAM 13 or the HD 14.

図3Bは、プロジェクタ200のハードウェア構成の一例を示す図である。プロジェクタ200は、CPU(Central Processing Unit)21、ROM(Read Only Memory)22、RAM(Random Access Memory)23、HD(Hard Disk)24、入力装置25、出力装置26、記録媒体ドライブ装置27、及びインタフェース装置28を有する。
CPU21は、必要に応じて、ROM22、HD24などからプログラムを読み出してプログラムを実行する。プログラムが実行されることで、プロジェクタ200における機能、及び後述のフローチャートに係る処理が実現される。
FIG. 3B is a diagram illustrating an example of a hardware configuration of the projector 200. The projector 200 includes a CPU (Central Processing Unit) 21, a ROM (Read Only Memory) 22, a RAM (Random Access Memory) 23, an HD (Hard Disk) 24, an input device 25, an output device 26, a recording medium drive device 27, and An interface device 28 is included.
CPU21 reads a program from ROM22, HD24 etc. as needed, and executes a program. By executing the program, functions in the projector 200 and processing according to a flowchart described later are realized.

ROM22は、プロジェクタ200の電源投入時に最初に読み込まれるプログラム等を記憶する。RAM23は、プロジェクタ200のメインメモリとして機能する。HD24は、プログラムに加えてCPU21により算出された数値データ等を記憶する。
なお、プロジェクタ200は、RAM23、HD24などの記憶部に記憶される各種の情報を、CD−ROM、USB等の媒体から取得してもよいし、ネットワーク等を通じてダウンロードしてもよい。
The ROM 22 stores a program that is read first when the projector 200 is powered on. The RAM 23 functions as a main memory for the projector 200. The HD 24 stores numerical data calculated by the CPU 21 in addition to the program.
The projector 200 may acquire various types of information stored in the storage unit such as the RAM 23 and the HD 24 from a medium such as a CD-ROM or USB, or may download the information via a network or the like.

入力装置25は、ボタン等の入力デバイスを含んで構成され、ユーザによる入力デバイスの操作に応答してプロジェクタ200に各種の情報を入力する。なお、入力装置25としては、遠隔制御を行うための機器の操作、情報処理装置に接続されたキーボードやマウスの操作などを介して、プロジェクタ200に各種の情報を入力する構成を採用してもよい。出力装置26は、各種の情報をスクリーン900に映し出す。
記録媒体ドライブ装置27は、記録媒体ドライブ装置27にセットされたフィルム等の記録媒体29を読み込み、記録された各種の情報を読み出す。インタフェース装置28は、外部装置(HMD100等)と通信を行い、字幕情報などを送信し、後述の機器ID、言語データなどを受信する。インタフェース装置28で受信されたデータは、RAM23、HD24などの記憶部に記憶される。
The input device 25 includes an input device such as a button, and inputs various information to the projector 200 in response to an operation of the input device by the user. Note that the input device 25 may be configured to input various information to the projector 200 through operation of a device for performing remote control, operation of a keyboard or mouse connected to the information processing device, or the like. Good. The output device 26 displays various information on the screen 900.
The recording medium drive device 27 reads a recording medium 29 such as a film set in the recording medium drive device 27 and reads various recorded information. The interface device 28 communicates with an external device (such as the HMD 100), transmits subtitle information and the like, and receives a device ID, language data, and the like described later. Data received by the interface device 28 is stored in a storage unit such as the RAM 23 or the HD 24.

図4は、HMD100及びプロジェクタ200の機能構成の一例を示す図である。HMD100は、表示制御部31、通信部32、及び入力部33を有する。
表示制御部31は、CPU11、撮影装置15などを介して、ディスプレイ10における表示を制御する。例えば、表示制御部31は、字幕情報の位置、大きさ、範囲、明るさ等を調整してディスプレイ10に表示する。
通信部32は、インタフェース装置17を介して行われる通信を制御する。例えば、通信部32は、後述の機器ID、言語データなどをプロジェクタ200に送信し、字幕情報などをプロジェクタ200から受信する。
入力部33は、操作ボタンの操作に応答して入力される情報を管理する。例えば、入力部33は、操作ボタンの操作に応答して複数種類の言語から一の言語の指定を受け付け、指定された言語を識別可能な識別情報の一例である言語データを通信部32に通知する。なお、指定された言語データは、RAM13等の記憶部に格納される。
FIG. 4 is a diagram illustrating an example of functional configurations of the HMD 100 and the projector 200. The HMD 100 includes a display control unit 31, a communication unit 32, and an input unit 33.
The display control unit 31 controls display on the display 10 via the CPU 11, the imaging device 15, and the like. For example, the display control unit 31 adjusts the position, size, range, brightness, etc. of the caption information and displays it on the display 10.
The communication unit 32 controls communication performed via the interface device 17. For example, the communication unit 32 transmits a later-described device ID, language data, and the like to the projector 200 and receives subtitle information and the like from the projector 200.
The input unit 33 manages information input in response to operation of the operation buttons. For example, the input unit 33 receives designation of one language from a plurality of types of languages in response to operation of the operation button, and notifies the communication unit 32 of language data that is an example of identification information that can identify the designated language. To do. The designated language data is stored in a storage unit such as the RAM 13.

他方、プロジェクタ200は、データ管理部41及び通信部42を有する。
データ管理部41は、CPU21、記録媒体ドライブ装置27などを介して、プロジェクタ200における各種のデータを管理する。例えば、データ管理部41は、複数種類の言語に対応して設けられた複数種類の字幕データがフィルムから読み出された場合、HMD100から受信した言語データに対応する一連の字幕データ(字幕情報)を通信部42に通知する。
通信部42は、インタフェース装置28を介して行われる通信を制御する。例えば、通信部32は、字幕情報をHMD100に送信し、後述の機器ID、言語データなどをHMD100から受信する。
On the other hand, the projector 200 includes a data management unit 41 and a communication unit 42.
The data management unit 41 manages various data in the projector 200 via the CPU 21, the recording medium drive device 27, and the like. For example, the data management unit 41, when a plurality of types of caption data provided corresponding to a plurality of types of languages are read from the film, a series of caption data (caption information) corresponding to the language data received from the HMD 100 To the communication unit 42.
The communication unit 42 controls communication performed via the interface device 28. For example, the communication unit 32 transmits caption information to the HMD 100 and receives a device ID, language data, and the like described later from the HMD 100.

図5は、字幕データのデータ構造の一例を示す図である。
本実施形態では、字幕データは、「0」又は「1」を示す情報であり、フィルムの字幕トラックに設けられている。より詳細に説明すると、フィルムには、映像トラック、音声トラック(より広義には「音トラック」)、及び字幕トラックが設けれ、映像トラックと音声トラックと字幕トラックとが記録媒体ドライブ装置27で同時に読み込まれる。なお、映像トラックには、映像情報が記録され、音声トラックには、音声情報が記録されている。
換言するならば、映像情報、及び音声情報に同期するように(同期可能に)字幕データがフィルムに予め設けられ、プロジェクタ200は、映像情報、及び音声情報に同期して字幕情報が表示されるように字幕データを読み出す。
FIG. 5 is a diagram illustrating an example of the data structure of caption data.
In the present embodiment, the caption data is information indicating “0” or “1”, and is provided in the caption track of the film. More specifically, the film is provided with a video track, an audio track (“sound track” in a broad sense), and a subtitle track. The video track, the audio track, and the subtitle track are simultaneously recorded by the recording medium drive device 27. Is read. Note that video information is recorded on the video track, and audio information is recorded on the audio track.
In other words, caption data is provided in advance on the film so as to be synchronized with the video information and the audio information (so that they can be synchronized), and the projector 200 displays the caption information in synchronization with the video information and the audio information. The subtitle data is read out as follows.

例えば、字幕に対応する映像情報が記録されたフィルム上の地点よりも前の地点に当該字幕の字幕データが記録され、プロジェクタ200により、映像情報が映し出されるまでに一連の字幕データが読み出されると、一連の字幕データを字幕情報としてHMD100に送信され、HMD100により字幕情報が表示される。上述の構成により、映像、音声、及び字幕の同期が実現される。
また、字幕トラックには、複数種類の言語に対応する複数種類の字幕データが設けられている。なお、プロジェクタ200は、映像情報、音声情報と共に、全ての種類の字幕データを同時に読み出す。
For example, when subtitle data of the subtitle is recorded at a point before the point on the film where the video information corresponding to the subtitle is recorded, and a series of subtitle data is read by the projector 200 until the video information is projected. A series of caption data is transmitted as caption information to the HMD 100, and the caption information is displayed by the HMD 100. With the above-described configuration, synchronization of video, audio, and subtitles is realized.
The subtitle track is provided with a plurality of types of subtitle data corresponding to a plurality of types of languages. Note that the projector 200 simultaneously reads out all types of caption data together with video information and audio information.

図6は、情報提供システムのシーケンスの一例を示す図である。
SQ300では、HMD100は、言語指定処理を行う。より具体的には、HMD100の入力部33は、入力装置16の操作に応答して、複数種類の言語のうちから一の言語の指定を受け付け、受け付けた言語を識別可能な言語データを特定する。
SQ310では、HMD100の通信部32は、HMD100を識別可能な機器IDと特定された言語データとをプロジェクタ200に送信する。なお、機器IDは、HMD100の出荷時の製造番号であってもよいし、管理者により予め設定された値であってもよい。
FIG. 6 is a diagram illustrating an example of a sequence of the information providing system.
In SQ300, the HMD 100 performs language designation processing. More specifically, in response to the operation of the input device 16, the input unit 33 of the HMD 100 accepts designation of one language from a plurality of types of languages, and specifies language data that can identify the accepted language. .
In SQ310, the communication unit 32 of the HMD 100 transmits a device ID that can identify the HMD 100 and the specified language data to the projector 200. The device ID may be a manufacturing number at the time of shipment of the HMD 100 or may be a value set in advance by an administrator.

SQ320では、プロジェクタ200のデータ管理部41は、データ配信処理を行う。例えば、データ管理部41は、通信部42を介して受信された機器ID及び言語データを対応付けてHD24に格納し、フィルムの読み込みに応答して、HMD100が要求する言語の字幕情報を通信部42を介して送信する。なお、データ配信処理の詳細については図7を参照して説明する。
SQ330では、プロジェクタ200の通信部42は、字幕情報をHMD100に送信する。ここで、図6では、SQ330の処理は、データ配信処理において行われるが、便宜上、データ配信処理の後に行われるように示している。なお、SQ350、SQ370、及びSQ380についても同様である。
In SQ320, the data management unit 41 of the projector 200 performs data distribution processing. For example, the data management unit 41 stores the device ID and language data received via the communication unit 42 in association with each other in the HD 24, and in response to reading of the film, subtitle information in the language requested by the HMD 100 is transmitted to the communication unit. 42 to transmit. Details of the data distribution process will be described with reference to FIG.
In SQ330, the communication unit 42 of the projector 200 transmits the caption information to the HMD 100. Here, in FIG. 6, the process of SQ330 is performed in the data distribution process, but for convenience, it is illustrated as being performed after the data distribution process. The same applies to SQ350, SQ370, and SQ380.

SQ340では、HMD100の表示制御部31は、表示制御処理を行う。例えば、表示制御部31は、通信部32を介して受信された字幕情報を、観客により指定された各種の設定、HMD100の位置及び姿勢、並びに映画館の明るさに適合するように調整してディスプレイ10に表示する。なお、表示制御処理の詳細については図8を参照して説明する。
そして、データ管理部41による記録媒体ドライブ装置27を介したフィルムの読み込みが終了するまで、字幕情報の送信処理と表示制御処理とが行われる(SQ350〜SQ390)。
In SQ340, the display control unit 31 of the HMD 100 performs display control processing. For example, the display control unit 31 adjusts the subtitle information received via the communication unit 32 to suit various settings designated by the audience, the position and orientation of the HMD 100, and the brightness of the movie theater. Displayed on the display 10. Details of the display control process will be described with reference to FIG.
Subtitle information transmission processing and display control processing are performed until the data management unit 41 finishes reading the film through the recording medium drive device 27 (SQ350 to SQ390).

図7は、データ配信処理に係るフローチャートの一例を示す図である。
まず、データ管理部41は、記録媒体ドライブ装置27を介して、映像トラック、音声トラック、及び字幕トラックを読み込む(S400)。
この際、データ管理部41は、字幕トラックの字幕データを言語ごとにRAM23に格納する。例えば、音声トラックに日本語、英語、及び中国語の夫々に対応する字幕データが記録されている場合、データ管理部41は、日本語の字幕データ、英語の字幕データ、中国語の字幕データを識別してRAM23に格納する。
そして、データ管理部41は、一連の字幕データとなったと判断した場合、S410の処理を行う。なお、一連の字幕データの判別方法については、適宜の方法を採用できる。例えば、データ管理部41は、字幕トラックに設けられる開始符号及び終了符号の間に設けられている字幕データを一連の字幕データであると判別する。また、例えば、字幕トラックに設けられる特定符号ごとの字幕データを一連の字幕データであると判別する。
FIG. 7 is a diagram illustrating an example of a flowchart relating to data distribution processing.
First, the data management unit 41 reads a video track, an audio track, and a subtitle track via the recording medium drive device 27 (S400).
At this time, the data management unit 41 stores the caption data of the caption track in the RAM 23 for each language. For example, when subtitle data corresponding to Japanese, English, and Chinese is recorded in the audio track, the data management unit 41 stores Japanese subtitle data, English subtitle data, and Chinese subtitle data. It identifies and stores in RAM23.
If the data management unit 41 determines that a series of subtitle data has been obtained, the data management unit 41 performs the process of S410. An appropriate method can be adopted as a method for discriminating a series of caption data. For example, the data management unit 41 determines that the caption data provided between the start code and the end code provided in the caption track is a series of caption data. Further, for example, it is determined that the caption data for each specific code provided in the caption track is a series of caption data.

次に、データ管理部41は、通信部42を介して各HMDから受信された機器IDと各HMDから要求された言語の言語データとをもとに、要求された言語の字幕情報を各HMDに通信部42を介して送信する(S410)。
例えば、機器IDがHMD100を示す「100」であり、言語データが日本語を示す「JP」である場合、上述したように、HD24には機器ID「100」と言語データ「JP」とが対応付けられて記憶されている。すなわち、S410の処理では、データ管理部41は、HD24に記憶されている機器IDと言語データとを順次に読み出し、「100」及び「JP」をHD24から読み出しとき、通信部42を介して、RAM23に記憶されている日本語の字幕情報をHMD100に送信する。
Next, the data management unit 41 uses the device ID received from each HMD via the communication unit 42 and the language data of the language requested from each HMD to display the caption information of the requested language for each HMD. Is transmitted via the communication unit 42 (S410).
For example, when the device ID is “100” indicating HMD100 and the language data is “JP” indicating Japanese, the device ID “100” and the language data “JP” correspond to the HD 24 as described above. Attached and memorized. That is, in the process of S410, the data management unit 41 sequentially reads the device ID and language data stored in the HD 24, and reads “100” and “JP” from the HD 24 via the communication unit 42. The Japanese subtitle information stored in the RAM 23 is transmitted to the HMD 100.

次に、データ管理部41は、記録媒体ドライブ装置27による、映像トラック、音声トラック、及び字幕トラックの読み込みが完了したか否かを判断する(S420)。このとき、データ管理部41は、完了したと判断した場合、処理を終了し、他方、完了していないと判断した場合、S400の処理を行う。   Next, the data management unit 41 determines whether or not reading of the video track, the audio track, and the subtitle track by the recording medium drive device 27 is completed (S420). At this time, if the data management unit 41 determines that the processing has been completed, the processing ends. If the data management unit 41 determines that the processing has not been completed, the processing of S400 is performed.

図8は、表示制御処理に係るフローチャートの一例を示す図である。
まず、表示制御部31は、撮影装置15の映像をもとにスクリーン900を特定し、ディスプレイ10におけるスクリーン900の位置を算出する(S500)。
本実施形態では、スクリーン900の四隅には、スクリーン900の外形を示すマーカが設けられ、表示制御部31は、マーカによりスクリーン900を特定する。なお、スクリーン900を特定する方法については、上述の構成に限られるものではなく、パターン認識などの公知の方法を採用してもよい。
FIG. 8 is a diagram illustrating an example of a flowchart relating to display control processing.
First, the display control unit 31 specifies the screen 900 based on the video of the photographing device 15 and calculates the position of the screen 900 on the display 10 (S500).
In the present embodiment, markers indicating the outer shape of the screen 900 are provided at the four corners of the screen 900, and the display control unit 31 identifies the screen 900 using the marker. Note that the method for specifying the screen 900 is not limited to the above-described configuration, and a known method such as pattern recognition may be employed.

また、スクリーンの900の四隅に設けられるマーカが赤外線を発し、赤外線検出装置により検出されたマーカをもとにスクリーン900が特定される構成を採用してもよい。この場合、赤外線検出装置は、撮影装置15に含まれていてもよいし、撮影装置15に代えて設けられていてもよい。また、赤外線検出装置は、上述のような受動型センサに限られるものではなく、能動型センサでも本実施形態を実現できる。
このように、赤外線を発するマーカを用いることで、観客に不快感などを与えることなく、スクリーン900を特定することができ、更には、映画館などの暗い場所においても正確にスクリーン900を特定することができる。付言するならば、撮影装置15として赤外線カメラを採用してもよく、この場合も同様の効果が得られる。
Further, a configuration may be adopted in which the markers provided at the four corners of the screen 900 emit infrared rays, and the screen 900 is specified based on the markers detected by the infrared detection device. In this case, the infrared detecting device may be included in the photographing device 15 or may be provided instead of the photographing device 15. In addition, the infrared detection device is not limited to the passive sensor as described above, and the present embodiment can be realized by an active sensor.
In this way, by using a marker that emits infrared rays, the screen 900 can be specified without causing discomfort to the audience. Furthermore, the screen 900 can be accurately specified even in a dark place such as a movie theater. be able to. In other words, an infrared camera may be employed as the photographing device 15, and the same effect can be obtained in this case.

次に、表示制御部31は、字幕情報をディスプレイ10に表示する。より詳細に説明すると、表示制御部31は、S500で算出した位置を用いて、ディスプレイ10におけるスクリーン900の外側(外側領域)に字幕情報を表示する。この位置特定の演算(S500)には、従来から用いられている技術を適用する。より具体的には、撮影装置15における座標系をディスプレイ10における座標系に変換する。これにより撮影装置15で捉えた各マーカ位置に基づきディスプレイ10内でスクリーン900の相当領域が特定できる。表示制御部31は、外側領域のうちディスプレイ10におけるスクリーン900の外形から一定の距離に字幕情報を表示する。
ディスプレイ10におけるスクリーン900の上下左右の何れに表示するかは、ユーザにより指定される構成であってもよいし、上下左右の外側領域の最も広い領域に決定される構成であってもよいし、HMD100の位置、姿勢などに応じて決定される構成であってもよいし、これらを組み合わせてもよい。
Next, the display control unit 31 displays subtitle information on the display 10. More specifically, the display control unit 31 displays subtitle information on the outside (outside area) of the screen 900 in the display 10 using the position calculated in S500. A conventionally used technique is applied to the position specifying calculation (S500). More specifically, the coordinate system in the photographing apparatus 15 is converted into the coordinate system in the display 10. As a result, a corresponding area of the screen 900 can be specified in the display 10 based on each marker position captured by the photographing device 15. The display control unit 31 displays subtitle information at a certain distance from the outer shape of the screen 900 in the display 10 in the outer region.
Whether to display on the top, bottom, left, or right of the screen 900 in the display 10 may be a configuration specified by the user, or may be a configuration determined in the widest region of the top, bottom, left, and right outer regions, The configuration may be determined according to the position, posture, etc. of the HMD 100, or these may be combined.

ここで、HMD100の位置に応じて決定される構成を採用した場合、表示制御部31は、例えば、HMD100がスクリーン900の正面に位置しないときは、図9Aに示すようにHMD100がスクリーン900に近い側に字幕情報を表示する。
また、例えば、HMD100の姿勢に応じて決定される構成を採用した場合、表示制御部31は、HMD100が傾いているとき、例えば図9Bに示すようにユーザがスクリーン900に対してやや下方向を見たとき、つまりHMD100がスクリーン900の正面に位置しないときは、表示制御部31は、上下左右の外側領域の最も広い領域を特定し、特定した領域に字幕情報を表示する。
Here, when the configuration determined according to the position of the HMD 100 is adopted, the display control unit 31 is close to the screen 900 as shown in FIG. 9A when the HMD 100 is not positioned in front of the screen 900, for example. Display subtitle information on the side.
Further, for example, when a configuration determined according to the attitude of the HMD 100 is adopted, the display control unit 31 causes the user to slightly lower the screen 900 as shown in FIG. 9B when the HMD 100 is tilted. When viewed, that is, when the HMD 100 is not located in front of the screen 900, the display control unit 31 specifies the widest area of the upper, lower, left, and right outer areas and displays the caption information in the specified area.

本実施形態によれば、映画などの字幕をユーザが所望する言語とすることができ、更には、その映像を邪魔することなくユーザに字幕を提供することができる。
なお、本実施形態は、上述の構成に限られるものではない。例えば、読み出された字幕データがHMD100に適宜に送信され、HMD100で一連の字幕データが字幕情報とされる構成を採用してもよい。
According to the present embodiment, a caption such as a movie can be set in a language desired by the user, and further, the caption can be provided to the user without disturbing the video.
Note that the present embodiment is not limited to the above-described configuration. For example, the read caption data may be appropriately transmitted to the HMD 100, and a series of caption data may be used as the caption information in the HMD 100.

(第2の実施形態)
第1の実施形態では、字幕データがフィルムに記録されていたが、本実施形態では、字幕情報(一連の字幕データ)がHD24などの記憶部に記憶されている。なお、第1の実施形態と同じ構成については、同一の符号を用いて説明を適宜省略する。
(Second Embodiment)
In the first embodiment, the caption data is recorded on the film, but in the present embodiment, caption information (a series of caption data) is stored in a storage unit such as the HD 24. In addition, about the same structure as 1st Embodiment, description is abbreviate | omitted suitably using the same code | symbol.

図10は、字幕情報のデータ構造の一例を示す図である。
映像情報、及び音声情報は、HD24に記憶され、映像情報、及び音声情報の少なくとも一方が読み出されるタイミングごとにタイミングID51(映像情報に対して同期をとる際の指標となる標識情報の一例である。)が付されている。他方、字幕情報については、映像情報、及び音声情報の少なくとも一方のタイミングID51に対応するタイミングID(52〜56)が対応付けられてHD24に記憶されている。
なお、映像情報、及び音声情報は、フィルムに記録されていてもよい。
FIG. 10 is a diagram illustrating an example of a data structure of caption information.
The video information and the audio information are stored in the HD 24 and are timing IDs 51 (an example of marker information that serves as an index for synchronizing with video information at each timing when at least one of the video information and the audio information is read out). .) Is attached. On the other hand, for the caption information, the timing IDs (52 to 56) corresponding to the timing ID 51 of at least one of the video information and the audio information are associated with each other and stored in the HD 24.
Note that the video information and audio information may be recorded on a film.

ここで、映像情報、及び音声情報が読み出される際には、まず、付されているタイミングIDが読み出され、読み出されたタイミングIDに対応する字幕情報がHD24から読み出される。そして、プロジェクタ200により読み出されたタイミングID及び字幕情報がHMD100に送信され、HMD100により字幕情報が表示される。これにより、映像、音声、及び字幕の同期が実現される。
また、HD24には、複数種類の言語に対応する複数種類の字幕情報が同様に記憶されている。
なお、本実施形態は、上述の構成に限られるものではない。例えば、映像情報、音声情報、及び字幕情報は、インタフェース装置28を介して接続される記憶装置に記憶されていてもよい。
Here, when video information and audio information are read, the attached timing ID is read first, and caption information corresponding to the read timing ID is read from the HD 24. Then, the timing ID and subtitle information read by the projector 200 are transmitted to the HMD 100, and the subtitle information is displayed by the HMD 100. This realizes synchronization of video, audio, and subtitles.
Further, the HD 24 similarly stores a plurality of types of subtitle information corresponding to a plurality of types of languages.
Note that the present embodiment is not limited to the above-described configuration. For example, video information, audio information, and subtitle information may be stored in a storage device connected via the interface device 28.

図11は、データ配信処理に係るフローチャートの一例を示す図である。
まず、データ管理部41は、記録媒体ドライブ装置27を介して、映像トラック及び音声トラックを読み込み、タイミングIDを読み出したときはタイミングIDをRAM23に格納する(S600)。
次に、データ管理部41は、読み出した情報がタイミングIDであるか否かを判断する(S610)。このとき、データ管理部41は、タイミングIDであると判断した場合、S620の処理を行い、他方、タイミングIDでないと判断した場合、S600の処理を行う。
FIG. 11 is a diagram illustrating an example of a flowchart relating to data distribution processing.
First, the data management unit 41 reads the video track and the audio track via the recording medium drive device 27, and stores the timing ID in the RAM 23 when the timing ID is read (S600).
Next, the data management unit 41 determines whether or not the read information is a timing ID (S610). At this time, if the data management unit 41 determines that it is a timing ID, it performs the process of S620, and if it determines that it is not a timing ID, it performs the process of S600.

S620では、データ管理部41は、読み出したタイミングIDに対応する字幕情報をHD24から抽出する。このとき、データ管理部41は、複数種類の言語に対応する全ての字幕情報を抽出する。
次に、データ管理部41は、S410と同様に、各HMDから受信した機器IDと各HMDから要求された言語の言語データとをもとに、要求された言語の字幕情報及びそのタイミングIDを各HMDに通信部42を介して送信する(S630)。なお、データ管理部41は、タイミングIDに対応する字幕情報が抽出されていないときは、タイミングIDのみを送信する。
次に、データ管理部41は、映像トラック及び音声トラックの読み込みが完了したか否かを判断する(S640)。このとき、データ管理部41は、完了したと判断した場合、処理を終了し、他方、完了していないと判断した場合、S600の処理を行う。
そして、HMD100では、表示制御処理が行われ、ディスプレイ10におけるスクリーン900の外側に字幕情報が表示される。
In S620, the data management unit 41 extracts caption information corresponding to the read timing ID from the HD 24. At this time, the data management unit 41 extracts all caption information corresponding to a plurality of types of languages.
Next, as in S410, the data management unit 41 uses the device ID received from each HMD and the language data of the language requested from each HMD to obtain the subtitle information of the requested language and its timing ID. It transmits to each HMD via the communication part 42 (S630). In addition, the data management part 41 transmits only timing ID, when the caption information corresponding to timing ID is not extracted.
Next, the data management unit 41 determines whether the reading of the video track and the audio track is completed (S640). At this time, if the data management unit 41 determines that the processing has been completed, the processing ends. If the data management unit 41 determines that the processing has not been completed, the processing of S600 is performed.
In the HMD 100, display control processing is performed, and caption information is displayed on the outside of the screen 900 in the display 10.

なお、S630の処理では、字幕情報及び対応するタイミングIDを各HMDに送信する構成を採用したが、この構成に限られるものではない。
例えば、プロジェクタ200は、HMD100から言語データを受信した際に、言語データの言語の全ての字幕情報及び対応付けられているタイミングIDをHMD100に送信し、S630の処理ではタイミングIDを送信する構成を採用してもよい。
また、例えば、HMD100は、言語の指定を受け付けた際に字幕情報及び対応付けられているタイミングIDをHD24から取得し、プロジェクタ200は、S630の処理ではタイミングIDを送信する構成を採用してもよい。
これらの場合、S620の抽出処理と同様の処理が表示制御処理で行われる。
本実施形態によれば、字幕情報がフィルムに設けられていないので、言語の種類の追加の要望に、より容易に対応することができる。なお、本実施形態では、第1の実施形態の効果も奏する。
In the process of S630, the configuration in which the caption information and the corresponding timing ID are transmitted to each HMD is adopted, but the configuration is not limited to this configuration.
For example, when the projector 200 receives language data from the HMD 100, the projector 200 transmits all the caption information in the language of the language data and the associated timing ID to the HMD 100, and transmits the timing ID in the process of S630. It may be adopted.
Further, for example, when the HMD 100 receives the designation of the language, the HMD 100 acquires the subtitle information and the associated timing ID from the HD 24, and the projector 200 adopts a configuration in which the timing ID is transmitted in the process of S630. Good.
In these cases, the same process as the extraction process in S620 is performed in the display control process.
According to the present embodiment, since the subtitle information is not provided on the film, it is possible to more easily cope with the demand for additional language types. In addition, in this embodiment, there exists an effect of 1st Embodiment.

(第3の実施形態)
本実施形態では、スクリーン900に映し出されたオブジェクト(手紙、新聞、雑誌、看板など)に重畳して、予め記憶されたオブジェクト情報(ARデータの一例)がディスプレイ10に表示される。すなわち、本実施形態では、第2の実施形態と同様に字幕情報がHD24に記憶され、更に、映像に係るオブジェクト情報などがHD24に記憶されている。なお、第1の実施形態、及び第2の実施形態と同じ構成については、同一の符号を用いて説明を適宜省略する。
(Third embodiment)
In the present embodiment, object information (an example of AR data) stored in advance is displayed on the display 10 so as to be superimposed on an object (letter, newspaper, magazine, signboard, etc.) displayed on the screen 900. That is, in the present embodiment, caption information is stored in the HD 24 as in the second embodiment, and object information and the like related to video are stored in the HD 24. In addition, about the same structure as 1st Embodiment and 2nd Embodiment, description is abbreviate | omitted suitably using the same code | symbol.

図12は、字幕情報のデータ構造の一例を示す図である。
映像情報、及び音声情報については、HD24に記憶されていても、フィルムに記録されていてもよいが、映像情報、及び音声情報の少なくとも一方が読み出されるタイミングごとにタイミングID51が付されている。他方、字幕情報については、タイミングID51に対応するタイミングID(52〜56)が対応付けられてHD24に記憶されている。
また、本実施形態では、タイミングID51に対応するタイミングID(57、58)が対応付けられてオブジェクト情報(画像データ、フリーデータなど)がHD24に記憶されている。オブジェクト情報は、映像中のオブジェクトに係る情報である。例えば、HMD100で日本語の指定が受け付けられている場合、オブジェクトとして中国語の手紙が映し出されているときに、日本語の手紙を示すために、管理者は、オブジェクト情報として日本語の手紙の画像データをタイミングIDに関連付けてHD24に予め記憶しておく。
FIG. 12 is a diagram illustrating an example of a data structure of caption information.
The video information and the audio information may be stored in the HD 24 or recorded on the film, but a timing ID 51 is assigned for each timing at which at least one of the video information and the audio information is read. On the other hand, the subtitle information is stored in the HD 24 in association with the timing IDs (52 to 56) corresponding to the timing ID 51.
In this embodiment, the timing ID (57, 58) corresponding to the timing ID 51 is associated with the object information (image data, free data, etc.) stored in the HD 24. The object information is information related to the object in the video. For example, in the case where Japanese designation is accepted by the HMD 100, in order to indicate a Japanese letter when a Chinese letter is projected as an object, the administrator uses a Japanese letter as object information. The image data is stored in advance in the HD 24 in association with the timing ID.

ここで、映像情報、及び音声情報が読み出される際には、付されているタイミングIDが読み出され、読み出されたタイミングIDに対応する字幕情報、及びオブジェクト情報が読み出される。そして、プロジェクタ200により読み出されたタイミングID、字幕情報、及びオブジェクト情報がHMD100に送信され、HMD100により字幕情報、及びオブジェクト情報が表示される。これにより、映像、音声、字幕、及びオブジェクトの同期が実現される。
また、HD24には、複数種類の言語に対応する複数種類の字幕情報が同様に記憶されている。
なお、本実施形態は、上述の構成に限られるものではない。例えば、映像情報、音声情報、字幕情報、及びオブジェクト情報は、インタフェース装置28を介して接続される記憶装置に記憶されていてもよい。
Here, when video information and audio information are read, the attached timing ID is read, and caption information and object information corresponding to the read timing ID are read. Then, the timing ID, subtitle information, and object information read by the projector 200 are transmitted to the HMD 100, and the subtitle information and the object information are displayed by the HMD 100. This realizes synchronization of video, audio, subtitles, and objects.
Further, the HD 24 similarly stores a plurality of types of subtitle information corresponding to a plurality of types of languages.
Note that the present embodiment is not limited to the above-described configuration. For example, video information, audio information, caption information, and object information may be stored in a storage device connected via the interface device 28.

図13は、字幕情報などを管理する管理テーブルのデータ構造の一例を示す図である。
管理テーブルには、タイミングID、言語の種類、字幕の内容、字幕を表示する時間を調整する時間調整、オブジェクトを表示する位置を示す表示位置、オブジェクトの大きさを調整する大きさ調整の情報が格納されている。
管理テーブルの各種の情報は、管理者等により、映画の開始前に予め設定されているものとする。なお、本実施形態では、データの管理には、データベースなどで用いられる管理テーブルを採用しているが、表計算などが可能なアプリケーションで扱われる表形式のファイルであってもよいし、カンマ区切りのファイルであってもよい。
FIG. 13 is a diagram illustrating an example of a data structure of a management table for managing caption information and the like.
The management table includes timing ID, language type, subtitle content, time adjustment for adjusting the time for displaying the subtitle, display position indicating the position for displaying the object, and information for size adjustment for adjusting the size of the object. Stored.
It is assumed that various information in the management table is set in advance by the administrator or the like before the start of the movie. In the present embodiment, a management table used in a database or the like is adopted for data management. However, it may be a table format file handled by an application capable of spreadsheet or the like, and may be separated by a comma. File.

図14は、データ配信処理に係るフローチャートの一例を示す図である。なお、S700、S710、S720、及びS750の処理は、基本的には、S600、S610、S620、及びS640の処理と同様であるので説明を省略する。ただし、S720では、データ管理部41は、字幕情報に対する調整時間の情報が設定されている場合、調整時間の情報も抽出する。   FIG. 14 is a diagram illustrating an example of a flowchart relating to data distribution processing. Note that the processing in S700, S710, S720, and S750 is basically the same as the processing in S600, S610, S620, and S640, and thus description thereof is omitted. However, in S720, the data management unit 41 also extracts the adjustment time information when the adjustment time information for the caption information is set.

S730では、データ管理部41は、読み出したタイミングIDに対応するオブジェクト情報をHD24から抽出する。なお、データ管理部41は、複数種類の言語に対応するオブジェクト情報が存在するときは、全てのオブジェクト情報を抽出する。
次に、データ管理部41は、S410やS630と同様に、各HMDから受信した機器IDと各HMDから要求された言語の言語データとをもとに、要求された言語の字幕情報と抽出したオブジェクト情報とそのタイミングIDとを各HMDに通信部42を介して送信する。なお、データ管理部41は、タイミングIDに対応する字幕情報及びオブジェクト情報が抽出されていないときは、タイミングIDのみを送信する。
In S730, the data management unit 41 extracts object information corresponding to the read timing ID from the HD 24. The data management unit 41 extracts all object information when there is object information corresponding to a plurality of types of languages.
Next, similarly to S410 and S630, the data management unit 41 extracts the caption information of the requested language based on the device ID received from each HMD and the language data of the language requested by each HMD. The object information and its timing ID are transmitted to each HMD via the communication unit 42. In addition, the data management part 41 transmits only timing ID, when the caption information and object information corresponding to timing ID are not extracted.

図15は、表示制御処理に係るフローチャートの一例を示す図である。なお、S800の処理は、基本的には、S500の処理と同様であるので説明を省略する。
S810では、表示制御部31は、S510の処理と同様の処理を行うと共に、字幕情報と共に時間調整の情報が受信されたときは、タイマーに時間調整の情報(値)をセットする。
ここで、表示制御部31は、タイミングIDを受信すると、基本的には、現在表示している字幕情報を消去し、次のタイミングID及び字幕情報を受信すると、タイマーに値がセットされているときはその値が経過した後に、その字幕情報の表示を行う。ただし、入力装置16を介して字幕を延長して表示する旨の指定(延長表示指定)が入力部33で受け付けられているときは、表示制御部31は、タイマーにセットされた値が経過した後に、現在表示している字幕情報を消去して次の字幕情報の表示を行う。
FIG. 15 is a diagram illustrating an example of a flowchart relating to display control processing. Note that the processing in S800 is basically the same as the processing in S500, and thus the description thereof is omitted.
In S810, the display control unit 31 performs the same processing as the processing in S510, and sets time adjustment information (value) in the timer when the time adjustment information is received together with the caption information.
Here, when receiving the timing ID, the display control unit 31 basically deletes the currently displayed subtitle information, and when receiving the next timing ID and subtitle information, a value is set in the timer. When the value has passed, the caption information is displayed. However, when the input unit 33 accepts the designation (extended display designation) for displaying the subtitles extended through the input device 16, the display control unit 31 has passed the value set in the timer. Later, the currently displayed subtitle information is deleted and the next subtitle information is displayed.

図16に、字幕の表示タイミングの一例を示す。上段には、延長表示指定が受け付けられていないときの字幕の表示タイミングを示し、下段には、延長表示指定が受け付けられているときの字幕の表示タイミングを示す。
ここで、本実施形態では、図16の上段に示すように、基本的には、シーンに応じた字幕が表示される。より具体的には、第1のシーン(シーン1)から第2のシーン(シーン2)に映像が切り替わると(第2のシーンのタイミングIDが受信されると)、第1のシーンの字幕が消去される。しかしながら、小学生などは、字幕を読む速度が遅いため、第1のシーンの字幕を読み終わる前に第1のシーンの字幕が消去されてしまうことがある。
そこで、本実施形態では、延長表示指定が受け付けられると、図16の下段に示すように、第2のシーンのタイミングIDが受信されて第2のシーンが開始されても、第2のシーンの字幕が表示されるまで(第2のシーンのタイミングIDを受信してから10秒後まで)は、第1のシーンの字幕を表示する。なお、字幕の長さに応じて字幕を表示する時間を変更する構成としてもよい。この場合、第1のシーンの字幕と第2のシーンの字幕とが第2のシーンで同時に表示されることがある。
このように、延長表示指示を受け付けることにより字幕を表示する時間を変更することができるので、観客は、字幕を把握しやすくなる。
FIG. 16 shows an example of subtitle display timing. The upper row shows the subtitle display timing when the extended display designation is not accepted, and the lower row shows the subtitle display timing when the extended display designation is accepted.
Here, in this embodiment, as shown in the upper part of FIG. 16, basically, subtitles corresponding to the scene are displayed. More specifically, when the video is switched from the first scene (scene 1) to the second scene (scene 2) (when the timing ID of the second scene is received), the caption of the first scene is changed. Erased. However, elementary school students and the like read the subtitles slowly, so the subtitles in the first scene may be erased before reading the subtitles in the first scene.
Therefore, in this embodiment, when the extended display designation is accepted, as shown in the lower part of FIG. 16, even if the timing ID of the second scene is received and the second scene is started, Until the caption is displayed (until 10 seconds after receiving the timing ID of the second scene), the caption of the first scene is displayed. Note that the time for displaying a caption may be changed according to the length of the caption. In this case, the subtitle of the first scene and the subtitle of the second scene may be displayed simultaneously in the second scene.
In this way, the time for displaying the caption can be changed by accepting the extended display instruction, so that the audience can easily grasp the caption.

S820では、表示制御部31は、ひずみ処理を行う。ひずみ処理では、表示制御部31は、スクリーン900の歪みに応じて表示用のオブジェクトの形状を変形する。なお、形状を変形する処理については、一般的な手法を用いて実現できるので、詳細な説明は省略する。
また、表示制御部31は、オブジェクト情報と共に送信される大きさ調整の情報をもとに、ディスプレイ10におけるスクリーン900の大きさに対応して表示用のオブジェクトの大きさを変更する。本実施形態では、大きさ調整の情報は、スクリーン900の縦の長さを1としたときのオブジェクトの縦の長さを示す値(割合)である。
In S820, the display control unit 31 performs distortion processing. In the distortion processing, the display control unit 31 deforms the shape of the display object according to the distortion of the screen 900. Note that the process of deforming the shape can be realized by using a general method, and thus detailed description thereof is omitted.
Further, the display control unit 31 changes the size of the display object corresponding to the size of the screen 900 in the display 10 based on the size adjustment information transmitted together with the object information. In the present embodiment, the size adjustment information is a value (ratio) indicating the vertical length of the object when the vertical length of the screen 900 is 1.

S830では、表示制御部31は、歪み処理後のオブジェクト情報をディスプレイ10に表示する。より具体的には、表示制御部31は、オブジェクト情報と共に送信される表示位置の座標情報をもとに、ディスプレイ10における表示位置を決定する。本実施形態では、座標情報は、スクリーン900の左上に設けられているマーカ(マーカ910)を原点とした座標系のデータである。
例えば、HMD100で日本語の字幕の指定が受け付けられている場合、図17Aに示すような中国語の手紙60がスクリーン900に表示される際、図17Bに示すような日本語の手紙のオブジェクト情報がプロジェクタ200から送信され、スクリーン900上の中国語の手紙60に重ねられるように位置合わせが行われて日本語の手紙65がディスプレイ10に表示される。
In S830, the display control unit 31 displays the object information after the distortion processing on the display 10. More specifically, the display control unit 31 determines the display position on the display 10 based on the coordinate information of the display position transmitted together with the object information. In the present embodiment, the coordinate information is data in a coordinate system with the marker (marker 910) provided at the upper left of the screen 900 as the origin.
For example, when designation of Japanese subtitles is accepted by the HMD 100, when a Chinese letter 60 as shown in FIG. 17A is displayed on the screen 900, object information of a Japanese letter as shown in FIG. 17B. Is transmitted from the projector 200 and is aligned so that it is superimposed on the Chinese letter 60 on the screen 900, and the Japanese letter 65 is displayed on the display 10.

S840では、表示制御部31は、オプション処理を行う。オプション処理では、表示制御部31は、フリーデータを受信した場合、フリーデータに応じて処理を行う。
例えば、表示制御部31は、残虐なシーン、子供に見せたくないシーンなどを示すフリーデータをもとに、一部又は全部の映像を覆って隠す処理(モザイク処理)を行う。
本実施形態によれば、観客の年齢などに応じて字幕を提供することができる。また、本実施形態によれば、映像のオブジェクトについても、指定された言語に、より容易に対応することができる。なお、本実施形態では、第1の実施形態の効果、及び第2の実施形態の効果も奏する。
In S840, the display control unit 31 performs an option process. In the optional processing, when the display control unit 31 receives free data, the display control unit 31 performs processing according to the free data.
For example, the display control unit 31 performs a process (mosaic process) that covers or hides some or all of the video based on free data indicating a cruel scene, a scene that the child does not want to show.
According to this embodiment, subtitles can be provided according to the age of the audience. Further, according to the present embodiment, it is possible to more easily correspond to a designated language for a video object. In addition, in this embodiment, there also exists the effect of 1st Embodiment and the effect of 2nd Embodiment.

また、本実施形態は、上述の構成に限られるものではない。
例えば、表示制御部31は、字幕情報の表示に係る処理(S810)とオブジェクト情報の表示に係る処理(S820、S830)とを並行して行ってもよいし、オブジェクト情報の表示に係る処理を字幕情報の表示に係る処理よりも先に行ってもよい。
また、例えば、表示制御部31は、映画館(会場)の明るさに応じてオブジェクト情報の明るさを調整する処理を行ってもよい。会場の明るさについては、撮影装置15の映像から取得してもよいし、明るさを検知する検知装置をHMD100に設けて、検知装置により取得されてもよい。
Further, the present embodiment is not limited to the above-described configuration.
For example, the display control unit 31 may perform a process related to displaying caption information (S810) and a process related to displaying object information (S820, S830) in parallel, or a process related to displaying object information. You may perform before the process which concerns on a display of subtitle information.
For example, the display control unit 31 may perform a process of adjusting the brightness of the object information in accordance with the brightness of a movie theater (venue). The brightness of the venue may be acquired from the video of the photographing device 15 or may be acquired by the detection device provided in the HMD 100 for detecting the brightness.

HD24には3Dのオブジェクト情報が記憶されている。よって、表示制御部31は、映画が3D映画である場合、映画のシーンに合わせて3Dのオブジェクト情報をディスプレイ10に表示する。なお、表示制御部31は、2D映画である場合でも、映画のシーンに合わせて3Dのオブジェクト情報をディスプレイ10に表示してもよい。
また、観客の360oの顔写真を事前に登録し(HD24に記憶し)、プロジェクタ200は、予め規定したタイミングで顔写真を読み出してHMD100に送信し、HMD100は、ディスプレイ10に顔写真を表示する。例えば、映画に登場する特定の人物が映し出されるときに、自分の顔写真が特定の人物の顔に重ねられてディスプレイ10に表示される。
The HD 24 stores 3D object information. Therefore, when the movie is a 3D movie, the display control unit 31 displays 3D object information on the display 10 in accordance with the scene of the movie. Note that the display control unit 31 may display 3D object information on the display 10 in accordance with the scene of the movie even in the case of a 2D movie.
In addition, (stored in the HD24) to register the face photos of 360 o of the audience in advance, the projector 200, and sends it to the HMD100 reads the face photograph at a timing defined in advance, HMD100 is, display a face photo on the display 10 To do. For example, when a specific person appearing in a movie is projected, his / her face picture is superimposed on the face of the specific person and displayed on the display 10.

なお、上述した実施形態では、映像がフィルムに記録されている例で説明したが、映像・音声・字幕をすべてデジタルデータで記録しても同様に実施することができる。
また、上述した実施形態では、HMD100側から言語データをプロジェクタ200に送信する例で説明したが、HMD100に言語選択スイッチ(入力装置16の一例)を設け、プロジェクタ200から多チャンネルで無線配信された字幕情報の中から、ユーザによる言語選択スイッチの操作に応じた言語の字幕情報(字幕情報チャンネル)を選択的に受信するようにしてもよい。この場合、言語選択スイッチは、物理的なスイッチでも、ソフトウェア構成のスイッチでも構わない。付言するならば、第1の実施形態、及び第2の実施形態についてもこの構成を採用することができる。
In the above-described embodiment, the example in which the video is recorded on the film has been described. However, even if the video, audio, and subtitles are all recorded as digital data, the embodiment can be similarly implemented.
In the above-described embodiment, the example in which the language data is transmitted from the HMD 100 to the projector 200 has been described. However, the language selection switch (an example of the input device 16) is provided in the HMD 100, and the projector 200 is wirelessly distributed over multiple channels. You may make it selectively receive the subtitle information (subtitle information channel) of the language according to the operation of the language selection switch by the user from the subtitle information. In this case, the language selection switch may be a physical switch or a software configuration switch. If it adds, this structure is employable also about 1st Embodiment and 2nd Embodiment.

(その他の実施形態)
また、上述の実施形態では、映画館のスクリーン900に適用して説明したが、家に設置されるテレビに適用してもよい。
また、記録媒体29、HD24、インタフェース装置28を介して接続される記憶装置は、記憶媒体の一例である。
付言するならば、上述した構成については、適宜組み合わせて採用することができる。
(Other embodiments)
In the above-described embodiment, the description is applied to the movie theater screen 900. However, the present invention may be applied to a television set in a house.
The storage device connected via the recording medium 29, the HD 24, and the interface device 28 is an example of a storage medium.
If it adds, about the structure mentioned above, it can employ | adopt combining suitably.

上述した構成によれば、字幕を映しこむ場合、映像の一部に重なってしまう事態を避けることができ、作品のどこかに字幕が重なってしまい見栄えを悪くしてしまうことがない。
また、字幕は、基本的には台詞やキャプションなどに対応して表示されるが、作品によっては、映像に映し出される新聞紙や雑誌などの記事に意味があるものが存在する。これに対し、上述した構成によれば、意味のある記事の部分が原語表示されたままで表示される問題を解決できる。
このように、上述した構成によれば、字幕情報をより適切に表示することができる。
According to the configuration described above, when subtitles are projected, it is possible to avoid a situation in which they overlap with a part of the video, and the subtitles overlap somewhere in the work and do not deteriorate the appearance.
In addition, subtitles are basically displayed in correspondence with dialogue, captions, etc., but depending on the work, there are some articles such as newspapers and magazines that are projected on the video. On the other hand, according to the above-described configuration, it is possible to solve the problem that a meaningful article portion is displayed while being displayed in the original language.
Thus, according to the configuration described above, caption information can be displayed more appropriately.

以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.

100 HMD
200 プロジェクタ
100 HMD
200 Projector

Claims (11)

表示部を有する表示装置であって、
当該表示装置の位置を検出する検出手段と、
前記検出手段で検出された位置に応じて特定される前記表示部における表示位置に字幕情報を表示する表示制御手段と、を有することを特徴とする表示装置。
A display device having a display unit,
Detecting means for detecting the position of the display device;
And a display control means for displaying subtitle information at a display position in the display unit specified according to the position detected by the detection means.
前記検出手段は、当該表示装置の姿勢を更に検出し、
前記表示制御手段は、前記検出手段で検出された位置及び姿勢に応じて特定される前記表示部における表示位置に前記字幕情報を表示することを特徴とする請求項1に記載の表示装置。
The detection means further detects the attitude of the display device,
The display device according to claim 1, wherein the display control unit displays the subtitle information at a display position in the display unit specified according to the position and orientation detected by the detection unit.
前記検出手段は、当該表示装置の位置及び姿勢に応じて、情報を映し出すスクリーンを特定し、
前記表示制御手段は、前記表示部における表示位置として、前記表示部における前記スクリーンの外側の位置を決定し、決定した位置に前記字幕情報を表示することを特徴とする請求項2に記載の表示装置。
The detection means identifies a screen that displays information according to the position and orientation of the display device,
The display according to claim 2, wherein the display control unit determines a position outside the screen in the display unit as a display position in the display unit, and displays the caption information at the determined position. apparatus.
前記スクリーンの四隅には、マーカが設けられ、
前記表示制御手段は、前記四隅のマーカにより前記スクリーンを特定することを特徴とする請求項3に記載の表示装置。
Markers are provided at the four corners of the screen,
The display device according to claim 3, wherein the display control unit specifies the screen by using markers at the four corners.
字幕情報を送信する情報提供装置と、表示部を有する表示装置と、字幕情報が記憶された記憶媒体と、を含む情報提供システムであって、
前記情報提供装置は、
前記記憶媒体から字幕情報を取得する取得手段と、
前記取得手段で取得された字幕情報を前記表示装置に送信する送信手段と、を有し、
前記表示装置は、
前記情報提供装置から前記字幕情報を受信する受信手段と、
当該表示装置の位置を検出する検出手段と、
前記検出手段で検出された位置に応じて特定される前記表示部における表示位置に前記字幕情報を表示する表示制御手段と、を有することを特徴とする情報提供システム。
An information providing system that includes an information providing device that transmits caption information, a display device that includes a display unit, and a storage medium that stores caption information,
The information providing apparatus includes:
Acquisition means for acquiring subtitle information from the storage medium;
Transmission means for transmitting subtitle information acquired by the acquisition means to the display device,
The display device
Receiving means for receiving the caption information from the information providing device;
Detecting means for detecting the position of the display device;
An information providing system comprising: display control means for displaying the caption information at a display position in the display unit specified according to the position detected by the detection means.
前記記憶媒体には、スクリーンに映し出されるオブジェクトに係るオブジェクト情報が更に記憶され、
前記取得手段は、前記記憶媒体からオブジェクト情報を更に取得し、
前記送信手段は、前記取得手段で取得されたオブジェクト情報を前記表示装置に送信し、
前記受信手段は、前記情報提供装置から前記オブジェクト情報を受信し、
前記表示制御手段は、前記検出手段で検出された位置に応じて特定される前記表示部における表示位置に前記オブジェクト情報を表示することを特徴とする請求項5に記載の情報提供システム。
The storage medium further stores object information related to the object displayed on the screen,
The acquisition means further acquires object information from the storage medium,
The transmission means transmits the object information acquired by the acquisition means to the display device,
The receiving means receives the object information from the information providing apparatus;
The information providing system according to claim 5, wherein the display control unit displays the object information at a display position in the display unit specified according to the position detected by the detection unit.
前記記憶媒体には、複数種類の言語に対応する複数種類の字幕情報が記憶され、
前記表示装置は、ユーザ操作に応答して指定された言語を示す識別情報を前記情報提供装置に通知する通知手段を更に有し、
前記送信手段は、前記取得手段で取得された字幕情報のうち前記識別情報に対応する言語の字幕情報を前記表示装置に送信することを特徴とする請求項5又は6に記載の情報提供システム。
The storage medium stores a plurality of types of subtitle information corresponding to a plurality of types of languages,
The display device further includes notification means for notifying the information providing device of identification information indicating a language specified in response to a user operation,
The information providing system according to claim 5, wherein the transmission unit transmits subtitle information in a language corresponding to the identification information among the subtitle information acquired by the acquisition unit to the display device.
前記記憶媒体には、複数種類の言語に対応する複数種類の字幕情報が記憶され、
前記取得手段は、前記記憶媒体から前記複数種類の字幕情報を取得し、
前記送信手段は、前記取得手段で取得された前記複数種類の字幕情報を前記表示装置に送信し、
前記受信手段は、前記複数種類の字幕情報のうちユーザ操作に応答して指定された言語の字幕情報を受信し、
前記表示制御手段は、前記受信手段で受信された言語の字幕情報を前記検出手段で検出された位置に応じて特定される前記表示部における表示位置に表示することを特徴とする請求項5又は6に記載の情報提供システム。
The storage medium stores a plurality of types of subtitle information corresponding to a plurality of types of languages,
The acquisition means acquires the plurality of types of subtitle information from the storage medium,
The transmission means transmits the plurality of types of subtitle information acquired by the acquisition means to the display device,
The receiving means receives subtitle information in a language specified in response to a user operation among the plurality of types of subtitle information,
The display control means displays the subtitle information of the language received by the receiving means at a display position in the display unit specified according to the position detected by the detecting means. 6. The information providing system according to 6.
表示部を有する表示装置における情報提供方法であって、
前記表示装置の位置を検出する検出工程と、
前記検出工程で検出された位置に応じて特定される前記表示部における表示位置に字幕情報を表示する表示制御工程と、を有することを特徴とする情報提供方法。
An information providing method in a display device having a display unit,
A detection step of detecting a position of the display device;
A display control step of displaying subtitle information at a display position in the display unit specified according to the position detected in the detection step.
字幕情報を送信する情報提供装置と、表示部を有する表示装置と、字幕情報が記憶された記憶媒体と、を含む情報提供システムにおける情報提供方法であって、
前記情報提供装置は、
前記記憶媒体から字幕情報を取得する取得工程と、
前記取得工程で取得された字幕情報を前記表示装置に送信する送信工程と、を有し、
前記表示装置は、
前記情報提供装置から前記字幕情報を受信する受信工程と、
当該表示装置の位置を検出する検出工程と、
前記検出工程で検出された位置に応じて特定される前記表示部における表示位置に前記字幕情報を表示する表示制御工程と、を有することを特徴とする情報提供方法。
An information providing method in an information providing system comprising: an information providing device that transmits caption information; a display device that includes a display unit; and a storage medium that stores caption information.
The information providing apparatus includes:
An acquisition step of acquiring subtitle information from the storage medium;
Transmitting the closed caption information acquired in the acquisition step to the display device,
The display device
A receiving step of receiving the caption information from the information providing device;
A detection step of detecting the position of the display device;
A display control step of displaying the subtitle information at a display position in the display unit specified according to the position detected in the detection step.
表示部を有するコンピュータを、
当該コンピュータの位置を検出する検出手段、
前記検出手段で検出された位置に応じて特定される前記表示部における表示位置に字幕情報を表示する表示制御手段、として機能させるプログラム。
A computer having a display unit,
Detecting means for detecting the position of the computer;
A program that functions as display control means for displaying subtitle information at a display position in the display unit specified according to the position detected by the detection means.
JP2011025315A 2011-02-08 2011-02-08 Information providing system, information providing method, and program Active JP5715842B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011025315A JP5715842B2 (en) 2011-02-08 2011-02-08 Information providing system, information providing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011025315A JP5715842B2 (en) 2011-02-08 2011-02-08 Information providing system, information providing method, and program

Publications (2)

Publication Number Publication Date
JP2012163853A true JP2012163853A (en) 2012-08-30
JP5715842B2 JP5715842B2 (en) 2015-05-13

Family

ID=46843271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011025315A Active JP5715842B2 (en) 2011-02-08 2011-02-08 Information providing system, information providing method, and program

Country Status (1)

Country Link
JP (1) JP5715842B2 (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012233962A (en) * 2011-04-28 2012-11-29 Konica Minolta Holdings Inc Projection system, projection device, projection method, and control program
JP2014174507A (en) * 2013-03-13 2014-09-22 Nec Corp Augmented reality display device, information terminal, multi display system, and program
JP2014203423A (en) * 2013-04-10 2014-10-27 セイコーエプソン株式会社 Display control program, display control method, display device, and printing system
JP2015228201A (en) * 2014-05-30 2015-12-17 モリアタウン カンパニー リミテッド Display device using wearable spectacle and operation method of the same
JP2016033611A (en) * 2014-07-31 2016-03-10 セイコーエプソン株式会社 Information provision system, display device, and method of controlling display device
JP2016081338A (en) * 2014-10-17 2016-05-16 セイコーエプソン株式会社 Head mounted display device, method for controlling the same and computer program
JP2016081339A (en) * 2014-10-17 2016-05-16 セイコーエプソン株式会社 Head mounted display device, method for controlling the same and computer program
JP2016085322A (en) * 2014-10-24 2016-05-19 セイコーエプソン株式会社 Display device, control method of display device, display system and program
JP2017111670A (en) * 2015-12-17 2017-06-22 富士通テン株式会社 Information display device, information display system, and information display method
KR101897202B1 (en) * 2017-03-10 2018-09-12 어수연 Watching movie system for hearing impaired person
US10140768B2 (en) 2014-10-17 2018-11-27 Seiko Epson Corporation Head mounted display, method of controlling head mounted display, and computer program
JP2019012537A (en) * 2018-08-22 2019-01-24 セイコーエプソン株式会社 Head mounted display device and computer program
EP3493028A1 (en) * 2017-12-04 2019-06-05 Thomson Licensing Devices, systems and methods for enhancing content viewer experience using augmented reality
WO2019198381A1 (en) * 2018-04-13 2019-10-17 ソニー株式会社 Information processing device, information processing method, and program
JP2019191216A (en) * 2018-04-18 2019-10-31 株式会社エジェ Moving image reproducing device and moving image reproducing system
WO2019245205A1 (en) * 2018-06-22 2019-12-26 Cj Olivenetworks Co., Ltd Smart glasses and method of providing subtitles using same
KR20200000314A (en) * 2018-06-22 2020-01-02 씨제이올리브네트웍스 주식회사 Smart glasses and method of providing subtitles using the same
JP2022084878A (en) * 2019-12-05 2022-06-07 マクセル株式会社 Portable information terminal and display method
WO2023100012A1 (en) * 2021-11-30 2023-06-08 株式会社半導体エネルギー研究所 Display system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004219472A (en) * 2003-01-09 2004-08-05 Oriental Land Co Ltd Display unit and caption display system using it
JP2006119297A (en) * 2004-10-20 2006-05-11 Olympus Corp Information terminal device
JP2008185609A (en) * 2007-01-26 2008-08-14 Sony Corp Display device and display method
JP2009211447A (en) * 2008-03-05 2009-09-17 Yokogawa Electric Corp Input system and display system using it
JP2009538487A (en) * 2006-05-26 2009-11-05 アイティーティー マニュファクチャリング エンタープライジーズ, インコーポレイテッド System and method for displaying device maintenance and operation instructions using augmented reality
JP2010237522A (en) * 2009-03-31 2010-10-21 Brother Ind Ltd Image presentation system, and head-mounted display used for the image presentation system
WO2011004612A1 (en) * 2009-07-10 2011-01-13 パナソニック株式会社 Marker display control device, integrated circuit, and marker display control method
JP2012108379A (en) * 2010-11-18 2012-06-07 Nec Corp Information display system, device, method and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004219472A (en) * 2003-01-09 2004-08-05 Oriental Land Co Ltd Display unit and caption display system using it
JP2006119297A (en) * 2004-10-20 2006-05-11 Olympus Corp Information terminal device
JP2009538487A (en) * 2006-05-26 2009-11-05 アイティーティー マニュファクチャリング エンタープライジーズ, インコーポレイテッド System and method for displaying device maintenance and operation instructions using augmented reality
JP2008185609A (en) * 2007-01-26 2008-08-14 Sony Corp Display device and display method
JP2009211447A (en) * 2008-03-05 2009-09-17 Yokogawa Electric Corp Input system and display system using it
JP2010237522A (en) * 2009-03-31 2010-10-21 Brother Ind Ltd Image presentation system, and head-mounted display used for the image presentation system
WO2011004612A1 (en) * 2009-07-10 2011-01-13 パナソニック株式会社 Marker display control device, integrated circuit, and marker display control method
JP2012108379A (en) * 2010-11-18 2012-06-07 Nec Corp Information display system, device, method and program

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012233962A (en) * 2011-04-28 2012-11-29 Konica Minolta Holdings Inc Projection system, projection device, projection method, and control program
JP2014174507A (en) * 2013-03-13 2014-09-22 Nec Corp Augmented reality display device, information terminal, multi display system, and program
JP2014203423A (en) * 2013-04-10 2014-10-27 セイコーエプソン株式会社 Display control program, display control method, display device, and printing system
JP2015228201A (en) * 2014-05-30 2015-12-17 モリアタウン カンパニー リミテッド Display device using wearable spectacle and operation method of the same
JP2016033611A (en) * 2014-07-31 2016-03-10 セイコーエプソン株式会社 Information provision system, display device, and method of controlling display device
US10140768B2 (en) 2014-10-17 2018-11-27 Seiko Epson Corporation Head mounted display, method of controlling head mounted display, and computer program
JP2016081339A (en) * 2014-10-17 2016-05-16 セイコーエプソン株式会社 Head mounted display device, method for controlling the same and computer program
JP2016081338A (en) * 2014-10-17 2016-05-16 セイコーエプソン株式会社 Head mounted display device, method for controlling the same and computer program
JP2016085322A (en) * 2014-10-24 2016-05-19 セイコーエプソン株式会社 Display device, control method of display device, display system and program
JP2017111670A (en) * 2015-12-17 2017-06-22 富士通テン株式会社 Information display device, information display system, and information display method
KR101897202B1 (en) * 2017-03-10 2018-09-12 어수연 Watching movie system for hearing impaired person
EP3493028A1 (en) * 2017-12-04 2019-06-05 Thomson Licensing Devices, systems and methods for enhancing content viewer experience using augmented reality
WO2019198381A1 (en) * 2018-04-13 2019-10-17 ソニー株式会社 Information processing device, information processing method, and program
JP2019191216A (en) * 2018-04-18 2019-10-31 株式会社エジェ Moving image reproducing device and moving image reproducing system
WO2019245205A1 (en) * 2018-06-22 2019-12-26 Cj Olivenetworks Co., Ltd Smart glasses and method of providing subtitles using same
KR20200000314A (en) * 2018-06-22 2020-01-02 씨제이올리브네트웍스 주식회사 Smart glasses and method of providing subtitles using the same
KR102071882B1 (en) * 2018-06-22 2020-02-03 씨제이올리브네트웍스 주식회사 Smart glasses and method of providing subtitles using the same
JP2019012537A (en) * 2018-08-22 2019-01-24 セイコーエプソン株式会社 Head mounted display device and computer program
JP2022084878A (en) * 2019-12-05 2022-06-07 マクセル株式会社 Portable information terminal and display method
JP7428743B2 (en) 2019-12-05 2024-02-06 マクセル株式会社 Mobile information terminal and display method
WO2023100012A1 (en) * 2021-11-30 2023-06-08 株式会社半導体エネルギー研究所 Display system

Also Published As

Publication number Publication date
JP5715842B2 (en) 2015-05-13

Similar Documents

Publication Publication Date Title
JP5715842B2 (en) Information providing system, information providing method, and program
US8698920B2 (en) Image display apparatus and image display method
JP6309749B2 (en) Image data reproducing apparatus and image data generating apparatus
CN101552874B (en) Image processing apparatus, display control method, program, and storage medium
US10958890B2 (en) Method and apparatus for rendering timed text and graphics in virtual reality video
US11363325B2 (en) Augmented reality apparatus and method
JP2015187797A (en) Image data generation device and image data reproduction device
JP2014215828A (en) Image data reproduction device, and viewpoint information generation device
JP5391224B2 (en) Video additional information display control apparatus and operation method thereof
WO2015196594A1 (en) Television channel change control method and television channel change control system
JP2019159950A (en) Information processing device and information processing method
US10156898B2 (en) Multi vantage point player with wearable display
TW201520827A (en) System and method of providing augmented reality effect for multi-media data
US20180192031A1 (en) Virtual Reality Viewing System
JP6641386B2 (en) Head-mounted display cooperation display system, system including display device and head-mounted display, and display device thereof
KR20100118943A (en) Augmented reality studio foreign language study system
CN106851395B (en) Video playing method and player
US20150161799A1 (en) 3d immersion technology
KR101471927B1 (en) Multi-camera, display apparatus and method using the multi-camera
EP2942949A1 (en) System for providing complex-dimensional content service using complex 2d-3d content file, method for providing said service, and complex-dimensional content file therefor
JP2022013427A (en) Information processing apparatus, image generation method, and program
JP2015198443A (en) augmented reality system, augmented reality processing method, program and recording medium
CN211506772U (en) Virtual book page turning display device
JP7167629B2 (en) guide system
JP3211308U (en) Augmented reality system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150316

R150 Certificate of patent or registration of utility model

Ref document number: 5715842

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250