JP2015037242A - Reception device, reception method, transmission device, and transmission method - Google Patents

Reception device, reception method, transmission device, and transmission method Download PDF

Info

Publication number
JP2015037242A
JP2015037242A JP2013168261A JP2013168261A JP2015037242A JP 2015037242 A JP2015037242 A JP 2015037242A JP 2013168261 A JP2013168261 A JP 2013168261A JP 2013168261 A JP2013168261 A JP 2013168261A JP 2015037242 A JP2015037242 A JP 2015037242A
Authority
JP
Japan
Prior art keywords
content
distance
information
user
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013168261A
Other languages
Japanese (ja)
Inventor
正之 大林
Masayuki Obayashi
正之 大林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013168261A priority Critical patent/JP2015037242A/en
Publication of JP2015037242A publication Critical patent/JP2015037242A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To make it possible to present a content without troubling a user.SOLUTION: A distance information acquisition unit acquires distance information indicating a distance from a current position of a user in a real space to a position of a target, and a reproduction control unit controls reproduction of a content arranged at a position of the target in an augmented reality space in accordance with the distance information, so that the content can be presented without troubling the user. The present technique can be applied to, for example, a wearable apparatus which a user can carry around by wearing it.

Description

本技術は、受信装置、受信方法、送信装置、及び、送信方法に関し、特に、ユーザの手を煩わせることなく、コンテンツを提示することができるようにした受信装置、受信方法、送信装置、及び、送信方法に関する。   The present technology relates to a receiving device, a receiving method, a transmitting device, and a transmitting method, and in particular, a receiving device, a receiving method, a transmitting device, and a device that can present content without bothering a user. , Relating to the transmission method.

近年、ユーザが身につけて持ち歩くことができるウェアラブルコンピュータ(Wearable Computer)の研究が行われている(例えば、特許文献1参照)。また、仮想的なコンテンツを、実空間の対象物に重畳してユーザに提示する拡張現実(AR:Augmented Reality)と称される技術が注目されている(例えば、特許文献2参照)。   In recent years, research on wearable computers that can be worn and carried by users has been conducted (see, for example, Patent Document 1). Further, a technique called augmented reality (AR) that superimposes virtual content on an object in real space and presents it to a user has attracted attention (see, for example, Patent Document 2).

特開2011−28763号公報JP 2011-28763 A 特開2013−92964号公報JP 2013-92964 A

ところで、ウェアラブルコンピュータにAR技術を適用して、ウェアラブルコンピュータを装着したユーザに対し、仮想的なコンテンツを再生して実空間の対象物に重畳して提示するという要求はあるが、ウェアラブルコンピュータは、従来からの情報端末と比べて操作系に制約が多いことから、コンテンツの再生時に、ユーザの操作が煩雑になることが想定される。   By the way, there is a request to apply AR technology to a wearable computer and to reproduce the virtual content and to present it superimposed on the object in the real space for the user wearing the wearable computer. Compared to conventional information terminals, there are more restrictions on the operation system, so it is assumed that the user's operation becomes complicated at the time of content reproduction.

しかしながら、現状では、ウェアラブルコンピュータにおいて、コンテンツを再生してユーザに提示するための技術方式は確立されていない。   However, at present, a technical method for reproducing and presenting content to a user in a wearable computer has not been established.

本技術はこのような状況に鑑みてなされたものであり、ウェアラブルコンピュータにおいて、ユーザの手を煩わせることなく、コンテンツを提示することができるようにするものである。   The present technology has been made in view of such a situation, and allows a wearable computer to present content without bothering a user.

本技術の第1の側面の受信装置は、拡張現実空間内でターゲットの位置に配置されるコンテンツを受信する受信部と、実空間におけるユーザの現在位置から前記ターゲットの位置までの距離を示す距離情報を取得する距離情報取得部と、前記距離情報に応じて、前記コンテンツの再生を制御する再生制御部とを備える。   A receiving device according to a first aspect of the present technology includes a receiving unit that receives content arranged at a target position in augmented reality space, and a distance indicating a distance from the current position of the user to the target position in real space A distance information acquisition unit that acquires information, and a reproduction control unit that controls reproduction of the content according to the distance information.

前記再生制御部は、前記コンテンツを、前記距離情報に応じて段階的に変化するように再生する。   The reproduction control unit reproduces the content so as to change stepwise according to the distance information.

前記ユーザの眼の前方に位置するように配置されて情報を表示するとともに、その表示領域を透明又は半透明な状態とすることができる表示部をさらに備え、前記表示部は、再生中の前記コンテンツの映像を表示する。   The display unit further includes a display unit arranged to be positioned in front of the user's eyes and capable of displaying the information in a transparent or translucent state. Display content video.

再生中の前記コンテンツの音声を出力する音声出力部をさらに備える。   An audio output unit that outputs audio of the content being reproduced is further provided.

任意のセグメントによる放送であるエリア放送を受信するためのチャンネル情報を取得するチャンネル情報取得部をさらに備え、前記受信部は、前記チャンネル情報を用いて、前記エリア放送を行う送信機から送信される放送波を受信することが可能な放送エリアにおいて、前記エリア放送のコンテンツを受信する。   It further comprises a channel information acquisition unit that acquires channel information for receiving an area broadcast that is a broadcast by an arbitrary segment, and the reception unit is transmitted from a transmitter that performs the area broadcast using the channel information. In a broadcast area where broadcast waves can be received, the content of the area broadcast is received.

前記距離情報取得部は、前記ユーザの現在位置と、前記チャンネル情報に含まれる前記送信機の送信点位置を用いて前記距離情報を算出する。   The distance information acquisition unit calculates the distance information using the current position of the user and the transmission point position of the transmitter included in the channel information.

前記距離情報取得部は、前記ユーザの現在位置と、前記ターゲットの位置を用いて前記距離情報を算出する。   The distance information acquisition unit calculates the distance information using the current position of the user and the position of the target.

前記再生制御部は、前記チャンネル情報に含まれる距離基準情報を基準にして、前記コンテンツを、前記距離情報に応じて段階的に変化するように再生する。   The reproduction control unit reproduces the content so as to change stepwise according to the distance information with reference to the distance reference information included in the channel information.

前記再生制御部は、前記コンテンツの映像と音声のうち少なくとも一方の再生を段階的に変化させる。   The reproduction control unit changes reproduction of at least one of the video and audio of the content stepwise.

前記再生制御部は、前記ユーザの現在位置と、前記ターゲットの位置との距離が近づくに連れて、前記コンテンツの音声の音量が大きくなるようにする。   The reproduction control unit increases the sound volume of the content as the distance between the current position of the user and the position of the target approaches.

前記ユーザの視線の方向を示す視線情報を取得する視線情報取得部をさらに備え、前記再生制御部は、前記視線情報に応じて、前記コンテンツを再生する。   It further includes a line-of-sight information acquisition unit that acquires line-of-sight information indicating the direction of the user's line of sight, and the reproduction control unit reproduces the content according to the line-of-sight information.

前記再生制御部は、前記ユーザの視線が前記ターゲットの方向にある場合、前記コンテンツの映像又は音声を再生し、前記ユーザの視線が前記ターゲットの方向にない場合、前記コンテンツの映像を停止するか又は音声の音量を調整する。   Whether the playback control unit plays the video or audio of the content when the user's line of sight is in the target direction, and stops the video of the content when the user's line of sight is not in the target direction Or adjust the audio volume.

前記受信装置は、左眼用と右眼用の一対の前記表示部を有する眼鏡型の無線通信機である。   The receiving device is a glasses-type wireless communication device having a pair of display units for left eye and right eye.

受信装置は、独立した装置であってもよいし、1つの装置を構成している内部ブロックであってもよい。   The receiving device may be an independent device or an internal block constituting one device.

本技術の第1の側面の受信方法は、上述した本技術の第1の側面の受信装置に対応する受信方法である。   The reception method according to the first aspect of the present technology is a reception method corresponding to the reception device according to the first aspect of the present technology described above.

本技術の第1の側面の受信装置及び受信方法においては、拡張現実空間内でターゲットの位置に配置されるコンテンツが受信され、実空間におけるユーザの現在位置から前記ターゲットの位置までの距離を示す距離情報が取得され、前記距離情報に応じて、前記コンテンツの再生が制御される。   In the receiving device and the receiving method according to the first aspect of the present technology, content arranged at the target position in the augmented reality space is received, and the distance from the current position of the user to the target position in the real space is indicated. Distance information is acquired, and reproduction of the content is controlled in accordance with the distance information.

本技術の第2の側面の送信装置は、任意のセグメントによる放送であるエリア放送のコンテンツを、受信機が受信するためのチャンネル情報であって、拡張現実空間でターゲットの位置に配置される前記エリア放送のコンテンツの再生の制御に用いられる情報を含む前記チャンネル情報を取得するチャンネル情報取得部と、前記チャンネル情報を、前記受信機に送信する送信部とを備える。   The transmission device according to the second aspect of the present technology is channel information for a receiver to receive area broadcast content that is broadcast by an arbitrary segment, and is arranged at a target position in the augmented reality space. A channel information acquisition unit that acquires the channel information including information used for controlling reproduction of content of area broadcast, and a transmission unit that transmits the channel information to the receiver.

前記チャンネル情報は、実空間におけるユーザの現在位置から前記ターゲットの位置までの距離を示す距離情報の計算に用いられる送信機の送信点位置を含む。   The channel information includes a transmission point position of a transmitter used for calculation of distance information indicating a distance from the current position of the user in real space to the position of the target.

前記チャンネル情報は、前記エリア放送のコンテンツを前記距離情報に応じて段階的に変化するように再生させる際の基準となる距離基準情報を含む。   The channel information includes distance reference information serving as a reference when reproducing the content of the area broadcast so as to change stepwise according to the distance information.

送信装置は、独立した装置であってもよいし、1つの装置を構成している内部ブロックであってもよい。   The transmission device may be an independent device or an internal block constituting one device.

本技術の第2の側面の送信方法は、上述した本技術の第2の側面の送信装置に対応する送信方法である。   The transmission method according to the second aspect of the present technology is a transmission method corresponding to the transmission device according to the second aspect of the present technology described above.

本技術の第2の側面の送信装置及び送信方法においては、任意のセグメントによる放送であるエリア放送のコンテンツを、受信機が受信するためのチャンネル情報であって、拡張現実空間でターゲットの位置に配置される前記エリア放送のコンテンツの再生の制御に用いられる情報を含む前記チャンネル情報が取得され、前記チャンネル情報が、前記受信機に送信される。   In the transmission device and the transmission method according to the second aspect of the present technology, channel information for a receiver to receive content of an area broadcast, which is broadcast by an arbitrary segment, is positioned at a target position in augmented reality space. The channel information including information used for controlling the reproduction of the content of the area broadcast to be arranged is acquired, and the channel information is transmitted to the receiver.

本技術の第1の側面及び第2の側面によれば、ユーザの手を煩わせることなく、コンテンツを提示することができる。   According to the first aspect and the second aspect of the present technology, it is possible to present content without bothering the user.

本技術を適用したエリア放送システムの一実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of one Embodiment of the area broadcasting system to which this technique is applied. 本技術を適用したウェアラブル機器の外観を示す図である。It is a figure which shows the external appearance of the wearable apparatus to which this technique is applied. 本技術を適用したウェアラブル機器の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the wearable apparatus to which this technique is applied. 制御プログラムの構成例を示すブロック図である。It is a block diagram which shows the structural example of a control program. ウェアラブル機器の状態遷移を示す図である。It is a figure which shows the state transition of a wearable apparatus. エリア放送の概要を説明する図である。It is a figure explaining the outline | summary of area broadcasting. チャンネル情報の例を示す図である。It is a figure which shows the example of channel information. エリア放送情報記述子の構造を示す図である。It is a figure which shows the structure of an area broadcast information descriptor. エリア放送情報記述子の項目を説明する図である。It is a figure explaining the item of an area broadcast information descriptor. エリア放送送信装置の詳細構成例を示すブロック図である。It is a block diagram which shows the detailed structural example of an area broadcast transmitter. 情報サーバの詳細構成例を示すブロック図である。It is a block diagram which shows the detailed structural example of an information server. ユースケースの一例を示す図である。It is a figure which shows an example of a use case. 図12のユースケースにおけるウェアラブル機器の状態遷移を示す図である。It is a figure which shows the state transition of the wearable apparatus in the use case of FIG. チューナ停止中の処理を説明するフローチャートである。It is a flowchart explaining the process during a tuner stop. チューナ受信中の処理を説明するフローチャートである。It is a flowchart explaining the process during tuner reception. 映像再生中の処理を説明するフローチャートである。It is a flowchart explaining the process in video reproduction | regeneration. 映像音声再生中の処理を説明するフローチャートである。It is a flowchart explaining the process during video / audio reproduction. 音声再生中の処理を説明するフローチャートである。It is a flowchart explaining the process in audio | voice reproduction | regeneration. コンテンツ送信処理を説明するフローチャートである。It is a flowchart explaining a content transmission process. チャンネル情報提供処理を説明するフローチャートである。It is a flowchart explaining a channel information provision process.

以下、図面を参照しながら本技術の実施の形態について説明する。   Hereinafter, embodiments of the present technology will be described with reference to the drawings.

<エリア放送システムの構成> <Configuration of area broadcasting system>

図1は、本技術を適用したエリア放送システムの一実施の形態の構成を示すブロック図である。   FIG. 1 is a block diagram showing a configuration of an embodiment of an area broadcasting system to which the present technology is applied.

エリア放送システム1は、ウェアラブル機器10を装着したユーザに対して、その現在位置とターゲットの位置との距離に応じたエリア放送のコンテンツを提示するものである。エリア放送システム1は、ウェアラブル機器10、エリア放送送信装置20、及び、情報サーバ30から構成される。また、ウェアラブル機器10と情報サーバ30は、無線ネットワーク2やインターネット等を介して相互に接続されている。   The area broadcasting system 1 presents content of area broadcasting according to the distance between the current position and the target position to a user wearing the wearable device 10. The area broadcast system 1 includes a wearable device 10, an area broadcast transmission device 20, and an information server 30. The wearable device 10 and the information server 30 are connected to each other via the wireless network 2 or the Internet.

ウェアラブル機器10は、透過型のディスプレイ、ヘッドホン、カメラ部、及び、チューナ等を有する眼鏡型デバイスであって、ウェアラブルコンピュータの一例である。ウェアラブル機器10では、通常の眼鏡においてフレームに取り付けられるレンズの位置に、左眼用と右眼用の一対の透過型のディスプレイが配置されている。これにより、例えば、ウェアラブル機器10を装着したユーザが透過型のディスプレイを通して見る対象物に、その対象物に関連した付加情報をAR(拡張現実)技術により重ねて表示したり、見ている風景を撮影してその撮影画像を、他のユーザと共有したりすることができる。   The wearable device 10 is a spectacle-type device having a transmissive display, headphones, a camera unit, a tuner, and the like, and is an example of a wearable computer. In the wearable device 10, a pair of transmissive displays for the left eye and the right eye are arranged at the position of a lens attached to a frame in normal glasses. Thereby, for example, a user wearing the wearable device 10 can display additional information related to the object on the object viewed through the transmissive display by using AR (augmented reality) technology, The photographed image can be taken and the photographed image can be shared with other users.

また、ウェアラブル機器10は、GPS(Global Positioning System)機能を有しており、GPS衛星3からの信号を受信することで、ウェアラブル機器10を装着したユーザの現在位置を取得することができる。   The wearable device 10 has a GPS (Global Positioning System) function, and can receive the signal from the GPS satellite 3 to acquire the current position of the user wearing the wearable device 10.

エリア放送送信装置20は、任意のセグメントによる放送(例えばワンセグメント放送やフルセグメント放送)であるエリア放送の放送波を送信する送信機である。ただし、エリア放送は、エリア放送送信装置20を中心とする数10m乃至数km程度のエリアを、その放送波を受信することができる放送エリアとして放送を行うため、所定の放送エリアでのみ受信可能となる。   The area broadcast transmission device 20 is a transmitter that transmits a broadcast wave of area broadcast that is broadcast by an arbitrary segment (for example, one segment broadcast or full segment broadcast). However, area broadcasting is performed only in a predetermined broadcasting area because an area of several tens to several kilometers centered on the area broadcasting transmitter 20 is broadcast as a broadcasting area that can receive the broadcast wave. It becomes.

情報サーバ30は、チャンネル情報を管理している。情報サーバ30は、ウェアラブル機器10からの要求に応じて、無線ネットワーク2等を介して、チャンネル情報を提供する。ここで、チャンネル情報とは、エリア放送の受信機がエリア放送を受信するための情報である。例えば、チャンネル情報には、後述する物理チャンネル番号、サービスID、信号形式、送信点位置、サービス距離などの情報が含まれる。   The information server 30 manages channel information. The information server 30 provides channel information via the wireless network 2 or the like in response to a request from the wearable device 10. Here, the channel information is information for an area broadcast receiver to receive the area broadcast. For example, the channel information includes information such as a physical channel number, a service ID, a signal format, a transmission point position, and a service distance, which will be described later.

ウェアラブル機器10は、無線ネットワーク2等を介して、情報サーバ30からチャンネル情報を取得する。これにより、ウェアラブル機器10は、ウェアラブル機器10を装着したユーザが、エリア放送送信装置20の放送エリア内にいる場合に、チャンネル情報を用いて自動的に選局を行い、エリア放送送信装置20からのエリア放送の放送波を受信することになる。そして、ウェアラブル機器10は、エリア放送のコンテンツの映像を、左眼用と右眼用の一対の透過型のディスプレイに表示するとともに、その映像に同期した音声をヘッドホンから出力することができる。   The wearable device 10 acquires channel information from the information server 30 via the wireless network 2 or the like. As a result, the wearable device 10 automatically selects a channel using the channel information when the user wearing the wearable device 10 is within the broadcast area of the area broadcast transmission device 20, and The broadcast wave of the area broadcast will be received. The wearable device 10 can display an area broadcast content video on a pair of transmissive displays for the left eye and the right eye, and output sound synchronized with the video from the headphones.

エリア放送システム1は、以上のように構成される。   The area broadcasting system 1 is configured as described above.

<各装置の構成例> <Configuration example of each device>

次に、図2乃至図11を参照して、図1のエリア放送システム1を構成する各装置の構成例について説明する。   Next, with reference to FIG. 2 to FIG. 11, a configuration example of each device constituting the area broadcasting system 1 of FIG. 1 will be described.

(ウェアラブル機器の外観)
図2は、図1のウェアラブル機器10の外観を示す図である。
(Appearance of wearable device)
FIG. 2 is a diagram showing an appearance of the wearable device 10 of FIG.

図2に示すように、ウェアラブル機器10は、ユーザの頭部に装着される眼鏡型のフレーム100と、そのフレーム100に取り付けられた左眼用と右眼用の一対の透過型のディスプレイ106L,106Rを有している。   As shown in FIG. 2, the wearable device 10 includes a glasses-type frame 100 that is worn on the user's head, and a pair of transmissive displays 106 </ b> L for the left eye and the right eye that are attached to the frame 100. 106R.

左眼用と右眼用の一対の透過型のディスプレイ106L,106Rは、装着状態においてユーザの両眼の直前、すなわち、通常の眼鏡におけるレンズが位置する場所に配置される構成となっている。ディスプレイ106L,106Rには、例えば透過型の液晶パネルが用いられ、その透過率を制御することで、透明又は半透明の透過状態とすることができる。つまり、透過型のディスプレイ106L,106Rが、透過状態となることで、通常の眼鏡のように、ユーザが常時装着していても、通常の生活に支障がでることはない。   The pair of transmissive displays 106L and 106R for the left eye and the right eye are arranged immediately before the user's eyes in the wearing state, that is, at a position where a lens in normal glasses is located. For the displays 106L and 106R, for example, a transmissive liquid crystal panel is used. By controlling the transmittance, the transparent or translucent transmissive state can be obtained. In other words, since the transmissive displays 106L and 106R are in a transmissive state, even if the user is always wearing like normal glasses, there is no problem in normal life.

ディスプレイ106L,106Rには、各種の情報を表示させることができる。例えば、ウェアラブル機器10では、ディスプレイ106L,106Rを通して見える人物や構造物などの対象物を、同時にカメラ部115で撮影して解析することで、その対象物に関連した付加情報を重ねて表示するマーカレスARを実現することができる。ここで、マーカレスARとは、特定のマーカなどを利用することなく、現実の環境に存在している物体や、その環境自体を空間的に認識することで、付加情報の提示位置を特定して提示する技術である。   Various information can be displayed on the displays 106L and 106R. For example, in the wearable device 10, an object such as a person or a structure that can be seen through the displays 106 </ b> L and 106 </ b> R is simultaneously photographed and analyzed by the camera unit 115, so that additional information related to the object is superimposed and displayed. AR can be realized. Here, markerless AR is a method for identifying the position of presentation of additional information by spatially recognizing objects that exist in the actual environment and the environment itself without using a specific marker. It is a technology to present.

また、ウェアラブル機器10は、ウェアラブル機器10を装着したユーザがエリア放送送信装置20の放送エリア内にいる場合に、アンテナ112によってエリア放送送信装置20からのエリア放送の放送波を受信し、そのコンテンツの映像を、透過型のディスプレイ106L,106Rに表示するとともに、映像に同期した音声をヘッドホン107から出力することができる。   Wearable device 10 receives the broadcast wave of the area broadcast from area broadcast transmission device 20 via antenna 112 when the user wearing wearable device 10 is within the broadcast area of area broadcast transmission device 20, and its contents Can be displayed on the transmissive displays 106L and 106R, and sound synchronized with the video can be output from the headphones 107.

なお、図2に示すように、ウェアラブル機器10は、UI用センサ116によるユーザの操作検出機能や、視線検出用センサ117によるユーザの視線検出機能など機能を有するが、その詳細は、図3を参照して後述する。また、以下、左眼用の透過型のディスプレイ106Lと、右眼用の透過型のディスプレイ106Rを区別する必要がない場合、単にディスプレイ106と称して説明する。   As shown in FIG. 2, the wearable device 10 has functions such as a user operation detection function by the UI sensor 116 and a user's line-of-sight detection function by the line-of-sight detection sensor 117. For details, see FIG. Reference will be made later. In the following description, when there is no need to distinguish between the transmissive display 106L for the left eye and the transmissive display 106R for the right eye, the display is simply referred to as the display 106.

(ウェアラブル機器の内部構成)
図3は、図1のウェアラブル機器10の内部構成を示すブロック図である。
(Internal configuration of wearable device)
FIG. 3 is a block diagram showing an internal configuration of the wearable device 10 of FIG.

図3に示すように、ウェアラブル機器10は、CPU101、ROM102、RAM103、ディスプレイ106、ヘッドホン107、アンテナ108、GPS部109、アンテナ110、通信部111、アンテナ112、チューナ113、ジャイロセンサ114、カメラ部115、UI用センサ116、視線検出用センサ117、映像音声処理部118、及び、電源部119から構成される。   As shown in FIG. 3, the wearable device 10 includes a CPU 101, a ROM 102, a RAM 103, a display 106, a headphone 107, an antenna 108, a GPS unit 109, an antenna 110, a communication unit 111, an antenna 112, a tuner 113, a gyro sensor 114, and a camera unit. 115, a UI sensor 116, a line-of-sight detection sensor 117, a video / audio processing unit 118, and a power supply unit 119.

ウェアラブル機器10において、CPU(Central Processing Unit)101,ROM(Read Only Memory)102,RAM(Random Access Memory)103は、バス104により相互に接続されている。CPU101は、ROMに記録された制御プログラムを実行することで、ウェアラブル機器10の各部の動作を制御する。また、RAM103には、各種のデータが適宜記録される。   In the wearable device 10, a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, and a RAM (Random Access Memory) 103 are connected to each other by a bus 104. The CPU 101 controls the operation of each unit of the wearable device 10 by executing a control program recorded in the ROM. In addition, various data are appropriately recorded in the RAM 103.

バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、ディスプレイ106、ヘッドホン107、GPS部109、通信部111、チューナ113、ジャイロセンサ114、カメラ部115、UI用センサ116、視線検出用センサ117、及び、映像音声処理部118が接続されている。   An input / output interface 105 is further connected to the bus 104. The input / output interface 105 includes a display 106, a headphone 107, a GPS unit 109, a communication unit 111, a tuner 113, a gyro sensor 114, a camera unit 115, a UI sensor 116, a line-of-sight detection sensor 117, and a video / audio processing unit 118. Is connected.

ディスプレイ106は、上述した左眼用と右眼用の一対の透過型のディスプレイ106L,106Rである。ヘッドホン107は、ユーザの耳に近接した位置に配置される小型のヘッドホンである。   The display 106 is the above-described pair of transmissive displays 106L and 106R for the left eye and the right eye. The headphone 107 is a small headphone arranged at a position close to the user's ear.

GPS部109は、CPU101からの制御に従い、アンテナ108を介して、GPS衛星3からの信号を受信することで、ユーザの現在位置を取得する。   The GPS unit 109 acquires the current position of the user by receiving a signal from the GPS satellite 3 via the antenna 108 according to the control from the CPU 101.

通信部111は、CPU101からの制御に従い、アンテナ110を介して、無線ネットワーク2に接続し、情報サーバ30等の各種のサーバ等と情報のやりとりを行う。なお、図示はしていないが、ウェアラブル機器10は、近距離無線通信部を有しており、Bluetooth(登録商標)等の近距離無線通信規格に従い、スマートフォン等の他の電子機器との間で無線通信を行い、情報をやりとりすることができる。   The communication unit 111 is connected to the wireless network 2 via the antenna 110 according to control from the CPU 101 and exchanges information with various servers such as the information server 30. Although not shown, the wearable device 10 has a short-range wireless communication unit, and according to a short-range wireless communication standard such as Bluetooth (registered trademark), between other electronic devices such as a smartphone. Wireless communication can be used to exchange information.

チューナ113は、CPU101からの制御に従い、アンテナ112を介して受信された放送信号から、所定のチャンネルのエリア放送の信号を選局して復調し、その結果得られるTS(Transport Stream)を映像音声処理部118に供給する。   In accordance with control from the CPU 101, the tuner 113 selects and demodulates an area broadcast signal of a predetermined channel from the broadcast signal received via the antenna 112, and the resulting TS (Transport Stream) is video / audio. This is supplied to the processing unit 118.

ジャイロセンサ114は、ウェアラブル機器10の回転角度を検出し、その検出結果をCPU101に供給する。なお、図示はしていないが、重力加速度を検出する加速度センサや地磁気を検出する地磁気センサ等の各種のセンサを設け、それらの検出結果がCPU101に供給されるようにしてもよい。例えば、CPU101は、それらのセンサからの検出結果を用い、いわゆる自律航法によりGPS機能を用いずに、ユーザの現在位置を取得することができる。また、CPU101は、それらのセンサからの検出結果を用い、ウェアラブル機器10の姿勢や動作を検出するようにしてもよい。   The gyro sensor 114 detects the rotation angle of the wearable device 10 and supplies the detection result to the CPU 101. Although not shown, various sensors such as an acceleration sensor that detects gravitational acceleration and a geomagnetic sensor that detects geomagnetism may be provided, and the detection results may be supplied to the CPU 101. For example, the CPU 101 can acquire the current position of the user without using the GPS function by so-called autonomous navigation using detection results from these sensors. Further, the CPU 101 may detect the posture and operation of the wearable device 10 using the detection results from these sensors.

カメラ部115は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の固体撮像素子を含んで構成される外向きカメラであり、ディスプレイ106を通して見える被写体を撮影するための機能を有する。カメラ部115は、被写体を撮影して所定の画像処理が施された画像データを、CPU101に供給する。   The camera unit 115 is an outward-facing camera that includes a solid-state imaging device such as a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and has a function for photographing a subject that can be seen through the display 106. The camera unit 115 supplies image data obtained by photographing a subject and subjected to predetermined image processing to the CPU 101.

UI用センサ116は、例えば、ユーザによりフレーム100に対して行われる入力操作を検出し、その検出結果をCPU101に供給する。CPU101は、UI用センサ116からの検出結果に応じて、ウェアラブル機器10の各部の動作を制御する。なお、ユーザによる操作は、例えばジェスチャや音声入力などで行ってもよく、ウェアラブル機器10は、それらの操作を検出するためのセンサなどを設けることができる。   For example, the UI sensor 116 detects an input operation performed on the frame 100 by the user, and supplies the detection result to the CPU 101. The CPU 101 controls the operation of each part of the wearable device 10 according to the detection result from the UI sensor 116. The operation by the user may be performed by, for example, a gesture or voice input, and the wearable device 10 can be provided with a sensor for detecting those operations.

視線検出用センサ117は、例えば、ユーザの眼を撮影可能な位置に設けられる内向きのカメラなどから構成される。視線検出用センサ117は、ウェアラブル機器10を装着したユーザの視線の方向を検出し、その検出結果をCPU101に供給する。   The line-of-sight detection sensor 117 is configured by, for example, an inward camera provided at a position where the user's eyes can be photographed. The line-of-sight detection sensor 117 detects the direction of the line of sight of the user wearing the wearable device 10 and supplies the detection result to the CPU 101.

映像音声処理部118は、CPU101からの制御に従い、チューナ113から供給されるTSを、ビデオデータ、オーディオデータ、各種のデータなどに分離する。映像音声処理部118は、CPU101からの制御に従い、ビデオデータとオーディオデータを復号し、ディスプレイ106とヘッドホン107にそれぞれ供給する。   The video / audio processing unit 118 separates the TS supplied from the tuner 113 into video data, audio data, various data, and the like according to control from the CPU 101. The video / audio processing unit 118 decodes the video data and the audio data according to the control from the CPU 101 and supplies them to the display 106 and the headphones 107, respectively.

ディスプレイ106は、映像音声処理部118から供給されるビデオデータに基づいて、エリア放送のコンテンツの映像を表示する。また、ヘッドホン107は、映像音声処理部118から供給されるオーディオデータに対応する音声、すなわち、エリア放送のコンテンツの音声を出力する。   The display 106 displays the video of the area broadcast content based on the video data supplied from the video / audio processing unit 118. The headphone 107 outputs audio corresponding to the audio data supplied from the video / audio processing unit 118, that is, audio of area broadcast content.

電源部119は、蓄電池又は外部電源等から得られる電源電力を、CPU101を含むウェアラブル機器10の各部に供給する。   The power supply unit 119 supplies power supplied from a storage battery or an external power supply to each unit of the wearable device 10 including the CPU 101.

(制御プログラム)
図4は、図3のCPU101により実行される制御プログラムのうち、ウェアラブル機器10を装着したユーザに対して、その現在位置とターゲットの位置との距離に応じたエリア放送のコンテンツを提示する処理を行う部分を示すブロック図である。
(Control program)
FIG. 4 shows a process of presenting area broadcast content according to the distance between the current position and the target position to the user wearing the wearable device 10 in the control program executed by the CPU 101 of FIG. It is a block diagram which shows the part to perform.

図4に示すように、制御プログラム151は、チャンネル情報取得部161、位置情報取得部162、距離情報取得部163、視線情報取得部164、及び、再生制御部165を有する。   As illustrated in FIG. 4, the control program 151 includes a channel information acquisition unit 161, a position information acquisition unit 162, a distance information acquisition unit 163, a line-of-sight information acquisition unit 164, and a reproduction control unit 165.

チャンネル情報取得部161は、通信部111を制御することで、無線ネットワーク2を介して情報サーバ30からチャンネル情報を取得する。また、チャンネル情報取得部161は、チャンネル情報に含まれる送信点位置(以下、「送信点位置P」とも記述する)を取得し、距離情報取得部163に供給する。さらに、チャンネル情報取得部161は、チャンネル情報に含まれるサービス距離(例えば、D,D,D)を取得し、再生制御部165に供給する。 The channel information acquisition unit 161 acquires channel information from the information server 30 via the wireless network 2 by controlling the communication unit 111. Further, the channel information acquisition unit 161 acquires a transmission point position (hereinafter also referred to as “transmission point position P T ”) included in the channel information, and supplies the transmission point position to the distance information acquisition unit 163. Further, the channel information acquisition unit 161 acquires service distances (for example, D A , D B , and D C ) included in the channel information and supplies them to the reproduction control unit 165.

位置情報取得部162は、GPS部109を制御することで、GPS衛星3からの信号に応じたユーザの現在位置(以下、「現在位置p」とも記述する)を取得し、距離情報取得部163に供給する。 The position information acquisition unit 162 controls the GPS unit 109 to acquire the current position of the user (hereinafter also referred to as “current position p u ”) according to the signal from the GPS satellite 3, and the distance information acquisition unit 163.

距離情報取得部163は、チャンネル情報取得部161から供給される送信点位置Pと、位置情報取得部162から供給される現在位置pを用い、所定の演算式(例えば、後述する式(1))を演算することで、実空間におけるユーザの現在位置からターゲットまでの距離Dを算出し、再生制御部165に供給する。 The distance information obtaining unit 163 includes a transmission point position P T supplied from the channel information acquiring section 161, using the current position p u supplied from the position information obtaining unit 162, a predetermined arithmetic expression (e.g., below formula ( By calculating 1)), the distance D from the current position of the user to the target in the real space is calculated and supplied to the reproduction control unit 165.

視線情報取得部164は、視線検出用センサ117を制御することで、ユーザの視線の方向を示す視線情報を取得し、再生制御部165に供給する。   The line-of-sight information acquisition unit 164 controls the line-of-sight detection sensor 117 to acquire line-of-sight information indicating the direction of the user's line of sight and supplies it to the reproduction control unit 165.

再生制御部165は、映像音声処理部118を制御することで、エリア放送のコンテンツの再生を制御する。具体的には、再生制御部165は、距離情報取得部163から供給される距離Dと、チャンネル情報取得部161から供給されるサービス距離(例えば、D,D,D)との大小関係に基づいて、エリア放送のコンテンツの映像若しくは音声の開始や停止、又は音声の音量の調整などを制御する。 The reproduction control unit 165 controls the reproduction of the area broadcast content by controlling the video / audio processing unit 118. Specifically, the reproduction control unit 165 determines whether the distance D supplied from the distance information acquisition unit 163 and the service distance (for example, D A , D B , D C ) supplied from the channel information acquisition unit 161 are large or small. Based on the relationship, the start or stop of the video or audio of the area broadcast content or the adjustment of the audio volume is controlled.

また、再生制御部165は、視線情報取得部164から供給される視線情報に基づいて、エリア放送のコンテンツの再生を制御する。例えば、再生制御部165は、ユーザの視線がターゲットの方向にある場合、エリア放送のコンテンツの映像又は音声を再生し、ユーザの視線がターゲットの方向にない場合、エリア放送のコンテンツの映像を停止するか又は音声の音量を調整する。   Also, the playback control unit 165 controls the playback of area broadcast content based on the line-of-sight information supplied from the line-of-sight information acquisition unit 164. For example, when the user's line of sight is in the target direction, the playback control unit 165 plays the video or audio of the area broadcast content, and when the user's line of sight is not in the target direction, the playback control unit 165 stops the area broadcast content video. Or adjust the audio volume.

(ウェアラブル機器の状態遷移)
図5は、図1のウェアラブル機器10の状態遷移を示す図である。
(State transition of wearable device)
FIG. 5 is a diagram illustrating state transition of the wearable device 10 of FIG.

図5に示すように、ウェアラブル機器10は起動後、初期化されると、GPS部109によるGPS機能、通信部111による無線通信機能、及び、カメラ部115による撮影機能等がオンされ、センシングが開始される。このとき、ウェアラブル機器10は、チューナ113による選局が停止した状態(以下、「チューナ停止中」という)となる。   As shown in FIG. 5, when the wearable device 10 is initialized after startup, the GPS function by the GPS unit 109, the wireless communication function by the communication unit 111, the shooting function by the camera unit 115, and the like are turned on, and sensing is performed. Be started. At this time, the wearable device 10 is in a state where channel selection by the tuner 113 is stopped (hereinafter referred to as “tuner stopped”).

ウェアラブル機器10では、センシングが継続されることで、ターゲットが認識された場合、情報サーバ30からチャンネル情報が取得され、エリア放送送信装置20からのエリア放送の放送波の受信が開始される。このとき、ウェアラブル機器10は、チューナ113による選局が行われている状態(以下、「チューナ受信中」という)となる。   In the wearable device 10, when sensing is continued, when the target is recognized, channel information is acquired from the information server 30, and reception of broadcast waves of the area broadcast from the area broadcast transmission device 20 is started. At this time, wearable device 10 is in a state where tuning by tuner 113 is being performed (hereinafter referred to as “under tuner reception”).

その後、ウェアラブル機器10では、センシングが継続されることで、ユーザの現在位置からターゲットの位置までの距離Dと、サービス距離(例えば、D,D,D)との大小関係が比較され、その比較結果に従い、エリア放送のコンテンツの再生が制御される。このとき、ウェアラブル機器10は、コンテンツの映像のみの再生が行われている状態(以下、「映像再生中」という)、コンテンツの映像と音声の両方の再生が行われている状態(以下、「映像音声再生中」という)、又はコンテンツの音声のみの再生が行われている状態(以下、「音声再生中」という)のいずれかの状態となる。 Thereafter, in the wearable device 10, sensing is continued, so that the magnitude relationship between the distance D from the current position of the user to the target position and the service distance (for example, D A , D B , D C ) is compared. In accordance with the comparison result, the reproduction of the area broadcast content is controlled. At this time, the wearable device 10 is in a state where only the content video is being played back (hereinafter referred to as “video playback”), and in the state where both the video and audio of the content are being played back (hereinafter “ It is in a state in which only the audio of the content is being played back (hereinafter referred to as “playing back audio”).

なお、ウェアラブル機器10は、例えばユーザの設定や終了操作などにより、センシングが停止すると、上述した5つの状態のいずれにも属さなくなり、ユーザに対する、距離Dに応じたエリア放送のコンテンツの提示を終了することになる。   The wearable device 10 does not belong to any of the above-described five states when sensing is stopped, for example, by a user's setting or termination operation, and ends the presentation of area broadcast content according to the distance D to the user. Will do.

以上のように、ウェアラブル機器10は、ウェアラブル機器10を装着したユーザの現在位置とターゲットの位置との距離Dに応じて、「映像再生中」、「映像音声再生中」、又は「音声再生中」等の状態に遷移することで、エリア放送のコンテンツの再生状態を段階的に変化させることができる。これにより、ウェアラブル機器10を装着したユーザは、特別な操作をすることなく、段階的に変化するコンテンツを視聴することができる。   As described above, the wearable device 10 is “playing video”, “playing video / audio”, or “playing audio” depending on the distance D between the current position of the user wearing the wearable device 10 and the target position D. The state of reproduction of the area broadcast content can be changed in stages. Thereby, the user wearing the wearable device 10 can view the content that changes in stages without performing any special operation.

(エリア放送の概要)
次に、図1のエリア放送送信装置20と情報サーバ30の詳細構成について説明するが、ここではまず、図6乃至図9を参照して、エリア放送の概要について説明する。
(Outline of area broadcasting)
Next, detailed configurations of the area broadcast transmission device 20 and the information server 30 in FIG. 1 will be described. First, an outline of area broadcast will be described with reference to FIGS. 6 to 9.

図6は、エリア放送の概要を説明する図である。なお、エリア放送は、特開2011−211627号公報などにも開示されているように、任意のセグメントによる放送の放送波を送信する送信装置を中心とする数10m乃至数km程度のエリアを、その放送波を受信することができる放送エリアとして放送を行うものであり、その運用が既に開始されている。   FIG. 6 is a diagram for explaining the outline of area broadcasting. In addition, as disclosed in Japanese Patent Application Laid-Open No. 2011-212627, the area broadcast is an area of about several tens of meters to several kilometers centered on a transmission device that transmits a broadcast wave of a broadcast by an arbitrary segment. Broadcasting is performed as a broadcasting area where the broadcast wave can be received, and its operation has already been started.

エリア放送送信装置20−1乃至20−3は、エリア放送の放送波を送信する送信機であり、地上デジタル放送の空きチャンネルの任意の1以上のセグメントのそれぞれで、エリア放送の放送波を送信する。エリア放送送信装置20−1乃至20−3は、例えば、市街地の構造物に実際に掲示される映画のポスタや、AR技術により構造物に重畳される映画のポスタなどが表示されるビルの壁などの各ターゲットの近傍に設置される。   The area broadcast transmitters 20-1 to 20-3 are transmitters that transmit broadcast waves of area broadcasts, and transmit broadcast waves of area broadcasts in each of any one or more segments of vacant channels of digital terrestrial broadcasting. To do. The area broadcast transmitters 20-1 to 20-3 are, for example, building walls that display movie posters that are actually posted on urban structures and movie posters that are superimposed on structures using AR technology. It is installed near each target.

エリア放送送信装置20−1は、放送エリアAでのみ受信可能なエリア放送を行う。エリア放送送信装置20−2は、放送エリアBでのみ受信可能なエリア放送を行い、エリア放送送信装置20−3は、放送エリアCでのみ受信可能なエリア放送を行う。ここで、エリア放送としては、例えば、映画の予告編や商品の宣伝などのターゲットの位置で再生されるコンテンツが放送される。また、エリア放送では、放送エリアが重複しないエリア放送局同士では、同一のセグメントで放送を行うことができる。   The area broadcast transmission apparatus 20-1 performs area broadcast that can be received only in the broadcast area A. The area broadcast transmission device 20-2 performs area broadcast that can be received only in the broadcast area B, and the area broadcast transmission device 20-3 performs area broadcast that can be received only in the broadcast area C. Here, as the area broadcast, for example, content that is reproduced at a target position such as a movie trailer or a product advertisement is broadcast. Moreover, in area broadcasting, it is possible to broadcast in the same segment between area broadcasting stations whose broadcasting areas do not overlap.

例えば、図6では、放送エリアAと放送エリアBとは、重複していないので、放送エリアAのエリア放送送信装置20−1と、放送エリアBのエリア放送送信装置20−2とでは、同一のセグメントで、エリア放送を行うことができる。また、図6では、放送エリアBと放送エリアCとは、重複していないので、放送エリアBのエリア放送送信装置20−2と、放送エリアCのエリア放送送信装置20−3とでは、同一のセグメントで、エリア放送を行うことができる。   For example, in FIG. 6, the broadcast area A and the broadcast area B do not overlap, so the area broadcast transmission device 20-1 in the broadcast area A and the area broadcast transmission device 20-2 in the broadcast area B are the same. Area broadcasting can be performed in this segment. In FIG. 6, the broadcast area B and the broadcast area C do not overlap, so the area broadcast transmission device 20-2 in the broadcast area B and the area broadcast transmission device 20-3 in the broadcast area C are the same. Area broadcasting can be performed in this segment.

ただし、図6では、放送エリアAと放送エリアCとは、一部が重複しているので、放送エリアAのエリア放送送信装置20−1と、放送エリアCのエリア放送送信装置20−3とでは、エリア放送に、同一のセグメントを用いることはできない。   However, in FIG. 6, since the broadcast area A and the broadcast area C partially overlap, the area broadcast transmission device 20-1 in the broadcast area A and the area broadcast transmission device 20-3 in the broadcast area C Then, the same segment cannot be used for area broadcasting.

ウェアラブル機器10は、例えば、図6に示すように、ウェアラブル機器10を装着したユーザが放送エリアAにいる場合、情報サーバ30からチャンネル情報を取得することで、放送エリアAのエリア放送送信装置20−1によるエリア放送を受信することができる。ここで、図7に示すように、チャンネル情報には、物理チャンネル番号、サービスID、信号形式、送信点位置、及び、サービス距離等のエリア放送送信装置20−1によるエリア放送に関する情報が含まれる。   For example, as shown in FIG. 6, when the user wearing the wearable device 10 is in the broadcast area A, the wearable device 10 acquires channel information from the information server 30 to obtain the area broadcast transmission device 20 in the broadcast area A. -1 area broadcasts can be received. Here, as shown in FIG. 7, the channel information includes information related to area broadcasting by the area broadcasting transmitting device 20-1, such as physical channel number, service ID, signal format, transmission point position, and service distance. .

物理チャンネル番号Cは、エリア放送送信装置20−1によるエリア放送の物理チャンネルの番号を示す情報である。また、サービスID Sidは、エリア放送送信装置20−1によるエリア放送のサービスの識別情報である。信号形式Fは、エリア放送送信装置20−1によるエリア放送の信号の形式を示す情報である。 Physical channel number C h is information indicating a number of the physical channel area broadcasting by area broadcast transmitting device 20-1. The service ID S id is identification information of an area broadcast service by the area broadcast transmission apparatus 20-1. The signal format F m is information indicating the format of the area broadcast signal by the area broadcast transmission device 20-1.

送信点位置Pは、エリア放送送信装置20−1のアンテナの設置位置を示す情報である。例えば、送信点位置Pとしては、当該アンテナの設置位置を示す緯度と経度を示す位置情報が指定される。ただし、送信点位置Pには、アンテナの設置位置の代わりに、例えばビルの壁などに掲示(表示)される映画のポスタの位置などのターゲットの位置を指定するようにしてもよい。このように、ターゲットの位置を直接指定する場合には、エリア放送送信装置20−1をターゲットの近傍に設置する必要はない。 The transmission point position PT is information indicating the installation position of the antenna of the area broadcast transmission device 20-1. For example, as the transmission point position PT , position information indicating the latitude and longitude indicating the installation position of the antenna is specified. However, for the transmission point position PT , a target position such as the position of a film poster posted (displayed) on a wall of a building may be designated instead of the antenna installation position. Thus, when directly specifying the position of the target, it is not necessary to install the area broadcast transmission device 20-1 in the vicinity of the target.

サービス距離は、ユーザの現在位置からターゲットまでの距離Dに応じてウェアラブル機器10の状態を遷移させる際の基準となる距離を示す情報である。例えば、サービス距離は、距離D,D,D(D >D > D)の3段階で指定される。ただし、この例の場合、距離Dは、エリア放送送信装置20−1の放送エリアA内になることが想定される。なお、以下の説明では、距離D,D,Dの3段階の基準が指定された場合を例示するが段数は任意であり、この段数が多いほど、ウェアラブル機器10の状態をより細かい単位で遷移させることができる。 The service distance is information indicating a reference distance when the state of the wearable device 10 is changed according to the distance D from the current position of the user to the target. For example, the service distance is specified in three stages of distances D A , D B , and D C (D A > D B > D C ). However, in this example, the distance D A, it is assumed to be within the broadcast area A of the area broadcast transmitting apparatus 20-1. In the following description, the distance D A, D B, the number of stages is illustrated a case where the reference of the three-step D C is designated is arbitrary, as the number of stages is larger, finer the state of the wearable device 10 Transitions can be made in units.

チャンネル情報は、例えばエリア放送の事業者により提供される。また、チャンネル情報に含まれる情報は任意であって、図7に示した情報以外の他の情報が含まれるようにしてもよいし、図7に示した情報が必ずしも含まれる必要はない。例えば、サービス距離は、各種の情報を用い、ウェアラブル機器10側で算出されるようにしてもよい。   The channel information is provided by, for example, an area broadcaster. Further, the information included in the channel information is arbitrary, and other information other than the information illustrated in FIG. 7 may be included, and the information illustrated in FIG. 7 is not necessarily included. For example, the service distance may be calculated on the wearable device 10 side using various types of information.

なお、チャンネル情報は、ウェアラブル機器10が情報サーバ30から直接ダウンロードするほか、情報サーバ30から、スマートフォン等のユーザが所持している電子機器にダウンロードし、そのスマートフォン等とウェアラブル機器10との間で、チャンネル情報をやりとりする無線通信などを行うことにより、ウェアラブル機器10において取得されるようにしてもよい。   The channel information is downloaded directly from the information server 30 by the wearable device 10 or downloaded from the information server 30 to an electronic device owned by a user such as a smartphone, and between the smartphone and the wearable device 10. It may be acquired in the wearable device 10 by performing wireless communication for exchanging channel information.

因みに、エリア放送送信装置20から、セグメントで送信されるエリア放送情報記述子には、図8に示す項目が定義されている。すなわち、図8に示すように、station_id、area_codeは、それぞれ、ステーションID、地域コードである。また、format、emission_powerは、図9に示すように、それぞれ、信号形式、送信出力である。また、station_latitude、station_longitude、station_heightは、図9に示すように、それぞれ、送信局緯度、送信局経度、送信局高度である。さらに、directivity_pattern_bitmapは、図9に示すように、指向性パターンビットマップである。open_air_flag、closed_space_flag、station_mobility_flagは、それぞれ、オープンエアフラグ、閉空間フラグ、移動局フラグである。extended_info()は、拡張情報である。extended_info()は、extended_info_flagが1である場合に、エリア放送情報記述子に含まれる。   Incidentally, the items shown in FIG. 8 are defined in the area broadcast information descriptor transmitted by the segment from the area broadcast transmission apparatus 20. That is, as shown in FIG. 8, station_id and area_code are a station ID and an area code, respectively. Further, format and emission_power are a signal format and a transmission output, respectively, as shown in FIG. Further, station_latitude, station_longitude, and station_height are a transmission station latitude, a transmission station longitude, and a transmission station altitude, respectively, as shown in FIG. Furthermore, the directivity_pattern_bitmap is a directivity pattern bitmap as shown in FIG. open_air_flag, closed_space_flag, and station_mobility_flag are an open air flag, a closed space flag, and a mobile station flag, respectively. extended_info () is extended information. extended_info () is included in the area broadcast information descriptor when extended_info_flag is 1.

(エリア放送送信装置の詳細構成例)
図10は、図1のエリア放送送信装置20の詳細構成例を示すブロック図である。図10において、エリア放送送信装置20は、コンテンツ取得部201、コンテンツ処理部202、及び、送信部203により構成される。
(Detailed configuration example of area broadcasting transmitter)
FIG. 10 is a block diagram illustrating a detailed configuration example of the area broadcast transmission device 20 of FIG. In FIG. 10, the area broadcast transmission device 20 includes a content acquisition unit 201, a content processing unit 202, and a transmission unit 203.

コンテンツ取得部201は、内蔵するHDD(Hard Disk Drive)や、外部のサーバ、カメラ等から、エリア放送用のコンテンツのビデオデータを取得し、コンテンツ処理部202に供給する。また、コンテンツ取得部201は、内蔵するHDDや、外部のサーバ、マイクロフォン等から、エリア放送用のコンテンツのオーディオデータを取得し、コンテンツ処理部202に供給する。   The content acquisition unit 201 acquires area broadcast content video data from a built-in HDD (Hard Disk Drive), an external server, a camera, and the like, and supplies the video data to the content processing unit 202. Further, the content acquisition unit 201 acquires audio data of area broadcast content from a built-in HDD, an external server, a microphone, or the like, and supplies it to the content processing unit 202.

コンテンツ処理部202は、コンテンツ取得部201から供給されるビデオデータを、MPEG(Moving Picture Experts Group)等の符号化方式に準拠して符号化する。また、コンテンツ処理部202は、コンテンツ取得部201から供給されるオーディオデータを、MPEG等の符号化方式に準拠して符号化する。   The content processing unit 202 encodes the video data supplied from the content acquisition unit 201 in accordance with an encoding method such as MPEG (Moving Picture Experts Group). In addition, the content processing unit 202 encodes the audio data supplied from the content acquisition unit 201 in accordance with an encoding method such as MPEG.

コンテンツ処理部202は、符号化により得られるビデオデータとオーディオデータ、さらに、PSI/SI等の各種のデータを多重化してTS(Transport Stream)を生成し、送信部203に供給する。送信部203は、コンテンツ処理部202から供給されるTSを、所定のセグメントでアンテナ204を介して、放送信号として送信する。   The content processing unit 202 multiplexes video data and audio data obtained by encoding, and various data such as PSI / SI, generates a TS (Transport Stream), and supplies the TS (Transport Stream) to the transmission unit 203. The transmission unit 203 transmits the TS supplied from the content processing unit 202 as a broadcast signal via the antenna 204 in a predetermined segment.

以上のように、エリア放送送信装置20は、例えば、ターゲットの近傍に設置され、映画の予告編や商品の宣伝など、ウェアラブル機器10を装着したユーザがディスプレイ106を通して見るターゲットの位置に配置されるコンテンツを送信する。   As described above, the area broadcast transmission device 20 is installed in the vicinity of the target, for example, a content such as a movie trailer or a product advertisement that is placed at the target position that the user wearing the wearable device 10 sees through the display 106. Send.

(情報サーバの詳細構成例)
図11は、図1の情報サーバ30の詳細構成例を示すブロック図である。図11において、情報サーバ30は、制御部301、チャンネル情報取得部302、チャンネル情報保持部303、及び、通信部304により構成される。
(Detailed configuration example of information server)
FIG. 11 is a block diagram illustrating a detailed configuration example of the information server 30 of FIG. In FIG. 11, the information server 30 includes a control unit 301, a channel information acquisition unit 302, a channel information holding unit 303, and a communication unit 304.

制御部301は、情報サーバ30の各部の動作を制御する。チャンネル情報取得部302は、制御部301からの制御に従い、チャンネル情報を取得し、チャンネル情報保持部303に記録する。   The control unit 301 controls the operation of each unit of the information server 30. The channel information acquisition unit 302 acquires channel information according to the control from the control unit 301 and records it in the channel information holding unit 303.

制御部301は、ウェアラブル機器10からチャンネル情報が要求された場合、チャンネル情報保持部303からチャンネル情報を読み出して取得する。通信部304は、制御部301からの制御に従い、チャンネル情報を、無線ネットワーク2を介して、要求元のウェアラブル機器10に送信する。   When the channel information is requested from the wearable device 10, the control unit 301 reads and acquires the channel information from the channel information holding unit 303. The communication unit 304 transmits channel information to the requestable wearable device 10 via the wireless network 2 in accordance with control from the control unit 301.

以上のように、情報サーバ30は、ウェアラブル機器10からの要求に応じて、無線ネットワーク2を介して、図7のチャンネル情報を提供する。   As described above, the information server 30 provides the channel information of FIG. 7 via the wireless network 2 in response to a request from the wearable device 10.

<ユースケース> <Use case>

次に、図12及び図13を参照して、本技術を用いた具体的なユースケースについて説明する。   Next, a specific use case using the present technology will be described with reference to FIGS. 12 and 13.

図12に示すように、市街地を歩いているユーザは、ウェアラブル機器10を装着しており、ディスプレイ106には、ディスプレイ106を通して見えるビルや店舗等の構造物に、映画のポスタ401や、広告402、403がAR技術により重畳されている。ここで、映画のポスタ401(が重畳表示されているビルの壁)がターゲットとして選択された場合、そのビルに向かって歩いているユーザの現在位置からターゲットの位置までの距離Dに応じて、ウェアラブル機器10の状態が遷移する。その結果、ウェアラブル機器10では、受信中のエリア放送のコンテンツ(図12の例では、ポスタ401の映画の予告編(トレーラ))の再生状態が段階的に変化することになる。   As shown in FIG. 12, a user walking in a city area is wearing the wearable device 10, and the display 106 has a structure such as a building and a store that can be seen through the display 106, a movie poster 401, and an advertisement 402. , 403 are superimposed by AR technology. Here, when a movie poster 401 (a wall of a building on which is superimposed) is selected as a target, according to a distance D from the current position of the user walking toward the building to the target position, The state of wearable device 10 changes. As a result, in the wearable device 10, the playback state of the area broadcast content being received (in the example of FIG. 12, the movie trailer (trailer) of the poster 401) changes in stages.

すなわち、図13に示すように、ウェアラブル機器10は、距離D>Dとなる場合には、「チューナ停止中」の状態となっている。その後、ユーザの現在位置が移動することで距離Dが変化し、D<D≦Dとなった場合、ウェアラブル機器10の状態は、「チューナ受信中」に遷移する。そして、ユーザの現在位置がさらに移動することで距離Dが変化し、D<D≦Dとなった場合、ウェアラブル機器10の状態は、「映像再生中」に遷移する。これにより、ウェアラブル機器10においては、ポスタ401の映画の予告編の映像の再生が開始され、その映像がディスプレイ106に表示されることになる。 That is, as shown in FIG. 13, the wearable device 10, when the distance D> D A is in a state of "tuner stopped". Thereafter, when the distance D changes as the user's current position moves and D B <D ≦ D A , the state of the wearable device 10 transitions to “receiving tuner”. If the distance D changes as the user's current position further moves and D C <D ≦ D B , the state of the wearable device 10 transitions to “video playback”. As a result, in the wearable device 10, playback of the movie trailer video of the poster 401 is started and the video is displayed on the display 106.

また、ユーザの現在位置が移動することで距離Dが変化し、D≦Dとなった場合、ウェアラブル機器10の状態は、「映像音声再生中」に遷移する。これにより、ウェアラブル機器10においては、ディスプレイ106に、ポスタ401の映画の予告編の映像が表示されるだけでなく、さらにその映像に同期した音声がヘッドホン107から出力されることになる。また、このとき、ヘッドホン107から出力される音声の音量は段階的に調整される。 The distance D is changed by the current position of the user moves, when a D ≦ D C, the state of the wearable device 10 transits to "video and audio reproduction." As a result, in the wearable device 10, not only the movie trailer video of the poster 401 is displayed on the display 106, but also audio synchronized with the video is output from the headphones 107. At this time, the volume of the sound output from the headphones 107 is adjusted stepwise.

ただし、ウェアラブル機器10は、視線情報に応じて、その状態が遷移する。具体的には、ウェアラブル機器10の状態が「映像再生中」である場合において、ユーザの視線の方向が上向き、すなわち、ターゲットの方向を向いている場合には、「映像再生中」の状態が維持される。一方、ユーザの視線の方向が下向き、すなわち、ターゲットの方向を向いていない場合には、「映像再生中」から「チューナ受信中」に状態が遷移し、ポスタ401の映画の予告編の映像の再生が停止されることになる。なお、ユーザの視線が下向きから上向きに変化した場合には、「チューナ受信中」から「映像再生中」に状態が遷移し、ポスタ401の映画の予告編の映像の再生が再開されることになる。   However, the state of the wearable device 10 changes according to the line-of-sight information. Specifically, when the state of wearable device 10 is “video playback”, when the direction of the user ’s line of sight is upward, that is, toward the target, the status of “video playback” is set. Maintained. On the other hand, when the user's line of sight is facing downward, that is, not facing the target, the state transitions from “video playback” to “tuner reception”, and video playback of the movie trailer of the poster 401 is played back. Will be stopped. When the user's line of sight changes from downward to upward, the state transitions from “receiving tuner” to “playing video”, and playback of the movie trailer video of the poster 401 is resumed. .

また、ウェアラブル機器10の状態が「映像音声再生中」である場合において、ユーザの視線が上向き、すなわち、ターゲットの方向を向いている場合には、「映像音声再生中」の状態が維持される。一方、ユーザの視線が下向き、すなわち、ターゲットの方向を向いていない場合には、「映像音声再生中」から「音声再生中」に状態が遷移し、ポスタ401の映画の予告編の映像の再生が停止され、音声のみがヘッドホン107から出力されることになる。また、このとき、音声の音量の調整が行われ、音量が下げられる。なお、ユーザの視線が下向きから上向きに変化した場合には、「音声再生中」から「映像音声再生中」に状態が遷移し、ポスタ401の映画の予告編の映像の再生が再開され、さらに下げられていた音声の音量が元の状態に戻されることになる。   Further, when the wearable device 10 is in the state of “video / audio playback”, the state of “video / audio playback” is maintained when the user's line of sight is facing upward, that is, in the direction of the target. . On the other hand, when the user's line of sight is facing downward, i.e., not facing the target, the state transitions from "video / audio playback" to "audio playback", and the video trailer video of the poster 401 is played back. The sound is stopped and only sound is output from the headphones 107. At this time, the sound volume is adjusted and the sound volume is lowered. When the user's line of sight changes from downward to upward, the state transitions from “playing audio” to “playing video and audio”, and the playback of the movie trailer video of the poster 401 is resumed and further lowered. The volume of the voice that has been set will be restored to the original state.

以上のように、この例では、ウェアラブル機器10を装着したユーザが、ディスプレイ106を通して見えるビルの壁に、AR技術により重畳された映画のポスタ401を見ながら近づくと、その映画の予告編の映像の再生が開始される。そしてさらにユーザがポスタ401を見ながらビルの壁に近づくと、その映画の予告編の映像に同期した音声も聞こえてくることになる。   As described above, in this example, when the user wearing the wearable device 10 approaches the building wall visible through the display 106 while looking at the movie poster 401 superimposed by the AR technology, the video of the trailer of the movie is displayed. Playback starts. When the user approaches the wall of the building while looking at the poster 401, sound synchronized with the video of the movie trailer can be heard.

このようにして、映画の予告編の映像等が提示されることになるが、ウェアラブル機器10を装着したユーザは、エリア放送のチャンネル入力操作やスキャン操作をする必要がなく、また、チャンネル選局に関する事前情報なども不要であるため、煩雑な選局操作から解放されることになる。また、ウェアラブル機器10を装着したユーザは、興味の赴くままに歩くという動作を行っているだけで、ターゲットに近づくと、エリア放送のコンテンツの映像や音声の再生が自動的に開始されるため、特別な操作や指示が不要となる。そのため、ユーザの手を煩わせることなく、エリア放送のコンテンツを提示することができる。また、ユーザにとっては日常的な動作を行っていればよく、自然なUI(User Interface)を実現することができる。   In this manner, a movie trailer video or the like is presented, but the user wearing the wearable device 10 does not need to perform channel input operation or scanning operation of area broadcasting, and is related to channel selection. Since prior information or the like is unnecessary, it is freed from complicated channel selection operations. In addition, the user wearing the wearable device 10 simply performs an operation of walking with interest, and when the user approaches the target, the playback of the area broadcast content video and audio is automatically started. No special operations or instructions are required. Therefore, area broadcast content can be presented without bothering the user. In addition, the user only needs to perform daily operations, and a natural UI (User Interface) can be realized.

また、ウェアラブル機器10を装着したユーザに対して、サービスのエリアを事前に告知することなく、そのユーザの現在位置に応じたエリア放送のコンテンツを提示することが可能となる。つまり、サービスのエリアを事前に告知することは手間であるが、本技術を用いることで、そのような手間を省くことが可能となる。さらに、ウェアラブル機器10が確実に受信できる放送エリアでのみエリア放送のコンテンツが提供されるので、サービスの提供者側にとっては、エリア放送のコンテンツが確実に受信されることが保証されることになる。また、インターネットに代表される通信網を利用した場合、多くの人が集まる市街地などでアクセスが集中してしまうと、動画のコンテンツの提供が困難になるが、エリア放送であると、放送波を利用しているため、例えば市街地やスタジアムなどの多くの人が集まる場所でも確実にサービスを提供することが可能となる。   In addition, it is possible to present area broadcast content according to the current position of the user without notifying the user of the wearable device 10 in advance of the service area. That is, it is troublesome to notify the service area in advance, but using this technique makes it possible to save such trouble. Furthermore, since area broadcast content is provided only in a broadcast area that can be reliably received by wearable device 10, it is guaranteed for the service provider that area broadcast content is reliably received. . In addition, when using a communication network represented by the Internet, if the access is concentrated in a city area where many people gather, it becomes difficult to provide video content. Since it is used, for example, it is possible to reliably provide a service even in a place where many people gather, such as an urban area or a stadium.

なお、このユースケースでは、ディスプレイ106上で、AR技術による映画のポスタ401(が重畳表示されているビルの壁)に対して、エリア放送のコンテンツとしての映画の予告編の映像と音声が再生される例を説明したが、例えば、ディスプレイ106を通して見える実物の映画のポスタ(が掲示されているビルの壁)に対して、エリア放送のコンテンツとしての映画の予告編の映像と音声が再生されるようにしてもよい。   In this use case, video and audio of a movie trailer as an area broadcast content are reproduced on the display 106 on the movie poster 401 by AR technology (the wall of a building on which is superimposed). For example, video and audio of a movie trailer as area broadcast content are reproduced on an actual movie poster (a wall of a building on which it is posted) that can be seen through the display 106. It may be.

<各装置で行われる具体的な処理の内容> <Details of specific processing performed in each device>

次に、図14乃至図20のフローチャートを参照して、図1のエリア放送システム1を構成する各装置で行われる具体的な処理の内容について説明する。   Next, with reference to the flowcharts of FIGS. 14 to 20, the contents of specific processing performed in each device constituting the area broadcasting system 1 of FIG. 1 will be described.

(コンテンツ提示処理)
まず、図14乃至図18のフローチャートを参照して、図1のウェアラブル機器10が実行するコンテンツ提示処理について説明する。このコンテンツ提示処理は、例えば、ウェアラブル機器10の電源がオンされて、ウェアラブル機器10が起動したと同時に開始される。ただし、ウェアラブル機器10においては、起動時に、GPS部109によるGPS機能、通信部111による無線通信機能、及び、カメラ部115による撮影機能がオンされる。
(Content presentation process)
First, content presentation processing executed by the wearable device 10 in FIG. 1 will be described with reference to the flowcharts in FIGS. 14 to 18. This content presentation processing is started at the same time when the wearable device 10 is turned on and the wearable device 10 is activated, for example. However, in the wearable device 10, the GPS function by the GPS unit 109, the wireless communication function by the communication unit 111, and the photographing function by the camera unit 115 are turned on at the time of activation.

ステップS101においては、カメラ部115により撮影された撮影画像を用い、ターゲット認識処理が行われる。このターゲット認識処理では、例えば、市街地の構造物に実際に掲示された映画のポスタ(が掲示されているビルの壁)や、AR技術により構造物に重畳された映画のポスタ(が重畳表示されているビルの壁)などがターゲットとして認識される。   In step S101, target recognition processing is performed using the captured image captured by the camera unit 115. In this target recognition processing, for example, a poster of a movie actually posted on a structure in an urban area (a wall of a building on which the poster is posted) or a poster of a movie superimposed on a structure by AR technology is superimposed and displayed. The wall of the building) is recognized as the target.

ステップS102においては、ターゲット認識処理によってターゲットが認識されたか否かが判定される。ステップS102において、ターゲットが認識されていないと判定された場合、ステップS101のターゲット認識処理が繰り返される。また、ステップS102において、ターゲットが認識されたと判定された場合、処理はステップS103に進められる。   In step S102, it is determined whether or not the target is recognized by the target recognition process. If it is determined in step S102 that the target is not recognized, the target recognition process in step S101 is repeated. If it is determined in step S102 that the target has been recognized, the process proceeds to step S103.

ステップS103において、チャンネル情報取得部161は、通信部111を制御することで、無線通信ネットワーク2等を介して情報サーバ30からチャンネル情報を取得する。ここでは、例えば、マーカレスAR技術によって認識された映画のポスタを掲示しているビルの近傍に設置されているエリア放送送信装置20によるエリア放送用のチャンネル情報を提供する情報サーバ30のURL(Uniform Resource Locator)が取得され、そのURLに従い、情報サーバ30にアクセスすることで、チャンネル情報が取得される。   In step S103, the channel information acquisition unit 161 acquires channel information from the information server 30 via the wireless communication network 2 or the like by controlling the communication unit 111. Here, for example, the URL (Uniform) of the information server 30 that provides channel information for area broadcasting by the area broadcasting transmitter 20 installed in the vicinity of a building that posts a poster of a movie recognized by the markerless AR technology. Resource Locator) is acquired, and channel information is acquired by accessing the information server 30 according to the URL.

ステップS104において、チャンネル情報取得部161は、チャンネル情報に含まれる送信点位置Pを取得する。また、ステップS105において、位置情報取得部162は、GPS部109を制御することで、GPS衛星3からの信号に応じたユーザの現在位置pを取得する。 In step S104, the channel information acquisition unit 161 acquires the transmission point position PT included in the channel information. Further, in step S105, position information obtaining unit 162, by controlling the GPS unit 109 acquires the current position p u of the user in response to a signal from the GPS satellite 3.

ステップS106において、距離情報取得部163は、送信点位置Pと、現在位置pを用い、例えば、下記の式(1)を演算することで、実空間におけるユーザの現在位置からターゲットまでの距離Dを算出する。 In step S106, the distance information acquisition unit 163 uses the transmission point position PT and the current position pu to calculate, for example, the following equation (1) to obtain the distance from the user's current position to the target in the real space. The distance D is calculated.

D=|p−P|・・・(1) D = | pu− P T | (1)

ステップS107においては、ステップS106で求められた距離Dと、チャンネル情報に含まれるサービス距離Dとの大小関係が判定される。 In step S107, the distance D calculated in step S106, the magnitude relation between the service distance D A included in the channel information is determined.

ステップS107において、D<Dであると判定された場合、処理はステップS105に戻り、上述した処理が繰り返される。すなわち、ユーザの現在位置pがサービス距離Dの範囲外となる場合、ユーザの現在位置pに応じて距離Dの値が更新され、D≦Dとなるまで、ステップS107の判定処理が繰り返される。 If it is determined in step S107 that D A <D, the process returns to step S105, and the above-described process is repeated. That is, if the current position p u of the user is out of range of service distance D A, the value of the distance D in accordance with the current position p u of the user is updated, until D ≦ D A, the determination process of step S107 Is repeated.

ステップS107において、D≦Dであると判定された場合、処理は、図15のステップS111に進められる。 In step S107, if it is determined that D ≦ D A, the process proceeds to step S111 in FIG. 15.

このように、図14のステップS101乃至S107の処理は、チューナ113による選局が停止した状態で実行される「チューナ停止中」の処理であって、D>Dの関係を満たしており、ユーザの現在位置pが、サービス距離Dの範囲外となっている。 Thus, processing of steps S101 to S107 in FIG. 14 is a process of "tuner stop" the channel selection is performed in a stopped state by the tuner 113, satisfies the relationship D> D A, The user's current position p u is outside the range of the service distance D A.

図15のステップS111において、チューナ113は、チャンネル情報を用いた選局を開始し、エリア放送送信装置20からのエリア放送のコンテンツの受信を開始する。   In step S111 in FIG. 15, the tuner 113 starts channel selection using the channel information, and starts receiving area broadcast content from the area broadcast transmission device 20.

ステップS112,S113においては、図14のステップS105,106と同様に、ユーザの現在位置pが取得され、例えば、上述した式(1)を用いて距離Dが求められる。そして、ステップS114においては、ステップS113で求められた距離Dと、チャンネル情報に含まれるサービス距離D,Dとの大小関係が判定される。 In step S112, S113, similarly to step S105,106 in FIG. 14, the acquired current position p u of the user, for example, the distance D is calculated using equation (1) described above. In step S114, the magnitude relationship between the distance D obtained in step S113 and the service distances D A and D B included in the channel information is determined.

ステップS114において、D<D≦Dであると判定された場合、処理はステップS112に戻り、上述した処理が繰り返される。すなわち、ユーザの現在位置pがサービス距離Dの範囲内で、かつ、サービス距離Dの範囲外となる場合、ユーザの現在位置pに応じて距離Dの値が更新され、D>D又はD≦Dとなるまで、ステップS114の判定処理が繰り返される。 If it is determined in step S114 that D B <D ≦ D A , the process returns to step S112 and the above-described process is repeated. That is, when the user's current position p u is within the range of the service distance D A and outside the range of the service distance D B , the value of the distance D is updated according to the user's current position p u and D> The determination process in step S114 is repeated until D A or D ≦ D B.

また、ステップS114において、D>Dであると判定された場合、処理はステップS115に進められる。ステップS115において、チューナ113は、チャンネル情報を用いた選局を停止し、エリア放送のコンテンツの受信を停止する。ステップS115の処理が終了すると、処理は、図14のステップS105に戻り、それ以降の処理が行われる。すなわち、この場合、ユーザの現在位置pがサービス距離Dの範囲外となったので、図14のチューナ停止中の処理に戻されることになる。 Further, in step S114, if it is determined that D> D A, processing proceeds to step S115. In step S115, the tuner 113 stops channel selection using the channel information and stops receiving area broadcast content. When the process of step S115 ends, the process returns to step S105 of FIG. 14, and the subsequent processes are performed. That is, in this case, since the current position p u of the user is out of the range of the service distance D A , the process returns to the processing during the tuner stop of FIG.

また、ステップS114において、D≦Dであると判定された場合、処理は、図16のステップS121に進められる。 Further, in step S114, if it is determined that D ≦ D B, the process proceeds to step S121 in FIG. 16.

このように、図15のステップS111乃至S115の処理は、チューナの選局が行われている状態で実行される「チューナ受信中」の処理であって、D<D≦Dの関係を満たしており、ユーザの現在位置pが、サービス距離Dの範囲内で、かつ、サービス距離Dの範囲外となっている。 As described above, the processing in steps S111 to S115 in FIG. 15 is “tuner receiving” processing that is executed in the state where the tuner is selected, and the relationship of D B <D ≦ D A is satisfied. It filled and the current position p u users, within a service distance D a, and has become out of the range of service distance D B.

図16のステップS121においては、視線情報取得部164により取得された視線情報に応じて、ユーザの視線がターゲットの方向にあるか、すなわち、ターゲットが視野内にあるかどうかが判定される。ステップS121においては、ターゲットが視野内にあると判定されるのを待って、処理はステップS122に進められる。ステップS122において、再生制御部165は、エリア放送のコンテンツの映像の再生を開始する。これにより、ウェアラブル機器10においては、ディスプレイ106に、エリア放送のコンテンツの映像が表示されることになる。   In step S121 of FIG. 16, it is determined whether the user's line of sight is in the direction of the target, that is, whether the target is in the field of view, according to the line-of-sight information acquired by the line-of-sight information acquisition unit 164. In step S121, after waiting for the target to be determined to be within the field of view, the process proceeds to step S122. In step S122, the playback control unit 165 starts playback of the content broadcast content video. As a result, in wearable device 10, an area broadcast content image is displayed on display 106.

ステップS123,S124においては、図14のステップS105,106と同様に、ユーザの現在位置pが取得され、例えば、上述した式(1)を用いて距離Dが求められる。そして、ステップS125においては、ステップS124で求められた距離Dと、チャンネル情報に含まれるサービス距離D,Dとの大小関係が判定される。 In step S123, S124, similarly to step S105,106 in FIG. 14, the acquired current position p u of the user, for example, the distance D is calculated using equation (1) described above. Then, in step S125, the distance D determined in step S124, the service distance D B included in the channel information, the magnitude relationship between D C is determined.

ステップS125において、D<D≦Dであると判定された場合、処理はステップS121に戻り、上述した処理が繰り返される。すなわち、ユーザの現在位置pがサービス距離Dの範囲内で、かつ、サービス距離Dの範囲外となる場合、ユーザの現在位置pに応じて距離Dの値が更新され、D>D又はD≦Dとなるまで、ステップS125の判定処理が繰り返される。 If it is determined in step S125 that D C <D ≦ D B , the process returns to step S121, and the above-described process is repeated. That is, when the user's current position p u is within the service distance D B and outside the service distance D C , the value of the distance D is updated according to the user's current position p u and D> The determination process in step S125 is repeated until D B or D ≦ D C.

また、ステップS125において、D>Dであると判定された場合、処理はステップS126に進められる。ステップS126において、再生制御部165は、再生中のコンテンツの映像の再生を停止する。ステップS126の処理が終了すると、処理は、図15のステップS112に戻り、それ以降の処理が行われる。すなわち、この場合、ユーザの現在位置pがサービス距離Dの範囲外となったので、図15のチューナ受信中の処理に戻されることになる。 If it is determined in step S125 that D> D B , the process proceeds to step S126. In step S126, the playback control unit 165 stops playback of the video of the content being played back. When the process of step S126 ends, the process returns to step S112 of FIG. 15, and the subsequent processes are performed. That is, in this case, since the current position p u users became out of the range of service distance D B, it will be returned to the processing in the tuner-received in FIG.

また、ステップS125において、D≦Dであると判定された場合、処理は、図17のステップS131に進められる。 Further, in step S125, the case where it is determined that the D ≦ D C, the process proceeds to step S131 in FIG. 17.

このように、図16のステップS121乃至S126の処理は、コンテンツの映像の再生が行われている状態で実行される「映像再生中」の処理であって、D<D≦Dの関係を満たしており、ユーザの現在位置pが、サービス距離Dの範囲内で、かつ、サービス距離Dの範囲外となっている。 As described above, the processing of steps S121 to S126 in FIG. 16 is “video playback” processing executed while the video of the content is being played back, and the relationship of D C <D ≦ D B It meets the current position p u users, within the scope of the service distance D B, and has a range of services distance D C.

図17のステップS131において、再生制御部165は、エリア放送のコンテンツの音声の再生を開始する。これにより、ウェアラブル機器10においては、ディスプレイ106に、エリア放送のコンテンツの映像が表示され、さらに、その映像に同期した音声がヘッドホン107から出力されることになる。   In step S131 in FIG. 17, the reproduction control unit 165 starts reproduction of the audio of the area broadcast content. As a result, in wearable device 10, the video of the area broadcast content is displayed on display 106, and audio synchronized with the video is output from headphone 107.

ステップS132、S133においては、図14のステップS105,106と同様に、ユーザの現在位置pが取得され、例えば、上述した式(1)を用いて距離Dが求められる。そして、ステップS134においては、ステップS133で求められた距離Dと、チャンネル情報に含まれるサービス距離Dとの大小関係が判定される。 In step S132, S133, similarly to step S105,106 in FIG. 14, the acquired current position p u of the user, for example, the distance D is calculated using equation (1) described above. Then, in step S134, the distance D calculated in step S133, the magnitude relation between the service distance D C included in the channel information is determined.

ステップS134において、D≦Dであると判定された場合、処理はステップS135に進められる。ステップS135において、再生制御部165は、再生中のエリア放送のコンテンツの音声の音量を調整する。この音量の調整は、例えば、再生中のコンテンツの音声の音量を1段階上げる調整、あるいは1段階下げる調整が行われる。あるいは音量を変化させない場合があってもよい。 In step S134, if it is determined that D ≦ D C, the process proceeds to step S135. In step S135, the reproduction control unit 165 adjusts the sound volume of the content of the area broadcast being reproduced. For example, the volume is adjusted by increasing the volume of the sound of the content being played by one level or by decreasing the level by one level. Or the volume may not be changed.

ステップS136においては、図16のステップS121と同様に、ターゲットが視野内にあるかどうかが判定される。ステップS136において、ターゲットが視野内にあると判定された場合、処理はステップS132に戻り、それ以降の処理が繰り返される。すなわち、ユーザの現在位置pがサービス距離Dの範囲内であって、ターゲットが視野内にある場合には、ステップS135の音声調整処理が行われ、例えば、再生中のコンテンツの音声の音量が1段階上げられる。これにより、ユーザの現在位置pと、ターゲットの位置との距離が近づくに連れて、エリア放送のコンテンツの音声の音量が大きくなることになる。 In step S136, it is determined whether the target is in the field of view, as in step S121 of FIG. If it is determined in step S136 that the target is within the field of view, the process returns to step S132, and the subsequent processes are repeated. That is, in a range current position p u users of the service distance D C, when the target is within the field of view, the audio adjustment processing in step S135 is performed, for example, the volume of the audio content being played Is raised by one step. Thus, the current position p u of the user, as the distance between the position of the target approaches, so that the volume of the sound of the content of the area broadcast increases.

また、ステップS134において、D>Dであると判定された場合、処理はステップS137に進められる。ステップS137において、再生制御部165は、再生中のエリア放送のコンテンツの音声を停止する。これにより、ウェアラブル機器10においては、ディスプレイ106に、エリア放送のコンテンツの映像は表示されるが、その映像に同期した音声は出力されないことになる。 Further, in step S134, if it is determined that D> D C, the process proceeds to step S137. In step S137, the reproduction control unit 165 stops the sound of the content of the area broadcast being reproduced. As a result, in the wearable device 10, the video of the area broadcast content is displayed on the display 106, but the audio synchronized with the video is not output.

ステップS137の処理が終了すると、処理は、図16のステップS123に進められ、それ以降の処理が行われる。また、ステップS136において、ターゲットが視野内にないと判定された場合、処理は、図18のステップS141に進められる。   When the process of step S137 ends, the process proceeds to step S123 of FIG. 16, and the subsequent processes are performed. If it is determined in step S136 that the target is not in the field of view, the process proceeds to step S141 in FIG.

このように、図17のステップS131乃至S136の処理は、コンテンツの映像と音声の再生が行われている状態で実行される「映像音声再生中」の処理であって、D≦Dの関係を満たしており、ユーザの現在位置pが、サービス距離Dの範囲内となっている。 As described above, the processing in steps S131 to S136 in FIG. 17 is a “video and audio playback” process that is executed while the video and audio of the content are being played back, and the relationship of D ≦ D C meets the current position p u users, it is within the scope of the service distance D C.

図18のステップS141において、再生制御部165は、再生中のエリア放送のコンテンツの映像を停止する。これにより、ウェアラブル機器10においては、ディスプレイ106には、エリア放送のコンテンツの映像は表示されていないが、その音声のみがヘッドホン107から出力されることになる。   In step S141 in FIG. 18, the reproduction control unit 165 stops the video of the content of the area broadcast being reproduced. Thereby, in the wearable device 10, the video of the area broadcast content is not displayed on the display 106, but only the sound is output from the headphones 107.

ステップS142,S143においては、図14のステップS105,106と同様に、ユーザの現在位置pが取得され、例えば、上述した式(1)を用いて距離Dが求められる。そして、ステップS144においては、ステップS143で求められた距離Dと、チャンネル情報に含まれるサービス距離Dとの大小関係が判定される。 In step S142, S143, similarly to step S105,106 in FIG. 14, the acquired current position p u of the user, for example, the distance D is calculated using equation (1) described above. Then, in step S144, the distance D calculated in step S143, the magnitude relation between the service distance D C included in the channel information is determined.

ステップS144において、D≦Dであると判定された場合、処理はステップS145に進められる。ステップS145において、再生制御部165は、再生中のエリア放送のコンテンツの音声の音量を調整する。この音量の調整は、例えば、再生中のコンテンツの音声の音量を1段階下げる調整、あるいは1段階上げる調整が行われる。あるいは音量を変化させない場合があってもよい。 In step S144, if it is determined that D ≦ D C, the process proceeds to step S145. In step S145, the reproduction control unit 165 adjusts the sound volume of the area broadcast content being reproduced. The adjustment of the volume is performed, for example, by adjusting the volume of the sound of the content being reproduced to be lowered by one level or by raising it by one level. Or the volume may not be changed.

ステップS146においては、図16のステップS121と同様に、ターゲットが視野内にあるかどうかが判定される。ステップS146において、ターゲットが視野内にないと判定された場合、処理はステップS142に戻り、それ以降の処理が繰り返される。すなわち、ユーザの現在位置pがサービス距離Dの範囲内であって、ターゲットが視野内にない場合には、ステップS145の音声調整処理が行われ、例えば、再生中のコンテンツの音声の音量が1段階下げられる。これにより、ユーザの視線がターゲットを向いていない場合には、エリア放送のコンテンツの音声の音量が徐々に小さくなることになる。 In step S146, it is determined whether or not the target is in the field of view, as in step S121 of FIG. If it is determined in step S146 that the target is not within the field of view, the process returns to step S142, and the subsequent processes are repeated. That is, in a range current position p u users of the service distance D C, if the target is not within the field of view, the audio adjustment processing in step S145 is performed, for example, the volume of the audio content being played Is lowered by one step. As a result, when the user's line of sight is not facing the target, the volume of the audio of the area broadcast content is gradually reduced.

また、ステップS146において、ターゲットが視野内にあると判定された場合、処理はステップS147に進められる。ステップS147において、再生制御部165は、エリア放送のコンテンツの映像の再生を開始する。これにより、ウェアラブル機器10においては、ディスプレイ106に、エリア放送のコンテンツの映像が表示され、その映像に同期した音声がヘッドホン107から出力されることになる。なお、このとき、ヘッドホン107から出力されるコンテンツの音声の音量は、元の状態に戻されることになる。   If it is determined in step S146 that the target is within the field of view, the process proceeds to step S147. In step S147, the playback control unit 165 starts playback of the video of the area broadcast content. As a result, in the wearable device 10, the video of the area broadcast content is displayed on the display 106, and audio synchronized with the video is output from the headphones 107. At this time, the sound volume of the content output from the headphones 107 is returned to the original state.

ステップS147の処理が終了すると、処理は、図17のステップS132に進められ、それ以降の処理が行われる。   When the process of step S147 ends, the process proceeds to step S132 of FIG. 17, and the subsequent processes are performed.

また、ステップS144において、D>Dであると判定された場合、処理はステップS148に進められる。ステップS148において、再生制御部165は、再生中のエリア放送のコンテンツの音声を停止する。これにより、ウェアラブル機器10においては、エリア放送のコンテンツの映像と音声が共に再生されていない状態になる。 Further, in step S144, if it is determined that D> D C, process advances to step S148. In step S148, the reproduction control unit 165 stops the audio of the content of the area broadcast being reproduced. As a result, the wearable device 10 is in a state where the video and audio of the area broadcast content are not reproduced.

ステップS148の処理が終了すると、処理は、図16のステップS121に戻り、それ以降の処理が行われる。   When the process of step S148 ends, the process returns to step S121 of FIG. 16, and the subsequent processes are performed.

このように、図18のステップS141乃至S147の処理は、コンテンツの音声の再生が行われている状態で実行される「音声再生中」の処理であって、D≦Dの関係を満たしており、ユーザの現在位置pが、サービス距離Dの範囲内となっている。 Thus, the processing of steps S141 to S147 in FIG. 18 is a process of "during voice reproduction" performed in a state in which reproduction of the sound of the content is performed, satisfies the relation D ≦ D C cage, the current position p u users, are within the scope of the service distance D C.

以上で、コンテンツ提示処理の説明を終了する。   Above, description of a content presentation process is complete | finished.

(コンテンツ送信処理)
次に、図19のフローチャートを参照して、図1のエリア放送送信装置20が実行するコンテンツ送信処理について説明する。
(Content transmission processing)
Next, content transmission processing executed by the area broadcast transmission device 20 of FIG. 1 will be described with reference to the flowchart of FIG.

ステップS201において、コンテンツ取得部201は、エリア放送用のコンテンツのビデオデータとオーディオデータを取得し、コンテンツ処理部202に供給する。   In step S <b> 201, the content acquisition unit 201 acquires video data and audio data of area broadcast content and supplies the content data to the content processing unit 202.

ステップS202において、コンテンツ処理部202は、コンテンツ取得部201から供給されるビデオデータとオーディオデータを、MPEG等の符号化方式に準拠して符号化する。また、コンテンツ処理部202は、符号化により得られるビデオデータとオーディオデータ、さらに、PSI/SI等の各種のデータを多重化してTSを生成し、送信部203に供給する。   In step S202, the content processing unit 202 encodes the video data and audio data supplied from the content acquisition unit 201 in accordance with an encoding method such as MPEG. Also, the content processing unit 202 multiplexes video data and audio data obtained by encoding, and various data such as PSI / SI, generates a TS, and supplies the TS to the transmission unit 203.

ステップS203において、送信部203は、コンテンツ処理部202から供給されるTSを、所定のセグメントでアンテナ204を介して、放送信号として送信する。ステップS203の処理が終了すると、コンテンツ送信処理は終了する。   In step S203, the transmission unit 203 transmits the TS supplied from the content processing unit 202 as a broadcast signal in a predetermined segment via the antenna 204. When the process of step S203 ends, the content transmission process ends.

以上で、コンテンツ送信処理の説明を終了する。   Above, description of a content transmission process is complete | finished.

(チャンネル情報提供処理)
最後に、図20のフローチャートを参照して、図1の情報サーバ30が実行するチャンネル情報提供処理について説明する。
(Channel information provision processing)
Finally, the channel information provision processing executed by the information server 30 of FIG. 1 will be described with reference to the flowchart of FIG.

ステップS301において、制御部301は、通信部304を監視することで、ウェアラブル機器10からチャンネル情報の要求がされたか否かを判定する。ステップS301においては、ウェアラブル機器10からのチャンネル情報の要求を待って、処理は、ステップS302に進められる。   In step S301, the control unit 301 monitors the communication unit 304 to determine whether channel information is requested from the wearable device 10. In step S301, after waiting for a request for channel information from wearable device 10, the process proceeds to step S302.

ステップS302において、制御部301は、ウェアラブル機器10からの要求に応じたチャンネル情報を、チャンネル情報保持部303から取得する。ステップS303において、通信部304は、制御部301からの制御に従い、チャンネル情報保持部303から取得されたチャンネル情報を、要求元のウェアラブル機器10に送信(提供)する。ステップS303の処理が終了すると、チャンネル情報提供処理は終了する。   In step S <b> 302, the control unit 301 acquires channel information corresponding to the request from the wearable device 10 from the channel information holding unit 303. In step S <b> 303, the communication unit 304 transmits (provides) the channel information acquired from the channel information holding unit 303 to the requestable wearable device 10 in accordance with the control from the control unit 301. When the process of step S303 ends, the channel information provision process ends.

以上で、チャンネル情報提供処理の説明を終了する。   Above, description of a channel information provision process is complete | finished.

以上のように、本技術によれば、ウェアラブル機器10を装着したユーザは、単に歩くという動作を行っているだけで、エリア放送のコンテンツの映像や音声の再生が自動的に開始されるため、特別な操作や指示をする必要なない。そのため、ユーザの手を煩わせることなく、エリア放送のコンテンツを提示することができる。   As described above, according to the present technology, since the user wearing the wearable device 10 simply performs an operation of walking, the playback of the video and audio of the area broadcast content is automatically started. There is no need for special operations or instructions. Therefore, area broadcast content can be presented without bothering the user.

なお、上述の図2に示した、眼鏡型のウェアラブル機器10の構造は一例であり、ウェアラブル機器10をユーザが装着するための構造は多様に考えられる。一般に、眼鏡型又は頭部装着型とされる装着ユニットで形成されればよく、少なくともユーザの眼の前方に近接してディスプレイ106L,106Rが設けられていればよい。また、ディスプレイは両眼に対して一対設けられるほか、片側の眼に対応して1つだけ設けられる構成でもよい。また、ウェアラブル機器10は、スマートフォン等のユーザが所持している電子機器と無線通信を行うことが可能であるため、例えば、エリア放送のコンテンツの受信処理等はスマートフォン側で行い、ウェアラブル機器10側では、スマートフォンから送られてくるコンテンツを再生するようにしてもよい。   Note that the structure of the glasses-type wearable device 10 shown in FIG. 2 described above is an example, and various structures for the user to wear the wearable device 10 can be considered. In general, it may be formed of a wearing unit that is a spectacle type or a head-mounted type, and it is sufficient that the displays 106L and 106R are provided in the vicinity of at least the front of the user's eyes. In addition to providing a pair of displays for both eyes, a configuration may be adopted in which only one display is provided corresponding to one eye. In addition, since the wearable device 10 can perform wireless communication with an electronic device possessed by a user such as a smartphone, for example, reception processing of area broadcast content is performed on the smartphone side, and the wearable device 10 side Then, you may make it reproduce | regenerate the content sent from a smart phone.

また、上述した説明では、説明の簡略化のため、エリア放送送信装置20をターゲットの近傍に設置することで、ターゲットの位置と、送信点位置Pにより指定される位置は一致しているものとして説明したが、実空間における現実のターゲットの位置情報を取得して、現実のターゲットの位置とユーザの現在位置を用い、距離Dを算出してもよい。また、例えばバスや電車の外装に施された広告など、ターゲットが移動する場合、距離Dとしては、ユーザの現在位置とターゲットの位置との相対的な距離が求められることになる。要は、ウェアラブル機器10を装着したユーザに対し、その現在位置とターゲットの位置との距離に応じたエリア放送のコンテンツを提示するための距離情報が取得できればよいのであって、その算出方法は任意である。 In the above description, for simplification of description, the area broadcast transmission device 20 is installed in the vicinity of the target so that the position of the target matches the position specified by the transmission point position PT . As described above, the position D of the actual target in the real space may be acquired, and the distance D may be calculated using the actual target position and the current position of the user. Further, when the target moves, such as an advertisement placed on the exterior of a bus or train, for example, the relative distance between the current position of the user and the position of the target is obtained as the distance D. In short, it is only necessary to obtain distance information for presenting area broadcast content according to the distance between the current position and the target position to the user wearing the wearable device 10, and the calculation method is arbitrary. It is.

また、上述した説明では、エリア放送のコンテンツの映像が再生されたあとに、音声が再生される例を説明したが、映像と音声の再生順は逆でもよいし、あるいは、映像のみ又は音声のみが再生されるようにしてもよい。また、コンテンツとしては、上述した映像や音声に限らず、例えばテキスト情報や静止画などの情報であってもよく、例えば、ウェアラブル機器10を装着したユーザの現在位置とターゲットの位置との距離に応じて、テキスト情報、静止画、動画が段階的に再生されるようにすることができる。   In the above description, the example in which the audio is reproduced after the area broadcast content video is reproduced has been described. However, the reproduction order of the video and the audio may be reversed, or only the video or only the audio is reproduced. May be played back. Further, the content is not limited to the above-described video and audio, but may be information such as text information and still images, for example, the distance between the current position of the user wearing the wearable device 10 and the target position. Accordingly, text information, still images, and moving images can be reproduced step by step.

さらに、上述した説明では、ウェアラブル機器10は、エリア放送送信装置20から送信されるエリア放送のコンテンツを受信するとして説明したが、インターネット上に設けられた配信サーバ(不図示)から配信される通信コンテンツを受信して、ユーザの現在位置とターゲットの位置との距離に応じてストリーミング再生を行うようにしてもよい。例えば、通信コンテンツは、VOD(Video On Demand)により配信される、映画の予告編や商品の宣伝などのコンテンツとなる。   Further, in the above description, the wearable device 10 has been described as receiving area broadcast content transmitted from the area broadcast transmission device 20, but communication distributed from a distribution server (not shown) provided on the Internet. The content may be received and streaming playback may be performed according to the distance between the current position of the user and the target position. For example, the communication contents are contents such as movie trailers and product advertisements distributed by VOD (Video On Demand).

なお、ウェアラブル機器10(CPU101)が実行する制御プログラムは、例えば、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の伝送媒体を介して提供することができる。また、ウェアラブル機器10では、制御プログラムは、有線又は無線の伝送媒体を介して、通信部111で受信し、ROM102等にインストールすることができる。その他、制御プログラムは、ROM102等に、あらかじめインストールしておくことができる。   The control program executed by wearable device 10 (CPU 101) can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting. In the wearable device 10, the control program can be received by the communication unit 111 via a wired or wireless transmission medium and installed in the ROM 102 or the like. In addition, the control program can be installed in advance in the ROM 102 or the like.

また、ウェアラブル機器10(CPU101)が実行する制御プログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。ここで、本明細書において、ウェアラブル機器10(CPU101)に各種の処理を行わせるための制御プログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。   The control program executed by the wearable device 10 (CPU 101) may be a program that is processed in time series in the order described in this specification, or in parallel or when a call is made. It is also possible to use a program that performs processing at a necessary timing. Here, in the present specification, the processing steps for describing a control program for causing the wearable device 10 (CPU 101) to perform various processes do not necessarily have to be processed in time series in the order described in the flowchart. In addition, processing that is executed in parallel or individually (for example, parallel processing or processing by an object) is also included.

また、制御プログラムは、1のコンピュータにより処理されるものであってもよいし、複数のコンピュータによって分散処理されるものであってもよい。さらに、制御プログラムは、遠方のコンピュータに転送されて実行されるものであってもよい。さらに、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。   Further, the control program may be processed by one computer or may be distributedly processed by a plurality of computers. Furthermore, the control program may be transferred to a remote computer and executed. Furthermore, in this specification, the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Accordingly, a plurality of devices housed in separate housings and connected via a network and a single device housing a plurality of modules in one housing are all systems. .

なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。   The embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present technology. For example, the present technology can take a configuration of cloud computing in which one function is shared by a plurality of devices via a network and jointly processed. In addition, each step described in the above flowchart can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus. Furthermore, when a plurality of processes are included in one step, the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.

また、本技術は、以下のような構成をとることができる。   Moreover, this technique can take the following structures.

(1)
拡張現実空間内でターゲットの位置に配置されるコンテンツを受信する受信部と、
実空間におけるユーザの現在位置から前記ターゲットの位置までの距離を示す距離情報を取得する距離情報取得部と、
前記距離情報に応じて、前記コンテンツの再生を制御する再生制御部と
を備える受信装置。
(2)
前記再生制御部は、前記コンテンツを、前記距離情報に応じて段階的に変化するように再生する
(1)に記載の受信装置。
(3)
前記ユーザの眼の前方に位置するように配置されて情報を表示するとともに、その表示領域を透明又は半透明な状態とすることができる表示部をさらに備え、
前記表示部は、再生中の前記コンテンツの映像を表示する
(1)又は(2)に記載の受信装置。
(4)
再生中の前記コンテンツの音声を出力する音声出力部をさらに備える
(3)に記載の受信装置。
(5)
任意のセグメントによる放送であるエリア放送を受信するためのチャンネル情報を取得するチャンネル情報取得部をさらに備え、
前記受信部は、前記チャンネル情報を用いて、前記エリア放送を行う送信機から送信される放送波を受信することが可能な放送エリアにおいて、前記エリア放送のコンテンツを受信する
(1)乃至(4)のいずれか一項に記載の受信装置。
(6)
前記距離情報取得部は、前記ユーザの現在位置と、前記チャンネル情報に含まれる前記送信機の送信点位置を用いて前記距離情報を算出する
(5)に記載の受信装置。
(7)
前記距離情報取得部は、前記ユーザの現在位置と、前記ターゲットの位置を用いて前記距離情報を算出する
(5)に記載の受信装置。
(8)
前記再生制御部は、前記チャンネル情報に含まれる距離基準情報を基準にして、前記コンテンツを、前記距離情報に応じて段階的に変化するように再生する
(5)乃至(7)のいずれか一項に記載の受信装置。
(9)
前記再生制御部は、前記コンテンツの映像と音声のうち少なくとも一方の再生を段階的に変化させる
(8)のいずれか一項に記載の受信装置。
(10)
前記再生制御部は、前記ユーザの現在位置と、前記ターゲットの位置との距離が近づくに連れて、前記コンテンツの音声の音量が大きくなるようにする
(9)のいずれか一項に記載の受信装置。
(11)
前記ユーザの視線の方向を示す視線情報を取得する視線情報取得部をさらに備え、
前記再生制御部は、前記視線情報に応じて、前記コンテンツを再生する
(1)乃至(10)のいずれか一項に記載の受信装置。
(12)
前記再生制御部は、前記ユーザの視線が前記ターゲットの方向にある場合、前記コンテンツの映像又は音声を再生し、前記ユーザの視線が前記ターゲットの方向にない場合、前記コンテンツの映像を停止するか又は音声の音量を調整する
(11)に記載の受信装置。
(13)
前記受信装置は、左眼用と右眼用の一対の前記表示部を有する眼鏡型の無線通信機である
(3)に記載の受信装置。
(14)
受信装置の受信方法において、
前記受信装置が、
拡張現実空間内でターゲットの位置に配置されるコンテンツを受信し、
実空間におけるユーザの現在位置から前記ターゲットの位置までの距離を示す距離情報を取得し、
前記距離情報に応じて、前記コンテンツの再生を制御する
ステップを含む受信方法。
(15)
任意のセグメントによる放送であるエリア放送のコンテンツを、受信機が受信するためのチャンネル情報であって、拡張現実空間でターゲットの位置に配置される前記エリア放送のコンテンツの再生の制御に用いられる情報を含む前記チャンネル情報を取得するチャンネル情報取得部と、
前記チャンネル情報を、前記受信機に送信する送信部と
を備える送信装置。
(16)
前記チャンネル情報は、実空間におけるユーザの現在位置から前記ターゲットの位置までの距離を示す距離情報の計算に用いられる送信機の送信点位置を含む
(15)に記載の送信装置。
(17)
前記チャンネル情報は、前記エリア放送のコンテンツを前記距離情報に応じて段階的に変化するように再生させる際の基準となる距離基準情報を含む
(16)に記載の送信装置。
(18)
送信装置の送信方法において、
前記送信装置が、
任意のセグメントによる放送であるエリア放送のコンテンツを、受信機が受信するためのチャンネル情報であって、拡張現実空間でターゲットの位置に配置される前記エリア放送のコンテンツの再生の制御に用いられる情報を含む前記チャンネル情報を取得し、
前記チャンネル情報を、前記受信機に送信する
ステップを含む送信方法。
(1)
A receiving unit for receiving content arranged at a target position in the augmented reality space;
A distance information acquisition unit that acquires distance information indicating a distance from the current position of the user in real space to the position of the target;
And a playback control unit that controls playback of the content according to the distance information.
(2)
The reception device according to (1), wherein the reproduction control unit reproduces the content so as to change stepwise according to the distance information.
(3)
It is arranged so as to be positioned in front of the user's eyes and further includes a display unit capable of displaying the information and making the display area transparent or translucent.
The receiving device according to (1) or (2), wherein the display unit displays a video of the content being played back.
(4)
The receiving device according to (3), further comprising: an audio output unit that outputs audio of the content being reproduced.
(5)
A channel information acquisition unit that acquires channel information for receiving area broadcasts that are broadcasts by an arbitrary segment;
The reception unit receives the content of the area broadcast in a broadcast area where the broadcast wave transmitted from the transmitter that performs the area broadcast can be received using the channel information. (1) to (4 ) The receiving device according to any one of the above.
(6)
The receiving apparatus according to (5), wherein the distance information acquisition unit calculates the distance information using a current position of the user and a transmission point position of the transmitter included in the channel information.
(7)
The receiving apparatus according to (5), wherein the distance information acquisition unit calculates the distance information using the current position of the user and the position of the target.
(8)
The reproduction control unit reproduces the content so as to change stepwise according to the distance information with reference to the distance reference information included in the channel information. (5) to (7) The receiving device according to item.
(9)
The reception apparatus according to any one of (8), wherein the reproduction control unit changes reproduction of at least one of the video and audio of the content in stages.
(10)
The reception according to any one of (9), wherein the playback control unit increases the volume of the audio of the content as the distance between the current position of the user and the position of the target decreases. apparatus.
(11)
A line-of-sight information acquisition unit that acquires line-of-sight information indicating the direction of the line of sight of the user;
The reception device according to any one of (1) to (10), wherein the reproduction control unit reproduces the content according to the line-of-sight information.
(12)
Whether the playback control unit plays the video or audio of the content when the user's line of sight is in the target direction, and stops the video of the content when the user's line of sight is not in the target direction Or the volume of an audio | voice is adjusted.
(13)
The receiving device according to (3), wherein the receiving device is a glasses-type wireless communication device having a pair of display units for left eye and right eye.
(14)
In the receiving method of the receiving device,
The receiving device is
Receive content placed at the target location in augmented reality space,
Obtain distance information indicating the distance from the current position of the user in real space to the position of the target,
A receiving method including a step of controlling reproduction of the content according to the distance information.
(15)
Channel information for a receiver to receive content of an area broadcast that is broadcast by an arbitrary segment, and information used for controlling playback of the content of the area broadcast that is arranged at a target position in augmented reality space A channel information acquisition unit for acquiring the channel information including:
A transmission device comprising: a transmission unit that transmits the channel information to the receiver.
(16)
The transmission apparatus according to (15), wherein the channel information includes a transmission point position of a transmitter used for calculation of distance information indicating a distance from the current position of the user in real space to the position of the target.
(17)
The transmission apparatus according to (16), wherein the channel information includes distance reference information serving as a reference for reproducing the area broadcast content so as to change stepwise according to the distance information.
(18)
In the transmission method of the transmission device,
The transmitting device is
Channel information for a receiver to receive content of an area broadcast that is broadcast by an arbitrary segment, and information used for controlling playback of the content of the area broadcast that is arranged at a target position in augmented reality space The channel information including
A transmission method including a step of transmitting the channel information to the receiver.

1 エリア放送システム, 2 無線ネットワーク, 3 GPS衛星, 10 ウェアラブル機器, 20 エリア放送送信装置, 30 情報サーバ, 101 CPU, 106,106L,106R 透過型のディスプレイ, 109 GPS部, 113 チューナ, 115 カメラ部, 117 視線検出用センサ, 151 制御プログラム, 161 チャンネル情報取得部, 162 位置情報取得部, 163 距離情報取得部, 164 視線情報取得部, 165 再生制御部, 301 制御部, 302 チャンネル情報取得部, 304 通信部   1 area broadcast system, 2 wireless network, 3 GPS satellite, 10 wearable device, 20 area broadcast transmission device, 30 information server, 101 CPU, 106, 106L, 106R transmissive display, 109 GPS unit, 113 tuner, 115 camera unit 117 Gaze detection sensor 151 Control program 161 Channel information acquisition unit 162 Position information acquisition unit 163 Distance information acquisition unit 164 Gaze information acquisition unit 165 Playback control unit 301 Control unit 302 Channel information acquisition unit 304 Communication unit

Claims (18)

拡張現実空間内でターゲットの位置に配置されるコンテンツを受信する受信部と、
実空間におけるユーザの現在位置から前記ターゲットの位置までの距離を示す距離情報を取得する距離情報取得部と、
前記距離情報に応じて、前記コンテンツの再生を制御する再生制御部と
を備える受信装置。
A receiving unit for receiving content arranged at a target position in the augmented reality space;
A distance information acquisition unit that acquires distance information indicating a distance from the current position of the user in real space to the position of the target;
And a playback control unit that controls playback of the content according to the distance information.
前記再生制御部は、前記コンテンツを、前記距離情報に応じて段階的に変化するように再生する
請求項1に記載の受信装置。
The receiving device according to claim 1, wherein the reproduction control unit reproduces the content so as to change stepwise according to the distance information.
前記ユーザの眼の前方に位置するように配置されて情報を表示するとともに、その表示領域を透明又は半透明な状態とすることができる表示部をさらに備え、
前記表示部は、再生中の前記コンテンツの映像を表示する
請求項2に記載の受信装置。
It is arranged so as to be positioned in front of the user's eyes and further includes a display unit capable of displaying the information and making the display area transparent or translucent.
The receiving device according to claim 2, wherein the display unit displays a video of the content being played back.
再生中の前記コンテンツの音声を出力する音声出力部をさらに備える
請求項3に記載の受信装置。
The receiving device according to claim 3, further comprising an audio output unit that outputs audio of the content being reproduced.
任意のセグメントによる放送であるエリア放送を受信するためのチャンネル情報を取得するチャンネル情報取得部をさらに備え、
前記受信部は、前記チャンネル情報を用いて、前記エリア放送を行う送信機から送信される放送波を受信することが可能な放送エリアにおいて、前記エリア放送のコンテンツを受信する
請求項4に記載の受信装置。
A channel information acquisition unit that acquires channel information for receiving area broadcasts that are broadcasts by an arbitrary segment;
The reception unit receives content of the area broadcast in a broadcast area where the broadcast wave transmitted from a transmitter that performs the area broadcast can be received using the channel information. Receiver device.
前記距離情報取得部は、前記ユーザの現在位置と、前記チャンネル情報に含まれる前記送信機の送信点位置を用いて前記距離情報を算出する
請求項5に記載の受信装置。
The receiving apparatus according to claim 5, wherein the distance information acquisition unit calculates the distance information using a current position of the user and a transmission point position of the transmitter included in the channel information.
前記距離情報取得部は、前記ユーザの現在位置と、前記ターゲットの位置を用いて前記距離情報を算出する
請求項5に記載の受信装置。
The receiving device according to claim 5, wherein the distance information acquisition unit calculates the distance information using the current position of the user and the position of the target.
前記再生制御部は、前記チャンネル情報に含まれる距離基準情報を基準にして、前記コンテンツを、前記距離情報に応じて段階的に変化するように再生する
請求項5に記載の受信装置。
The receiving device according to claim 5, wherein the reproduction control unit reproduces the content so as to change stepwise according to the distance information, based on distance reference information included in the channel information.
前記再生制御部は、前記コンテンツの映像と音声のうち少なくとも一方の再生を段階的に変化させる
請求項8に記載の受信装置。
The receiving device according to claim 8, wherein the reproduction control unit changes reproduction of at least one of video and audio of the content in stages.
前記再生制御部は、前記ユーザの現在位置と、前記ターゲットの位置との距離が近づくに連れて、前記コンテンツの音声の音量が大きくなるようにする
請求項9に記載の受信装置。
The receiving device according to claim 9, wherein the reproduction control unit increases the sound volume of the content as the distance between the current position of the user and the position of the target approaches.
前記ユーザの視線の方向を示す視線情報を取得する視線情報取得部をさらに備え、
前記再生制御部は、前記視線情報に応じて、前記コンテンツを再生する
請求項2に記載の受信装置。
A line-of-sight information acquisition unit that acquires line-of-sight information indicating the direction of the line of sight of the user;
The receiving device according to claim 2, wherein the reproduction control unit reproduces the content according to the line-of-sight information.
前記再生制御部は、前記ユーザの視線が前記ターゲットの方向にある場合、前記コンテンツの映像又は音声を再生し、前記ユーザの視線が前記ターゲットの方向にない場合、前記コンテンツの映像を停止するか又は音声の音量を調整する
請求項11に記載の受信装置。
Whether the playback control unit plays the video or audio of the content when the user's line of sight is in the target direction, and stops the video of the content when the user's line of sight is not in the target direction The receiving device according to claim 11, wherein the volume of the sound is adjusted.
前記受信装置は、左眼用と右眼用の一対の前記表示部を有する眼鏡型の無線通信機である
請求項3に記載の受信装置。
The receiving apparatus according to claim 3, wherein the receiving apparatus is a glasses-type wireless communication device having a pair of display units for left eye and right eye.
受信装置の受信方法において、
前記受信装置が、
拡張現実空間内でターゲットの位置に配置されるコンテンツを受信し、
実空間におけるユーザの現在位置から前記ターゲットの位置までの距離を示す距離情報を取得し、
前記距離情報に応じて、前記コンテンツの再生を制御する
ステップを含む受信方法。
In the receiving method of the receiving device,
The receiving device is
Receive content placed at the target location in augmented reality space,
Obtain distance information indicating the distance from the current position of the user in real space to the position of the target,
A receiving method including a step of controlling reproduction of the content according to the distance information.
任意のセグメントによる放送であるエリア放送のコンテンツを、受信機が受信するためのチャンネル情報であって、拡張現実空間でターゲットの位置に配置される前記エリア放送のコンテンツの再生の制御に用いられる情報を含む前記チャンネル情報を取得するチャンネル情報取得部と、
前記チャンネル情報を、前記受信機に送信する送信部と
を備える送信装置。
Channel information for a receiver to receive content of an area broadcast that is broadcast by an arbitrary segment, and information used for controlling playback of the content of the area broadcast that is arranged at a target position in augmented reality space A channel information acquisition unit for acquiring the channel information including:
A transmission device comprising: a transmission unit that transmits the channel information to the receiver.
前記チャンネル情報は、実空間におけるユーザの現在位置から前記ターゲットの位置までの距離を示す距離情報の計算に用いられる送信機の送信点位置を含む
請求項15に記載の送信装置。
The transmission apparatus according to claim 15, wherein the channel information includes a transmission point position of a transmitter used for calculation of distance information indicating a distance from a current position of a user in real space to the position of the target.
前記チャンネル情報は、前記エリア放送のコンテンツを前記距離情報に応じて段階的に変化するように再生させる際の基準となる距離基準情報を含む
請求項16に記載の送信装置。
The transmission apparatus according to claim 16, wherein the channel information includes distance reference information serving as a reference when the content of the area broadcast is reproduced so as to change stepwise according to the distance information.
送信装置の送信方法において、
前記送信装置が、
任意のセグメントによる放送であるエリア放送のコンテンツを、受信機が受信するためのチャンネル情報であって、拡張現実空間でターゲットの位置に配置される前記エリア放送のコンテンツの再生の制御に用いられる情報を含む前記チャンネル情報を取得し、
前記チャンネル情報を、前記受信機に送信する
ステップを含む送信方法。
In the transmission method of the transmission device,
The transmitting device is
Channel information for a receiver to receive content of an area broadcast that is broadcast by an arbitrary segment, and information used for controlling playback of the content of the area broadcast that is arranged at a target position in augmented reality space The channel information including
A transmission method including a step of transmitting the channel information to the receiver.
JP2013168261A 2013-08-13 2013-08-13 Reception device, reception method, transmission device, and transmission method Pending JP2015037242A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013168261A JP2015037242A (en) 2013-08-13 2013-08-13 Reception device, reception method, transmission device, and transmission method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013168261A JP2015037242A (en) 2013-08-13 2013-08-13 Reception device, reception method, transmission device, and transmission method

Publications (1)

Publication Number Publication Date
JP2015037242A true JP2015037242A (en) 2015-02-23

Family

ID=52687553

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013168261A Pending JP2015037242A (en) 2013-08-13 2013-08-13 Reception device, reception method, transmission device, and transmission method

Country Status (1)

Country Link
JP (1) JP2015037242A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019186921A (en) * 2018-03-30 2019-10-24 株式会社リコー VR system, communication method, and program
WO2020137906A1 (en) * 2018-12-28 2020-07-02 Line株式会社 Terminal display method, terminal, terminal program
WO2020234939A1 (en) * 2019-05-17 2020-11-26 ソニー株式会社 Information processing device, information processing method, and program
CN112164146A (en) * 2020-09-04 2021-01-01 维沃移动通信有限公司 Content control method and device and electronic equipment
JPWO2021084756A1 (en) * 2019-11-01 2021-05-06

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019186921A (en) * 2018-03-30 2019-10-24 株式会社リコー VR system, communication method, and program
JP7331405B2 (en) 2018-03-30 2023-08-23 株式会社リコー VR system, communication method, and program
WO2020137906A1 (en) * 2018-12-28 2020-07-02 Line株式会社 Terminal display method, terminal, terminal program
JP2020109548A (en) * 2018-12-28 2020-07-16 Line株式会社 Display method of terminal, terminal, program for terminal
WO2020234939A1 (en) * 2019-05-17 2020-11-26 ソニー株式会社 Information processing device, information processing method, and program
US11846783B2 (en) 2019-05-17 2023-12-19 Sony Group Corporation Information processing apparatus, information processing method, and program
JPWO2021084756A1 (en) * 2019-11-01 2021-05-06
WO2021084756A1 (en) * 2019-11-01 2021-05-06 日本電信電話株式会社 Augmented reality notification information distribution system, and distribution control device, method, and program thereof
CN112164146A (en) * 2020-09-04 2021-01-01 维沃移动通信有限公司 Content control method and device and electronic equipment

Similar Documents

Publication Publication Date Title
US11323605B2 (en) Method and apparatus for managing a camera network
US10271082B2 (en) Video distribution method, video reception method, server, terminal apparatus, and video distribution system
US10602047B2 (en) Image photographing method performed with terminal device having camera function
US11024083B2 (en) Server, user terminal device, and control method therefor
KR20170027435A (en) Electronic device and method for controlling the same
US9002382B2 (en) Method and apparatus for identifying neighboring device
US20120164938A1 (en) System and method for providing augmented reality contents based on broadcasting
JP2015037242A (en) Reception device, reception method, transmission device, and transmission method
US9911396B2 (en) Multi-user interactive media wall
US10156898B2 (en) Multi vantage point player with wearable display
JP2009038481A (en) Data transmitter, receiver, data transmitting and receiving method, program and recording medium
US20220248162A1 (en) Method and apparatus for providing audio content in immersive reality
US20190238821A1 (en) Experience sharing system
JP6242011B2 (en) Video management system and method for identifying a photographing terminal photographing an arbitrary area
US20130290490A1 (en) Communication system, information terminal, communication method and recording medium
US9794314B2 (en) Asynchronous audio and video in an environment
KR20160074234A (en) Display apparatus and method for controlling a content output
CN106954093B (en) Panoramic video processing method, device and system
CN104062758B (en) Image display method and display equipment
US20190064930A1 (en) Ocular Focus Sharing for Digital Content
CN110910508B (en) Image display method, device and system
US8887196B2 (en) System, mobile terminal and method for displaying object information in real time
JP2021005830A (en) Control device for video distribution, control method for video distribution, and program
WO2022018836A1 (en) Information processing device, information processing method, and program
KR20140092098A (en) A display system for bicycle