JP2014222446A - Video output device, video output method, and program - Google Patents

Video output device, video output method, and program Download PDF

Info

Publication number
JP2014222446A
JP2014222446A JP2013102086A JP2013102086A JP2014222446A JP 2014222446 A JP2014222446 A JP 2014222446A JP 2013102086 A JP2013102086 A JP 2013102086A JP 2013102086 A JP2013102086 A JP 2013102086A JP 2014222446 A JP2014222446 A JP 2014222446A
Authority
JP
Japan
Prior art keywords
image
branch
video
line
viewpoint position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013102086A
Other languages
Japanese (ja)
Inventor
孝博 松原
Takahiro Matsubara
孝博 松原
河合 直樹
Naoki Kawai
直樹 河合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2013102086A priority Critical patent/JP2014222446A/en
Publication of JP2014222446A publication Critical patent/JP2014222446A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a video output device or the like capable of automatically outputting a video viewed in a discretionary visual line direction from an eye point moving on a pre-designed route within a previously shot space, and further capable of presenting a video having continuity before and after a branch point on the route.SOLUTION: A video output device 1 reads in tour data 34, and reads in one piece of command information 35 of the tour data 34. The command type of the command information 35 is classified and, if the command type is a view state, a frame picture corresponding to an eye point position 30 indicated by the command information is specified from an omnidirectional picture sequence, and a visual field picture corresponding to a visual line direction 31 is generated. If the command information contains a text ID or a picture ID, a visual field picture synthesized, from a corresponding character string or image picture, at a transmissivity held by the command information 35 is outputted. The command information 35 is read in successively in a prescribed sequence, and corresponding visual field pictures are outputted as a video.

Description

本発明は、空間内を移動するユーザの視点から見た視線に対応する映像を出力するための映像出力装置等に関するものである。   The present invention relates to a video output device or the like for outputting a video corresponding to a line of sight viewed from the viewpoint of a user moving in space.

魚眼レンズや全方位ミラーを装着したカメラを用いて、周囲360°の視界をもつ全方位画像を撮影することができる。近年、全方位画像を用いて、空間内を任意の視線方向を向きながら自由に移動するユーザの視野に応じたパノラマ画像を提供できるパノラマ画像提供サービスが開発されている。   An omnidirectional image having a 360 ° field of view can be taken using a camera equipped with a fisheye lens or an omnidirectional mirror. In recent years, a panoramic image providing service has been developed that can provide a panoramic image according to the field of view of a user who moves freely in a space while facing an arbitrary line of sight using an omnidirectional image.

パノラマ画像提供サービスを利用したものとして、例えば、オンライン地図検索サービスがあり、非特許文献1はその一例である。非特許文献1は、ユーザがマップ上のある地点をクリックすると、その地点で撮影されたパノラマ画像を閲覧することができるというサービスを提供するサイトである。また、画面に表示される矢印をクリックすることで、ユーザはパノラマ写真内の先や手前などに視点を動かすことができる。   As an example of using the panoramic image providing service, there is an online map search service, and Non-Patent Document 1 is an example. Non-Patent Document 1 is a site that provides a service that allows a user to view a panoramic image taken at a point when the user clicks on a point on the map. In addition, by clicking an arrow displayed on the screen, the user can move the viewpoint to the front or near side in the panoramic photo.

また、非特許文献2では、撮影されたパノラマ画像を再生時に繋ぎ合せることによって、ユーザが視線方向を自由に変えながら移動しているような映像を閲覧することができる。   Further, in Non-Patent Document 2, it is possible to view an image in which the user is moving while freely changing the line-of-sight direction by joining the captured panoramic images at the time of reproduction.

“Google Street View”、[online]、Google,Inc、[平成24年3月8日検索]、インターネット<http://maps.google.co.jp/intl/ja/help/maps/streetview/ >“Google Street View”, [online], Google, Inc, [Search March 8, 2012], Internet <http://maps.google.co.jp/intl/en/help/maps/streetview/> “Quick Time VRを利用した動画パノラマVR(MotionVR of theMonth 2006 calendar)”、[online]、Apple Computer,Inc、[平成24年3月8日検索]、インターネット<http://www.worldinmotionvr.com/motionvr_month/calendar.html>“Motion VR of the Month 2006 calendar” using Quick Time VR, [online], Apple Computer, Inc. [Search March 8, 2012], Internet <http://www.worldinmotionvr.com /motionvr_month/calendar.html>

しかしながら、上述の非特許文献1では、表示される画像は離散的な視点から見た複数の静止画像であり、空間内を移動するユーザに対して、移動に合わせた動画像を出力することはできない。   However, in Non-Patent Document 1 described above, the displayed images are a plurality of still images viewed from a discrete viewpoint, and a moving image that matches the movement is output to a user moving in the space. Can not.

また、上述の非特許文献2では、表示される画像は動画像であるが双方向の移動はできない。また、ユーザが移動できる範囲は予め設定されたひとつながりのルート上のみであり、経路上に分岐が存在しない。   In Non-Patent Document 2 described above, the displayed image is a moving image, but bidirectional movement is not possible. Moreover, the range in which the user can move is only on a preset route, and there is no branch on the route.

本発明は、前述した問題点に鑑みてなされたものであり、その目的とすることは、予め撮影した空間内において、事前に設計したルート上を移動する視点から任意の視線方向で見える映像を自動で出力し、更に、ルート上の分岐点の前後で連続性のある映像を提示することが可能な映像出力装置等を提供することである。   The present invention has been made in view of the above-described problems, and the object of the present invention is to display an image that can be seen in an arbitrary line-of-sight direction from a viewpoint that moves on a route designed in advance in a space that has been captured in advance. It is an object to provide a video output device or the like that can automatically output and present a continuous video before and after a branch point on a route.

前述した課題を解決するために第1の発明は、座標空間上に配置された経路内を移動する視点位置における視線方向の映像を出力する映像出力装置であって、全方位画像のフレームからなるシーケンスを、前記経路に対応付けて記憶する経路記憶手段と、視点位置及び視線方向を記述した命令の列を記憶する命令記憶手段と、前記命令記憶手段に記憶された前記命令を順に読み取る命令読取手段と、読み取った前記命令により記述された前記視点位置における前記視線方向の映像を、前記全方位画像から生成する映像生成手段と、生成した前記映像を出力する出力手段と、を備えることを特徴とする映像出力装置である。
第1の発明によれば、予め撮影した空間内において、事前に設計したルート上を移動する視点位置(空間内の位置情報)から任意の視線方向で見える映像を自動で出力することができる。映像提供者は、予め撮影した空間内であれば、視点位置が移動するルート及び視点位置からの視線方向を、自由に編集することができる。
In order to solve the above-described problem, a first invention is a video output device that outputs a video in a line-of-sight direction at a viewpoint position that moves in a path arranged in a coordinate space, and includes a frame of an omnidirectional image. Path storage means for storing a sequence in association with the path; instruction storage means for storing a sequence of instructions describing viewpoint position and line-of-sight direction; and instruction reading for sequentially reading the instructions stored in the instruction storage means Means for generating the video in the line-of-sight direction at the viewpoint position described by the read instruction from the omnidirectional image, and output means for outputting the generated video. Is a video output device.
According to the first aspect of the present invention, it is possible to automatically output an image that can be seen in an arbitrary line-of-sight direction from a viewpoint position (position information in the space) that moves on a route designed in advance in a space that has been captured in advance. The video provider can freely edit the route in which the viewpoint position moves and the line-of-sight direction from the viewpoint position within the space previously captured.

第1の発明における経路は、ノードと有向なブランチとから構成され、前記全方位画像のフレームからなるシーケンスは、前記有向なブランチごとに対応付けられることが望ましい。
有向なブランチと全方位画像のフレームからなるシーケンスとを関連付ける方法は、経路上の全ての位置情報と全方位画像とを関連付ける方法と比較して、データ構築の作業負荷およびデータ量が小さくなるというメリットがある。さらに、ユーザは有向なブランチ上を移動するため、双方向の移動が容易に可能となる。
The route in the first invention is preferably composed of nodes and directed branches, and the sequence composed of frames of the omnidirectional image is preferably associated with each directed branch.
The method of associating a directed branch with a sequence of frames of omnidirectional images reduces the data construction workload and the amount of data compared to the method of associating all omnidirectional images with all positional information on a path. There is a merit. Furthermore, since the user moves on the directed branch, bidirectional movement is easily possible.

ここで、有向ブランチとは起点となるノードと終点となるノードとを繋ぐ線分であり、経路は、ノードと有向ブランチとを組み合わせた有向グラフとして構成される。   Here, the directed branch is a line segment connecting the node as the starting point and the node as the end point, and the path is configured as a directed graph in which the nodes and the directed branch are combined.

第1の発明における命令の記述する、前記視点位置は、前記有向ブランチの識別子及び当該ブランチにおける進行率であり、前記視線方向は、少なくとも基準軸とのなす角度であり、前記映像生成手段は、前記視点位置が位置する前記有向ブランチに対応する前記シーケンスから、前記進行率に対応する前記フレームを特定し、特定した前記フレームの前記全方位画像から、前記なす角度で示される方向の映像を切り出して生成することが望ましい。
これにより、全方位画像から切り出す視野画像を容易に特定することができる。
The viewpoint position described in the instruction in the first invention is an identifier of the directed branch and a progress rate in the branch, the line-of-sight direction is an angle formed with at least a reference axis, and the video generation means The frame corresponding to the progress rate is identified from the sequence corresponding to the directed branch where the viewpoint position is located, and the video in the direction indicated by the angle formed from the omnidirectional image of the identified frame It is desirable to cut out and generate.
Thereby, the visual field image cut out from an omnidirectional image can be specified easily.

第1の発明における命令は、前記視点位置が第1のブランチから第2のブランチに移動する際には、前記第1のブランチにおける前記視点位置及び前記視線方向と、前記第2のブランチにおける前記視点位置及び前記視線方向と、ブレンド比率とを記述したブレンド命令であり、前記映像生成手段は、前記命令がブレンド命令である場合には、前記全方位画像から生成した、前記第1のブランチにおける前記視点位置における前記視線方向の第1の映像と、前記第2のブランチにおける前記視点位置における前記視線方向の第2の映像とを、前記ブレンド比率により合成して前記映像を生成することが望ましい。
これにより、経路上の分岐点では、移動前後の視野画像を所定のブレンド比率でブレンドして出力することで、移動の前後で連続性のある映像を提示することができる。
When the viewpoint position moves from the first branch to the second branch, the instruction in the first invention is the viewpoint position and the line-of-sight direction in the first branch, and the position in the second branch. A blend command describing a viewpoint position, the line-of-sight direction, and a blend ratio; and when the command is a blend command, the video generation unit generates the omnidirectional image in the first branch. Preferably, the first image in the line-of-sight direction at the viewpoint position and the second image in the line-of-sight direction at the viewpoint position in the second branch are combined with the blend ratio to generate the image. .
Thereby, at the branch point on the route, the visual field images before and after the movement are blended and output at a predetermined blend ratio, so that a continuous video can be presented before and after the movement.

第1の発明における映像出力装置は、文字列と文字列IDとを対応付けて記憶する文字列情報記憶手段を、さらに備え、前記命令は、さらに、前記文字列IDを記述する場合があり、前記映像生成手段は、前記命令が前記文字列IDを記述する場合には、生成した前記映像に、さらに、当該文字列IDにより特定される前記文字列を合成することが望ましい。
これにより、映像再生中の任意のタイミングで、テキストを映像に合成することが可能である。よって、映像に場所の解説等を付加することができる。
The video output device according to the first aspect of the invention further includes character string information storage means for storing a character string and a character string ID in association with each other, and the command may further describe the character string ID. When the instruction describes the character string ID, the video generation unit may further synthesize the character string specified by the character string ID with the generated video.
Thereby, it is possible to synthesize text with video at an arbitrary timing during video playback. Therefore, it is possible to add a description of the place to the video.

第1の発明における映像集力装置は、イメージとイメージIDとを対応付けて記憶するイメージ情報記憶手段を、さらに備え、前記命令は、さらに、前記イメージIDを記述する場合があり、前記映像生成手段は、前記命令が前記イメージIDを記述する場合には、生成した前記映像に、さらに、当該イメージIDにより特定される前記イメージを合成することが望ましい。
これにより、映像再生中の任意のタイミングで、イメージ画像を映像に合成することが可能である。よって、映像に場所の解説等を付加することができる。
The video power collecting apparatus according to the first aspect of the present invention further comprises image information storage means for storing an image and an image ID in association with each other, wherein the command may further describe the image ID, and the video generation When the instruction describes the image ID, the means preferably further synthesizes the image specified by the image ID with the generated video.
Thereby, it is possible to synthesize an image with a video at an arbitrary timing during video playback. Therefore, it is possible to add a description of the place to the video.

第2の発明は、座標空間上に配置された経路内を移動する視点位置における視線方向の映像を出力する映像出力方法であって、全方位画像のフレームからなるシーケンスを、前記経路に対応付けて記憶する経路記憶手段と、視点位置及び視線方向を記述した命令の列を記憶する命令記憶手段と、を備える前記コンピュータにより行う前記命令記憶手段に記憶された前記命令を順に読み取る命令読取ステップと、読み取った前記命令により記述された前記視点位置における前記視線方向の映像を、前記全方位画像から生成する映像生成ステップと、生成した前記映像を出力する出力ステップと、を含むことを特徴とする映像出力方法である。
第2の発明によれば、予め撮影した空間内において、事前に設計したルート上を移動する視点位置(空間内の位置情報)から任意の視線方向で見える映像を自動で出力することができる。映像提供者は、予め撮影した空間内であれば、視点位置が移動するルート及び視点位置からの視線方向を、自由に編集することができる。
A second invention is a video output method for outputting a video in a line-of-sight direction at a viewpoint position moving in a path arranged in a coordinate space, and a sequence composed of frames of omnidirectional images is associated with the path An instruction reading step for sequentially reading the instructions stored in the instruction storage means by the computer, comprising: path storage means for storing the instructions; and instruction storage means for storing a sequence of instructions describing the viewpoint position and the line-of-sight direction; A video generation step for generating the video in the line-of-sight direction at the viewpoint position described by the read instruction from the omnidirectional image, and an output step for outputting the generated video. This is a video output method.
According to the second aspect of the invention, it is possible to automatically output an image that can be seen in an arbitrary line-of-sight direction from a viewpoint position (position information in the space) that moves on a route designed in advance in a space that has been captured in advance. The video provider can freely edit the route in which the viewpoint position moves and the line-of-sight direction from the viewpoint position within the space previously captured.

第3の発明は、コンピュータを、座標空間上に配置された経路内を移動する視点位置における視線方向の映像を出力する映像出力装置として機能させるためのプログラムであって、コンピュータを、全方位画像のフレームからなるシーケンスを、前記経路に対応付けて記憶する経路記憶手段、視点位置及び視線方向を記述した命令の列を記憶する命令記憶手段、前記命令記憶手段に記憶された前記命令を順に読み取る命令読取手段、読み取った前記命令により記述された前記視点位置における前記視線方向の映像を、前記全方位画像から生成する映像生成手段、生成した前記映像を出力する出力手段、として機能させるためのプログラムである。
第3の発明を、汎用コンピュータにインストールすることによって、第1の発明を得て、第2の発明を実行することができる。
A third invention is a program for causing a computer to function as a video output device that outputs a video in a line-of-sight direction at a viewpoint position that moves in a route arranged in a coordinate space, and the computer is an omnidirectional image. The path storage means for storing a sequence of frames in association with the path, the instruction storage means for storing a sequence of instructions describing the viewpoint position and the line-of-sight direction, and the instructions stored in the instruction storage means are sequentially read. A program for functioning as command reading means, video generation means for generating the video in the line-of-sight direction at the viewpoint position described by the read command from the omnidirectional image, and output means for outputting the generated video It is.
By installing the third invention on a general-purpose computer, the first invention can be obtained and the second invention can be executed.

本発明によれば、予め撮影した空間内において、事前に設計したルート上を移動する視点から任意の視線方向で見える映像を自動で出力し、更に、ルート上の分岐点の前後で連続性のある映像を提示することが可能な映像出力装置等を提供することができる。   According to the present invention, in a pre-captured space, an image that can be viewed in an arbitrary line of sight from a viewpoint moving on a route designed in advance is automatically output, and further, continuity before and after a branch point on the route is output. A video output device capable of presenting a video can be provided.

本発明に係る映像出力装置1のハードウエアの構成例を示すブロック図The block diagram which shows the structural example of the hardware of the video output apparatus 1 which concerns on this invention 本発明に係る視点位置30が移動する施設館内の一例を示す平面図The top view which shows an example of the facility hall where the viewpoint position 30 which concerns on this invention moves 映像出力装置1が保持するデータ構造の一例を示す図The figure which shows an example of the data structure which the video output device 1 hold | maintains 本発明に係る経路をXY二次元座標上に表した一例を示す図The figure which shows an example which represented the path | route concerning this invention on XY two-dimensional coordinate 図4に示す経路を記憶するノード情報25aとブランチ情報26aとを示す図The figure which shows the node information 25a and the branch information 26a which memorize | store the path | route shown in FIG. 映像出力装置1が保持する、view状態のコマンド情報35を含むツアーデータ34について説明する図The figure explaining the tour data 34 containing the command information 35 of a view state which the video output apparatus 1 hold | maintains. 映像出力装置1が保持する、blend状態のコマンド情報35を含むツアーデータ34について説明する図The figure explaining the tour data 34 containing the command information 35 of a blend state which the video output device 1 holds. 映像出力装置1が保持する、ソース情報36とコマンド情報35とを含むツアーデータ34について説明する図The figure explaining the tour data 34 which contains the source information 36 and the command information 35 which the video output apparatus 1 hold | maintains. 本発明に係る出力モード切替処理の流れを示すフローチャートThe flowchart which shows the flow of the output mode switching process which concerns on this invention 本発明に係るツアーモード映像出力処理の流れを示すフローチャートFlowchart showing the flow of tour mode video output processing according to the present invention 視線方向31に対応する視野範囲を説明する図The figure explaining the visual field range corresponding to the gaze direction 31 視点位置30に対応する全方位画像40から、視線方向に対応する画像41を切り出す作業を説明する図The figure explaining the operation | work which cuts out the image 41 corresponding to a gaze direction from the omnidirectional image 40 corresponding to the viewpoint position 30 パノラマ映像出力画面51の一例を説明する図The figure explaining an example of the panoramic video output screen 51 ツアーモード映像出力処理における、ブレンド画像生成処理の流れを示すフローチャートFlow chart showing the flow of blend image generation processing in tour mode video output processing 本発明に係るインタラクティブモード映像出力処理の流れを示すフローチャートFlowchart showing the flow of interactive mode video output processing according to the present invention インタラクティブモード映像出力処理にて、映像出力装置1が保持するデータの一例を示す図The figure which shows an example of the data which the video output apparatus 1 hold | maintains in interactive mode video output processing ユーザ入力画面61の一例を説明する図The figure explaining an example of the user input screen 61 インタラクティブモード映像出力処理における、ブレンド画像表示処理の流れを示すフローチャートFlow chart showing the flow of blend image display processing in interactive mode video output processing 視線方向31の移動について説明する図The figure explaining the movement of the gaze direction 31

以下、図面に基づいて、本発明の実施形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の実施形態に係る映像出力装置1を実現するコンピュータのハードウエア構成図である。コンピュータは、図1に示すように、例えば、制御部11、記憶部12、メディア入出力部13、通信制御部14、入力部15、表示部16、周辺機器I/F部17等が、バス18を介して接続されて構成される。   FIG. 1 is a hardware configuration diagram of a computer that implements a video output apparatus 1 according to an embodiment of the present invention. As shown in FIG. 1, the computer includes a control unit 11, a storage unit 12, a media input / output unit 13, a communication control unit 14, an input unit 15, a display unit 16, a peripheral device I / F unit 17, and the like. 18 is connected.

制御部11は、CPU(Central Processing Unit)、ROM(Read Only
Memory)、RAM(Random Access Memory)等により構成される。
CPUは、記憶部12、ROM、記憶媒体等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、バス18を介して接続された各装置を駆動制御し、映像出力装置1が行う後述する処理を実現する。ROMは、不揮発性メモリであり、コンピュータのブートプログラムやBIOS等のプログラム、データ等を恒久的に保持する。RAMは、揮発性メモリであり、ロードしたプログラムや、データ等を一時的に保持すると共に、制御部11が各処理を行うために使用するワークエリアを備える。
The control unit 11 includes a CPU (Central Processing Unit) and a ROM (Read Only).
Memory), RAM (Random Access Memory) and the like.
The CPU calls and executes a program stored in the storage unit 12, ROM, storage medium, or the like to the work memory area on the RAM, and drives and controls each device connected via the bus 18. The process to be described later is realized. The ROM is a non-volatile memory and permanently holds a computer boot program, a program such as BIOS, data, and the like. The RAM is a volatile memory, and temporarily holds a loaded program, data, and the like, and includes a work area used by the control unit 11 to perform each process.

記憶部12は、HDD(Hard Disk Drive)等であり、制御部11が実行するプログラムや、プログラム実行に必要なデータ、OS(Operating System)等が格納されている。これらのプログラムコードは、制御部11により必要に応じて読み出されてRAMに移され、CPUに読み出されて実行される。   The storage unit 12 is an HDD (Hard Disk Drive) or the like, and stores a program executed by the control unit 11, data necessary for program execution, an OS (Operating System), and the like. These program codes are read by the control unit 11 as necessary, transferred to the RAM, and read and executed by the CPU.

メディア入出力部13は、例えば、CDドライブ、DVDドライブ、MOドライブ、フロッピー(登録商標)ディスクドライブ、等のメディア入出力装置であり、動画像等のデータの入出力を行う。
通信制御部14は、通信制御装置、通信ポート等を有し、コンピュータとネットワーク間の通信を媒介する通信インターフェースであり、ネットワークを介して、他の装置間との通信制御を行う。
The media input / output unit 13 is a media input / output device such as a CD drive, a DVD drive, an MO drive, and a floppy (registered trademark) disk drive, and inputs / outputs data such as moving images.
The communication control unit 14 includes a communication control device, a communication port, and the like, and is a communication interface that mediates communication between a computer and a network, and performs communication control between other devices via the network.

入力部15は、データ入力を行い、例えば、上下左右に動くレバーやボタンを備えたコントローラ、キーボード、マウスなどのポインティングデバイス、テンキーなどの入力装置を有する。入力されたデータを制御部11へ出力する。
表示部16は、例えば、CRTモニタ、液晶パネル等のディスプレイ装置と、ディスプレイ装置と連携して表示処理を実行するための論理回路(ビデオアダプタ等)で構成され、制御部11の制御により入力された表示情報をディスプレイ装置上に表示させる。
尚、入力部15と表示部16は、それらの機能が一体化した、例えば、タッチパネル付ディスプレイであっても良い。
The input unit 15 performs data input and includes, for example, a controller having a lever or button that moves up and down, left and right, a keyboard, a pointing device such as a mouse, and an input device such as a numeric keypad. The input data is output to the control unit 11.
The display unit 16 includes, for example, a display device such as a CRT monitor or a liquid crystal panel, and a logic circuit (a video adapter or the like) for executing display processing in cooperation with the display device, and is input under the control of the control unit 11. The displayed display information is displayed on the display device.
The input unit 15 and the display unit 16 may be, for example, a display with a touch panel in which those functions are integrated.

周辺機器I/F部(インターフェース)17は、コンピュータに周辺機器を接続させるためのポートであり、周辺機器I/F部17を介してコンピュータは周辺機器とのデータの送受信を行う。周辺機器I/F部17は、USBやIEEE1394やRS−232C等で構成されており、通常複数の周辺機器I/Fを有する。周辺機器との接続形態は、有線、無線を問わない。
バス18は、各装置間の制御信号、データ信号等の授受を媒介する経路である。
The peripheral device I / F unit (interface) 17 is a port for connecting a peripheral device to the computer, and the computer transmits and receives data to and from the peripheral device via the peripheral device I / F unit 17. The peripheral device I / F unit 17 is configured by USB, IEEE 1394, RS-232C, or the like, and usually includes a plurality of peripheral devices I / F. The connection form with the peripheral device may be wired or wireless.
The bus 18 is a path that mediates transmission / reception of control signals, data signals, and the like between the devices.

図2は、本発明に係る視点位置30が移動する施設館内の一例を示す平面図である。本発明に係る映像出力装置1は、所定の経路に沿って連続的に移動する視点位置30から見た任意の視線方向31に対応する画像を表示する機能を有する装置である。本発明に係る視点位置30が移動する空間は、例えば、会社のフロアや、美術館などの施設などである。経路上の映像を撮影できる空間であれば、屋外であっても良い。例えば、図2に示される間取り図20を有した施設の館内を、ユーザに提示する例について説明する。   FIG. 2 is a plan view showing an example of a facility hall where the viewpoint position 30 according to the present invention moves. The video output device 1 according to the present invention is a device having a function of displaying an image corresponding to an arbitrary line-of-sight direction 31 viewed from a viewpoint position 30 that continuously moves along a predetermined route. The space in which the viewpoint position 30 according to the present invention moves is, for example, a company floor or a facility such as a museum. It may be outdoors as long as it can capture a video on the route. For example, an example will be described in which a facility in the facility having the floor plan 20 shown in FIG. 2 is presented to the user.

映像出力装置1は、予め撮影された館内の映像を構成するフレーム画像から、後述するコマンド情報35が保持する視点位置30と視線方向31に基づいて切り出して、動画として自動的に出力する。これにより、映像提供者は、ユーザが館内を巡るツアーを自由に設計して、ユーザに周囲を見回しながら館内を移動するといった仮想ツアーを体験させることができる。   The video output device 1 cuts out from a frame image that constitutes a pre-captured video in the hall based on a viewpoint position 30 and a line-of-sight direction 31 held by command information 35 described later, and automatically outputs it as a moving image. Accordingly, the video provider can freely design a tour for the user to go around the hall and allow the user to experience a virtual tour of moving around the hall while looking around.

また、映像を出力する操作の途中で、動画を自動的に再生するモード(以下、ツアーモードと表記)から、ユーザによって入力された視点位置30と視線方向31に基づいてフレーム画像を切り出して、動画として出力するモード(以下、インタラクティブモード)に切り替えることができる。ツアーモードとインタラクティブモードを相互に切替える動作については、後述する。   In addition, a frame image is cut out based on a viewpoint position 30 and a line-of-sight direction 31 input by a user from a mode in which a moving image is automatically played (hereinafter referred to as tour mode) in the middle of an operation of outputting a video, It is possible to switch to a mode for outputting as a moving image (hereinafter, interactive mode). The operation for switching between the tour mode and the interactive mode will be described later.

図2に示されるように、間取り図20内の経路は、ノード21とブランチ22によって構成される。ノード21とは経路の繋ぎ目であり、ブランチ22とは起点となるノード21(以下、起点ノード21aと表記)と終点となるノード21(以下、終点ノード21bと表記)とを接続する単位経路である。図2に示す例では、7個のノードN1〜N7と、6本のブランチB1〜B6とが定義されている。   As shown in FIG. 2, the route in the floor plan 20 is composed of a node 21 and a branch 22. The node 21 is a path joint, and the branch 22 is a unit path that connects a node 21 (hereinafter referred to as a start node 21a) as a starting point and a node 21 (hereinafter referred to as an end point node 21b) as an end point. It is. In the example shown in FIG. 2, seven nodes N1 to N7 and six branches B1 to B6 are defined.

図示されるように各ブランチ22は直線で表現され、各ブランチ22の矢印の向きは、矢印の起点が起点ノード21aであり、矢印の終点が終点ノード21bであることを示す。即ち、起点ノード21aと終点ノード21bが特定されると、当該ブランチ22が特定されることとなる。ブランチ22の向きは、記憶部12に記憶される全方位画像を生成する際に、施設内を経路に沿って撮影した時の進行方向に一致する。   As shown in the drawing, each branch 22 is represented by a straight line, and the direction of the arrow of each branch 22 indicates that the starting point of the arrow is the starting node 21a and the ending point of the arrow is the ending node 21b. That is, when the start node 21a and the end node 21b are specified, the branch 22 is specified. The direction of the branch 22 coincides with the traveling direction when the inside of the facility is photographed along the route when the omnidirectional image stored in the storage unit 12 is generated.

経路上のどの位置にノード21を定義するかは、この装置の設計者の判断に委ねられるが、一般的には、経路上の端点(行き止まり)、曲がり角、経路の分岐点にノード21を定義する。図2に示す例では、N3、N4、N5、N7は経路上の端点を示すノード21であり、N6は経路上の曲がり角を示すノード21であり、N1、N2は経路上の分岐点を示すノード21である。   It is up to the designer of this device to determine the position of the node 21 on the route, but in general, the node 21 is defined at the end point (dead end), the corner of the route, and the branch point of the route. To do. In the example shown in FIG. 2, N3, N4, N5, and N7 are nodes 21 that indicate end points on the route, N6 is a node 21 that indicates a corner on the route, and N1 and N2 indicate branch points on the route. Node 21.

図3は、映像出力装置1の記憶部12に記憶されるデータ構造の一例について説明する図である。映像出力装置1の記憶部12には、(a)ノード情報25と、(b)ブランチ情報26と、(c)映像情報27と、(d)各種パラメータ28と、後述するツアーデータ34と、切り出された画像を映像として出力するためのアプリケーション(図示せず)が、予め記憶される。   FIG. 3 is a diagram illustrating an example of a data structure stored in the storage unit 12 of the video output device 1. In the storage unit 12 of the video output device 1, (a) node information 25, (b) branch information 26, (c) video information 27, (d) various parameters 28, tour data 34 to be described later, An application (not shown) for outputting the clipped image as a video is stored in advance.

(a)に示すノード情報25とは、視点位置30が移動可能な経路上に存在する複数の各ノード21に関する情報であり、「ノードID」、「位置情報X」、「位置情報Y」、「属性」を格納する。   The node information 25 shown in (a) is information relating to each of the plurality of nodes 21 existing on the path along which the viewpoint position 30 is movable, and includes “node ID”, “position information X”, “position information Y”, Stores "attribute".

「位置情報X」及び「位置情報Y」とは、ノード21の位置情報であり、ノード21をXY二次元座標上に表した際の「X座標値」と「Y座標値」をそれぞれ格納する。ノード21間の距離は、座標を距離単位に変換することで、実寸値で算出することができる。   “Position information X” and “Position information Y” are position information of the node 21 and store “X coordinate value” and “Y coordinate value” when the node 21 is represented on XY two-dimensional coordinates, respectively. . The distance between the nodes 21 can be calculated as an actual size value by converting the coordinates into distance units.

「属性」とは、ノード21の経路上の特徴を表す次数であり、各ノード21から派生するブランチ22の本数を示す値である。例えば、ノード21が経路上の端点(行き止まり)にあれば「1」を格納し、ノード21が経路上の曲がり角にあれば「2」を格納し、ノード21が経路上の三叉路にあれば「3」を格納し、ノード21が経路上の十字路にあれば「4」を格納する。   The “attribute” is an order that represents the feature of the node 21 on the route, and is a value that indicates the number of branches 22 derived from each node 21. For example, “1” is stored if the node 21 is at an end point (dead end) on the route, “2” is stored if the node 21 is at a corner on the route, and “3” is stored if the node 21 is on a three-way on the route. 3 ”is stored, and“ 4 ”is stored if the node 21 is on a crossroad on the route.

(b)に示すブランチ情報26とは、起点ノード21aと終点ノード21bとを繋ぐ複数の各ブランチ22に関する情報であり、「ブランチID」、「起点ノード」、「終点ノード」、「映像ID」を格納する。   The branch information 26 shown in (b) is information relating to each of the plurality of branches 22 connecting the start node 21a and the end node 21b, and includes “branch ID”, “start node”, “end node”, and “video ID”. Is stored.

「起点ノード」には、ブランチ22の端点のうち撮影開始側のノードIDを格納し、「終点ノード」には、ブランチ22の端点のうち撮影終了側のノードIDを格納する。起点ノード21aから終点ノード21bに向かう方向を、ブランチ22の向きと定義する。「映像ID」には、ブランチ22に対応する映像IDを格納する。   The “starting node” stores the node ID on the shooting start side among the end points of the branch 22, and the “end point node” stores the node ID on the shooting end side among the end points of the branch 22. The direction from the start node 21a to the end node 21b is defined as the direction of the branch 22. In “Video ID”, the video ID corresponding to the branch 22 is stored.

(c)に示す映像情報27とは、各ブランチ22上を撮影した全方位画像に関する情報であり、「映像ID」と、「画像データ」と、「フレーム数」を格納する。   The video information 27 shown in (c) is information relating to an omnidirectional image taken on each branch 22, and stores “video ID”, “image data”, and “number of frames”.

「画像データ」には、全方位映像シーケンスが格納される。全方位画像シーケンスとは、全方位映像を構成する全方位画像を1フレームとした、連続した複数フレームからなる画像データ群である。全方位映像とは、ブランチ22に沿って一定速度で移動しながら、全方位カメラを用いて撮影した映像である。一定速度で移動しながら撮影されるため、ブランチ22上に定義された個々の地点について、それぞれの全方位画像フレームが対応付けられる。「フレーム数」には、全方位画像シーケンスを構成するフレーム数の値が格納される。   The “image data” stores an omnidirectional video sequence. The omnidirectional image sequence is a group of image data composed of a plurality of continuous frames in which an omnidirectional image constituting an omnidirectional video is one frame. An omnidirectional video is a video taken using an omnidirectional camera while moving at a constant speed along the branch 22. Since shooting is performed while moving at a constant speed, each omnidirectional image frame is associated with each point defined on the branch 22. The “number of frames” stores the value of the number of frames constituting the omnidirectional image sequence.

(d)に示す各種パラメータ情報28とは、全方位画像からユーザの視線方向31に対応する視野範囲のパノラマ画像を切り出すために使用する「切出角度」等を格納する。詳細は後述する。   The various parameter information 28 shown in (d) stores “cut-out angle” and the like used to cut out a panoramic image in the visual field range corresponding to the user's line-of-sight direction 31 from the omnidirectional image. Details will be described later.

図4は、本発明に係る経路をXY二次元座標上に表した一例を示す図である。各ノードN1〜N4の符号に括弧書きで示した一対の座標は、当該ノードのX座標値とY座標値である。図示されるように、ブランチB1の向きはX軸の向きに一致し、X軸に対してブランチB2がなす角度は反時計回りに60°であり、X軸に対してブランチB3がなす角度は時計回りに60°である。   FIG. 4 is a diagram showing an example in which a route according to the present invention is represented on XY two-dimensional coordinates. A pair of coordinates indicated by parentheses in the symbols of the nodes N1 to N4 are the X coordinate value and the Y coordinate value of the node. As shown in the figure, the direction of the branch B1 coincides with the direction of the X axis, the angle formed by the branch B2 with respect to the X axis is 60 ° counterclockwise, and the angle formed by the branch B3 with respect to the X axis is It is 60 ° clockwise.

ここで、本実施形態におけるブランチ角度とは、図示されるXY座標系のX軸とブランチ22の向きとがなす角度であり、反時計回りを正方向とする。ブランチ角度は、ブランチ22の始点ノード21aの位置座標と終点ノード22bの位置座標とによって算出することができる。図4に示す例では、ブランチB1のブランチ角度は0°であり、ブランチB2のブランチ角度は60°であり、ブランチB3のブランチ角度は300°(−60°)である。   Here, the branch angle in the present embodiment is an angle formed by the X axis of the illustrated XY coordinate system and the direction of the branch 22, and the counterclockwise direction is a positive direction. The branch angle can be calculated from the position coordinates of the start point node 21a and the position coordinates of the end point node 22b of the branch 22. In the example shown in FIG. 4, the branch angle of the branch B1 is 0 °, the branch angle of the branch B2 is 60 °, and the branch angle of the branch B3 is 300 ° (−60 °).

図5は、図4に示す経路を記憶するノード情報25aとブランチ情報26aとを示す図である。
図5(a)に示すように、ノードN1の位置座標Xにはx1格納され、位置座標Yにはy1が格納され、属性にはノードN1から派生するブランチ22の本数である3が格納される。ノードN2の位置座標Xにはx2格納され、位置座標Yにはy1が格納され、属性にはノードN2から派生するブランチ22の本数である3が格納される。ノードN3の位置座標Xにはx3格納され、位置座標Yにはy3が格納され、属性にはノードN3から派生するブランチ22の本数である1が格納される。ノードN4の位置座標Xにはx4格納され、位置座標Yにはy4が格納され、属性にはノードN4から派生するブランチ22の本数である1が格納される。
FIG. 5 is a diagram showing node information 25a and branch information 26a for storing the route shown in FIG.
As shown in FIG. 5A, x1 is stored in the position coordinate X of the node N1, y1 is stored in the position coordinate Y, and 3 which is the number of branches 22 derived from the node N1 is stored in the attribute. The X2 is stored in the position coordinate X of the node N2, y1 is stored in the position coordinate Y, and 3 which is the number of branches 22 derived from the node N2 is stored in the attribute. X3 is stored in the position coordinate X of the node N3, y3 is stored in the position coordinate Y, and 1 which is the number of branches 22 derived from the node N3 is stored in the attribute. X4 is stored in the position coordinate X of the node N4, y4 is stored in the position coordinate Y, and 1 which is the number of branches 22 derived from the node N4 is stored in the attribute.

図5(b)に示すように、ブランチB1の映像IDにはブランチB1に対応する映像IDが格納され、起点ノードにはN1が格納され、終点ノードにはN2が格納される。ブランチB2の映像IDにはブランチB2に対応する映像IDが格納され、起点ノードにはN2が格納され、終点ノードにはN3が格納される。ブランチB3の映像IDにはブランチB3に対応する映像IDが格納され、起点ノードにはN2が格納され、終点ノードにはN4が格納される。   As shown in FIG. 5B, the video ID corresponding to the branch B1 is stored in the video ID of the branch B1, N1 is stored in the start node, and N2 is stored in the end node. The video ID corresponding to the branch B2 is stored in the video ID of the branch B2, N2 is stored in the start node, and N3 is stored in the end node. A video ID corresponding to the branch B3 is stored in the video ID of the branch B3, N2 is stored in the start node, and N4 is stored in the end node.

続いて、図6〜図8を参照して、映像出力装置1の記憶部12に記憶されるツアーデータ34について説明する。ツアーデータ34は、図10に示すツアーモード映像出力処理で使用する。   Next, the tour data 34 stored in the storage unit 12 of the video output device 1 will be described with reference to FIGS. The tour data 34 is used in the tour mode video output process shown in FIG.

図6は、view状態のコマンド情報35を含むツアーデータ34ついて説明する図である。コマンド状態には、視点位置30がブランチ22上を移動する状態を表す「view状態」(以下、「view」ともいう)と、視点位置30がブランチ22上のノード21を介して、移動前のブランチ22(以下、移動前ブランチ22b)から移動先のブランチ22(以下、移動先ブランチ22c)に遷移する「blend状態」(以下、「blend」ともいう)とがある。ツアーデータ34が保持するコマンド情報35は、「view」または「blend」のいずれかに分類される。   FIG. 6 is a diagram for explaining the tour data 34 including the command information 35 in the view state. The command state includes a “view state” (hereinafter also referred to as “view”) indicating a state in which the viewpoint position 30 moves on the branch 22, and the viewpoint position 30 before the movement via the node 21 on the branch 22. There is a “blend state” (hereinafter also referred to as “blend”) in which the branch 22 (hereinafter referred to as the pre-movement branch 22b) transitions to the destination branch 22 (hereinafter referred to as the movement destination branch 22c). The command information 35 held by the tour data 34 is classified as either “view” or “blend”.

コマンド情報35の1コマンドは、出力される動画像の1フレーム分の情報に相当する。後述するツアーモード映像出力処理にて、コマンド情報35を連続的に読み込んで対応する画像を表示することで、ユーザに対して動画像を提示することができる。   One command of the command information 35 corresponds to information for one frame of the output moving image. In the tour mode video output process described later, the command information 35 is continuously read and the corresponding image is displayed, so that a moving image can be presented to the user.

図6(a)は、xml形式(Extensible Markup Language)で記述されたツアーデータ34の一例であり、3つのコマンド情報35a〜35cを含む。なお、本実施形態においてツアーデータ34は、xml形式で記述される例を示すが、どのようなフォーマットであっても良い。   FIG. 6A is an example of tour data 34 described in an xml format (Extensible Markup Language), and includes three pieces of command information 35a to 35c. In the present embodiment, the tour data 34 is described in an xml format, but any format may be used.

なお、xmlは、
<要素名 属性="値" ...> 内容 </要素名>
の形式で記述され、要素名で表される要素が、0個以上の属性と内容とをもち、内容には、0個以上の子要素を再帰的にもつことができる。
また、内容のない要素(空要素)の場合には、以下の形式でも記述できる。
<要素名 属性="値" ... />
Xml is
<Element name attribute = "value". . . > Contents </ Element name>
The element described in the format and represented by the element name has zero or more attributes and contents, and the contents can recursively have zero or more child elements.
In addition, in the case of an element with no content (empty element), it can also be described in the following format.
<Element name attribute = "value". . . >>

図6(b)を参照して、図6(a)に示すツアーデータ34に含まれるview状態のコマンド情報35が保持するデータについて説明する。
view状態のコマンド情報35は、図6(b−1)に示すように、属性として、「コマンドID」(id)と「コマンドタイプ」(type)をもち、図6(b−2)に示すように、内容として、「視野情報」(viewinfo)をもつ。
With reference to FIG. 6B, data held in the command information 35 in the view state included in the tour data 34 shown in FIG. 6A will be described.
The command information 35 in the view state has “command ID” (id) and “command type” (type) as attributes as shown in FIG. 6B-1 and is shown in FIG. 6B-2. As described above, the field of view has “field-of-view information” (viewinfo).

「コマンドID」とは、ツアーデータ34に含まれるコマンド情報35を一意に識別する識別子であり、コマンド情報35がツアーモード映像出力処理にて読み込まれる順序を示す。
「コマンドタイプ」は、コマンド状態を示し、「view」と「blend」のいずれかが記憶される。図6(b−1)に示す例では、「コマンドタイプ」に「view」が記憶される。
The “command ID” is an identifier for uniquely identifying the command information 35 included in the tour data 34, and indicates the order in which the command information 35 is read in the tour mode video output process.
“Command type” indicates a command state, and either “view” or “blend” is stored. In the example illustrated in FIG. 6B-1, “view” is stored in “command type”.

図6(b−2)を参照して、view状態のコマンド情報35が保持する「視野情報」(viewinfo)について説明する。視野情報は、フレーム画像から視野画像を切り出すために必要な情報である。
「視野情報」(viewinfo)は、属性として、「対象ブランチ22aのブランチID」(branchid)と、「視点位置の進行率」(ratio)と、「視線方向(水平角)」(theta)と、「視線方向(仰俯角)」(phi)とをもつ。
「対象ブランチ22aのブランチID」とは、視点位置30が位置するブランチ22のブランチIDである。
With reference to FIG. 6B-2, the “field-of-view information” (viewinfo) held by the command information 35 in the view state will be described. The visual field information is information necessary to cut out the visual field image from the frame image.
The “field of view information” (viewinfo) includes, as attributes, “branch ID of the target branch 22a” (branchid), “progress rate of viewpoint position” (ratio), “line-of-sight direction (horizontal angle)” (theta), “Laze direction (elevation angle)” (phi).
The “branch ID of the target branch 22a” is the branch ID of the branch 22 where the viewpoint position 30 is located.

「視点位置の進行率」とは、対象ブランチ22a内部での視点位置30の相対的な位置を特定する値である。対象ブランチ22aの起点ノード21aの正規化座標を「0」とし、終点ノード21bの正規化座標を「1」として、進行率は1次元の正規化座標(0〜1)で表現される。
コマンド情報35の視点位置30は、「対象ブランチ22aのブランチID」が示すブランチ22上の「視点位置の進行率」によって表される。
“Progress rate of viewpoint position” is a value that specifies the relative position of the viewpoint position 30 within the target branch 22a. The normalization coordinate of the start node 21a of the target branch 22a is “0”, the normalization coordinate of the end node 21b is “1”, and the progress rate is expressed by one-dimensional normalization coordinates (0 to 1).
The viewpoint position 30 of the command information 35 is represented by “progress rate of viewpoint position” on the branch 22 indicated by “branch ID of the target branch 22a”.

「視線方向(水平角)」とは、視線方向31をXY平面に射影した線分と、基準軸(X軸)とがなす角度であり、反時計回りを正方向とする。
「視線方向(仰俯角)」とは、視線方向31と基準面(XY平面)とがなす角度であり、反時計回りを正方向とする。
コマンド情報35の視線方向31は、「視線方向(水平角)」と「視線方向(仰俯角)」によって表される。
The “line-of-sight direction (horizontal angle)” is an angle formed by a line segment obtained by projecting the line-of-sight direction 31 onto the XY plane and the reference axis (X axis), and the counterclockwise direction is the positive direction.
The “line-of-sight direction (elevation angle)” is an angle formed by the line-of-sight direction 31 and the reference plane (XY plane), and counterclockwise is the positive direction.
The line-of-sight direction 31 of the command information 35 is represented by “line-of-sight direction (horizontal angle)” and “line-of-sight direction (elevation angle)”.

図6(c)に、図6(a)のツアーデータ34内のコマンド情報35a〜35cが示す、経路上の視点位置30a〜30cと視線方向31a〜31cとを図示する。   FIG. 6C illustrates viewpoint positions 30a to 30c and line-of-sight directions 31a to 31c on the route indicated by the command information 35a to 35c in the tour data 34 of FIG. 6A.

コマンド情報35aの視点位置は、「視点位置の進行率」が「0.7000」であるため対象ブランチ22a(ブランチID=2)の視点位置30aで示された所に位置し、視線方向31aは、「視線方向(水平角)」が「0.0」であるためX軸に一致する。コマンド情報35bの視点位置は、「視点位置の進行率」が「0.5500」であるため、視点位置30bで示した所に位置し、コマンド情報35cの視点位置は、「視点位置の進行率」が「0.3500」であるため、視点位置30cで示した所に位置する。また、コマンド情報35b、35cの視線方向31b、31cは、いずれも「視線方向(水平角)」が「0.0」であるため、X軸と一致する。従って、視点位置30は、対象ブランチ22aの終点ノード21bから始点ノード21aに向かって、視線方向31をX軸に一致させたまま移動することとなる。   The viewpoint position of the command information 35a is located at the position indicated by the viewpoint position 30a of the target branch 22a (branch ID = 2) because the “progress rate of viewpoint position” is “0.7000”, and the line-of-sight direction 31a is , “Gaze direction (horizontal angle)” is “0.0”, which matches the X axis. The viewpoint position of the command information 35b is positioned at the position indicated by the viewpoint position 30b because the “progress rate of viewpoint position” is “0.5500”, and the viewpoint position of the command information 35c is “progress rate of viewpoint position”. "Is" 0.3500 ", it is located at the position indicated by the viewpoint position 30c. Further, the line-of-sight directions 31b and 31c of the command information 35b and 35c coincide with the X axis because the “line-of-sight direction (horizontal angle)” is “0.0”. Accordingly, the viewpoint position 30 moves from the end point node 21b of the target branch 22a toward the start point node 21a while keeping the line-of-sight direction 31 coincident with the X axis.

図7は、blend状態のコマンド情報35を含むツアーデータ34について説明する図である。   FIG. 7 is a diagram for explaining the tour data 34 including the command information 35 in the blend state.

図7(a)は、xml形式で記述されたツアーデータ34の一例であり、4つのコマンド情報35a〜35dを含む。   FIG. 7A is an example of tour data 34 described in the xml format, and includes four command information 35a to 35d.

図7(b)を参照して、図7(a)に示すツアーデータ34に含まれるblend状態のコマンド情報35(35c、35d)が保持するデータについて説明する。
blend状態のコマンド情報35は、図7(b−1)に示すように、属性として、「コマンドID」(id)と「コマンドタイプ」(type)をもち、図7(b−2)に示すように、内容として、「ブレンド情報」(blendinfo)をもつ。
「コマンドID」は、view状態のコマンド情報35で前述したものと同じであり、「コマンドタイプ」には、図7(b−1)に示すように、「blend」が記憶される。
With reference to FIG. 7B, data held in the command information 35 (35c, 35d) in the blend state included in the tour data 34 shown in FIG. 7A will be described.
The command information 35 in the blend state has “command ID” (id) and “command type” (type) as attributes as shown in FIG. 7B-1 and is shown in FIG. 7B-2. As described above, the content has “blend information” (blendinfo).
The “command ID” is the same as that described above for the command information 35 in the view state, and “blend” is stored in the “command type” as shown in FIG.

図7(b−2)を参照して、blend状態のコマンド情報35が保持する「ブレンド情報」(blendinfo)について説明する。
「ブレンド情報」(blendinfo)は、属性として、「ブレンド比率」(blendratio)をもち、内容として、「移動前ブランチの視野情報」(start)と、「移動先ブランチの視野情報」(end)をもつ。
「ブレンド比率」は、(b−3)及び(b−4)にて特定される2枚の視野画像をブレンドする際のブレンド比率である。詳細は後述する。
With reference to FIG. 7B-2, the “blend information” (blendinfo) held in the command information 35 in the blend state will be described.
The “blend information” (blendinfo) has “blend ratio” (blendratio) as an attribute, and “view field information of the branch before movement” (start) and “view field information of the destination branch” (end) as contents. Have.
The “blend ratio” is a blend ratio when the two field-of-view images specified in (b-3) and (b-4) are blended. Details will be described later.

図7(b−3)を参照して、「ブレンド情報」が保持する「移動前ブランチの視野情報」(start)について説明する。
「移動前ブランチの視野情報」(start)は、属性として、「移動前ブランチ22bのブランチID」と、「視点位置の進行率」と、「視線方向(水平角)」と、「視線方向(仰俯角)」とをもつ。
With reference to FIG. 7B-3, the “field information of the branch before movement” (start) stored in the “blend information” will be described.
The “field-of-view information of the branch before movement” (start) includes, as attributes, “branch ID of the branch 22b before movement”, “progress rate of viewpoint position”, “line-of-sight direction (horizontal angle)”, and “line-of-sight direction ( "Elevation angle)".

「移動前ブランチ22bのブランチID」とは、視点位置30が移動する前に位置するブランチ22(移動前ブランチ22b)のブランチIDである。
「視点位置の進行率」とは、移動前ブランチ22b内部での視点位置30の相対的な位置を特定する値である。視点位置30が別のブランチに遷移する際に、視点位置30はブランチ22の端点に位置する。よって、「視点位置の進行率」には、ブランチ22の起点ノード21aを示す「0」または終点ノード21bを示す「1」のいずれかが格納される。
「視線方向(水平角)」及び「視線方向(仰俯角)」は、view状態のコマンド情報35で前述したものと同一である。
The “branch ID of the branch 22b before movement” is the branch ID of the branch 22 (the branch 22b before movement) located before the viewpoint position 30 moves.
“Progress rate of viewpoint position” is a value that specifies the relative position of the viewpoint position 30 within the branch 22b before movement. When the viewpoint position 30 transitions to another branch, the viewpoint position 30 is located at the end point of the branch 22. Therefore, “0” indicating the start node 21a of the branch 22 or “1” indicating the end node 21b is stored in the “viewpoint position progress rate”.
The “line-of-sight direction (horizontal angle)” and “line-of-sight direction (elevation angle)” are the same as those described in the command information 35 in the view state.

図7(b−4)を参照して、「ブレンド情報」が保持する「移動先ブランチの視野情報」(end)について説明する。
「移動先ブランチの視野情報」(end)は、属性として、「移動先ブランチ22cのブランチID」と、「視点位置の進行率」と、「視線方向(水平角)」と、「視線方向(仰俯角)」とをもつ。
With reference to FIG. 7B-4, the “field information of the destination branch” (end) stored in the “blend information” will be described.
The “field information of the destination branch” (end) includes, as attributes, “branch ID of the destination branch 22c”, “progress rate of viewpoint position”, “line-of-sight direction (horizontal angle)”, and “line-of-sight direction ( "Elevation angle)".

「移動先ブランチ22cのブランチID」とは、視点位置30が移動した後に位置するブランチ22(移動先ブランチ22c)のブランチIDである。
「視点位置の進行率」とは、移動先ブランチ22c内部での視点位置30の相対的な位置を特定する値であり、ブランチ22の起点ノード21を示す「0」または終点ノード21bを示す「1」のいずれかが格納される。
「視線方向(水平角)」及び「視線方向(仰俯角)」は、view状態のコマンド情報35で前述したものと同一である。
The “branch ID of the destination branch 22c” is the branch ID of the branch 22 (the destination branch 22c) that is located after the viewpoint position 30 has moved.
The “viewpoint position progress rate” is a value for specifying the relative position of the viewpoint position 30 in the movement destination branch 22c, and “0” indicating the start node 21 of the branch 22 or “end point node 21b”. 1 "is stored.
The “line-of-sight direction (horizontal angle)” and “line-of-sight direction (elevation angle)” are the same as those described in the command information 35 in the view state.

図7(c)に、図7(a)のツアーデータ34内のコマンド情報35a〜35dが示す、経路上の視点位置30a〜30dと視線方向31a〜31dとを図示する。コマンド情報35a及びコマンド情報35bのコマンド状態は「view」である。視点位置30(30a、30b)は、対象ブランチ22a(ブランチID=2)の終点ノード21bから始点ノード21aに向かって、視線方向をX軸の向きに一致させたまま(視線方向31a、31b)進行する。   FIG. 7C illustrates the viewpoint positions 30a to 30d and the line-of-sight directions 31a to 31d on the route indicated by the command information 35a to 35d in the tour data 34 of FIG. 7A. The command status of the command information 35a and the command information 35b is “view”. The viewpoint position 30 (30a, 30b) is such that the line-of-sight direction coincides with the direction of the X axis from the end point node 21b of the target branch 22a (branch ID = 2) toward the start point node 21a (line-of-sight directions 31a, 31b). proceed.

コマンド情報35c及びコマンド情報35dのコマンド状態は「blend」である。コマンド情報35cの視点位置30c及びコマンド情報35dの視点位置30dは、移動前ブランチ22b(ブランチID=2)の始点ノード21aに位置する。移動前ブランチ22bの始点ノード21aは、移動前ブランチ22bと移動先ブランチ22c(ブランチID=1)の交点のノード21aである。   The command status of the command information 35c and the command information 35d is “blend”. The viewpoint position 30c of the command information 35c and the viewpoint position 30d of the command information 35d are located at the start point node 21a of the branch 22b before branch (branch ID = 2). The starting point node 21a of the pre-movement branch 22b is a node 21a at the intersection of the pre-movement branch 22b and the movement destination branch 22c (branch ID = 1).

コマンド情報35cのブレンド比率は1.000であり、視線方向31cはX軸の向きに一致する。そこから、コマンド情報35dのブレンド比率は0.947であり、視線方向31dはX軸に対して4.7°である。このように、ブレンド比率を変化させながら、移動前ブランチ22bにおける視線方向31を移動先ブランチ22cの向きに近づくように、徐々に視線方向31を移動させることができる。   The blend ratio of the command information 35c is 1.000, and the line-of-sight direction 31c matches the direction of the X axis. From there, the blend ratio of the command information 35d is 0.947, and the line-of-sight direction 31d is 4.7 ° with respect to the X axis. In this way, while changing the blend ratio, the line-of-sight direction 31 can be gradually moved so that the line-of-sight direction 31 in the pre-movement branch 22b approaches the direction of the destination branch 22c.

図8は、ソース情報36とコマンド情報35を含むツアーデータ34について説明する図である。   FIG. 8 is a diagram for explaining tour data 34 including source information 36 and command information 35.

図8(a)は、xml形式で記述されたツアーデータ34の一例であり、4つのソース情報36a〜36dと1つのコマンド情報35を含む。ソース情報36a〜36cは、ツアーモード映像出力処理(図10参照)にて出力される映像にテキストをインポーズする場合に使用するソースを定義する情報であり、ソース情報36dは、ツアーモード映像出力処理にて出力される映像にイメージ画像をインポーズする場合に使用するソースを定義する情報である。   FIG. 8A is an example of tour data 34 described in the xml format, and includes four source information 36 a to 36 d and one command information 35. The source information 36a to 36c is information defining a source used when text is imposed on the video output in the tour mode video output process (see FIG. 10), and the source information 36d is the tour mode video output. This is information that defines a source used when an image is imposed on a video output by processing.

図8(b)を参照して、図8(a)に示すツアーデータ34に含まれるソース情報36が保持するデータについて説明する。
「ソース情報」(presetinfo)は、内容として、「テロップソース情報」(telopsource)又は「イメージソース情報」(imagesource)を少なくとも1つ以上もつ。
With reference to FIG. 8B, data held by the source information 36 included in the tour data 34 shown in FIG. 8A will be described.
The “source information” (presetinfo) has at least one “telop source information” (telopsource) or “image source information” (imagesource) as contents.

「テロップソース情報」(telopsource)は、映像にテキストをインポーズする場合のデータであり、図8(b−1)に示すように、属性として、「テキストID」(id)と「インポーズするテキストを表す文字列」(textstring)をもつ。「インポーズするテキストを表す文字列」は、画面に表示する文字列であり、「テキストID」は、当該文字列を一意に識別するIDである。   "Telop source information" (telopsource) is data used when text is imposed on a video, and as shown in FIG. 8B-1, "text ID" (id) and "impose" are used as attributes. It has a “character string representing text” (textstring). “Character string representing text to be imposed” is a character string displayed on the screen, and “Text ID” is an ID for uniquely identifying the character string.

「イメージソース情報」(imagesource)は、映像にイメージ(画像)をインポーズする場合のデータであり、図8(b−2)に示すように、属性として、「イメージID」(id)と「インポーズする画像の保存先を表すパス」(imagepath)をもつ。「インポーズする画像の保存先を表すパス」は、画面に表示するイメージの保存先パスであり、「イメージID」は、当該イメージを一意に識別するIDである。   “Image source information” (imagesource) is data in the case of imposing an image (image) on a video. As shown in FIG. 8B-2, “image ID” (id) and “image source” are attributes. It has a “path” that represents the storage location of the image to be imposed. The “path indicating the storage destination of the image to be imposed” is a storage destination path of the image displayed on the screen, and the “image ID” is an ID for uniquely identifying the image.

続いて、図8(c)を参照して、図8(a)に示すツアーデータ34に含まれるコマンド情報35が保持するデータについて説明する。図6(b)及び図7(b)で前述したコマンド情報35に、図8(a)で示すように、インポーズするテキスト情報やイメージ情報を追加することができる。   Next, data held in the command information 35 included in the tour data 34 shown in FIG. 8A will be described with reference to FIG. As shown in FIG. 8A, text information and image information to be imposed can be added to the command information 35 described above with reference to FIGS. 6B and 7B.

図8(c−1)に示すように、コマンド情報35は、属性として、「コマンドID」と「コマンドタイプ」をもち、内容として、「コマンドタイプ」がviewの場合には、図6(b−2)で前述した「視野情報」(viewinfo)をもち(図示せず)、「コマンドタイプ」がblendの場合には、図7(b−2)で前述した「ブレンド情報」(blendinfo)をもち(図示せず)、さらに、図8(c−2)に示した「インポーズするテキスト情報」(imposetelop)、又は/及び、図8(c−3)に示した「インポーズするイメージ情報」(imposeimage)をもつ。
この場合のコマンド情報35は、「インポーズするテキスト情報」又は「インポーズするイメージ情報」のいずれも複数個含んでいてよい。
As shown in FIG. 8C-1, the command information 35 has “command ID” and “command type” as attributes, and when the “command type” is “view” as content, FIG. -2) has the “field-of-view information” (viewinfo) described above (not shown) and the “command type” is blend, the “blend information” (blendinfo) described above in FIG. In addition, “imposed text information” (imposeloop) shown in FIG. 8 (c-2) or / and “imposed image information” shown in FIG. 8 (c-3). (Imposiage).
The command information 35 in this case may include a plurality of “text information to be imposed” or “image information to be imposed”.

図8(c−2)に示す「インポーズするテキスト情報」(imposetelop)は、属性として、「インポーズするテキストID」(telopid)と、「テキストの透過率」(opacity)とをもつ。
「インポーズするのテキストID」は、ソース情報36の「テロップソース情報」の「テキストID」に紐付けられている情報である。
「テキストの透過率」は、視野画像にテキストを合成する際の透過率を示す。
The “imposed text information” (imposeset) shown in FIG. 8C-2 has “imposed text ID” (telopid) and “text transparency” (opacity) as attributes.
The “impose text ID” is information associated with the “text ID” of the “telop source information” of the source information 36.
“Text transmittance” indicates the transmittance when the text is synthesized with the visual field image.

図8(c−3)に示す「インポーズするイメージ情報」(imposeimage)は、属性として、「インポーズするイメージID」(imageid)と、「テキストの透過率」(opacity)とをもつ。
「インポーズするのイメージID」は、ソース情報36の「イメージソース情報」の「イメージID」に紐付けられている情報である。
「イメージの透過率」は、視野画像にイメージを合成する際の透過率を示す。
The “imposed image information” (imposition image) shown in FIG. 8C-3 has “imposed image ID” (imageid) and “text transparency” (opacity) as attributes.
“Imposed image ID” is information associated with “image ID” of “image source information” of the source information 36.
“Image transmittance” indicates the transmittance when an image is combined with a visual field image.

図9は、本発明に係る出力モード切替処理の流れを示すフローチャートである。出力モード切替処理とは、映像出力装置1の制御部11が実行する、ツアーモードとインタラクティブモードとを相互に切り替えるための処理である。   FIG. 9 is a flowchart showing the flow of output mode switching processing according to the present invention. The output mode switching process is a process for switching between the tour mode and the interactive mode performed by the control unit 11 of the video output device 1.

映像出力装置1の制御部11は、記憶部12に記憶されるアプリケーションを起動する(ステップS101)。映像出力装置1の制御部11は、アプリケーションを介してモード選択画面(図示せず)を表示部16に表示して、ユーザによってモードの選択を受付ける(ステップS102)。   The control unit 11 of the video output device 1 starts an application stored in the storage unit 12 (step S101). The control unit 11 of the video output apparatus 1 displays a mode selection screen (not shown) on the display unit 16 via the application, and accepts the mode selection by the user (step S102).

映像出力装置1の制御部11は、選択されたモードを分類し、ツアーモード映像出力処理またはインタラクティブモード映像出力処理を実行する(ステップS103)。ツアーモード映像出力処理の詳細、及びインタラクティブモード映像出力処理の詳細については、後述する。   The control unit 11 of the video output device 1 classifies the selected mode, and executes tour mode video output processing or interactive mode video output processing (step S103). Details of the tour mode video output processing and interactive mode video output processing will be described later.

映像出力装置1の制御部11は、ツアーモード映像出力処理の実行中に、パノラマ映像出力画面51(図13参照)のモード切替ボタン54が押下されたことを受付けた場合、または、インタラクティブモード映像出力処理を実行中にユーザ入力画面61(図17参照)のモード切替ボタン64が押下されたことを受付けた場合に、ステップS101に戻って、ツアーモードとインタラクティブモードを相互に切替える。   The control unit 11 of the video output device 1 accepts that the mode switching button 54 of the panoramic video output screen 51 (see FIG. 13) is pressed during the tour mode video output process, or interactive mode video. When it is accepted that the mode switching button 64 on the user input screen 61 (see FIG. 17) has been pressed during the output process, the process returns to step S101 to switch between the tour mode and the interactive mode.

映像出力装置1の制御部11は、入力部15から映像出力の停止を受付けると(ステップS104)、処理を終了する。   When the control unit 11 of the video output device 1 accepts the stop of the video output from the input unit 15 (step S104), the process ends.

次に、図10〜図14を参照して、映像出力装置1の制御部11が実行するツアーモード映像出力処理の詳細について説明する。   Next, details of the tour mode video output process executed by the control unit 11 of the video output device 1 will be described with reference to FIGS.

図10は、本発明に係るツアーモード映像出力処理の流れを示すフローチャートである。   FIG. 10 is a flowchart showing the flow of tour mode video output processing according to the present invention.

映像出力装置1の制御部11は、記憶部12に記憶されるツアーデータ34のソース情報36を読み込む(ステップS201)。映像出力装置1の制御部11は、記憶部12に記憶されるツアーデータ34のコマンド情報35のコマンドIDの順序に従って、1つのコマンド情報35を読み込む(ステップS202)。   The control unit 11 of the video output device 1 reads the source information 36 of the tour data 34 stored in the storage unit 12 (step S201). The control unit 11 of the video output device 1 reads one command information 35 according to the order of the command IDs of the command information 35 of the tour data 34 stored in the storage unit 12 (step S202).

映像出力装置1の制御部11は、読み込んだコマンド情報35のコマンドタイプを分類する(ステップS203)。コマンドタイプが「blend」である場合には、図14にて説明するブレンド画像生成処理を実行し(ステップS207)、ステップS208に進む。   The control unit 11 of the video output device 1 classifies the command type of the read command information 35 (step S203). If the command type is “blend”, the blend image generation process described in FIG. 14 is executed (step S207), and the process proceeds to step S208.

映像出力装置1の制御部11は、コマンドタイプが「view」である場合には、記憶部12に記憶されるブランチ情報26から、コマンド情報35の「対象ブランチ22aのブランチID」に対応する映像IDを特定する(ステップS204)。   When the command type is “view”, the control unit 11 of the video output device 1 uses the video corresponding to “branch ID of the target branch 22 a” of the command information 35 from the branch information 26 stored in the storage unit 12. ID is specified (step S204).

映像出力装置1の制御部11は、映像情報27に格納される映像情報から、特定された映像IDのフレーム数を特定する。対象フレームのフレーム番号は、コマンド情報35の「視点位置の進行率」と特定されたフレーム数との積によって算出し、算出された値に最も近い整数値である。映像出力装置1の制御部11は、算出されたフレーム番号に該当するフレーム画像を、映像情報27の画像データから検索する(ステップS205)。   The control unit 11 of the video output device 1 specifies the number of frames of the specified video ID from the video information stored in the video information 27. The frame number of the target frame is calculated by the product of the “viewpoint position progress rate” of the command information 35 and the specified number of frames, and is an integer value closest to the calculated value. The control unit 11 of the video output device 1 searches the image data of the video information 27 for a frame image corresponding to the calculated frame number (step S205).

続いて、映像出力装置1の制御部11は、ステップS205にて特定されたフレーム画像から、コマンド情報35の「視線方向(水平角)」と「視線方向(仰俯角)」を参照して、視野画像を生成する(ステップS206)。   Subsequently, the control unit 11 of the video output device 1 refers to the “gaze direction (horizontal angle)” and “gaze direction (elevation angle)” of the command information 35 from the frame image identified in step S205, A visual field image is generated (step S206).

図11は、視線方向31に対する視野範囲を説明する図である。映像出力装置1は、各種パラメータ28に格納される切出角度をΔとすると、特定された対象フレームの全方位画像40から、角度「視線方向(水平角)−Δ/2」〜「視線方向(水平角)+Δ/2」、「視線方向(仰俯角)−Δ/2」〜「視線方向(仰俯角)+Δ/2」の視野範囲の画像を切り出して生成する。ユーザには視点位置30から視線方向31を中心に図示されるような視野角31eの画像が提示されることとなる。   FIG. 11 is a diagram for explaining the visual field range with respect to the line-of-sight direction 31. The video output apparatus 1 sets the angles “line-of-sight direction (horizontal angle) −Δ / 2” to “line-of-sight direction” from the omnidirectional image 40 of the identified target frame, where Δ is the cut-out angle stored in the various parameters 28. (Horizontal angle) + Δ / 2 ”,“ line-of-sight direction (elevation angle) −Δ / 2 ”to“ line-of-sight direction (elevation angle) + Δ / 2 ”range image is cut out and generated. The user is presented with an image having a viewing angle 31e as shown in the drawing centered on the viewing direction 31 from the viewpoint position 30.

図12は、特定された対象フレームの全方位画像40から、視線方向に対応する画像41を切り出す作業を説明する図である。図示される例では、視線方向(水平角)が90°で、Δが90°の画像41を示す。   FIG. 12 is a diagram illustrating an operation of cutting out an image 41 corresponding to the line-of-sight direction from the omnidirectional image 40 of the specified target frame. In the example shown in the figure, an image 41 having a line-of-sight direction (horizontal angle) of 90 ° and Δ of 90 ° is shown.

図10の説明に戻る。映像出力装置1の制御部11は、コマンド情報35にインポーズするテキスト情報またはイメージ情報があるか否かを判定する(ステップS208)。インポーズするテキスト情報またはイメージ情報が無い場合には(ステップS208のNO)、映像出力装置1の制御部11は、ステップ206またはステップS207にて生成された視野画像を、表示部16に表示して(ステップS211)、ステップS202へ戻る(コマンド情報35がない場合には、処理を終了する)。   Returning to the description of FIG. The control unit 11 of the video output apparatus 1 determines whether there is text information or image information to be imposed on the command information 35 (step S208). If there is no text information or image information to be imposed (NO in step S208), the control unit 11 of the video output device 1 displays the visual field image generated in step 206 or step S207 on the display unit 16. (Step S211), the process returns to Step S202 (when there is no command information 35, the process is terminated).

インポーズするテキスト情報またはイメージ情報がある場合には(ステップS208のYES)、映像出力装置1の制御部11は、コマンド情報25の「テキストID」または「イメージID」からステップS201にて読み込んだソース情報を参照して、ステップ206またはステップS207にて生成された視野画像にインポーズする文字列またはイメージを特定する(ステップS209)。   When there is text information or image information to be imposed (YES in step S208), the control unit 11 of the video output apparatus 1 reads the “text ID” or “image ID” of the command information 25 in step S201. With reference to the source information, the character string or image to be imposed on the visual field image generated in step 206 or step S207 is specified (step S209).

映像出力装置1の制御部11は、特定した文字列またはイメージを、コマンド情報35の「透過率」で視野画像に合成し(ステップS210)、合成された視野画像を表示部16に表示して(ステップS211)、ステップS202へ戻る(コマンド情報35がない場合には、処理を終了する)。   The control unit 11 of the video output device 1 synthesizes the specified character string or image with the “transmission” of the command information 35 into the field image (step S210), and displays the synthesized field image on the display unit 16. (Step S211), it returns to Step S202 (when there is no command information 35, the process is terminated).

図13は、ステップS211にて表示するパノラマ映像出力画面51の一例を説明する図である。パノラマ映像出力画面51には、視野画像領域52と、テキスト表示領域53aと、イメージ画像表示領域53bと、モード切替ボタン54とが配置される。視野画像領域52には、コマンド情報35に対応する画像が表示される。   FIG. 13 is a diagram illustrating an example of the panoramic video output screen 51 displayed in step S211. On the panoramic video output screen 51, a field image area 52, a text display area 53a, an image image display area 53b, and a mode switching button 54 are arranged. In the visual field image area 52, an image corresponding to the command information 35 is displayed.

パノラマ映像出力画面51には、モード切替ボタン54が配置される。モード切替ボタン54は、ツアーモードからインタラクティブモードに切り替える場合に、ユーザによって押下される。モード切替ボタン54は、キーボード(図示せず)のいずれかのキーに割り付けられても良い。   A mode switching button 54 is arranged on the panoramic video output screen 51. The mode switching button 54 is pressed by the user when switching from the tour mode to the interactive mode. The mode switching button 54 may be assigned to any key of a keyboard (not shown).

図10の説明に戻る。映像出力装置1の制御部11は、ステップS202に戻り、ツアーデータ34の「コマンドID」を参照して、次のコマンド情報35を読み込む。視野画像領域52に配置される視線方向に対応する画像41を、映像としてユーザに認識されるように、映像出力装置1は、例えば、0.03〜0.01秒の短い時間間隔でステップS202〜ステップS211を繰り返して、視野画像領域52に配置される画像を更新する。   Returning to the description of FIG. The control unit 11 of the video output apparatus 1 returns to step S202, reads the next command information 35 with reference to the “command ID” of the tour data 34. The video output apparatus 1 performs step S202 at a short time interval of 0.03 to 0.01 seconds, for example, so that the user can recognize the image 41 corresponding to the line-of-sight direction arranged in the visual field image region 52 as a video. Step S211 is repeated to update the image arranged in the visual field image region 52.

次に、図14を参照して、図10のツアーモード映像出力処理のステップS207にて実行する、ブレンド画像生成処理について説明する。ブレンド画像生成処理とは、移動前ブランチの視野画像と移動先ブランチの視野画像を所定のブレンド比率でブレンドしたブレンド画像を生成する処理である。ブレンド画像生成処理は、図10のステップS203にて、コマンド情報35のコマンドタイプが「blend」であると判断された場合に、実行される処理である。   Next, the blend image generation process executed in step S207 of the tour mode video output process of FIG. 10 will be described with reference to FIG. The blend image generation process is a process of generating a blend image obtained by blending the field image of the branch before movement and the field image of the destination branch at a predetermined blend ratio. The blend image generation process is a process executed when it is determined in step S203 in FIG. 10 that the command type of the command information 35 is “blend”.

映像出力装置1の制御部11は、移動前ブランチ22bの視野情報を読み込み(ステップS301)、図10のステップS204〜ステップS206と同様にして、第1の視野画像を生成する(ステップS302〜ステップS304)。続いて、映像出力装置1の制御部11は、移動先ブランチ22cの視野情報を読み込み(ステップS305)、図10のステップS204〜ステップS206と同様にして、第2の視野画像を生成する(ステップS306〜ステップS308)。   The control unit 11 of the video output apparatus 1 reads the visual field information of the branch 22b before movement (step S301), and generates a first visual field image in the same manner as in steps S204 to S206 of FIG. 10 (step S302 to step S302). S304). Subsequently, the control unit 11 of the video output device 1 reads the visual field information of the destination branch 22c (Step S305), and generates the second visual field image in the same manner as Steps S204 to S206 in FIG. 10 (Step S305). S306 to step S308).

映像出力装置1の制御部11は、生成した第1の視野画像と第2の視野画像を、コマンド情報35の「ブレンド比率」で合成して、合成した視野画像を生成する(ステップS309)。映像出力装置1の制御部11は、処理を終了し、図10のステップS208に進む。   The control unit 11 of the video output device 1 combines the generated first field image and second field image with the “blend ratio” of the command information 35 to generate a combined field image (step S309). The control unit 11 of the video output device 1 ends the process, and proceeds to step S208 in FIG.

第1の視野画像の画素値と第2の視野画像の画素値をブレンド比率でブレンドして、ブレンド画像の画素値を算出する式を、次式に定義する。各視野画像の対応位置にある画素値について、次の式(1)を適用して画素値を求める演算を行えば(カラー画像の場合は、個々の原色ごとに演算を行えば)、ブレンド画像を求めることができる。   An equation for calculating the pixel value of the blended image by blending the pixel value of the first visual field image and the pixel value of the second visual field image with the blend ratio is defined as the following equation. If the pixel value at the corresponding position of each visual field image is calculated by applying the following formula (1) (in the case of a color image, calculation is performed for each primary color), the blend image Can be requested.

Figure 2014222446
Figure 2014222446

続いて、図15〜図19を参照して、映像出力装置1の制御部11が実行するインタラクティブモード映像出力処理の詳細について説明する。   Next, details of the interactive mode video output process executed by the control unit 11 of the video output device 1 will be described with reference to FIGS. 15 to 19.

図15は、本発明に係るインタラクティブモード映像出力処理の流れを示すフローチャートである。   FIG. 15 is a flowchart showing the flow of interactive mode video output processing according to the present invention.

図16は、インタラクティブモード映像出力処理にて映像出力装置1の記憶部12が保持する保持データ60の一例を示す図である。保持データ60は、映像出力装置1の記憶部12に記憶せず、制御部11のRAMに記憶させるのみでもよい。   FIG. 16 is a diagram illustrating an example of retained data 60 retained by the storage unit 12 of the video output device 1 in the interactive mode video output process. The retained data 60 may be stored in the RAM of the control unit 11 instead of being stored in the storage unit 12 of the video output device 1.

「対象ブランチのブランチID」とは、視点位置30のある対象ブランチ22aのブランチIDである。対象ブランチのブランチIDは、視点位置30が次のブランチ22に移行した場合のみ更新される。   The “branch ID of the target branch” is the branch ID of the target branch 22 a at the viewpoint position 30. The branch ID of the target branch is updated only when the viewpoint position 30 moves to the next branch 22.

「進行率」とは、対象ブランチ22a内部での視点位置30の相対的な位置を特定する値である。「視線方向(水平角)θL」とは、視線方向31が基準軸(X軸)となす角度である。保持データ60は更に「視線方向(仰俯角)」を記憶しても良い。「進行率」と「視線方向(水平角)θL」は、インタラクティブモード映像出力処理が実行される毎に更新される値である。   The “progress rate” is a value that specifies the relative position of the viewpoint position 30 within the target branch 22a. “Gaze direction (horizontal angle) θL” is an angle formed by the gaze direction 31 and the reference axis (X axis). The holding data 60 may further store “line-of-sight direction (elevation angle)”. “Progress rate” and “Gaze direction (horizontal angle) θL” are values that are updated each time the interactive mode video output process is executed.

「移動先ブランチのブランチID」と「視線方向(水平角)の変化度合r」と「ブレンド比率の変化度合r1」と「ブレンド比率α」は、ステップS408にて実行するブレンド画像表示処理(図18参照)にて使用するものである。「視線方向(水平角)の変化度合r」は、予め記憶されている固定値であり、例えば「1°」である。「移動先ブランチのブランチID」と「ブレンド比率の変化度合r1」は、ブレンド画像表示処理が実行される毎に記憶される。「ブレンド比率α」は、ブレンド画像表示処理のステップS505〜ステップS511が実行される毎に更新される値である。詳細は後述する。   The “branch ID of the movement destination branch”, “degree of change in visual line direction (horizontal angle) r”, “degree of change in blend ratio r1”, and “blend ratio α” are the blend image display processing (FIG. 18). The “degree of change in the line-of-sight direction (horizontal angle) r” is a fixed value stored in advance, for example, “1 °”. The “branch ID of the destination branch” and the “degree of blend ratio change r1” are stored each time the blend image display process is executed. The “blend ratio α” is a value that is updated every time step S505 to step S511 of the blend image display process are executed. Details will be described later.

出力モード切替処理にて、ツアーモードからインタラクティブモードに切り替えた場合には、モードを切り替える直前のコマンド情報35が示す視点位置30と視線方向31に基づいて保持データ60を作成しても良い。   In the output mode switching process, when the tour mode is switched to the interactive mode, the holding data 60 may be created based on the viewpoint position 30 and the line-of-sight direction 31 indicated by the command information 35 immediately before the mode switching.

図15の説明に戻る。映像出力装置1の制御部11は、ユーザ入力画面61を表示部16に表示する(ステップS401)。   Returning to the description of FIG. The control unit 11 of the video output device 1 displays the user input screen 61 on the display unit 16 (step S401).

図17は、ユーザ入力画面61の一例を説明する図である。ユーザ入力画面61には、視野画像領域62と、経路表示領域63と、モード切替ボタン64と、入力受付領域74とが表示される。視野画像領域62には、ステップS408またはステップS410にて表示される画像が配置される。   FIG. 17 is a diagram for explaining an example of the user input screen 61. On the user input screen 61, a visual field image area 62, a route display area 63, a mode switching button 64, and an input reception area 74 are displayed. In the visual field image area 62, the image displayed in step S408 or step S410 is arranged.

経路表示領域63には、施設館内の間取り図20と、視点位置30が移動可能な経路と、現在の視点位置30と視線方向31を表現する視線方向指標31eが表示される。図示される例では、視点位置30として二重円が描かれ、視線方向指標31eとして扇形が描かれる。   In the route display area 63, a floor plan 20 in the facility, a route in which the viewpoint position 30 is movable, and a line-of-sight direction index 31e representing the current viewpoint position 30 and the line-of-sight direction 31 are displayed. In the illustrated example, a double circle is drawn as the viewpoint position 30, and a sector is drawn as the line-of-sight direction indicator 31e.

ユーザは、視野画像領域62に表示される視野画像と、経路表示領域63に表示される経路上の視点位置30と視線方向指標31eに基づいて、入力受付領域74から視点位置30の移動に関する指示と、視線方向31の移動に関する指示とを入力する。   Based on the visual field image displayed in the visual field image region 62, the viewpoint position 30 on the route displayed in the route display region 63, and the line-of-sight direction indicator 31e, the user instructs to move the viewpoint position 30 from the input reception region 74. And an instruction regarding movement in the line-of-sight direction 31 are input.

モード切替ボタン64には、インタラクティブモードからツアーモードに切替える機能が割り当てられる。ツアーモードに切替える場合に、モード切替ボタン64に対応するキーボード(図示せず)のキーがユーザによって押下される。   The mode switching button 64 is assigned a function for switching from the interactive mode to the tour mode. When switching to the tour mode, a key on a keyboard (not shown) corresponding to the mode switching button 64 is pressed by the user.

入力受付領域74には、視点位置30を移動させる場合や、視線方向31を移動させる場合や、各種変更操作(例えば、移動速度の変更、視野画像領域62に表示される視野画像の視野角の変更など)等を行う場合に、ユーザによって押下されるキーボード(図示せず)のキートップに印字される記号が表示される。入力受付領域74に表示される各種ボタンの機能は、キーボード(図示せず)のいずれかのキーに割り付けられる。   In the input receiving area 74, when the viewpoint position 30 is moved, when the line-of-sight direction 31 is moved, various change operations (for example, changing the moving speed, the viewing angle of the field-of-view image displayed in the field-of-view image area 62). When a change or the like is performed, a symbol printed on a key top of a keyboard (not shown) pressed by the user is displayed. The functions of various buttons displayed in the input reception area 74 are assigned to any key of a keyboard (not shown).

ここで、前進ボタン75aと後退ボタン75bとは、視点位置30の移動を入力させる操作に利用され、前進ボタン75aが押されている間、視点位置30が経路上の所定の進行方向に所定速度で移動するように進行率を増加または減少させる。また、後退ボタン75bが押されている間、視点位置30が経路上の所定の進行方向に所定速度で移動するように進行率を増加または減少させる。ここで、所定速度とは、例えば、ユーザが歩く速度にふさわしい速度などである。所定速度は、予め記憶部12に記憶されているものであり、ユーザの指示により変更することも可能である。   Here, the forward button 75a and the backward button 75b are used for inputting the movement of the viewpoint position 30, and while the forward button 75a is being pressed, the viewpoint position 30 moves in a predetermined traveling direction on the route at a predetermined speed. Increase or decrease the progress rate to move with. Further, while the backward button 75b is pressed, the progress rate is increased or decreased so that the viewpoint position 30 moves at a predetermined speed in a predetermined traveling direction on the route. Here, the predetermined speed is, for example, a speed suitable for the speed at which the user walks. The predetermined speed is stored in the storage unit 12 in advance, and can be changed according to a user instruction.

別の方法として、前進ボタン75aと後退ボタン75bは、視点位置30が移動する加速/減速に用いられる。すなわち、後述するように(図15のステップS404)、視線方向(水平角)に合わせて進行方向が特定されるが、このとき、視点位置30は、進行方向にある速度(例えば、1.0m/s)で移動しているとする。そして、前進ボタン75aが押されると、進行方向の速度を加速させ(例えば、0.1m/s加速させ、1.1m/sとする)、後退ボタン75bが押されると、進行方向の速度を減速させる(例えば、0.1m/s減速させ、0.9m/sとする)。   As another method, the forward button 75a and the backward button 75b are used for acceleration / deceleration in which the viewpoint position 30 moves. That is, as will be described later (step S404 in FIG. 15), the traveling direction is specified in accordance with the line-of-sight direction (horizontal angle). At this time, the viewpoint position 30 is a speed in the traveling direction (for example, 1.0 m). / S). When the forward button 75a is pressed, the speed in the traveling direction is accelerated (for example, 0.1 m / s is accelerated to 1.1 m / s). When the backward button 75b is pressed, the speed in the traveling direction is increased. Decelerate (for example, reduce by 0.1 m / s to 0.9 m / s).

一方、右向きボタン76bと左向きボタン76dは、視線方向31の移動を入力させる操作に利用され、右向きボタン76bが押されている間、視線方向31が所定の速度で進行方向に対して右向きに移動するように視線方向(水平角)θLを減少させる。また、左向きボタン76dが押されている間、視線方向31が所定の速度で進行方向に対して左向きに移動するように後述する視線方向(水平角)θLを増加させる。上向きボタン76aと下向きボタン76cは、視線方向(仰俯角)を変更させる場合に押下される。   On the other hand, the right-pointing button 76b and the left-pointing button 76d are used for inputting the movement of the line-of-sight direction 31, and the line-of-sight direction 31 moves rightward with respect to the traveling direction at a predetermined speed while the right-pointing button 76b is pressed. Thus, the line-of-sight direction (horizontal angle) θL is decreased. Further, while the left button 76d is being pressed, the line-of-sight direction (horizontal angle) θL described later is increased so that the line-of-sight direction 31 moves leftward with respect to the traveling direction at a predetermined speed. The upward button 76a and the downward button 76c are pressed when changing the viewing direction (elevation angle).

変更操作ボタン77には、例えば、移動速度の変更、視野画像領域62に表示される視野画像の視野角の変更などの機能が割り当てられる。上記変更を行う際に、変更操作ボタン77に対応するキーボード(図示せず)のキーがユーザによって押下される。   For example, functions such as changing the moving speed and changing the viewing angle of the visual field image displayed in the visual field image area 62 are assigned to the change operation button 77. When making the change, a key on a keyboard (not shown) corresponding to the change operation button 77 is pressed by the user.

図15の説明に戻る。映像出力装置1の制御部11は、視点位置30の移動と視線方向31の移動の入力を受付ける(ステップS402)。続いて、映像出力装置1の制御部11は、視線方向(水平角)θLを算出する(ステップS403)。   Returning to the description of FIG. The control unit 11 of the video output device 1 receives input of movement of the viewpoint position 30 and movement of the line-of-sight direction 31 (step S402). Subsequently, the control unit 11 of the video output apparatus 1 calculates the viewing direction (horizontal angle) θL (step S403).

映像出力装置1は、ステップS402にて受け付けた視線方向31の移動量を算出して視線方向(水平角)θLを更新し、記憶部12に記憶させる。具体的には、ユーザによって右向きボタン76b(図17参照)が押下され、視線方向31の右方向への移動が指示された場合には、映像出力装置1は視線方向(水平角)θLを所定量減少させ、左向きボタン76d(図17参照)が押下され、視線方向31の左方向への移動が指示された場合には、映像出力装置1は視線方向(水平角)θLを所定量増加させて、視線方向(水平角)θLを更新して、記憶する。   The video output device 1 calculates the amount of movement in the line-of-sight direction 31 received in step S402, updates the line-of-sight direction (horizontal angle) θL, and stores it in the storage unit 12. Specifically, when the right button 76b (see FIG. 17) is pressed by the user and an instruction to move the gaze direction 31 in the right direction is given, the video output device 1 sets the gaze direction (horizontal angle) θL. When the leftward button 76d (see FIG. 17) is pressed down and movement to the left of the line-of-sight direction 31 is instructed, the video output device 1 increases the line-of-sight direction (horizontal angle) θL by a predetermined amount. The line-of-sight direction (horizontal angle) θL is updated and stored.

続いて、映像出力装置1の制御部11は、ステップS403にて算出された視線方向(水平角)θLに基づいて、視点位置30の進行方向を特定する(ステップS404)。対象ブランチ22aのブランチIDは、保持データ60に記憶されているものとする。   Subsequently, the control unit 11 of the video output device 1 specifies the traveling direction of the viewpoint position 30 based on the line-of-sight direction (horizontal angle) θL calculated in Step S403 (Step S404). It is assumed that the branch ID of the target branch 22a is stored in the retained data 60.

進行方向と特定する方法として、例えば、映像出力装置1は、ブランチ情報26とノード情報25から、対象ブランチ22aの起点ノード21aと終点ノード21bの位置情報を検索し、対象ブランチ22aのブランチ角度θbを算出する。視線方向(水平角)θLがθb−90°<θL≦θb+90°の範囲内にあれば、進行方向は対象ブランチ22aの向きに一致し、範囲外であれば、進行方向は対象ブランチ22aの逆向きに一致する。   As a method for identifying the traveling direction, for example, the video output apparatus 1 searches the branch information 26 and the node information 25 for the position information of the start node 21a and the end node 21b of the target branch 22a, and the branch angle θb of the target branch 22a. Is calculated. If the line-of-sight direction (horizontal angle) θL is within the range of θb−90 ° <θL ≦ θb + 90 °, the traveling direction matches the direction of the target branch 22a. Match the orientation.

映像出力装置1の制御部11は、対象ブランチ22a上の視点位置30の進行率を算出する(ステップS405)。   The control unit 11 of the video output device 1 calculates the progress rate of the viewpoint position 30 on the target branch 22a (step S405).

映像出力装置1の制御部11は、ステップS402にて受け付けた視点位置30の移動量を算出して、視点位置30の進行方向が対象ブランチ22aの正方向であれば、既存の進行率と算出された移動量との和を新しい進行率として、記憶部12に記憶させる。また、視点位置30の進行方向が対象ブランチ22aの負方向であれば、既存の進行率から算出された移動量を引いた値を新しい進行率として、記憶部12に記憶させる。   The control unit 11 of the video output device 1 calculates the movement amount of the viewpoint position 30 received in step S402, and calculates the existing progress rate if the traveling direction of the viewpoint position 30 is the positive direction of the target branch 22a. The storage unit 12 stores the sum of the amount of movement and the amount of movement as a new progress rate. Further, if the traveling direction of the viewpoint position 30 is the negative direction of the target branch 22a, a value obtained by subtracting the calculated movement amount from the existing traveling rate is stored in the storage unit 12 as a new traveling rate.

算出された進行率が「0」未満の値となった場合は、進行率は「0」とし、算出された進行率が「1」を超える値となった場合には、進行率は「1」とする。   When the calculated progress rate is less than “0”, the progress rate is “0”, and when the calculated progress rate exceeds “1”, the progress rate is “1”. "

映像出力装置1の制御部11は、視点位置30が対象ブランチ22aの端点に位置するか否かを判断する(ステップS406)。具体的には、保持データ60に記憶される進行率が、「0」または「1」であるか否かを判定する。   The control unit 11 of the video output device 1 determines whether or not the viewpoint position 30 is located at the end point of the target branch 22a (step S406). Specifically, it is determined whether or not the progress rate stored in the retained data 60 is “0” or “1”.

端点にない場合には(ステップS406のNO)、映像出力装置1の制御部11は、ブランチ情報26から、対象ブランチ22aの映像IDを検索し、映像情報27から検索された映像IDのフレーム数を検索し、フレーム数と進行率を掛け合わせて、対象フレームを特定する。対象フレームの全方位画像から、視線方向(水平角)θLに対応する画像を切り出して視野画像を生成する(ステップS409)。   If it is not at the end point (NO in step S406), the control unit 11 of the video output device 1 searches the branch information 26 for the video ID of the target branch 22a, and the number of frames of the video ID searched from the video information 27. The target frame is specified by multiplying the number of frames and the progress rate. A field-of-view image is generated by cutting out an image corresponding to the line-of-sight direction (horizontal angle) θL from the omnidirectional image of the target frame (step S409).

端点に有る場合には(ステップS406のYES)、映像出力装置1の制御部11は、端点が分岐点又は曲がり角であるか否かを判断する(ステップS407)。具体的には、映像出力装置1は、ノード情報25から、進行率が「0」である場合には対象ブランチ22aの起点ノード21aの属性を検索し、進行率が「1」である場合には対象ブランチ22aの終点ノード21bの属性を検索し、検索された属性が「2」以上であるか否かを判断する。   If it is at the end point (YES in step S406), the control unit 11 of the video output apparatus 1 determines whether the end point is a branch point or a corner (step S407). Specifically, the video output device 1 searches the node information 25 for the attribute of the starting node 21a of the target branch 22a when the progress rate is “0”, and when the progress rate is “1”. Retrieves the attribute of the end node 21b of the target branch 22a, and determines whether or not the retrieved attribute is “2” or more.

分岐点又は曲がり角に有る場合には(ステップS407のYES)、映像出力装置1の制御部11は、図18にて説明するブレンド画像表示処理を実行して(ステップS408)、ステップS402に戻る。分岐点又は曲がり角に無い場合には(ステップS407のNO)、映像出力装置1の制御部11は、ステップS409に進む。   If it is at a branch point or a turning corner (YES in step S407), the control unit 11 of the video output device 1 executes a blend image display process described in FIG. 18 (step S408), and returns to step S402. When it is not at the branch point or the turning corner (NO in step S407), the control unit 11 of the video output device 1 proceeds to step S409.

映像出力装置1の制御部11は、生成された視野画像をユーザ入力画面61の視野画像領域62に配置して表示部15に出力し(ステップS410)、処理を終了する。また映像出力装置1は、進行率と視線方向(水平角)θLに基づいて、経路表示領域63の経路上に視点位置30と視線方向指標31eとを配置する。   The control unit 11 of the video output device 1 arranges the generated visual field image in the visual field image region 62 of the user input screen 61 and outputs it to the display unit 15 (step S410), and ends the process. Further, the video output device 1 arranges the viewpoint position 30 and the line-of-sight direction indicator 31e on the path of the path display area 63 based on the progress rate and the line-of-sight direction (horizontal angle) θL.

映像出力装置1は、ステップS402〜ステップS410を繰り返して、視野画像領域43に配置される画像を更新することで、視点位置30と視線方向31に対応する映像を提示する。映像出力装置1は、連続的に移動する視点位置30と視線方向31を常に把握していることとなる。   The video output device 1 repeats Steps S <b> 402 to S <b> 410 to update the image arranged in the visual field image region 43, thereby presenting video corresponding to the viewpoint position 30 and the line-of-sight direction 31. The video output device 1 always grasps the viewpoint position 30 and the line-of-sight direction 31 that move continuously.

続いて、図18と図19を参照して、インタラクティブモード映像出力処理のステップS408にて映像出力装置1の制御部11が実行する、ブレンド画像表示処理にて説明する。ブレンド画像表示処理は、図15のインタラクティブモード映像出力処理のステップS407にて、視点位置30が分岐点又は曲がり角に位置すると判断された場合に実行される処理である。ブレンド画像表示処理とは、視点位置30が対象ブランチ22aから移動先ブランチ22cに遷移する場合に、分岐点又は曲り角で見える映像を自動で連続的に表示する処理である。   Next, the blend image display process executed by the control unit 11 of the video output device 1 in step S408 of the interactive mode video output process will be described with reference to FIGS. The blend image display process is a process executed when it is determined in step S407 of the interactive mode video output process of FIG. 15 that the viewpoint position 30 is located at a branch point or a corner. The blend image display process is a process of automatically and continuously displaying images that can be seen at a branch point or a turn when the viewpoint position 30 transitions from the target branch 22a to the destination branch 22c.

映像出力装置1の制御部11は、移動先ブランチ22cを特定し(ステップS501)、移動先ブランチ22cのブランチIDを記憶部12に記憶させる。視点位置30が曲がり角に位置する場合には、対象ブランチ22aから遷移する移動先ブランチ22cは1つに特定される。視点位置30が分岐点に位置する場合に移動先ブランチ22cを特定する方法としては、ユーザ入力画面61の移動先経路選択ボタン(図示せず)によって、ユーザから入力を受付けても良い。または、視線方向θLと、分岐点のノード21から派生する複数の移動先ブランチ22cのブランチ角度θEを比較し、視線方向θLとブランチ角度θEが近い移動先ブランチ22cを自動で選択しても良い。   The control unit 11 of the video output device 1 identifies the destination branch 22c (step S501), and stores the branch ID of the destination branch 22c in the storage unit 12. When the viewpoint position 30 is located at a corner, the movement destination branch 22c that transitions from the target branch 22a is specified as one. As a method of specifying the movement destination branch 22c when the viewpoint position 30 is located at the branch point, an input from the user may be received by a movement destination route selection button (not shown) on the user input screen 61. Alternatively, the line-of-sight direction θL may be compared with the branch angles θE of a plurality of movement-destination branches 22c derived from the node 21 at the branch point, and the movement-destination branch 22c close to the line-of-sight direction θL and the branch angle θE may be automatically selected. .

映像出力装置1の制御部11は、ステップS501にて特定された移動先ブランチのブランチ角度θEを算出する(ステップS502)。ブランチ角度θEの算出方法については図4にて説明した通りである。次に、映像出力装置1の制御部11は、視線方向31の移動方向を特定する(ステップS503)。   The control unit 11 of the video output apparatus 1 calculates the branch angle θE of the movement destination branch specified in step S501 (step S502). The calculation method of the branch angle θE is as described in FIG. Next, the control unit 11 of the video output device 1 specifies the moving direction of the line-of-sight direction 31 (step S503).

図19は、視点位置31の移動について説明する図である。視点位置30が対象ブランチ22aの終点ノード21bに位置し、視線方向31が対象ブランチ22aの向きと一致している場合、移動先ブランチ22cの向きに到達するまで、視線方向31は白抜きの矢印の向きで徐々に移動する。図19に示す例では、視線方向31の移動方向は反時計回りである。   FIG. 19 is a diagram for explaining the movement of the viewpoint position 31. When the viewpoint position 30 is located at the end point node 21b of the target branch 22a and the line-of-sight direction 31 matches the direction of the target branch 22a, the line-of-sight direction 31 is a white arrow until reaching the direction of the destination branch 22c. Move gradually in the direction of. In the example shown in FIG. 19, the moving direction of the line-of-sight direction 31 is counterclockwise.

映像出力装置1の制御部11は、ブレンド比率の変化度合r1を算出して(ステップS504)、記憶部12に記憶させる。ブレンド比率の変化度合r1の算出方法として、例えば、映像出力装置1は、保持データ60の視線方向(水平角)の変化度合rを、ステップS502にて算出されたブランチ角度θEと視線方向(水平角)θLの差で割った値を、ブレンド比率の変化度合r1とする。   The control unit 11 of the video output apparatus 1 calculates the blend ratio change degree r1 (step S504) and stores it in the storage unit 12. As a method for calculating the blend ratio change degree r1, for example, the video output device 1 uses the branch angle θE and the line-of-sight direction (horizontal) of the change degree r of the line-of-sight direction (horizontal angle) of the retained data 60 in step S502. The value divided by the difference of (angle) θL is defined as the blend ratio change degree r1.

図19に示す例では、ブレンド比率の変化度合r181は図に示される通りに算出される。または、ブレンド比率の変化度合r1は、視線方向(水平角)の変化度合rを、移動先ブランチのブランチ角度θEと対象ブランチ22aのブランチ角度θbの差で割った値でも良い。   In the example shown in FIG. 19, the blend ratio change degree r181 is calculated as shown in the figure. Alternatively, the blend ratio change degree r1 may be a value obtained by dividing the line-of-sight direction (horizontal angle) change degree r by the difference between the branch angle θE of the destination branch and the branch angle θb of the target branch 22a.

映像出力装置1の制御部11は、ブレンド比率に「0」を格納して、記憶部12に記憶させる(ステップS505)。次に、映像出力装置1の制御部11は、記憶部12に記憶されるブレンド比率αをα+r1に更新し、視線方向(水平角)θLをθL+rに更新する(ステップS506)。ステップS503にて特定された視線方向31の移動方向が時計回りの場合では、視線方向(水平角)θLをθL−rに更新する。   The control unit 11 of the video output apparatus 1 stores “0” in the blend ratio and stores it in the storage unit 12 (step S505). Next, the control unit 11 of the video output device 1 updates the blend ratio α stored in the storage unit 12 to α + r1, and updates the line-of-sight direction (horizontal angle) θL to θL + r (step S506). When the movement direction of the line-of-sight direction 31 specified in step S503 is clockwise, the line-of-sight direction (horizontal angle) θL is updated to θL−r.

映像出力装置1の制御部11は、ブランチ情報26から、対象ブランチ22aの映像IDを検索し、視点位置30が位置するノード21に対応する対象フレームを特定する。対象フレームの全方位画像から、視線方向(水平角)θLに対応する画像を切り出して視野画像を生成する(ステップS507)。   The control unit 11 of the video output device 1 searches the branch information 26 for the video ID of the target branch 22a, and specifies the target frame corresponding to the node 21 where the viewpoint position 30 is located. A field-of-view image is generated by cutting out an image corresponding to the line-of-sight direction (horizontal angle) θL from the omnidirectional image of the target frame (step S507).

映像出力装置1の制御部11は、ブランチ情報26から、移動先ブランチ22cの映像IDを検索し、視点位置30が位置するノード21に対応する対象フレームを特定する。対象フレームの全方位画像から、視線方向(水平角)θLに対応する画像を切り出して視野画像を生成する(ステップS508)。   The control unit 11 of the video output device 1 searches the branch information 26 for the video ID of the destination branch 22c, and identifies the target frame corresponding to the node 21 where the viewpoint position 30 is located. A field-of-view image is generated by cutting out an image corresponding to the line-of-sight direction (horizontal angle) θL from the omnidirectional image of the target frame (step S508).

映像出力装置1の制御部11は、ステップ507にて生成した視野画像と、ステップ508にて生成した視野画像を、式(1)に基づいてブレンドしたブレンド画像を生成する(ステップ509)。映像出力装置1の制御部11は、生成したブレンド画像を、ユーザ入力画面61の視野画像領域62に配置して、表示部15に出力する(ステップS510)。   The control unit 11 of the video output device 1 generates a blend image obtained by blending the visual field image generated in step 507 and the visual field image generated in step 508 based on the equation (1) (step 509). The control unit 11 of the video output device 1 arranges the generated blend image in the visual field image area 62 of the user input screen 61 and outputs it to the display unit 15 (step S510).

映像出力装置1の制御部11は、記憶部12に記憶されるブレンド比率αがα≧1を満たすか否かを判定する(ステップS511)。α≧1を満たさない場合には(ステップS511のNO)、映像出力装置1の制御部11は、ステップS506に戻る。   The control unit 11 of the video output device 1 determines whether or not the blend ratio α stored in the storage unit 12 satisfies α ≧ 1 (step S511). When α ≧ 1 is not satisfied (NO in step S511), the control unit 11 of the video output device 1 returns to step S506.

α≧1を満たす場合には(ステップS511のYES)、映像出力装置1の制御部11は、記憶部12に記憶される対象ブランチ22aのブランチIDを移動先ブランチ22cのブランチIDに更新して(ステップS512)、処理を終了し、インタラクティブモード映像出力装置(図15参照)のステップS402に戻る。   If α ≧ 1 is satisfied (YES in step S511), the control unit 11 of the video output apparatus 1 updates the branch ID of the target branch 22a stored in the storage unit 12 to the branch ID of the destination branch 22c. (Step S512), the process ends, and the process returns to Step S402 of the interactive mode video output device (see FIG. 15).

以上の様に、映像出力装置1のブレンド画像表示処理を実行することで、視線方向(水平角)θLを移動先ブランチのブランチ角度θEに向かって、徐々に変化させながら、且つ、ブレンド比率αを0〜1まで徐々に変化させながら、ステップS506〜ステップS510の処理を繰り返すことで、一連のブレンド画像を動画として出力し、視点位置30が対象ブランチ22aから移動先ブランチ22cに連続的に移動する映像を提示することができる。   As described above, by executing the blend image display process of the video output device 1, the line-of-sight direction (horizontal angle) θL is gradually changed toward the branch angle θE of the destination branch, and the blend ratio α By repeating the processing from step S506 to step S510 while gradually changing from 0 to 1, a series of blended images are output as a moving image, and the viewpoint position 30 continuously moves from the target branch 22a to the destination branch 22c. Can be presented.

以上、添付図面を参照しながら、本発明に係る映像出力装置1等の好適な実施形態について説明したが、本発明はかかる例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the video output device 1 and the like according to the present invention have been described above with reference to the accompanying drawings, but the present invention is not limited to such examples. It will be apparent to those skilled in the art that various changes or modifications can be conceived within the scope of the technical idea disclosed in the present application, and these naturally belong to the technical scope of the present invention. Understood.

1………映像出力装置
11………制御部
12………記憶部
15………入力部
16………表示部
20………間取り図
21………ノード
21a………起点ノード
21b………終点ノード
22………ブランチ
22a………対象ブランチ
22b………移動前ブランチ
22c………移動先ブランチ
25………ノード情報
26………ブランチ情報
27………映像情報
34………ツアーデータ
35………コマンド情報
36………ソース情報
40………全方位画像
41………視線方向に対応する画像
51………パノラマ映像出力画面
52、62………視野画像領域
60………保持データ
61………ユーザ入力画面
74………入力受付領域
DESCRIPTION OF SYMBOLS 1 ......... Video output device 11 ......... Control part 12 ......... Storage part 15 ......... Input part 16 ......... Display part 20 ......... Floor plan 21 ......... Node 21a ......... Starting node 21b ... ...... End node 22 ......... branch 22a ......... target branch 22b ......... branch before movement 22c ......... destination branch 25 ... …… node information 26 ... …… branch information 27 ... …… video information 34 …… ... tour data 35 ... ... command information 36 ... ... source information 40 ... ... omnidirectional image 41 ... ... image corresponding to line-of-sight direction 51 ... ... panoramic video output screen 52, 62 ... ... visual field image area 60 ......... Retained data 61 ... …… User input screen 74 ... …… Input acceptance area

Claims (8)

座標空間上に配置された経路内を移動する視点位置における視線方向の映像を出力する映像出力装置であって、
全方位画像のフレームからなるシーケンスを、前記経路に対応付けて記憶する経路記憶手段と、
視点位置及び視線方向を記述した命令の列を記憶する命令記憶手段と、
前記命令記憶手段に記憶された前記命令を順に読み取る命令読取手段と、
読み取った前記命令により記述された前記視点位置における前記視線方向の映像を、前記全方位画像から生成する映像生成手段と、
生成した前記映像を出力する出力手段と、
を備えることを特徴とする映像出力装置。
An image output device that outputs an image in a line-of-sight direction at a viewpoint position that moves in a route arranged in a coordinate space,
Route storage means for storing a sequence of frames of omnidirectional images in association with the route;
Command storage means for storing a sequence of commands describing a viewpoint position and a line-of-sight direction;
Instruction reading means for sequentially reading the instructions stored in the instruction storage means;
Video generation means for generating, from the omnidirectional image, an image in the line-of-sight direction at the viewpoint position described by the read instruction;
Output means for outputting the generated video;
A video output device comprising:
前記経路は、ノードと有向なブランチとから構成され、
前記全方位画像のフレームからなるシーケンスは、前記有向なブランチごとに対応付けられる
ことを特徴とする請求項1に記載の映像出力装置。
The path is composed of nodes and directed branches,
The video output apparatus according to claim 1, wherein a sequence including frames of the omnidirectional image is associated with each directed branch.
前記命令の記述する、前記視点位置は、前記有向ブランチの識別子及び当該ブランチにおける進行率であり、前記視線方向は、少なくとも基準軸とのなす角度であり、
前記映像生成手段は、前記視点位置が位置する前記有向ブランチに対応する前記シーケンスから、前記進行率に対応する前記フレームを特定し、特定した前記フレームの前記全方位画像から、前記なす角度で示される方向の映像を切り出して生成する
ことを特徴とする請求項2に記載の映像出力装置。
The viewpoint position described in the command is an identifier of the directed branch and a progress rate in the branch, and the line-of-sight direction is an angle formed with at least a reference axis,
The video generation means specifies the frame corresponding to the progress rate from the sequence corresponding to the directed branch where the viewpoint position is located, and from the omnidirectional image of the specified frame at an angle formed by the The video output device according to claim 2, wherein the video in the indicated direction is cut out and generated.
前記命令は、前記視点位置が第1のブランチから第2のブランチに移動する際には、前記第1のブランチにおける前記視点位置及び前記視線方向と、前記第2のブランチにおける前記視点位置及び前記視線方向と、ブレンド比率とを記述したブレンド命令であり、
前記映像生成手段は、前記命令がブレンド命令である場合には、前記全方位画像から生成した、前記第1のブランチにおける前記視点位置における前記視線方向の第1の映像と、前記第2のブランチにおける前記視点位置における前記視線方向の第2の映像とを、前記ブレンド比率により合成して前記映像を生成する
ことを特徴とする請求項2又は請求項3に記載の映像出力装置。
When the viewpoint position moves from the first branch to the second branch, the command includes the viewpoint position and the line-of-sight direction in the first branch, the viewpoint position in the second branch, and the It is a blending instruction that describes the line-of-sight direction and blend ratio.
When the command is a blend command, the video generation means generates the first video in the line-of-sight direction at the viewpoint position in the first branch and the second branch generated from the omnidirectional image. The video output device according to claim 2, wherein the video is generated by combining the second video in the line-of-sight direction at the viewpoint position with the blend ratio.
文字列と文字列IDとを対応付けて記憶する文字列情報記憶手段を、さらに備え、
前記命令は、さらに、前記文字列IDを記述する場合があり、
前記映像生成手段は、前記命令が前記文字列IDを記述する場合には、生成した前記映像に、さらに、当該文字列IDにより特定される前記文字列を合成する
ことを特徴とする請求項1乃至請求項4のいずれかに記載の映像出力装置。
A character string information storage means for storing the character string and the character string ID in association with each other;
The instruction may further describe the character string ID,
The video generation means further synthesizes the character string specified by the character string ID with the generated video when the instruction describes the character string ID. The video output device according to claim 4.
イメージとイメージIDとを対応付けて記憶するイメージ情報記憶手段を、さらに備え、
前記命令は、さらに、前記イメージIDを記述する場合があり、
前記映像生成手段は、前記命令が前記イメージIDを記述する場合には、生成した前記映像に、さらに、当該イメージIDにより特定される前記イメージを合成する
ことを特徴とする請求項1乃至請求項5のいずれかに記載の映像出力装置。
Image information storage means for storing an image and an image ID in association with each other is further provided.
The instruction may further describe the image ID,
The video generation means further synthesizes the image specified by the image ID with the generated video when the command describes the image ID. 6. The video output device according to any one of 5 above.
座標空間上に配置された経路内を移動する視点位置における視線方向の映像を出力する映像出力方法であって、全方位画像のフレームからなるシーケンスを、前記経路に対応付けて記憶する経路記憶手段と、視点位置及び視線方向を記述した命令の列を記憶する命令記憶手段と、を備える前記コンピュータにより行う
前記命令記憶手段に記憶された前記命令を順に読み取る命令読取ステップと、
読み取った前記命令により記述された前記視点位置における前記視線方向の映像を、前記全方位画像から生成する映像生成ステップと、
生成した前記映像を出力する出力ステップと、
を含むことを特徴とする映像出力方法。
A video output method for outputting a video in a line-of-sight direction at a viewpoint position moving in a path arranged in a coordinate space, wherein a path storage unit stores a sequence of frames of omnidirectional images in association with the path. An instruction storage step for sequentially reading the instructions stored in the instruction storage means performed by the computer, and an instruction storage means for storing a sequence of instructions describing the viewpoint position and the line-of-sight direction;
A video generation step of generating, from the omnidirectional image, an image in the line-of-sight direction at the viewpoint position described by the read instruction;
An output step of outputting the generated video;
A video output method comprising:
コンピュータを、座標空間上に配置された経路内を移動する視点位置における視線方向の映像を出力する映像出力装置として機能させるためのプログラムであって、
コンピュータを、
全方位画像のフレームからなるシーケンスを、前記経路に対応付けて記憶する経路記憶手段、
視点位置及び視線方向を記述した命令の列を記憶する命令記憶手段、
前記命令記憶手段に記憶された前記命令を順に読み取る命令読取手段、
読み取った前記命令により記述された前記視点位置における前記視線方向の映像を、前記全方位画像から生成する映像生成手段、
生成した前記映像を出力する出力手段、
として機能させるためのプログラム。
A program for causing a computer to function as an image output device that outputs an image in a line-of-sight direction at a viewpoint position that moves in a path arranged in a coordinate space,
Computer
Route storage means for storing a sequence of frames of omnidirectional images in association with the route;
Command storage means for storing a sequence of commands describing a viewpoint position and a line-of-sight direction;
Instruction reading means for sequentially reading the instructions stored in the instruction storage means;
Video generation means for generating, from the omnidirectional image, an image in the line-of-sight direction at the viewpoint position described by the read instruction;
Output means for outputting the generated video;
Program to function as.
JP2013102086A 2013-05-14 2013-05-14 Video output device, video output method, and program Pending JP2014222446A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013102086A JP2014222446A (en) 2013-05-14 2013-05-14 Video output device, video output method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013102086A JP2014222446A (en) 2013-05-14 2013-05-14 Video output device, video output method, and program

Publications (1)

Publication Number Publication Date
JP2014222446A true JP2014222446A (en) 2014-11-27

Family

ID=52121938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013102086A Pending JP2014222446A (en) 2013-05-14 2013-05-14 Video output device, video output method, and program

Country Status (1)

Country Link
JP (1) JP2014222446A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020230249A1 (en) * 2019-05-13 2020-11-19 日本電信電話株式会社 Walk-through display device, walk-through display method, and walk-through display program
JPWO2021152758A1 (en) * 2020-01-30 2021-08-05

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003208634A (en) * 2002-01-15 2003-07-25 Canon Inc Information processor and processing method
JP2005149409A (en) * 2003-11-19 2005-06-09 Canon Inc Image reproduction method and apparatus
JP2005174024A (en) * 2003-12-11 2005-06-30 Canon Inc Image forming apparatus and method
US20060114251A1 (en) * 2004-02-11 2006-06-01 Miller Jacob J Methods for simulating movement of a computer user through a remote environment
JP2006155231A (en) * 2004-11-29 2006-06-15 Kokuyo Co Ltd Viewing system and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003208634A (en) * 2002-01-15 2003-07-25 Canon Inc Information processor and processing method
JP2005149409A (en) * 2003-11-19 2005-06-09 Canon Inc Image reproduction method and apparatus
JP2005174024A (en) * 2003-12-11 2005-06-30 Canon Inc Image forming apparatus and method
US20060114251A1 (en) * 2004-02-11 2006-06-01 Miller Jacob J Methods for simulating movement of a computer user through a remote environment
JP2006155231A (en) * 2004-11-29 2006-06-15 Kokuyo Co Ltd Viewing system and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020230249A1 (en) * 2019-05-13 2020-11-19 日本電信電話株式会社 Walk-through display device, walk-through display method, and walk-through display program
JPWO2020230249A1 (en) * 2019-05-13 2020-11-19
JP7302655B2 (en) 2019-05-13 2023-07-04 日本電信電話株式会社 Walk-through display device, walk-through display method, and walk-through display program
JPWO2021152758A1 (en) * 2020-01-30 2021-08-05
JP7054287B2 (en) 2020-01-30 2022-04-13 Amatelus株式会社 Video distribution device, video distribution system, video distribution method, and program
JP2022075940A (en) * 2020-01-30 2022-05-18 Amatelus株式会社 Video distribution device, video distribution system, video distribution method, and program
JP7365076B2 (en) 2020-01-30 2023-10-19 Amatelus株式会社 Video distribution device, video distribution system, video distribution method, and program

Similar Documents

Publication Publication Date Title
KR101722177B1 (en) Method and apparatus for hybrid displaying of VR(virtual reality) contents
KR101870067B1 (en) Methods and systems for augmented reality to display virtual representations of robotic device actions
RU2580064C2 (en) Adjustable and progressive mobile device street view
US9525964B2 (en) Methods, apparatuses, and computer-readable storage media for providing interactive navigational assistance using movable guidance markers
US9851877B2 (en) Image processing apparatus, image processing method, and computer program product
US9128612B2 (en) Continuous determination of a perspective
JP2005149409A (en) Image reproduction method and apparatus
JP2016144089A (en) Image processing apparatus and control method therefor
JP2014527667A (en) Generation and rendering based on map feature saliency
WO2014017200A1 (en) Information processing device and program
JP2014219948A (en) Display control system, display control apparatus, display control program, and display control method
JP2004234455A (en) Information processing method and image reproducing apparatus
JP5870618B2 (en) Free viewpoint video display device
JP2014203175A (en) Information processing device, information processing method, and program
WO2020151256A1 (en) Intelligent browsing method and system applied to cultural tourism
JP2014222446A (en) Video output device, video output method, and program
US9601091B2 (en) Information processing apparatus and information processing method
JP2016035414A (en) Display information generation system, and display information generation method
JP6123618B2 (en) Video output apparatus, video output method, and program
JP2006018444A (en) Image processing system and additional information indicating device
JP6051834B2 (en) Video output apparatus, video output method, and program
JP6149967B1 (en) Video distribution server, video output device, video distribution system, and video distribution method
JP2015069445A (en) Video output device, video output method, and program
US11906741B2 (en) Display control device, display control method, and non-transitory computer-readable medium storing program
JP5706715B2 (en) 3D map display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160418

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20160920

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170314

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170404