JP2015069445A - Video output device, video output method, and program - Google Patents

Video output device, video output method, and program Download PDF

Info

Publication number
JP2015069445A
JP2015069445A JP2013203444A JP2013203444A JP2015069445A JP 2015069445 A JP2015069445 A JP 2015069445A JP 2013203444 A JP2013203444 A JP 2013203444A JP 2013203444 A JP2013203444 A JP 2013203444A JP 2015069445 A JP2015069445 A JP 2015069445A
Authority
JP
Japan
Prior art keywords
video output
video
route
branch
viewpoint position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013203444A
Other languages
Japanese (ja)
Inventor
孝博 松原
Takahiro Matsubara
孝博 松原
河合 直樹
Naoki Kawai
直樹 河合
晃洋 佐々木
Akihiro Sasaki
晃洋 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2013203444A priority Critical patent/JP2015069445A/en
Publication of JP2015069445A publication Critical patent/JP2015069445A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a video output device, etc., capable of automatically outputting a video viewed in a discretionary visual line direction from a view point moving on a previously designed route in a pre-shot space and further capable of non-continuously moving the position of the view point to a designated position when a user designates a prescribed position in the space.SOLUTION: A video output device 1 calculates coordinate values of a point P upon acceptance of designation of the point P on a floor plan 20. The video output device 1 calculates coordinate values of a point R constituting a search candidate on a route, and calculates Euclidean distances d of all points R and the point P. The video output device 1 specifies one point R in which the Euclidean distance d is at minimum, and stores a branch to which the specified point R belongs as a branch of concern. The video output device 1 also converts the coordinate values of the specified point R into a progress ratio within the branch of concern. The video output device 1 cuts out a corresponding visual-field image from an omnidirectional image 90 and displays a user screen 61.

Description

本発明は、空間内を移動するユーザの視点から見た視線に対応する映像を出力するための映像出力装置等に関するものである。   The present invention relates to a video output device or the like for outputting a video corresponding to a line of sight viewed from the viewpoint of a user moving in space.

魚眼レンズや全方位ミラーを装着したカメラを用いて、周囲360°の視界をもつ全方位画像を撮影することができる。近年、予め撮影した全方位画像によって作られた実写空間内を、任意の視線方向を向きながら自由に移動するユーザの視野に応じたパノラマ画像を提供できるパノラマ画像提供サービスが開発されている。   An omnidirectional image having a 360 ° field of view can be taken using a camera equipped with a fisheye lens or an omnidirectional mirror. In recent years, a panoramic image providing service has been developed that can provide a panoramic image according to the field of view of a user that moves freely in an actual shooting space created by omnidirectional images taken in advance while facing an arbitrary line-of-sight direction.

パノラマ画像提供サービスを利用したものとして、例えば、オンライン地図検索サービスがあり、非特許文献1はその一例である。非特許文献1は、ユーザがマップ上のある地点をクリックすると、その地点で撮影されたパノラマ画像を閲覧することができるというサービスを提供するサイトである。また、画面に表示される矢印をクリックすることで、ユーザはパノラマ写真内の先や手前などに視点を動かすことができる。   As an example of using the panoramic image providing service, there is an online map search service, and Non-Patent Document 1 is an example. Non-Patent Document 1 is a site that provides a service that allows a user to view a panoramic image taken at a point when the user clicks on a point on the map. In addition, by clicking an arrow displayed on the screen, the user can move the viewpoint to the front or near side in the panoramic photo.

また、非特許文献2では、撮影されたパノラマ画像を再生時に繋ぎ合せることによって、ユーザが視線方向を自由に変えながら移動しているような映像を閲覧することができる。   Further, in Non-Patent Document 2, it is possible to view an image in which the user is moving while freely changing the line-of-sight direction by joining the captured panoramic images at the time of reproduction.

“GoogleStreet View”、[online]、Google,Inc、[平成25年9月11日検索]、インターネット<http://maps.google.co.jp/intl/ja/help/maps/streetview/ >“GoogleStreet View”, [online], Google, Inc, [September 11, 2013 search], Internet <http://maps.google.co.jp/intl/en/help/maps/streetview/> “Quick Time VRを利用した動画パノラマVR(MotionVR of theMonth 2006 calendar)”、[online]、AppleComputer,Inc、[平成25年9月11日検索]、インターネット <http://www.worldinmotionvr.com/motionvr_month/calendar.html>“Motion VR of the Month 2006 calendar” using Quick Time VR, [online], AppleComputer, Inc, [searched on September 11, 2013], Internet <http://www.worldinmotionvr.com/ motionvr_month / calendar.html>

しかしながら、上述の非特許文献1では、表示される画像は離散的な視点から見た複数の静止画像であり、空間内を移動するユーザに対して、移動に合わせた動画像を出力することはできない。   However, in Non-Patent Document 1 described above, the displayed images are a plurality of still images viewed from a discrete viewpoint, and a moving image that matches the movement is output to a user moving in the space. Can not.

また、上述の非特許文献2では、表示される画像は動画像であるが双方向の移動はできない。また、ユーザが移動できる範囲は予め設定されたルート上のみであり、経路上に分岐が存在しない。   In Non-Patent Document 2 described above, the displayed image is a moving image, but bidirectional movement is not possible. Further, the range in which the user can move is only on a preset route, and there is no branch on the route.

さらに、実写空間の平面図(俯瞰図)であるフロアマップ上の任意の位置が指定された場合に、出力する映像の視点位置をユーザが指定した場所に変更(ジャンプ)したいという要望があった。   Furthermore, when an arbitrary position on the floor map, which is a plan view (overhead view) of the live-action space, is specified, there is a request to change (jump) the viewpoint position of the output video to a location specified by the user. .

本発明は、前述した問題点に鑑みてなされたものであり、その目的とすることは、予め撮影した空間内において、事前に設計したルート上を移動する視点位置から任意の視線方向で見える映像を出力し、さらに、ユーザが空間の平面図であるフロアマップ上の任意の位置を指定した場合に、視点位置を指定された位置に移動することが可能な映像出力装置等を提供することである。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide an image that can be seen in an arbitrary line-of-sight direction from a viewpoint position that moves on a route designed in advance in a space that has been previously photographed. And a video output device that can move the viewpoint position to the designated position when the user designates an arbitrary position on the floor map that is a plan view of the space. is there.

前述した課題を解決するために第1の発明は、座標空間上に配置された経路内を移動する視点位置における視線方向の映像を出力する映像出力装置であって、全方位画像のフレームからなるシーケンスを、前記経路に対応付けて記憶する経路記憶手段と、前記経路をフロアマップとして表示するフロアマップ表示手段と、前記視点位置及び前記視線方向の移動を受付けるとともに、前記フロアマップ上の位置の入力を受付ける入力手段と、前記フロアマップ上の前記位置の入力を受付けた場合に、当該位置に対応する前記座標空間における前記経路内の位置に、前記視点位置を移動させる視点位置移動手段と、前記視点位置及び前記視線方向における視野範囲の映像を、前記全方位画像から切り出して生成する映像生成手段と、生成した前記映像を出力する映像出力手段と、を具備することを特徴とする映像出力装置である。
第1の発明の映像出力装置によれば、予め撮影した空間内において、経路上を自由に移動する視点位置(空間内の位置情報)から任意の視線方向で見える映像を自動で出力することができる。また、経路を表すフロアマップ上の任意の位置がユーザによって指定されると、指定された位置に視点位置を移動して映像出力を再開することができる。
In order to solve the above-described problem, a first invention is a video output device that outputs a video in a line-of-sight direction at a viewpoint position that moves in a path arranged in a coordinate space, and includes a frame of an omnidirectional image. A route storage unit that stores a sequence in association with the route, a floor map display unit that displays the route as a floor map, accepts the movement of the viewpoint position and the line-of-sight direction, and the position on the floor map. An input means for receiving an input; and a viewpoint position moving means for moving the viewpoint position to a position in the route in the coordinate space corresponding to the position when an input of the position on the floor map is received; Video generation means for cutting out and generating a video of a visual field range in the viewpoint position and the line-of-sight direction from the omnidirectional image, and the generated video Is a video output device, characterized by comprising: a video output means for outputting an image, the.
According to the video output device of the first aspect of the present invention, it is possible to automatically output a video that can be seen in an arbitrary line of sight from a viewpoint position (position information in the space) that freely moves on the route in a space previously captured. it can. When an arbitrary position on the floor map representing the route is designated by the user, the viewpoint output can be moved to the designated position and video output can be resumed.

また、前記経路は、ノードと有向なブランチとから構成され、前記全方位画像のフレームからなるシーケンスは、前記有向なブランチごとに対応付けられることが望ましい。
有向なブランチと全方位画像のフレームからなるシーケンスとを関連付ける方法は、経路上の全ての位置情報と全方位画像とを関連付ける方法と比較して、データ構築の作業負荷及びデータ量が小さくなるというメリットがある。さらに、ユーザは有向なブランチ上を移動するため、双方向の移動が容易に可能となる。
ここで、ノードとはブランチの繋ぎ目であり、ブランチとは起点となるノードと終点となるノードとを繋ぐ経路を表す有向グラフの辺である。
In addition, it is preferable that the path includes a node and a directed branch, and a sequence including the omnidirectional image frame is associated with each directed branch.
The method of associating a directed branch with a sequence of frames of omnidirectional images reduces the data construction workload and the amount of data compared to the method of associating all positional information on a route with omnidirectional images. There is a merit. Furthermore, since the user moves on the directed branch, bidirectional movement is easily possible.
Here, a node is a branch connection, and a branch is an edge of a directed graph that represents a path connecting a starting node and an end node.

また、前記フロアマップには、所定の位置を原点とした2次元座標系が設定されており、前記視点位置移動手段は、前記フロアマップ上の前記位置を前記座標空間における位置に変換し、変換した前記位置から最も近い前記経路内の位置に、前記視点位置を移動させることが望ましい。
これにより、ユーザによって指定されたフロアマップ上の位置に近い経路内の位置に視点位置を移動させることができる。
The floor map is set with a two-dimensional coordinate system with a predetermined position as an origin, and the viewpoint position moving means converts the position on the floor map into a position in the coordinate space, and It is desirable to move the viewpoint position to a position in the route that is closest to the position.
Thereby, the viewpoint position can be moved to a position in the route close to the position on the floor map designated by the user.

また、前記視点位置移動手段は、変換した前記位置と、前記経路を構成する前記ブランチに設定した各候補点との距離を算出し、算出した前記距離が最も小さい前記候補点に、前記視点位置を移動させることが望ましい。
これにより、変換した座標空間における位置と、ブランチに設定した候補点との距離を正確に算出できるため、適切な位置に視点位置を移動させることができる。
Further, the viewpoint position moving means calculates a distance between the converted position and each candidate point set in the branch that constitutes the route, and the viewpoint position is calculated to the candidate point with the smallest calculated distance. It is desirable to move.
Thereby, since the distance between the converted position in the coordinate space and the candidate point set in the branch can be accurately calculated, the viewpoint position can be moved to an appropriate position.

また、前記候補点は、前記ブランチを所定数に等分した際に生じる区切り点であることが望ましい。
これにより、候補点を簡便に設定することができる。
The candidate points are preferably break points that are generated when the branch is equally divided into a predetermined number.
Thereby, a candidate point can be set simply.

第2の発明は、座標空間上に配置された経路内を移動する視点位置における視線方向の映像を出力する、全方位画像のフレームからなるシーケンスを、前記経路に対応付けて記憶する経路記憶手段を備えるコンピュータが行う映像出力方法であって、前記経路をフロアマップとして表示するフロアマップ表示ステップと、前記視点位置及び前記視線方向の移動を受付けるとともに、前記フロアマップ上の位置の入力を受付ける入力ステップと、前記フロアマップ上の前記位置の入力を受付けた場合に、当該位置に対応する前記座標空間における前記経路内の位置に、前記視点位置を移動させる視点位置移動ステップと、前記視点位置及び前記視線方向における視野範囲の映像を、前記全方位画像から切り出して生成する映像生成ステップと、生成した前記映像を出力する映像出力ステップと、を含むことを特徴とする映像出力方法である。
第2の発明の映像出力方法によれば、予め撮影した空間内において、経路上を自由に移動する視点位置(空間内の位置情報)から任意の視線方向で見える映像を自動で出力することができる。また、経路を表すフロアマップ上の任意の位置がユーザによって指定されると、指定された位置に視点位置を移動して映像出力を再開することができる。
According to a second aspect of the present invention, there is provided route storage means for storing a sequence composed of frames of omnidirectional images for outputting a video in a sight line direction at a viewpoint position moving in a route arranged in a coordinate space in association with the route. A floor map display step for displaying the route as a floor map, and an input for receiving an input of a position on the floor map and receiving a movement of the viewpoint position and the line-of-sight direction A viewpoint position moving step of moving the viewpoint position to a position in the path in the coordinate space corresponding to the position when the position input on the floor map is accepted, and the viewpoint position and A video generation step of generating a video of a visual field range in the line-of-sight direction by cutting out from the omnidirectional image; and A video output step of outputting the images that form a video output method, which comprises a.
According to the video output method of the second aspect of the invention, it is possible to automatically output a video that can be seen in an arbitrary line of sight from a viewpoint position (position information in the space) that freely moves on the route in a space previously captured. it can. When an arbitrary position on the floor map representing the route is designated by the user, the viewpoint output can be moved to the designated position and video output can be resumed.

第3の発明は、コンピュータを、座標空間上に配置された経路内を移動する視点位置における視線方向の映像を出力する映像出力装置として機能させるためのプログラムであって、前記コンピュータを、全方位画像のフレームからなるシーケンスを、前記経路に対応付けて記憶する経路記憶手段、前記経路をフロアマップとして表示するフロアマップ表示手段、前記視点位置及び前記視線方向の移動を受付けるとともに、前記フロアマップ上の位置の入力を受付ける入力手段、前記フロアマップ上の前記位置の入力を受付けた場合に、当該位置に対応する前記座標空間における前記経路内の位置に、前記視点位置を移動させる視点位置移動手段、前記視点位置及び前記視線方向における視野範囲の映像を、前記全方位画像から切り出して生成する映像生成手段、生成した前記映像を出力する映像出力手段、として機能させるためのプログラムである。
第3の発明に係るプログラムを、汎用コンピュータにインストールすることによって、第1の発明に係る映像出力装置を得て、第2の発明に係る映像出力方法を実行することができる。
A third invention is a program for causing a computer to function as an image output device that outputs an image in a line-of-sight direction at a viewpoint position that moves in a route arranged in a coordinate space, and the computer is configured to be omnidirectional. A route storage unit that stores a sequence of image frames in association with the route, a floor map display unit that displays the route as a floor map, accepts movement of the viewpoint position and the line-of-sight direction, and on the floor map An input means for receiving an input of the position of the eye, and a viewpoint position moving means for moving the viewpoint position to a position in the path in the coordinate space corresponding to the position when the input of the position on the floor map is received. , Generating a video of the visual field range in the viewpoint position and the line-of-sight direction by cutting out from the omnidirectional image That the image generation means is a program for generating the image output means for outputting the image function as a.
By installing the program according to the third invention in a general-purpose computer, the video output device according to the first invention can be obtained and the video output method according to the second invention can be executed.

本発明によれば、予め撮影した空間内において、事前に設計したルート上を移動する視点位置から任意の視線方向で見える映像を出力し、さらに、ユーザが空間の平面図であるフロアマップ上の任意の位置を指定した場合に、視点位置を指定された位置に移動することが可能な映像出力装置等を提供することができる。   According to the present invention, in a pre-captured space, an image that can be seen in an arbitrary line-of-sight direction from a viewpoint position that moves on a route designed in advance is output. It is possible to provide a video output device or the like that can move a viewpoint position to a designated position when an arbitrary position is designated.

本実施形態に係る映像出力装置のハードウエアの構成例を示すブロック図FIG. 2 is a block diagram showing a hardware configuration example of a video output apparatus according to the present embodiment. 視点位置が移動する施設館内の一例を示す平面図Plan view showing an example of a facility building where the viewpoint position moves 映像出力装置の記憶部が保持するデータ構造の一例を示す図The figure which shows an example of the data structure which the memory | storage part of a video output device hold | maintains XY二次元座標上に表した経路上の視点位置の一例を示す図The figure which shows an example of the viewpoint position on the path | route represented on XY two-dimensional coordinate 図4に示す経路を記憶するノード情報とブランチ情報とを示す図The figure which shows the node information and branch information which memorize | store the path | route shown in FIG. 本実施形態に係る映像出力処理の流れを示すフローチャートFlowchart showing the flow of video output processing according to the present embodiment 映像出力処理にて、映像出力装置が一時的に保持するデータの一例を示す図The figure which shows an example of the data which a video output apparatus hold | maintains temporarily by video output processing ユーザ入力画面の一例を示す図The figure which shows an example of a user input screen 視線方向に対応する視野範囲を説明する図The figure explaining the visual field range corresponding to a gaze direction 視点位置に対応する全方位画像から、視線方向に対応する画像を切り出す作業を説明する図The figure explaining the operation | work which cuts out the image corresponding to a gaze direction from the omnidirectional image corresponding to a viewpoint position ジャンプ処理の流れを示すフローチャートFlow chart showing the flow of jump processing ブレンド画像表示処理の流れを示すフローチャートFlow chart showing the flow of blend image display processing 視線方向の移動について説明する図The figure explaining the movement of a gaze direction

以下、図面に基づいて、本発明の実施形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の実施形態に係る映像出力装置1を実現するコンピュータのハードウエア構成図である。コンピュータは、図1に示すように、例えば、制御部11、記憶部12、メディア入出力部13、通信制御部14、入力部15、表示部16、周辺機器I/F部17等が、バス18を介して接続されて構成される。   FIG. 1 is a hardware configuration diagram of a computer that implements a video output apparatus 1 according to an embodiment of the present invention. As shown in FIG. 1, the computer includes a control unit 11, a storage unit 12, a media input / output unit 13, a communication control unit 14, an input unit 15, a display unit 16, a peripheral device I / F unit 17, and the like. 18 is connected.

制御部11は、CPU(Central
Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等により構成される。
CPUは、記憶部12、ROM、記憶媒体等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、バス18を介して接続された各装置を駆動制御し、映像出力装置1が行う後述する処理を実現する。ROMは、不揮発性メモリであり、コンピュータのブートプログラムやBIOS等のプログラム、データ等を恒久的に保持する。RAMは、揮発性メモリであり、ロードしたプログラムや、データ等を一時的に保持すると共に、制御部11が各処理を行うために使用するワークエリアを備える。
The control unit 11 is a CPU (Central
A processing unit (ROM), a read only memory (ROM), a random access memory (RAM), and the like.
The CPU calls and executes a program stored in the storage unit 12, ROM, storage medium, or the like to the work memory area on the RAM, and drives and controls each device connected via the bus 18. The process to be described later is realized. The ROM is a non-volatile memory and permanently holds a computer boot program, a program such as BIOS, data, and the like. The RAM is a volatile memory, and temporarily holds a loaded program, data, and the like, and includes a work area used by the control unit 11 to perform each process.

記憶部12は、HDD(Hard
Disk Drive)等であり、制御部11が実行するプログラムや、プログラム実行に必要なデータ、OS(Operating
System)等が格納されている。これらのプログラムコードは、制御部11により必要に応じて読み出されてRAMに移され、CPUに読み出されて実行される。
The storage unit 12 is an HDD (Hard
Disk drive), the program executed by the control unit 11, data necessary for program execution, OS (Operating)
System) etc. are stored. These program codes are read by the control unit 11 as necessary, transferred to the RAM, and read and executed by the CPU.

メディア入出力部13は、例えば、CDドライブ、DVDドライブ、MOドライブ、フロッピー(登録商標)ディスクドライブ、等のメディア入出力装置であり、画像等のデータの入出力を行う。
通信制御部14は、通信制御装置、通信ポート等を有し、コンピュータとネットワーク間の通信を媒介する通信インターフェースであり、ネットワークを介して、他の装置間との通信制御を行う。
The media input / output unit 13 is a media input / output device such as a CD drive, a DVD drive, an MO drive, and a floppy (registered trademark) disk drive, and inputs / outputs data such as images.
The communication control unit 14 includes a communication control device, a communication port, and the like, and is a communication interface that mediates communication between a computer and a network, and performs communication control between other devices via the network.

入力部15は、データ入力を行い、例えば、上下左右に動くレバーやボタンを備えたコントローラ、キーボード、マウスなどのポインティングデバイス、テンキーなどの入力装置を有する。入力されたデータを制御部11へ出力する。
表示部16は、例えば、CRTモニタ、液晶パネル等のディスプレイ装置と、ディスプレイ装置と連携して表示処理を実行するための論理回路(ビデオアダプタ等)で構成され、制御部11の制御により入力された表示情報をディスプレイ装置上に表示させる。
尚、入力部15と表示部16は、それらの機能が一体化した、例えば、タッチパネル付ディスプレイであっても良い。
The input unit 15 performs data input and includes, for example, a controller having a lever or button that moves up and down, left and right, a keyboard, a pointing device such as a mouse, and an input device such as a numeric keypad. The input data is output to the control unit 11.
The display unit 16 includes, for example, a display device such as a CRT monitor or a liquid crystal panel, and a logic circuit (a video adapter or the like) for executing display processing in cooperation with the display device, and is input under the control of the control unit 11. The displayed display information is displayed on the display device.
The input unit 15 and the display unit 16 may be, for example, a display with a touch panel in which those functions are integrated.

周辺機器I/F部(インターフェース)17は、コンピュータに周辺機器を接続させるためのポートであり、周辺機器I/F部17を介してコンピュータは周辺機器とのデータの送受信を行う。周辺機器I/F部17は、USBやIEEE1394やRS−232C等で構成されており、通常複数の周辺機器I/Fを有する。周辺機器との接続形態は、有線、無線を問わない。
バス18は、各装置間の制御信号、データ信号等の授受を媒介する経路である。
The peripheral device I / F unit (interface) 17 is a port for connecting a peripheral device to the computer, and the computer transmits and receives data to and from the peripheral device via the peripheral device I / F unit 17. The peripheral device I / F unit 17 is configured by USB, IEEE 1394, RS-232C, or the like, and usually includes a plurality of peripheral devices I / F. The connection form with the peripheral device may be wired or wireless.
The bus 18 is a path that mediates transmission / reception of control signals, data signals, and the like between the devices.

図2は、本実施形態に係る視点位置が移動する施設館内の一例を示す平面図である。本実施形態に係る映像出力装置1は、所定の経路に沿って連続的に移動する視点位置から見た任意の視線方向に対応する画像を表示する機能を有する装置である。本実施形態に係る視点位置が移動する経路は、例えば、会社のフロアや、美術館などの施設等の空間内にある。経路上の映像を撮影できる空間であれば、屋外であっても良い。本実施形態では、図2に示される間取り図20を有した施設の館内を、ユーザに提示する例について説明する。なお、本発明におけるフロアマップとは間取り図20のことである。   FIG. 2 is a plan view showing an example of a facility hall where the viewpoint position moves according to the present embodiment. The video output device 1 according to the present embodiment is a device having a function of displaying an image corresponding to an arbitrary line-of-sight direction viewed from a viewpoint position that continuously moves along a predetermined route. The route along which the viewpoint position moves according to the present embodiment is, for example, in a space such as a company floor or a facility such as a museum. It may be outdoors as long as it can capture a video on the route. In the present embodiment, an example will be described in which a facility in the facility having the floor plan 20 shown in FIG. 2 is presented to the user. The floor map in the present invention is a floor plan 20.

映像出力装置1は、予め経路に沿って撮影された映像を構成するフレーム画像から、ユーザが入力する視点位置と視線方向に基づいて視野画像を切り出して、動画像として出力する。ユーザに視点位置と視線方向を自由に移動させながら館内の映像を提示することで、実際に歩き回って見学しているような体験をさせることが可能となる。   The video output device 1 cuts out a visual field image based on a viewpoint position and a line-of-sight direction input by a user from a frame image that constitutes a video imaged in advance along a route, and outputs it as a moving image. By presenting the video in the hall while freely moving the viewpoint position and the line-of-sight direction, the user can have an experience of walking around and seeing.

また、映像出力装置1は、ユーザに間取り図20を提示し、映像を出力する操作の途中で、間取り図20上の点をユーザによって指定(例えば、クリック操作)させることで、指定された点に最も近い地点に視点位置を非連続的に移動させる(ジャンプさせる)機能を備えるものである。   In addition, the video output device 1 presents the floor plan 20 to the user and designates a point on the floor plan 20 by the user (for example, a click operation) in the middle of the operation of outputting the video, thereby specifying the specified point. It is provided with a function to discontinuously move (jump) the viewpoint position to a point closest to.

図2に示されるように、間取り図20内の経路は、ノード21とブランチ22によって構成される。ノード21とは経路の繋ぎ目であり、ブランチ22とは起点となるノード21(以下、起点ノード21aと表記)と終点となるノード21(以下、終点ノード21bと表記)とを接続する単位経路である。図2に示す例では、7個のノードN1〜N7と、6本のブランチB1〜B6とが定義されている。   As shown in FIG. 2, the route in the floor plan 20 is composed of a node 21 and a branch 22. The node 21 is a path joint, and the branch 22 is a unit path that connects a node 21 (hereinafter referred to as a start node 21a) as a starting point and a node 21 (hereinafter referred to as an end point node 21b) as an end point. It is. In the example shown in FIG. 2, seven nodes N1 to N7 and six branches B1 to B6 are defined.

図示されるように各ブランチ22は直線で表現され、各ブランチ22の矢印の向きは、矢印の起点が起点ノード21aであり、矢印の終点が終点ノード21bであることを示す。即ち、起点ノード21aと終点ノード21bが特定されると、当該ブランチ22が特定されることとなる。ブランチ22の向きは、記憶部12に記憶される全方位画像を生成する際に、施設内を経路に沿って撮影した時の進行方向に一致する。   As shown in the drawing, each branch 22 is represented by a straight line, and the direction of the arrow of each branch 22 indicates that the starting point of the arrow is the starting node 21a and the ending point of the arrow is the ending node 21b. That is, when the start node 21a and the end node 21b are specified, the branch 22 is specified. The direction of the branch 22 coincides with the traveling direction when the inside of the facility is photographed along the route when the omnidirectional image stored in the storage unit 12 is generated.

経路上のどの位置にノード21を定義するかは、この装置の設計者の判断に委ねられるが、一般的には、経路上の端点(行き止まり)、曲り角、経路の分岐点にノード21を定義する。図2に示す例では、N3、N4、N5、N7は経路上の端点を示すノード21であり、N6は経路上の曲り角を示すノード21であり、N1、N2は経路上の分岐点を示すノード21である。   It is up to the designer of the device to define the position of the node 21 on the route, but in general, the node 21 is defined at an end point (dead end), a corner, or a branch point on the route. To do. In the example shown in FIG. 2, N3, N4, N5, and N7 are nodes 21 that indicate end points on the route, N6 is a node 21 that indicates a corner on the route, and N1 and N2 indicate branch points on the route. Node 21.

図3は、映像出力装置1の記憶部12に記憶されるデータ構造の一例について説明する図である。映像出力装置1の記憶部12には、(a)ノード情報25と、(b)ブランチ情報26と、(c)映像情報27と、(d)各種パラメータ28と、切り出された画像を映像として出力するためのアプリケーション(図示せず)が、予め記憶される。   FIG. 3 is a diagram illustrating an example of a data structure stored in the storage unit 12 of the video output device 1. The storage unit 12 of the video output device 1 stores (a) node information 25, (b) branch information 26, (c) video information 27, (d) various parameters 28, and the cut out image as video. An application (not shown) for output is stored in advance.

(a)に示すノード情報25とは、視点位置が移動可能な経路上に存在する複数の各ノード21に関する情報であり、「ノードID」、「位置情報X」、「位置情報Y」、「属性」を格納する。   The node information 25 shown in (a) is information related to each of the plurality of nodes 21 existing on the path where the viewpoint position can move, and “node ID”, “position information X”, “position information Y”, “ Stores attribute.

「位置情報X」及び「位置情報Y」とは、ノード21の位置情報であり、ノード21をXY二次元座標上に表した際の「X座標値」と「Y座標値」をそれぞれ格納する。XY二次元座標とは、間取り図20上に表示されているノードを、映像出力装置1が内部で管理する座標(座標系)である。ノード21間の距離は、座標を距離単位に変換することで、実寸値で算出することができる。   “Position information X” and “Position information Y” are position information of the node 21 and store “X coordinate value” and “Y coordinate value” when the node 21 is represented on XY two-dimensional coordinates, respectively. . The XY two-dimensional coordinates are coordinates (coordinate system) in which the video output apparatus 1 manages the nodes displayed on the floor plan 20. The distance between the nodes 21 can be calculated as an actual size value by converting the coordinates into distance units.

「属性」とは、ノード21の経路上の特徴を表す次数であり、各ノード21から派生するブランチ22の本数を示す値である。例えば、ノード21が経路上の端点(行き止まり)にあれば「1」を格納し、ノード21が経路上の曲り角にあれば「2」を格納し、ノード21が経路上の三叉路にあれば「3」を格納し、ノード21が経路上の十字路にあれば「4」を格納する。   The “attribute” is an order that represents the feature of the node 21 on the route, and is a value that indicates the number of branches 22 derived from each node 21. For example, “1” is stored if the node 21 is at an end point (dead end) on the route, “2” is stored if the node 21 is at a corner on the route, and “3” is stored if the node 21 is on a three-way on the route. 3 ”is stored, and“ 4 ”is stored if the node 21 is on a crossroad on the route.

(b)に示すブランチ情報26とは、起点ノード21aと終点ノード21bとを繋ぐ複数の各ブランチ22に関する情報であり、「ブランチID」、「起点ノード」、「終点ノード」、「映像ID」を格納する。   The branch information 26 shown in (b) is information relating to each of the plurality of branches 22 connecting the start node 21a and the end node 21b, and includes “branch ID”, “start node”, “end node”, and “video ID”. Is stored.

「起点ノード」には、ブランチ22の端点のうち撮影開始側のノードIDを格納し、「終点ノード」には、ブランチ22の端点のうち撮影終了側のノードIDを格納する。起点ノード21aから終点ノード21bに向かう方向を、ブランチ22の向きと定義する。「映像ID」には、ブランチ22に対応する映像IDを格納する。   The “starting node” stores the node ID on the shooting start side among the end points of the branch 22, and the “end point node” stores the node ID on the shooting end side among the end points of the branch 22. The direction from the start node 21a to the end node 21b is defined as the direction of the branch 22. In “Video ID”, the video ID corresponding to the branch 22 is stored.

(c)に示す映像情報27とは、各ブランチ22上を撮影した全方位画像に関する情報であり、「映像ID」と、「画像データ」と、「フレーム数」を格納する。   The video information 27 shown in (c) is information relating to an omnidirectional image taken on each branch 22, and stores “video ID”, “image data”, and “number of frames”.

「画像データ」には、全方位映像シーケンスが格納される。全方位画像シーケンスとは、全方位映像を構成する全方位画像を1フレームとした、連続した複数フレームからなる画像データ群である。全方位映像とは、ブランチ22に沿って一定速度で移動しながら、全方位カメラを用いて撮影した映像である。一定速度で移動しながら撮影されるため、ブランチ22上に定義された個々の地点について、それぞれの全方位画像フレームが対応付けられる。「フレーム数」には、全方位画像シーケンスを構成するフレーム数の値が格納される。   The “image data” stores an omnidirectional video sequence. The omnidirectional image sequence is a group of image data composed of a plurality of continuous frames in which an omnidirectional image constituting an omnidirectional video is one frame. An omnidirectional video is a video taken using an omnidirectional camera while moving at a constant speed along the branch 22. Since shooting is performed while moving at a constant speed, each omnidirectional image frame is associated with each point defined on the branch 22. The “number of frames” stores the value of the number of frames constituting the omnidirectional image sequence.

(d)に示す各種パラメータ情報28とは、全方位画像からユーザの視線方向に対応する視野範囲のパノラマ画像を切り出すために使用する「切出角度」等を格納する。詳細は後述する。   The various parameter information 28 shown in (d) stores “cut-out angle” and the like used to cut out a panoramic image in the visual field range corresponding to the user's line-of-sight direction from the omnidirectional image. Details will be described later.

図4は、XY二次元座標上に表した経路上の視点位置52の一例を示す図である。各ノードN1〜N4の符号に括弧書きで示した一対の座標は、当該ノードのX座標値とY座標値である。図示されるように、ブランチB1の向きはX軸の向きに一致し、X軸に対してブランチB2がなす角度は反時計回りに60°であり、X軸に対してブランチB3がなす角度は時計回りに60°である。   FIG. 4 is a diagram illustrating an example of the viewpoint position 52 on the route represented on the XY two-dimensional coordinates. A pair of coordinates indicated by parentheses in the symbols of the nodes N1 to N4 are the X coordinate value and the Y coordinate value of the node. As shown in the figure, the direction of the branch B1 coincides with the direction of the X axis, the angle formed by the branch B2 with respect to the X axis is 60 ° counterclockwise, and the angle formed by the branch B3 with respect to the X axis is It is 60 ° clockwise.

ここで、ブランチ角度とは、図示されるXY座標系のX軸とブランチ22の向きとがなす角度であり、反時計回りを正方向とする。ブランチ角度は、ブランチ22の始点ノード21aの位置座標と終点ノード22bの位置座標とによって算出することができる。図4に示す例では、ブランチB1のブランチ角度は0°であり、ブランチB2のブランチ角度は60°であり、ブランチB3のブランチ角度は300°(−60°)である。   Here, the branch angle is an angle formed by the X axis of the illustrated XY coordinate system and the direction of the branch 22, and a counterclockwise direction is a positive direction. The branch angle can be calculated from the position coordinates of the start point node 21a and the position coordinates of the end point node 22b of the branch 22. In the example shown in FIG. 4, the branch angle of the branch B1 is 0 °, the branch angle of the branch B2 is 60 °, and the branch angle of the branch B3 is 300 ° (−60 °).

図4に、ブランチB1上に視点位置52と視線方向54の一例を示す。視線角度θ55とは、X軸と視線方向54とがなす角度(水平角)であり、反時計回りを正方向とする。この場合、映像出力装置1の表示部16には、視点位置52から視線方向54に見える視野範囲の画像を配置したユーザ入力画面61(図8参照)が表示されることとなる。 FIG. 4 shows an example of the viewpoint position 52 and the line-of-sight direction 54 on the branch B1. The line-of-sight angle θ L 55 is an angle (horizontal angle) formed by the X-axis and the line-of-sight direction 54, and a counterclockwise direction is a positive direction. In this case, the display unit 16 of the video output device 1 displays a user input screen 61 (see FIG. 8) in which an image in a visual field range that is visible from the viewpoint position 52 in the line-of-sight direction 54 is arranged.

図5は、図4に示す経路を記憶するノード情報25aとブランチ情報26aとを示す図である。
図5(a)に示すように、ノードN1の位置座標Xにはx1格納され、位置座標Yにはy1が格納され、属性にはノードN1から派生するブランチ22の本数である3が格納される。ノードN2の位置座標Xにはx2格納され、位置座標Yにはy1が格納され、属性にはノードN2から派生するブランチ22の本数である3が格納される。ノードN3の位置座標Xにはx3格納され、位置座標Yにはy3が格納され、属性にはノードN3から派生するブランチ22の本数である1が格納される。ノードN4の位置座標Xにはx4格納され、位置座標Yにはy4が格納され、属性にはノードN4から派生するブランチ22の本数である1が格納される。
FIG. 5 is a diagram showing node information 25a and branch information 26a for storing the route shown in FIG.
As shown in FIG. 5A, x1 is stored in the position coordinate X of the node N1, y1 is stored in the position coordinate Y, and 3 which is the number of branches 22 derived from the node N1 is stored in the attribute. The X2 is stored in the position coordinate X of the node N2, y1 is stored in the position coordinate Y, and 3 which is the number of branches 22 derived from the node N2 is stored in the attribute. X3 is stored in the position coordinate X of the node N3, y3 is stored in the position coordinate Y, and 1 which is the number of branches 22 derived from the node N3 is stored in the attribute. X4 is stored in the position coordinate X of the node N4, y4 is stored in the position coordinate Y, and 1 which is the number of branches 22 derived from the node N4 is stored in the attribute.

図5(b)に示すように、ブランチB1の映像IDにはブランチB1に対応する映像IDが格納され、起点ノードにはN1が格納され、終点ノードにはN2が格納される。ブランチB2の映像IDにはブランチB2に対応する映像IDが格納され、起点ノードにはN2が格納され、終点ノードにはN3が格納される。ブランチB3の映像IDにはブランチB3に対応する映像IDが格納され、起点ノードにはN2が格納され、終点ノードにはN4が格納される。   As shown in FIG. 5B, the video ID corresponding to the branch B1 is stored in the video ID of the branch B1, N1 is stored in the start node, and N2 is stored in the end node. The video ID corresponding to the branch B2 is stored in the video ID of the branch B2, N2 is stored in the start node, and N3 is stored in the end node. A video ID corresponding to the branch B3 is stored in the video ID of the branch B3, N2 is stored in the start node, and N4 is stored in the end node.

(映像出力処理)
続いて、図6〜図13を参照して、本実施形態に係る映像出力処理について説明する。
図6に示す映像出力処理とは、視点位置52及び視線方向54の連続的な移動の入力を受付け、ユーザの視野範囲の映像を出力する処理であり、ステップS103にて実行するジャンプ処理(図11参照)が本発明の特徴的な処理である。
(Video output processing)
Subsequently, a video output process according to the present embodiment will be described with reference to FIGS.
The video output process shown in FIG. 6 is a process of receiving an input of continuous movement in the viewpoint position 52 and the line-of-sight direction 54 and outputting an image of the user's visual field range. The jump process (FIG. 6) executed in step S103. 11) is a characteristic process of the present invention.

図7は映像出力処理にて、映像出力装置1が一時的に保持する保持データ60の一例を示す図である。保持データ60は、映像出力装置1の記憶部12に記憶せず、制御部11のRAMに記憶させるのみでもよい。   FIG. 7 is a diagram illustrating an example of retained data 60 that is temporarily retained by the image output apparatus 1 in the image output process. The retained data 60 may be stored in the RAM of the control unit 11 instead of being stored in the storage unit 12 of the video output device 1.

「対象ブランチのブランチID」とは、視点位置52が位置するブランチ22(以下、対象ブランチ22aと表記)のブランチIDである。対象ブランチのブランチIDは、視点位置52が次のブランチ22に移行した場合のみ更新される。「進行率P」とは、対象ブランチ22a内部での視点位置52の相対的な位置を特定する値である。
すなわち、視点位置52は、「対象ブランチのブランチID」と、当該対象ブランチ22aの「進行率P」とにより特定される。
The “branch ID of the target branch” is the branch ID of the branch 22 where the viewpoint position 52 is located (hereinafter referred to as the target branch 22a). The branch ID of the target branch is updated only when the viewpoint position 52 moves to the next branch 22. “Progress rate P” is a value that identifies the relative position of the viewpoint position 52 within the target branch 22a.
That is, the viewpoint position 52 is specified by the “branch ID of the target branch” and the “progress rate P” of the target branch 22a.

「視線角度θ」とは、視線方向54が基準軸(X軸)となす角度(水平角)であり、反時計回りを正方向とする。保持データ60は、さらに「視線高さ」を記憶しても良い。「視線高さ」とは、視線方向54が基準面(XY平面)となす角度(垂直角)である。
すなわち、視線方向54は、「視線角度θ」と、必要であれば「視線高さ」とにより特定される。
「進行率P」と「視線角度θ」(及び「視線高さ」)は、映像出力処理が実行される毎に更新される値である。
The “line-of-sight angle θ L ” is an angle (horizontal angle) that the line-of-sight direction 54 makes with the reference axis (X axis), and a counterclockwise direction is a positive direction. The holding data 60 may further store “line-of-sight height”. The “line-of-sight height” is an angle (vertical angle) between the line-of-sight direction 54 and the reference plane (XY plane).
That is, the line-of-sight direction 54 is specified by “line-of-sight angle θ L ” and “line-of-sight height” if necessary.
“Progress rate P” and “line-of-sight angle θ L ” (and “line-of-sight height”) are values that are updated each time the video output process is executed.

「移動先ブランチのブランチID」と「視線角度の変化度合r」と「ブレンド比率の変化度合r1」と「ブレンド比率α」は、ステップS110にて実行するブレンド画像表示処理(図12参照)にて使用するものである。「視線角度の変化度合r」は、予め記憶されている固定値であり、例えば「1°」である。「移動先ブランチのブランチID」と「ブレンド比率の変化度合r1」は、ブレンド画像表示処理が実行される毎に記憶される。「ブレンド比率α」は、ブレンド画像表示処理のステップS305〜ステップS311が実行される毎に更新される値である。詳細は後述する。 The “branch ID of the destination branch”, “degree of change in line-of-sight angle r”, “degree of change in blend ratio r 1 ”, and “blend ratio α” are blend image display processing executed in step S110 (see FIG. 12). It is used in. The “gaze angle change degree r” is a fixed value stored in advance, for example, “1 °”. The “branch ID of the destination branch” and the “degree of blend ratio change r 1 ” are stored each time the blend image display process is executed. “Blend ratio α” is a value that is updated each time Steps S305 to S311 of the blend image display process are executed. Details will be described later.

図6は、本実施形態に係る映像出力処理の流れを示すフローチャートである。
映像出力装置1の制御部11は、ユーザ入力画面61を表示部16に表示する(ステップS101)。
FIG. 6 is a flowchart showing the flow of the video output process according to the present embodiment.
The control unit 11 of the video output device 1 displays the user input screen 61 on the display unit 16 (step S101).

図8は、ユーザ入力画面61の一例を説明する図である。ユーザ入力画面61には、視野画像領域62と、経路表示領域63と、入力受付領域74とが表示される。視野画像領域62には、ステップS112または、ステップS207、ステップS310にて表示される画像が配置される。   FIG. 8 is a diagram for explaining an example of the user input screen 61. On the user input screen 61, a visual field image area 62, a route display area 63, and an input reception area 74 are displayed. In the visual field image area 62, the image displayed in step S112 or in steps S207 and S310 is arranged.

経路表示領域63には、施設館内の間取り図20と、視点位置52が移動可能な経路と、現在の視点位置52と視線方向54を表現する視線方向指標54eが表示される。図示される例では、視点位置52として二重円が描かれ、視線方向指標54eとして扇形が描かれる。   In the route display area 63, a floor plan 20 in the facility, a route in which the viewpoint position 52 is movable, and a line-of-sight direction indicator 54e representing the current viewpoint position 52 and the line-of-sight direction 54 are displayed. In the illustrated example, a double circle is drawn as the viewpoint position 52, and a sector is drawn as the line-of-sight direction indicator 54e.

ユーザは、経路表示領域63に表示される間取り図20の任意の位置を、例えばクリック操作することによって指定することができる。   The user can specify an arbitrary position of the floor plan 20 displayed in the route display area 63 by clicking, for example.

ユーザは、視野画像領域62に表示される視野画像と、経路表示領域63に表示される経路上の視点位置52と視線方向指標54eに基づいて、入力受付領域74から視点位置52の移動に関する指示と、視線方向54の移動に関する指示とを入力する。   Based on the visual field image displayed in the visual field image region 62, the viewpoint position 52 on the route displayed in the route display region 63, and the line-of-sight direction indicator 54e, the user instructs to move the viewpoint position 52 from the input reception region 74. And an instruction regarding movement in the line-of-sight direction 54 are input.

入力受付領域74には、視点位置52を移動させる場合や、視線方向54を移動させる場合や、各種変更操作(例えば、移動速度の変更、視野画像領域62に表示される視野画像の視野角の変更など)等を行う場合に、ユーザによって押下されるキーボード(図示せず)のキートップに印字される記号が表示される。入力受付領域74に表示される各種ボタンの機能は、キーボード(図示せず)のいずれかのキーに割り付けられる。   In the input reception area 74, when the viewpoint position 52 is moved, when the line-of-sight direction 54 is moved, various change operations (for example, changing the moving speed, the viewing angle of the visual field image displayed in the visual field image area 62). When a change or the like is performed, a symbol printed on a key top of a keyboard (not shown) pressed by the user is displayed. The functions of various buttons displayed in the input reception area 74 are assigned to any key of a keyboard (not shown).

ここで、前進ボタン75aと後退ボタン75bとは、視点位置52の移動を入力させる操作に利用され、前進ボタン75aが押されている間、視点位置52が経路上の所定の進行方向に所定速度で移動するように進行率Pを増加または減少させる。また、後退ボタン75bが押されている間、視点位置52が経路上の所定の進行方向に所定速度で移動するように進行率Pを増加または減少させる。ここで、所定速度とは、例えば、ユーザが歩く速度にふさわしい速度などである。所定速度は、予め記憶部12に記憶されているものであり、ユーザの指示により変更することも可能である。   Here, the forward button 75a and the backward button 75b are used for an operation for inputting the movement of the viewpoint position 52, and while the forward button 75a is pressed, the viewpoint position 52 moves in a predetermined traveling direction on the route at a predetermined speed. The progress rate P is increased or decreased so as to move at Further, while the backward button 75b is being pressed, the progress rate P is increased or decreased so that the viewpoint position 52 moves at a predetermined speed in a predetermined traveling direction on the route. Here, the predetermined speed is, for example, a speed suitable for the speed at which the user walks. The predetermined speed is stored in the storage unit 12 in advance, and can be changed according to a user instruction.

別の方法として、前進ボタン75aと後退ボタン75bは、視点位置52が移動する経路上の進行方向を反転させるためにのみ用いられ、視点位置52は所定の進行方向に所定速度で常に移動するように設定しても良い。この場合、停止ボタン75cが押下されることで、視点位置52の移動は停止する。   As another method, the forward button 75a and the backward button 75b are used only to reverse the traveling direction on the path along which the viewpoint position 52 moves, and the viewpoint position 52 always moves at a predetermined speed in a predetermined traveling direction. It may be set to. In this case, when the stop button 75c is pressed, the movement of the viewpoint position 52 is stopped.

一方、右向きボタン76bと左向きボタン76dは、視線方向54の移動を入力させる操作に利用され、右向きボタン76bが押されている間、視線方向54が所定の速度で進行方向に対して右向きに移動するように視線角度θを減少させる。また、左向きボタン76dが押されている間、視線方向54が所定の速度で進行方向に対して左向きに移動するように後述する視線角度θを増加させる。上向きボタン76aと下向きボタン76cは、視線高さを変更させる場合に押下される。 On the other hand, the right-pointing button 76b and the left-pointing button 76d are used for inputting the movement of the line-of-sight direction 54, and the line-of-sight direction 54 moves rightward with respect to the traveling direction at a predetermined speed while the right-pointing button 76b is pressed. reducing the viewing angle theta L to. Further, while the left button 76d is pressed, the line-of-sight direction 54 increases the viewing angle theta L to be described later to move to the left with respect to the traveling direction at a predetermined speed. The upward button 76a and the downward button 76c are pressed when changing the line-of-sight height.

変更操作ボタン77には、例えば、移動速度の変更、視野画像領域62に表示される視野画像の視野角の変更などの機能が割り当てられる。上記変更を行う際に、変更操作ボタン77に対応するキーボード(図示せず)のキーがユーザによって押下される。   For example, functions such as changing the moving speed and changing the viewing angle of the visual field image displayed in the visual field image area 62 are assigned to the change operation button 77. When making the change, a key on a keyboard (not shown) corresponding to the change operation button 77 is pressed by the user.

図6の説明に戻る。映像出力装置1の制御部11は、ユーザ入力画面61の経路表示領域63を介して、間取り図20上の点(以下、点Pと表記)の入力を受付けたか否かを判定する(ステップS102)。点Pの入力を受付けた場合には(ステップS102のYES)、映像出力装置1の制御部11は、後述するジャンプ処理を実行し(ステップS103)、ステップS104に進む。   Returning to the description of FIG. The control unit 11 of the video output device 1 determines whether or not an input of a point on the floor plan 20 (hereinafter referred to as a point P) is received via the route display area 63 of the user input screen 61 (step S102). ). When the input of the point P is accepted (YES in step S102), the control unit 11 of the video output device 1 executes a jump process described later (step S103), and proceeds to step S104.

点Pの入力を受付けていない場合には(ステップS102のNO)、映像出力装置1の制御部11は、ユーザ入力画面61の入力受付領域74を介して、視点位置52の移動と視線方向54の移動の入力を受付ける(ステップS104)。続いて、映像出力装置1の制御部11は、視線角度θを算出する(ステップS105)。 When the input of the point P is not received (NO in step S102), the control unit 11 of the video output device 1 moves the viewpoint position 52 and the line-of-sight direction 54 via the input reception area 74 of the user input screen 61. The movement input is accepted (step S104). Subsequently, the control unit 11 of the video output device 1 calculates the line of sight angle theta L (step S105).

映像出力装置1は、ステップS104にて受け付けた視線方向54の移動量を算出して視線角度θを更新し、記憶部12に記憶させる。具体的には、ユーザによって右向きボタン76b(図8参照)が押下され、視線方向54の右方向への移動が指示された場合には、映像出力装置1は視線角度θを所定量減少させ、左向きボタン76d(図8参照)が押下され、視線方向54の左方向への移動が指示された場合には、映像出力装置1は視線角度θを所定量増加させて、視線角度θを更新して、記憶する。 Video output device 1 updates the line-of-sight angle theta L by calculating the moving distance of the line of sight direction 54 received in Step S104, in the storage unit 12. Specifically, right button 76 b (see FIG. 8) is pressed by the user, when the rightward movement of the viewing direction 54 is instructed, the video output apparatus 1 reduces a predetermined amount gaze angle theta L , left button 76d (see FIG. 8) is pressed, when the leftward movement of the viewing direction 54 is instructed, the video output device 1 is increased a predetermined amount viewing angle theta L, viewing angle theta L Update and memorize.

続いて、映像出力装置1の制御部11は、ステップS105にて算出された視線角度θに基づいて、視点位置52の進行方向を特定する(ステップS106)。「対象ブランチ22aのブランチID」は、保持データ60に予め記憶されているものとする。 Subsequently, the control unit 11 of the image output device 1, based on the line-of-sight angle theta L calculated in step S105, identifies the traveling direction of the viewpoint position 52 (step S106). It is assumed that the “branch ID of the target branch 22a” is stored in advance in the retained data 60.

進行方向と特定する方法として、例えば、映像出力装置1は、ブランチ情報26とノード情報25から、対象ブランチ22aの起点ノード21aと終点ノード21bの位置情報を検索し、対象ブランチ22aのブランチ角度θを算出する。視線角度θがθ−90°<θ≦θ+90°の範囲内にあれば、進行方向は対象ブランチ22aの向きに一致し、範囲外であれば、進行方向は対象ブランチ22aの逆向きに一致する。 As a method for identifying the traveling direction, for example, the video output device 1 searches the branch information 26 and the node information 25 for the position information of the start node 21a and the end node 21b of the target branch 22a, and the branch angle θ of the target branch 22a. b is calculated. If the line-of-sight angle θ L is within the range of θ b −90 ° <θ L ≦ θ b + 90 °, the traveling direction matches the direction of the target branch 22a. Matches backwards.

映像出力装置1の制御部11は、対象ブランチ22a上の視点位置52の進行率Pを算出する(ステップS107)。   The control unit 11 of the video output device 1 calculates the progress rate P of the viewpoint position 52 on the target branch 22a (step S107).

映像出力装置1の制御部11は、ステップS104にて受け付けた視点位置52の移動量を算出して、視点位置52の進行方向が対象ブランチ22aの正方向であれば、既存の進行率と算出された移動量との和を新しい進行率として、記憶部12に記憶させる。また、視点位置52の進行方向が対象ブランチ22aの負方向であれば、既存の進行率から算出された移動量を引いた値を新しい進行率として、記憶部12に記憶させる。   The control unit 11 of the video output device 1 calculates the movement amount of the viewpoint position 52 received in step S104, and calculates the existing progress rate if the traveling direction of the viewpoint position 52 is the positive direction of the target branch 22a. The storage unit 12 stores the sum of the amount of movement and the amount of movement as a new progress rate. Further, if the traveling direction of the viewpoint position 52 is the negative direction of the target branch 22a, the value obtained by subtracting the calculated movement amount from the existing traveling rate is stored in the storage unit 12 as a new traveling rate.

算出された進行率が「0」未満の値となった場合は、進行率は「0」とし、算出された進行率が「1」を超える値となった場合には、進行率は「1」とする。   When the calculated progress rate is less than “0”, the progress rate is “0”, and when the calculated progress rate exceeds “1”, the progress rate is “1”. "

映像出力装置1の制御部11は、視点位置52が対象ブランチ22aの端点に位置するか否かを判断する(ステップS108)。具体的には、保持データ60に記憶される進行率が、「0」または「1」であるか否かを判定する。   The control unit 11 of the video output device 1 determines whether or not the viewpoint position 52 is located at the end point of the target branch 22a (step S108). Specifically, it is determined whether or not the progress rate stored in the retained data 60 is “0” or “1”.

端点にない場合には(ステップS108のNO)、映像出力装置1の制御部11は、ブランチ情報26から、対象ブランチ22aの映像IDを検索し、映像情報27から検索された映像IDのフレーム数を検索し、フレーム数と進行率Pを掛け合わせて、対象フレームを特定する。対象フレームの全方位画像から、視線方向54及び視線高さに対応する画像を切り出して視野画像を生成する(ステップS111)。   If it is not at the end point (NO in step S108), the control unit 11 of the video output apparatus 1 searches the branch information 26 for the video ID of the target branch 22a, and the number of frames of the video ID searched from the video information 27. And the target frame is specified by multiplying the number of frames by the progress rate P. A field-of-view image is generated by cutting out an image corresponding to the line-of-sight direction 54 and the line-of-sight height from the omnidirectional image of the target frame (step S111).

図9は、視線方向54に対する視野範囲を説明する図である。映像出力装置1は、各種パラメータ28に格納される切出角度をΔとすると、特定された対象フレームの全方位画像90から、視野角「視線角度(視線高さ)−Δ/2」〜「視線角度(視線高さ)+Δ/2」の視野範囲の画像を切り出して生成する。ユーザには視点位置52から視線方向54を中心に図示されるような視野角54eの画像が提示されることとなる。   FIG. 9 is a diagram for explaining the visual field range with respect to the line-of-sight direction 54. The video output device 1 sets the viewing angle “line-of-sight angle (line-of-sight height) −Δ / 2” to “line-of-sight angle” from the omnidirectional image 90 of the specified target frame, where Δ is the cut-out angle stored in the various parameters 28. An image in the visual field range of “line-of-sight angle (line-of-sight height) + Δ / 2” is cut out and generated. The user is presented with an image with a viewing angle 54e as shown in the drawing centered on the viewing direction 54 from the viewpoint position 52.

図10は、特定された対象フレームの全方位画像90から、視線方向に対応する画像91を切り出す作業を説明する図である。図示される例では、視線角度θが90°で、Δが90°の画像91を示す。 FIG. 10 is a diagram illustrating an operation of cutting out an image 91 corresponding to the line-of-sight direction from the omnidirectional image 90 of the specified target frame. In the illustrated example, in viewing angle theta L is 90 °, delta represents an image 91 of 90 °.

図6の説明に戻る。端点にある場合には(ステップS108のYES)、映像出力装置1の制御部11は、端点が分岐点又は曲り角であるか否かを判断する(ステップS109)。具体的には、映像出力装置1は、ノード情報25から、進行率が「0」である場合には対象ブランチ22aの起点ノード21aの属性を検索し、進行率が「1」である場合には対象ブランチ22aの終点ノード21bの属性を検索し、検索された属性が「2」以上であるか否かを判断する。   Returning to the description of FIG. If it is at the end point (YES in step S108), the control unit 11 of the video output device 1 determines whether the end point is a branch point or a corner (step S109). Specifically, the video output device 1 searches the node information 25 for the attribute of the starting node 21a of the target branch 22a when the progress rate is “0”, and when the progress rate is “1”. Retrieves the attribute of the end node 21b of the target branch 22a, and determines whether or not the retrieved attribute is “2” or more.

分岐点又は曲り角に有る場合には(ステップS109のYES)、映像出力装置1の制御部11は、後述するブレンド画像表示処理を実行して(ステップS110)、ステップS102に戻る。分岐点又は曲り角にない場合には(ステップS109のNO)、映像出力装置1の制御部11は、ステップS111に進む。   If it is at a branch point or a turning point (YES in step S109), the control unit 11 of the video output device 1 executes a blend image display process described later (step S110), and returns to step S102. If it is not at the branch point or the turning point (NO in step S109), the control unit 11 of the video output device 1 proceeds to step S111.

映像出力装置1の制御部11は、生成した視野画像をユーザ入力画面61の視野画像領域62に配置して表示部15に出力し(ステップS112)、処理を終了する。   The control unit 11 of the video output device 1 arranges the generated visual field image in the visual field image area 62 of the user input screen 61 and outputs it to the display unit 15 (step S112), and ends the process.

また、映像出力装置1は、対象ブランチ22aの進行率Pと視線角度θに基づいて、経路表示領域63の経路上に視点位置52と視線方向指標54eとを配置する。 The video output device 1, based on the progress rate P and viewing angle theta L of the target branch 22a, arranging the viewpoint position 52 and the line-of-sight direction indicator 54e in the path of the path display area 63.

映像出力装置1は、視野画像領域52に配置される視線方向に対応する画像91を、映像としてユーザに認識されるように、例えば、0.01〜0.5秒の短い時間間隔でステップS102〜ステップS112を繰り返して、視野画像領域52に配置される画像を更新する。   The video output device 1 performs step S102 at a short time interval of, for example, 0.01 to 0.5 seconds so that the user can recognize the image 91 corresponding to the line-of-sight direction arranged in the visual field image region 52 as a video. Step S112 is repeated to update the image arranged in the visual field image area 52.

以上のように、映像出力処理は、空間内の経路上を自由に移動する視点位置52から任意の視線方向54で見える映像を自動で出力することができる。   As described above, the video output process can automatically output a video that can be seen in an arbitrary line-of-sight direction 54 from the viewpoint position 52 that freely moves on a route in the space.

(ジャンプ処理)
次に、図11を参照して、映像出力処理のステップS103(図6)にて実行するジャンプ処理について説明する。ジャンプ処理とは、ユーザに視点位置52が移動可能な経路を配置した間取り図20を提示し、ユーザによって間取り図20上の位置(点P)が指定されると、経路(ブランチ22、またはノード21)上の点の中から点Pに最も近い点を特定し、現在の視点位置52を特定した点に更新して、新たな視点位置52から見える画像をユーザに提示する処理である。
(Jump processing)
Next, the jump process executed in step S103 (FIG. 6) of the video output process will be described with reference to FIG. In the jump process, a floor plan 20 in which a path where the viewpoint position 52 is movable is presented to the user, and when the position (point P) on the floor plan 20 is designated by the user, the path (branch 22 or node) 21) A process of specifying a point closest to the point P from among the above points, updating the current viewpoint position 52 to the specified point, and presenting an image seen from the new viewpoint position 52 to the user.

映像出力装置1の制御部11は、ステップS102にて入力を受付けた点Pの経路表示領域63における座標を、映像出力装置1がノード等を内部で管理するXY二次元座標における座標に変換する(ステップS201)。   The control unit 11 of the video output device 1 converts the coordinates in the path display area 63 of the point P received in step S102 into coordinates in XY two-dimensional coordinates that the video output device 1 manages nodes and the like inside. (Step S201).

例えば、図8のユーザ入力画面61において、経路表示領域63は、その左上の角を原点として、右方向にX軸正をとり、下方向にY軸正をとった座標系で管理されているとする。ステップS102では、ユーザによって、経路表示領域63の間取り図20における点Pが入力(クリック)されると、映像出力装置1の制御部11は、経路表示領域63における座標系の点Pの座標を取得する。そして、映像出力装置1の制御部11は、経路表示領域63における座標系とXY二次元座標系との比率等から、点Pの座標を、XY二次元座標系の座標に変換する。   For example, in the user input screen 61 of FIG. 8, the route display area 63 is managed in a coordinate system in which the upper left corner is the origin, the X axis is positive in the right direction, and the Y axis is positive in the downward direction. And In step S102, when the user inputs (clicks) a point P in the floor plan 20 in the floor plan display area 63, the control unit 11 of the video output device 1 sets the coordinates of the point P in the coordinate system in the path display area 63. get. Then, the control unit 11 of the video output device 1 converts the coordinates of the point P into the coordinates of the XY two-dimensional coordinate system from the ratio of the coordinate system and the XY two-dimensional coordinate system in the route display area 63.

映像出力装置1の制御部11は、探索候補になる点(以下、点Rと表記)の座標値を算出する(ステップS202)。点Rとは、経路(ブランチ22、またはノード21)上の点である。   The control unit 11 of the video output device 1 calculates the coordinate value of a point that is a search candidate (hereinafter referred to as a point R) (step S202). The point R is a point on the route (branch 22 or node 21).

具体的には、映像出力装置1は、ブランチ情報26に記憶される各ブランチ22を、例えば100等分する際に生じる区切り点で、ブランチ22の両端を除いた99点の座標値を算出する。ブランチ情報26に記憶されるブランチ22の総数がnで、ノード情報25に記憶されるノードの総数がmであれば、点Rの総数は99n+m(個)となる。ブランチ22上の各座標値は、各ブランチ22の起点ノード21aの位置座標と終点ノード21bの位置座標から算出することができる。   Specifically, the video output apparatus 1 calculates the coordinate values of 99 points excluding both ends of the branch 22 at the break points generated when the branches 22 stored in the branch information 26 are divided into, for example, 100 equal parts. . If the total number of branches 22 stored in the branch information 26 is n and the total number of nodes stored in the node information 25 is m, the total number of points R is 99n + m (pieces). Each coordinate value on the branch 22 can be calculated from the position coordinate of the start node 21a and the position coordinate of the end node 21b of each branch 22.

なお、映像出力装置1における各ブランチ22の区切り点の設定の方法は、ブランチ22を何等分に区切ってもよく、また等分でなくて任意に区切ってもよい。
また、映像出力装置1は、探索候補になる点の座標値を予め算出しておいて、記憶部12又はRAMに記憶しておき、映像出力装置1の制御部11は、これを用いてもよい。
Note that the branch point setting method for each branch 22 in the video output apparatus 1 may be divided into equal parts, or may be arbitrarily divided instead of equally divided.
Further, the video output device 1 calculates the coordinate value of the point to be a search candidate in advance and stores it in the storage unit 12 or the RAM, and the control unit 11 of the video output device 1 may use this. Good.

映像出力装置1の制御部11は、点Pと点Rの間のユークリッド距離dを算出する(ステップS203)。点Pと点Rのユークリッド距離は数式(1)にて算出される。   The control unit 11 of the video output device 1 calculates the Euclidean distance d between the point P and the point R (step S203). The Euclidean distance between the point P and the point R is calculated by Equation (1).

Figure 2015069445
Figure 2015069445

映像出力装置1の制御部11は、S202にて算出した全ての点Rについてユークリッド距離dを算出済みであるか否かを判定する(ステップS204)。算出済みで無い場合には(ステップS204のNO)、映像出力装置1の制御部11は、ステップS203に戻る。   The control unit 11 of the video output device 1 determines whether or not the Euclidean distance d has been calculated for all the points R calculated in S202 (step S204). If not calculated (NO in step S204), the control unit 11 of the video output apparatus 1 returns to step S203.

算出済みである場合には(ステップS204のYES)、映像出力装置1の制御部11は、全ての探索候補点Rの中からユークリッド距離dを最小にする点Rを特定し、特定された点Rが属するブランチ22を対象ブランチ22aとして、そのブランチIDを保持データ60に記憶する。また、特定された点Rの座標値をそのブランチにおける進行率Pに変換し、変換した値を保持データ60に記憶する(ステップS205)。ここで、保持データ60に記憶する視線角度(水平角)は初期値(例えば、0)等に更新しても良い。   When the calculation has been completed (YES in step S204), the control unit 11 of the video output device 1 identifies the point R that minimizes the Euclidean distance d from all the search candidate points R, and identifies the identified point. The branch 22 to which R belongs is set as the target branch 22a, and the branch ID is stored in the retained data 60. Further, the coordinate value of the specified point R is converted into the progress rate P in the branch, and the converted value is stored in the holding data 60 (step S205). Here, the line-of-sight angle (horizontal angle) stored in the holding data 60 may be updated to an initial value (for example, 0) or the like.

映像出力装置1の制御部11は、対象ブランチ22aのブランチIDと進行率Pに基づいて対象フレームを特定し、対象フレームの全方位画像から、視線方向54及び視線高さに対応する画像を切り出して視野画像を生成する(ステップS206)。   The control unit 11 of the video output device 1 identifies the target frame based on the branch ID of the target branch 22a and the progress rate P, and cuts out an image corresponding to the line-of-sight direction 54 and the line-of-sight height from the omnidirectional image of the target frame. To generate a visual field image (step S206).

映像出力装置1の制御部11は、生成した視野画像をユーザ入力画面61の視野画像領域62に配置して表示部15に出力し(ステップS207)、処理を終了する。   The control unit 11 of the video output device 1 arranges the generated visual field image in the visual field image region 62 of the user input screen 61 and outputs it to the display unit 15 (step S207), and ends the process.

以上のように、ジャンプ処理を実行することで、映像出力装置1は、ユーザによって経路表示領域63の間取り図20上の所望の位置が指定された場合に、指定された位置を起点として、経路上を連続的に移動する視点位置から見える映像の出力を再開することができる。また、ユーザによって指定される点は間取り図20上であれば良く、経路(ブランチ22、またはノード21)上の点を正確にクリック操作しなくても良い。   As described above, by executing the jump process, the video output apparatus 1 can start the route from the designated position when the user designates a desired position on the floor plan area 20 in the floor plan display area 63. It is possible to resume the output of the video seen from the viewpoint position that continuously moves up. Further, the point designated by the user may be on the floor plan 20, and the point on the route (branch 22 or node 21) may not be clicked accurately.

(ブレンド画像表示処理)
次に、図12、図13を参照して、映像出力処理のステップS110にて実行するブレンド画像表示処理について説明する。ブレンド画像表示処理は、映像出力処理のステップS110にて、視点位置52が分岐点又は曲り角に位置すると判断された場合に実行される処理である。ブレンド画像表示処理とは、視点位置52が対象ブランチ22aから移動先ブランチに遷移する場合に、分岐点又は曲り角で見える映像を自動で連続的に表示する処理である。
(Blend image display processing)
Next, the blend image display process executed in step S110 of the video output process will be described with reference to FIGS. The blend image display process is a process executed when it is determined in step S110 of the video output process that the viewpoint position 52 is located at a branch point or a corner. The blend image display process is a process for automatically and continuously displaying images that are visible at a branch point or a corner when the viewpoint position 52 transitions from the target branch 22a to the destination branch.

映像出力装置1の制御部11は、移動先ブランチを特定し(ステップS301)、移動先ブランチのブランチIDを記憶部12(保持データ60)に記憶させる。視点位置52が曲り角に位置する場合には、対象ブランチ22aから遷移する移動先ブランチは1つに特定される。視点位置52が分岐点に位置する場合に移動先ブランチを特定する方法としては、例えば、ユーザ入力画面61の移動先経路選択ボタン(図示せず)によって、ユーザから入力を受付ける。   The control unit 11 of the video output device 1 identifies the destination branch (step S301), and stores the branch ID of the destination branch in the storage unit 12 (holding data 60). When the viewpoint position 52 is located at a corner, the movement destination branch that transitions from the target branch 22a is specified as one. As a method of specifying the movement destination branch when the viewpoint position 52 is located at the branch point, for example, an input from the user is accepted by a movement destination route selection button (not shown) on the user input screen 61.

映像出力装置1の制御部11は、ステップS301にて特定された移動先ブランチのブランチ角度θを算出する(ステップS302)。ブランチ角度θの算出方法については図4にて説明した通りである。次に、映像出力装置1の制御部11は、視線方向54の移動方向を特定する(ステップS303)。 Control unit 11 of the video output device 1 calculates a branch angle theta E of the destination branch identified in step S301 (step S302). A method for calculating a branch angle theta E are as described above with reference to FIG. Next, the control unit 11 of the video output device 1 specifies the moving direction of the line-of-sight direction 54 (step S303).

図13は、視点位置31の移動について説明する図である。視点位置52が対象ブランチ22aの終点ノード21bに位置し、視線方向54が対象ブランチ22aの向きと一致している場合、移動先ブランチ22cの向きに到達するまで、視線方向54は白抜きの矢印の向きで徐々に移動する。図13に示す例では、視線方向54の移動方向は反時計回りである。   FIG. 13 is a diagram for explaining the movement of the viewpoint position 31. When the viewpoint position 52 is located at the end node 21b of the target branch 22a and the line-of-sight direction 54 coincides with the direction of the target branch 22a, the line-of-sight direction 54 is a white arrow until reaching the direction of the destination branch 22c. Move gradually in the direction of. In the example shown in FIG. 13, the movement direction of the line-of-sight direction 54 is counterclockwise.

映像出力装置1の制御部11は、ブレンド比率の変化度合r1を算出して(ステップS304)、記憶部12(保持データ60)に記憶させる。ブレンド比率の変化度合r1の算出方法として、例えば、映像出力装置1は、保持データ60の視線角度の変化度合rを、ステップS302にて算出されたブランチ角度θと視線角度θの差で割った値を、ブレンド比率の変化度合r1とする。 The control unit 11 of the video output apparatus 1 calculates the degree of change r 1 of the blend ratio (step S304) and stores it in the storage unit 12 (holding data 60). As a method of calculating the blend ratio change degree r 1 , for example, the video output apparatus 1 determines the change in the line-of-sight angle r of the retained data 60 as the difference between the branch angle θ E and the line-of-sight angle θ L calculated in step S302. The value obtained by dividing by is set as the blend ratio change degree r 1 .

図13に示す例では、ブレンド比率の変化度合r1は図に示される通りに算出される。 In the example shown in FIG. 13, the blend ratio change degree r 1 is calculated as shown in the figure.

映像出力装置1の制御部11は、ブレンド比率αに「0」を格納して、記憶部12(保持データ60)に記憶させる(ステップS305)。次に、映像出力装置1の制御部11は、記憶部12に記憶されるブレンド比率αをα+rに更新し、視線角度θをθ+rに更新する(ステップS306)。ステップS303にて特定された視線方向54の移動方向が時計回りの場合では、視線角度θをθ−rに更新する。 The control unit 11 of the video output device 1 stores “0” in the blend ratio α and stores it in the storage unit 12 (holding data 60) (step S305). Next, the control unit 11 of the video output device 1 updates the blend ratio α stored in the storage unit 12 to α + r 1 and updates the line-of-sight angle θ L to θ L + r (step S306). Moving direction of the viewing direction 54 identified in step S303 is in the case of clockwise, and updates the viewing angle theta L to theta L -r.

映像出力装置1の制御部11は、ブランチ情報26から、対象ブランチ22aの映像IDを検索し、視点位置52が位置するノード21に対応する対象フレームを特定する。対象フレームの全方位画像から、視線角度θに対応する画像を切り出して視野画像を生成する(ステップS307)。 The control unit 11 of the video output device 1 searches the branch information 26 for the video ID of the target branch 22a, and identifies the target frame corresponding to the node 21 where the viewpoint position 52 is located. From the omnidirectional image of the target frame to generate a field image by cutting out an image corresponding to the viewing angle theta L (step S307).

映像出力装置1の制御部11は、ブランチ情報26から、移動先ブランチ22cの映像IDを検索し、視点位置52が位置するノード21に対応する対象フレームを特定する。対象フレームの全方位画像から、視線角度θに対応する画像を切り出して視野画像を生成する(ステップS308)。 The control unit 11 of the video output apparatus 1 searches the branch information 26 for the video ID of the destination branch 22c, and identifies the target frame corresponding to the node 21 where the viewpoint position 52 is located. From the omnidirectional image of the target frame to generate a field image by cutting out an image corresponding to the viewing angle theta L (step S308).

映像出力装置1の制御部11は、ステップ307にて生成した視野画像と、ステップ308にて生成した視野画像を、数式(2)に基づいてブレンドしたブレンド画像を生成する(ステップ309)。   The control unit 11 of the video output device 1 generates a blend image obtained by blending the visual field image generated in step 307 and the visual field image generated in step 308 based on the mathematical formula (2) (step 309).

Figure 2015069445
Figure 2015069445

映像出力装置1の制御部11は、生成したブレンド画像を、ユーザ入力画面61の視野画像領域62に配置して、表示部15に出力する(ステップS310)。   The control unit 11 of the video output device 1 arranges the generated blend image in the visual field image area 62 of the user input screen 61 and outputs it to the display unit 15 (step S310).

映像出力装置1の制御部11は、記憶部12に記憶されるブレンド比率αがα≧1を満たすか否かを判定する(ステップS311)。α≧1を満たさない場合には(ステップS311のNO)、映像出力装置1の制御部11は、ステップS306に戻る。   The control unit 11 of the video output device 1 determines whether or not the blend ratio α stored in the storage unit 12 satisfies α ≧ 1 (step S311). When α ≧ 1 is not satisfied (NO in step S311), the control unit 11 of the video output apparatus 1 returns to step S306.

α≧1を満たす場合には(ステップS311のYES)、映像出力装置1の制御部11は、記憶部12に記憶される対象ブランチ22aのブランチIDを移動先ブランチ22cのブランチIDに更新して(ステップS312)、処理を終了し、映像出力処理のステップS102に戻る。   When α ≧ 1 is satisfied (YES in step S311), the control unit 11 of the video output device 1 updates the branch ID of the target branch 22a stored in the storage unit 12 to the branch ID of the destination branch 22c. (Step S312), the process ends, and the process returns to step S102 of the video output process.

以上のように、ブレンド画像表示処理を実行することで、視線角度θを移動先ブランチのブランチ角度θに向かって、徐々に変化させながら、且つ、ブレンド比率αを0〜1まで徐々に変化させながら、ステップS306〜ステップS310の処理を繰り返すことで、一連のブレンド画像を動画として出力し、視点位置52が対象ブランチ22aから移動先ブランチ22cに連続的に移動する映像を提示することができる。 As described above, by executing the blending image display processing, the line-of-sight angle theta L toward the branch angle theta E of the destination branch, while gradually changing, and, gradually blend ratio α to 0 to 1 By repeating the processing of step S306 to step S310 while changing, a series of blended images is output as a moving image, and an image in which the viewpoint position 52 continuously moves from the target branch 22a to the destination branch 22c can be presented. it can.

以上、添付図面を参照しながら、本発明に係る映像出力装置1等の好適な実施形態について説明したが、本発明はかかる例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the video output device 1 and the like according to the present invention have been described above with reference to the accompanying drawings, but the present invention is not limited to such examples. It will be apparent to those skilled in the art that various changes or modifications can be conceived within the scope of the technical idea disclosed in the present application, and these naturally belong to the technical scope of the present invention. Understood.

1………映像出力装置
11………制御部
12………記憶部
13………メディア入出力部
14………通信制御部
15………入力部
16………表示部
17………周辺機器I/F部
20………間取り図
21………ノード
21a………起点ノード
21b………終点ノード
22………ブランチ
22a………対象ブランチ
25………ノード情報
26………ブランチ情報
27………映像情報
52………視点位置
54………視線方向
60………保持データ
61………ユーザ入力画面
90………全方位画像
DESCRIPTION OF SYMBOLS 1 ......... Video output device 11 ......... Control part 12 ......... Storage part 13 ......... Media input / output part 14 ......... Communication control part 15 ......... Input part 16 ......... Display part 17 ......... Peripheral device I / F unit 20... Floor plan 21... Node 21 a... Origin node 21 b... End node 22... Branch 22 a ... Target branch 25 ... Node information 26. Branch information 27 ......... Video information 52 ......... Viewpoint position 54 ......... Gaze direction 60 ......... Holding data 61 ......... User input screen 90 ......... Omnidirectional image

Claims (7)

座標空間上に配置された経路内を移動する視点位置における視線方向の映像を出力する映像出力装置であって、
全方位画像のフレームからなるシーケンスを、前記経路に対応付けて記憶する経路記憶手段と、
前記経路をフロアマップとして表示するフロアマップ表示手段と、
前記視点位置及び前記視線方向の移動を受付けるとともに、前記フロアマップ上の位置の入力を受付ける入力手段と、
前記フロアマップ上の前記位置の入力を受付けた場合に、当該位置に対応する前記座標空間における前記経路内の位置に、前記視点位置を移動させる視点位置移動手段と、
前記視点位置及び前記視線方向における視野範囲の映像を、前記全方位画像から切り出して生成する映像生成手段と、
生成した前記映像を出力する映像出力手段と、
を具備することを特徴とする映像出力装置。
An image output device that outputs an image in a line-of-sight direction at a viewpoint position that moves in a route arranged in a coordinate space,
Route storage means for storing a sequence of frames of omnidirectional images in association with the route;
Floor map display means for displaying the route as a floor map;
An input means for receiving movement of the viewpoint position and the line-of-sight direction and receiving an input of a position on the floor map;
Viewpoint position moving means for moving the viewpoint position to a position in the route in the coordinate space corresponding to the position when the input of the position on the floor map is accepted;
Video generation means for generating a video of a visual field range in the viewpoint position and the line-of-sight direction by cutting out from the omnidirectional image;
Video output means for outputting the generated video;
A video output device comprising:
前記経路は、ノードと有向なブランチとから構成され、
前記全方位画像のフレームからなるシーケンスは、前記有向なブランチごとに対応付けられる
ことを特徴とする請求項1に記載の映像出力装置。
The path is composed of nodes and directed branches,
The video output apparatus according to claim 1, wherein a sequence including frames of the omnidirectional image is associated with each directed branch.
前記フロアマップには、所定の位置を原点とした2次元座標系が設定されており、
前記視点位置移動手段は、前記フロアマップ上の前記位置を前記座標空間における位置に変換し、変換した前記位置から最も近い前記経路内の位置に、前記視点位置を移動させる
ことを特徴とする請求項2に記載の映像出力装置。
In the floor map, a two-dimensional coordinate system with a predetermined position as an origin is set,
The viewpoint position moving means converts the position on the floor map into a position in the coordinate space, and moves the viewpoint position to a position in the route closest to the converted position. Item 3. The video output device according to Item 2.
前記視点位置移動手段は、変換した前記位置と、前記経路を構成する前記ブランチに設定した各候補点との距離を算出し、算出した前記距離が最も小さい前記候補点に、前記視点位置を移動させる
ことを特徴とする請求項3に記載の映像出力装置。
The viewpoint position moving means calculates a distance between the converted position and each candidate point set in the branch constituting the route, and moves the viewpoint position to the candidate point having the smallest calculated distance. The video output device according to claim 3, wherein:
前記候補点は、前記ブランチを所定数に等分した際に生じる区切り点である
ことを特徴とする請求項4に記載の映像出力装置。
The video output device according to claim 4, wherein the candidate point is a break point that is generated when the branch is equally divided into a predetermined number.
座標空間上に配置された経路内を移動する視点位置における視線方向の映像を出力する、全方位画像のフレームからなるシーケンスを、前記経路に対応付けて記憶する経路記憶手段を備えるコンピュータが行う映像出力方法であって、
前記経路をフロアマップとして表示するフロアマップ表示ステップと、
前記視点位置及び前記視線方向の移動を受付けるとともに、前記フロアマップ上の位置の入力を受付ける入力ステップと、
前記フロアマップ上の前記位置の入力を受付けた場合に、当該位置に対応する前記座標空間における前記経路内の位置に、前記視点位置を移動させる視点位置移動ステップと、
前記視点位置及び前記視線方向における視野範囲の映像を、前記全方位画像から切り出して生成する映像生成ステップと、
生成した前記映像を出力する映像出力ステップと、
を含むことを特徴とする映像出力方法。
Video performed by a computer having route storage means for storing a sequence of frames of omnidirectional images, which outputs a video in the line-of-sight direction at a viewpoint position moving in a route arranged in a coordinate space, in association with the route. Output method,
A floor map display step for displaying the route as a floor map;
An input step of receiving movement of the viewpoint position and the line-of-sight direction and receiving an input of a position on the floor map;
A viewpoint position moving step of moving the viewpoint position to a position in the path in the coordinate space corresponding to the position when receiving the input of the position on the floor map;
A video generation step of generating a video of a visual field range in the viewpoint position and the line-of-sight direction by cutting out from the omnidirectional image; and
A video output step for outputting the generated video;
A video output method comprising:
コンピュータを、座標空間上に配置された経路内を移動する視点位置における視線方向の映像を出力する映像出力装置として機能させるためのプログラムであって、
前記コンピュータを、
全方位画像のフレームからなるシーケンスを、前記経路に対応付けて記憶する経路記憶手段、
前記経路をフロアマップとして表示するフロアマップ表示手段、
前記視点位置及び前記視線方向の移動を受付けるとともに、前記フロアマップ上の位置の入力を受付ける入力手段、
前記フロアマップ上の前記位置の入力を受付けた場合に、当該位置に対応する前記座標空間における前記経路内の位置に、前記視点位置を移動させる視点位置移動手段、
前記視点位置及び前記視線方向における視野範囲の映像を、前記全方位画像から切り出して生成する映像生成手段、
生成した前記映像を出力する映像出力手段、
として機能させるためのプログラム。

A program for causing a computer to function as an image output device that outputs an image in a line-of-sight direction at a viewpoint position that moves in a path arranged in a coordinate space,
The computer,
Route storage means for storing a sequence of frames of omnidirectional images in association with the route;
Floor map display means for displaying the route as a floor map;
An input means for receiving movement of the viewpoint position and the line-of-sight direction and receiving an input of a position on the floor map;
Viewpoint position moving means for moving the viewpoint position to a position in the path in the coordinate space corresponding to the position when receiving the input of the position on the floor map;
Video generation means for cutting out and generating a video of a visual field range in the viewpoint position and the line-of-sight direction from the omnidirectional image;
Video output means for outputting the generated video;
Program to function as.

JP2013203444A 2013-09-30 2013-09-30 Video output device, video output method, and program Pending JP2015069445A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013203444A JP2015069445A (en) 2013-09-30 2013-09-30 Video output device, video output method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013203444A JP2015069445A (en) 2013-09-30 2013-09-30 Video output device, video output method, and program

Publications (1)

Publication Number Publication Date
JP2015069445A true JP2015069445A (en) 2015-04-13

Family

ID=52836031

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013203444A Pending JP2015069445A (en) 2013-09-30 2013-09-30 Video output device, video output method, and program

Country Status (1)

Country Link
JP (1) JP2015069445A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017063276A (en) * 2015-09-24 2017-03-30 カシオ計算機株式会社 Video display device, video display method and program
WO2018030795A1 (en) * 2016-08-10 2018-02-15 삼성전자 주식회사 Camera device, display device, and method for correcting motion in device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004070929A (en) * 2003-06-06 2004-03-04 Canon Inc Image processing device and method
JP2005149409A (en) * 2003-11-19 2005-06-09 Canon Inc Image reproduction method and apparatus
JP2005174024A (en) * 2003-12-11 2005-06-30 Canon Inc Image forming apparatus and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004070929A (en) * 2003-06-06 2004-03-04 Canon Inc Image processing device and method
JP2005149409A (en) * 2003-11-19 2005-06-09 Canon Inc Image reproduction method and apparatus
JP2005174024A (en) * 2003-12-11 2005-06-30 Canon Inc Image forming apparatus and method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6016049666; 松原 孝博: '分岐を含む経路を対象とした実写空間のウォークスルー' 映像情報メディア学会技術報告 Vol.36 No.12 3DIT2012-11, HI2012-42 (Mar.2012), 20120227, P.49-52, (社)映像情報メディア学会 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017063276A (en) * 2015-09-24 2017-03-30 カシオ計算機株式会社 Video display device, video display method and program
WO2018030795A1 (en) * 2016-08-10 2018-02-15 삼성전자 주식회사 Camera device, display device, and method for correcting motion in device
US10802286B2 (en) 2016-08-10 2020-10-13 Samsung Electronics Co., Ltd. Camera device, display device, and method for correcting motion in device

Similar Documents

Publication Publication Date Title
US11277655B2 (en) Recording remote expert sessions
Langner et al. Multiple coordinated views at large displays for multiple users: Empirical findings on user behavior, movements, and distances
US10896543B2 (en) Methods and systems for augmented reality to display virtual representations of robotic device actions
US20220283632A1 (en) Iinformation processing apparatus, image generation method, and computer program
US9525964B2 (en) Methods, apparatuses, and computer-readable storage media for providing interactive navigational assistance using movable guidance markers
US20150185825A1 (en) Assigning a virtual user interface to a physical object
EP2919093A1 (en) Method, system, and computer for identifying object in augmented reality
JP5622510B2 (en) Image generation system, program, and information storage medium
EP3108457A1 (en) Three-dimensional mapping system
US20120146896A1 (en) Continuous Determination of a Perspective
KR20180059765A (en) Information processing apparatus, information processing method, and program
JP2014203175A (en) Information processing device, information processing method, and program
JP2013090257A (en) Free view point image display device
JP2015069445A (en) Video output device, video output method, and program
JP6123618B2 (en) Video output apparatus, video output method, and program
JP6051834B2 (en) Video output apparatus, video output method, and program
WO2023088127A1 (en) Indoor navigation method, server, apparatus and terminal
JP2006018444A (en) Image processing system and additional information indicating device
WO2022176450A1 (en) Information processing device, information processing method, and program
WO2022166448A1 (en) Devices, methods, systems, and media for selecting virtual objects for extended reality interaction
JP2014222446A (en) Video output device, video output method, and program
JP5706715B2 (en) 3D map display system
JP2011039130A (en) Linked display device, linked display method, and program
US11906741B2 (en) Display control device, display control method, and non-transitory computer-readable medium storing program
JP6051835B2 (en) Video output apparatus, video output method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160728

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20160920

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20161213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170104

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170302

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170314